Lớp tin cậy AI: Mạng Mira giải quyết vấn đề thiên kiến và ảo giác trong AI
Gần đây, mạng lưới Mira đã chính thức ra mắt phiên bản thử nghiệm công khai. Dự án này nhằm xây dựng một lớp tin cậy cho AI, giải quyết các vấn đề về thiên kiến và "ảo giác" trong hệ thống AI. Vậy tại sao AI cần được tin cậy? Mira đã giải quyết vấn đề này như thế nào?
Khi thảo luận về AI, mọi người thường chú ý nhiều hơn đến khả năng mạnh mẽ của nó. Tuy nhiên, vấn đề về "ảo giác" hoặc định kiến của AI thường bị bỏ qua. Ảo giác của AI, nói một cách đơn giản, là AI đôi khi sẽ "bịa chuyện", một cách nghiêm túc mà nói nhảm. Ví dụ, nếu bạn hỏi AI tại sao mặt trăng lại có màu hồng, nó có thể đưa ra một loạt các giải thích có vẻ hợp lý nhưng thực tế lại hoàn toàn không có căn cứ.
Sự xuất hiện của "ảo giác" hoặc thiên kiến trong AI liên quan đến một số con đường công nghệ AI hiện tại. AI sinh ra đạt được sự liên kết và hợp lý bằng cách dự đoán nội dung "có khả năng" nhất, nhưng đôi khi không thể xác minh tính xác thực. Hơn nữa, dữ liệu huấn luyện có thể chứa lỗi, thiên kiến hoặc thậm chí nội dung hư cấu, điều này cũng ảnh hưởng đến đầu ra của AI. Nói cách khác, AI học các mẫu ngôn ngữ của con người chứ không phải sự thật bản thân.
Cơ chế sinh ra xác suất hiện tại và mô hình dựa trên dữ liệu gần như chắc chắn sẽ dẫn đến việc AI tạo ra "ảo giác". Nếu đầu ra có thiên kiến hoặc ảo giác này chỉ giới hạn trong kiến thức chung hoặc nội dung giải trí, thì tạm thời có thể không gây ra hậu quả trực tiếp. Nhưng nếu điều này xảy ra trong các lĩnh vực nghiêm ngặt như y tế, pháp luật, hàng không, tài chính, có thể gây ra ảnh hưởng lớn. Do đó, việc giải quyết vấn đề ảo giác và thiên kiến của AI trở thành một trong những vấn đề cốt lõi trong quá trình phát triển AI.
Dự án Mira cố gắng giải quyết vấn đề này bằng cách xây dựng một lớp tin cậy cho AI, nâng cao độ tin cậy của AI. Vậy, Mira đã giảm thiểu sự thiên kiến và ảo giác của AI như thế nào, và cuối cùng đạt được AI đáng tin cậy ra sao?
Triết lý cốt lõi của Mira là xác thực đầu ra AI thông qua sự đồng thuận của nhiều mô hình AI. Về bản chất, nó là một mạng lưới xác thực, đảm bảo độ tin cậy của đầu ra AI thông qua xác thực đồng thuận phi tập trung. Phương pháp này kết hợp những lợi thế của xác thực đồng thuận phi tập trung mà lĩnh vực tiền mã hóa làm tốt và sự hợp tác của nhiều mô hình, nhằm giảm thiểu thiên lệch và ảo giác thông qua mô hình xác thực tập thể.
Về cấu trúc xác minh, giao thức Mira hỗ trợ chuyển đổi nội dung phức tạp thành các tuyên bố xác minh độc lập. Các nhà điều hành nút tham gia vào việc xác minh các tuyên bố này, thông qua các cơ chế khuyến khích và trừng phạt kinh tế mật mã để đảm bảo hành vi trung thực. Các mô hình AI khác nhau và các nhà điều hành nút phân tán cùng tham gia để đảm bảo độ tin cậy của kết quả xác minh.
Kiến trúc mạng của Mira bao gồm chuyển đổi nội dung, xác thực phân tán và cơ chế đồng thuận. Đầu tiên, hệ thống sẽ phân tách nội dung ứng viên mà khách hàng gửi thành các tuyên bố có thể xác thực, sau đó phân phối chúng đến các nút để xác thực. Các nút xác định tính hợp lệ của các tuyên bố và tổng hợp kết quả để đạt được đồng thuận. Để bảo vệ quyền riêng tư của khách hàng, các tuyên bố sẽ được phân phối theo cách phân mảnh ngẫu nhiên đến các nút khác nhau.
Các nhà điều hành nút kiếm lợi nhuận bằng cách vận hành mô hình xác thực, xử lý các tuyên bố và gửi kết quả xác thực. Những lợi nhuận này đến từ giá trị mà họ tạo ra cho khách hàng, tức là giảm tỷ lệ lỗi của AI trong các lĩnh vực quan trọng. Để ngăn chặn các nút phản hồi ngẫu nhiên, các nút liên tục lệch khỏi sự đồng thuận sẽ bị trừng phạt.
Tổng thể mà nói, Mira cung cấp một cách giải quyết mới, bằng cách xây dựng mạng lưới xác thực đồng thuận phi tập trung, mang lại độ tin cậy cao hơn cho dịch vụ AI của khách hàng. Nó cố gắng trở thành lớp tin cậy cho AI, thúc đẩy sự phát triển sâu rộng của các ứng dụng AI.
Hiện tại, Mira đã hợp tác với nhiều khung AI agent. Người dùng có thể tham gia vào mạng thử nghiệm công cộng thông qua Klok (một ứng dụng trò chuyện LLM dựa trên Mira), trải nghiệm đầu ra AI đã được xác minh và có cơ hội kiếm điểm Mira.
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
14 thích
Phần thưởng
14
6
Chia sẻ
Bình luận
0/400
DuckFluff
· 4giờ trước
Huyễn hoặc thì nói như thế nào nhỉ, chính là AI đang nói nhảm thôi.
Xem bản gốcTrả lời0
Lonely_Validator
· 4giờ trước
Lại đến chơi đùa với mọi người rồi phải không?
Xem bản gốcTrả lời0
SeeYouInFourYears
· 4giờ trước
Tôi đã thấy nhiều sự bịa đặt của AI.
Xem bản gốcTrả lời0
OnchainUndercover
· 4giờ trước
Hỏi tức là các mô hình ngôn ngữ lớn đều đang kể chuyện.
Xem bản gốcTrả lời0
TheShibaWhisperer
· 4giờ trước
Bẫy của đồng tiền tạo yêu quái cũng sẽ cắn người đó.
Mạng Mira ra mắt thử nghiệm công khai: Liệu lớp tin cậy AI có thể giải quyết vấn đề thiên kiến ảo giác không?
Lớp tin cậy AI: Mạng Mira giải quyết vấn đề thiên kiến và ảo giác trong AI
Gần đây, mạng lưới Mira đã chính thức ra mắt phiên bản thử nghiệm công khai. Dự án này nhằm xây dựng một lớp tin cậy cho AI, giải quyết các vấn đề về thiên kiến và "ảo giác" trong hệ thống AI. Vậy tại sao AI cần được tin cậy? Mira đã giải quyết vấn đề này như thế nào?
Khi thảo luận về AI, mọi người thường chú ý nhiều hơn đến khả năng mạnh mẽ của nó. Tuy nhiên, vấn đề về "ảo giác" hoặc định kiến của AI thường bị bỏ qua. Ảo giác của AI, nói một cách đơn giản, là AI đôi khi sẽ "bịa chuyện", một cách nghiêm túc mà nói nhảm. Ví dụ, nếu bạn hỏi AI tại sao mặt trăng lại có màu hồng, nó có thể đưa ra một loạt các giải thích có vẻ hợp lý nhưng thực tế lại hoàn toàn không có căn cứ.
Sự xuất hiện của "ảo giác" hoặc thiên kiến trong AI liên quan đến một số con đường công nghệ AI hiện tại. AI sinh ra đạt được sự liên kết và hợp lý bằng cách dự đoán nội dung "có khả năng" nhất, nhưng đôi khi không thể xác minh tính xác thực. Hơn nữa, dữ liệu huấn luyện có thể chứa lỗi, thiên kiến hoặc thậm chí nội dung hư cấu, điều này cũng ảnh hưởng đến đầu ra của AI. Nói cách khác, AI học các mẫu ngôn ngữ của con người chứ không phải sự thật bản thân.
Cơ chế sinh ra xác suất hiện tại và mô hình dựa trên dữ liệu gần như chắc chắn sẽ dẫn đến việc AI tạo ra "ảo giác". Nếu đầu ra có thiên kiến hoặc ảo giác này chỉ giới hạn trong kiến thức chung hoặc nội dung giải trí, thì tạm thời có thể không gây ra hậu quả trực tiếp. Nhưng nếu điều này xảy ra trong các lĩnh vực nghiêm ngặt như y tế, pháp luật, hàng không, tài chính, có thể gây ra ảnh hưởng lớn. Do đó, việc giải quyết vấn đề ảo giác và thiên kiến của AI trở thành một trong những vấn đề cốt lõi trong quá trình phát triển AI.
Dự án Mira cố gắng giải quyết vấn đề này bằng cách xây dựng một lớp tin cậy cho AI, nâng cao độ tin cậy của AI. Vậy, Mira đã giảm thiểu sự thiên kiến và ảo giác của AI như thế nào, và cuối cùng đạt được AI đáng tin cậy ra sao?
Triết lý cốt lõi của Mira là xác thực đầu ra AI thông qua sự đồng thuận của nhiều mô hình AI. Về bản chất, nó là một mạng lưới xác thực, đảm bảo độ tin cậy của đầu ra AI thông qua xác thực đồng thuận phi tập trung. Phương pháp này kết hợp những lợi thế của xác thực đồng thuận phi tập trung mà lĩnh vực tiền mã hóa làm tốt và sự hợp tác của nhiều mô hình, nhằm giảm thiểu thiên lệch và ảo giác thông qua mô hình xác thực tập thể.
Về cấu trúc xác minh, giao thức Mira hỗ trợ chuyển đổi nội dung phức tạp thành các tuyên bố xác minh độc lập. Các nhà điều hành nút tham gia vào việc xác minh các tuyên bố này, thông qua các cơ chế khuyến khích và trừng phạt kinh tế mật mã để đảm bảo hành vi trung thực. Các mô hình AI khác nhau và các nhà điều hành nút phân tán cùng tham gia để đảm bảo độ tin cậy của kết quả xác minh.
Kiến trúc mạng của Mira bao gồm chuyển đổi nội dung, xác thực phân tán và cơ chế đồng thuận. Đầu tiên, hệ thống sẽ phân tách nội dung ứng viên mà khách hàng gửi thành các tuyên bố có thể xác thực, sau đó phân phối chúng đến các nút để xác thực. Các nút xác định tính hợp lệ của các tuyên bố và tổng hợp kết quả để đạt được đồng thuận. Để bảo vệ quyền riêng tư của khách hàng, các tuyên bố sẽ được phân phối theo cách phân mảnh ngẫu nhiên đến các nút khác nhau.
Các nhà điều hành nút kiếm lợi nhuận bằng cách vận hành mô hình xác thực, xử lý các tuyên bố và gửi kết quả xác thực. Những lợi nhuận này đến từ giá trị mà họ tạo ra cho khách hàng, tức là giảm tỷ lệ lỗi của AI trong các lĩnh vực quan trọng. Để ngăn chặn các nút phản hồi ngẫu nhiên, các nút liên tục lệch khỏi sự đồng thuận sẽ bị trừng phạt.
Tổng thể mà nói, Mira cung cấp một cách giải quyết mới, bằng cách xây dựng mạng lưới xác thực đồng thuận phi tập trung, mang lại độ tin cậy cao hơn cho dịch vụ AI của khách hàng. Nó cố gắng trở thành lớp tin cậy cho AI, thúc đẩy sự phát triển sâu rộng của các ứng dụng AI.
Hiện tại, Mira đã hợp tác với nhiều khung AI agent. Người dùng có thể tham gia vào mạng thử nghiệm công cộng thông qua Klok (một ứng dụng trò chuyện LLM dựa trên Mira), trải nghiệm đầu ra AI đã được xác minh và có cơ hội kiếm điểm Mira.