Các nhà nghiên cứu tại Oxford dường như đã tìm ra ‘phương pháp chữa trị entropy ngữ nghĩa’ cho các trường hợp ảo giác AI: “Việc nhận được câu trả lời từ LLM rất rẻ, nhưng độ tin cậy lại là rào cản lớn nhất”.

Ảo giác đám mây Robot

Nội dung do AI tạo ra thường đầy rẫy những ảo giác ảnh hưởng đến chất lượng phản hồi. (Nguồn ảnh: Windows Central | Image Creator)

Những điều bạn cần biết

  • Bên cạnh quyền riêng tư và bảo mật, ảo giác và sự lan truyền thông tin sai lệch là một trong những trở ngại lớn nhất ngăn cản sự phát triển của AI.
  • Một nghiên cứu mới tận dụng entropy ngữ nghĩa để đánh giá chất lượng và các ý nghĩa khác nhau của đầu ra được tạo ra để xác định chất lượng phản hồi và phát hiện dấu vết của ảo giác.
  • Tuy nhiên, entropy ngữ nghĩa đòi hỏi nhiều năng lực tính toán và tài nguyên hơn, bao gồm cả thời gian.

AI đang cách mạng hóa cách mọi người tương tác với internet, điều này không làm hài lòng các nhà xuất bản, trang web và nhà văn. Điều này là do chatbot AI lấy thông tin từ các bài viết được nghiên cứu kỹ lưỡng và tạo ra các phản hồi chính xác và được tuyển chọn cho các truy vấn. Vấn đề này đã đưa những người chơi hàng đầu trong lĩnh vực AI, bao gồm OpenAI và Microsoft, vào vòng xoáy của công lý về các vấn đề vi phạm bản quyền.

Như bạn đã biết, các chatbot AI như ChatGPT phụ thuộc rất nhiều vào nội dung có bản quyền cho các phản hồi của chúng. Điều thú vị là Giám đốc điều hành OpenAI, Sam Altman, thừa nhận không thể phát triển các công cụ giống ChatGPT mà không có nội dung có bản quyền. Nhà sản xuất ChatGPT lập luận rằng luật bản quyền không cấm đào tạo các mô hình AI bằng cách sử dụng tài liệu có bản quyền.

Có lẽ điều thú vị hơn là, trong khi các công cụ như Copilot vẫn tìm kiếm dữ liệu từ các nguồn trực tuyến, vẫn có những báo cáo về ảo giác, sự lan truyền thông tin sai lệch hoặc việc trình bày thông tin sai hoàn toàn. Khi bạn khởi chạy Copilot trong Windows 11, bạn sẽ thấy một tuyên bố từ chối trách nhiệm cho biết “Copilot sử dụng AI. Hãy kiểm tra lỗi.”

Theo một , một nhóm các nhà nghiên cứu Oxford dường như đã tìm ra cách giải quyết vấn đề quan trọng này. Copilot đã bị phát hiện lan truyền thông tin sai lệch về cuộc bầu cử Tổng thống Mỹ sắp tới, với các nhà nghiên cứu chỉ ra rằng vấn đề này mang tính hệ thống sau khi thiết lập một mô hình. Với sự phổ biến của những vấn đề quan trọng và deep fake như vậy, nhiều người dùng đang dè dặt về công nghệ này và xem xét mọi thứ họ thấy một cách cẩn thận.

Giáo sư Yarin Gal nói:

“Nhận câu trả lời từ LLM rất rẻ, nhưng độ tin cậy là nút thắt cổ chai lớn nhất. Trong những tình huống mà độ tin cậy là quan trọng, việc tính toán độ không chắc chắn về ngữ nghĩa là một cái giá nhỏ phải trả.”

Thông tin sai lệch tiếp tục phổ biến với việc áp dụng AI nhanh chóng

Hình ảnh pixel art của một robot đang viết tại bàn làm việc với cây cối và sổ ghi chép.

Entropy ngữ nghĩa giúp xác định ảo giác AI, nhưng yêu cầu nhiều năng lực tính toán hơn. (Nguồn ảnh: Bing Image Creator)

ĐỌC THÊM VỀ AI

Được tạo bằng AI, Hình ảnh của một robot AI và một bóng đèn được cung cấp năng lượng bằng năng lượng nguyên tử

(Nguồn ảnh: Bing Chat)

HONOR ra mắt phần mềm phát hiện deep fake AI

AI chiếm nhiều công việc sáng tạo mà giám đốc điều hành OpenAI cho rằng không nên tồn tại ngay từ đầu

AI có phải là một trào lưu nhất thời?

Theo cựu Giám đốc điều hành Twitter, Jack Dorsey:

“Đừng tin tưởng; hãy xác minh. Bạn phải tự mình trải nghiệm. Và bạn phải tự học. Điều này sẽ rất quan trọng khi chúng ta bước vào thời điểm này trong 5 hoặc 10 năm tới vì cách hình ảnh được tạo ra, deep fake và video; bạn sẽ không, bạn sẽ thực sự không biết điều gì là thật và điều gì là giả.”

Dorsey nói thêm rằng mọi thứ sẽ sớm giống như một mô phỏng khi các mô hình AI và chatbot trở nên tinh vi hơn. Tuy nhiên, các nhà nghiên cứu Oxford ít nhất đã tìm ra cách giải quyết vấn đề này, như được nêu bật trong báo cáo của họ:

“Với các phương pháp trước đây, không thể phân biệt được giữa việc mô hình không chắc chắn về những gì cần nói so với việc không chắc chắn về cách nói. Nhưng phương pháp mới của chúng tôi đã khắc phục được điều này.”

Ảo giác của chatbot AI là một chủ đề rộng, nhưng các nhà nghiên cứu chia nó thành hai phần – “Chúng tôi muốn tập trung vào các trường hợp mà LLM sai mà không có lý do (trái ngược với việc sai vì, ví dụ, nó được đào tạo bằng dữ liệu xấu),” Tiến sĩ Sebastian Farquhar, từ Khoa Khoa học Máy tính của Đại học Oxford cho biết khi nói chuyện với Euronews Next.

Nghiên cứu này bao gồm việc xem xét kỹ lưỡng các ý nghĩa khác nhau của các phản hồi được tạo ra thông qua entropy ngữ nghĩa, vượt xa trình tự của các từ. Entropy ngữ nghĩa có thể xác định sự khác biệt về ý nghĩa của các đầu ra được tạo ra. Nếu phân tích phát hiện mức entropy ngữ nghĩa cao, về cơ bản có nghĩa là có sự khác biệt lớn về ý nghĩa của các đầu ra được tạo ra.

Theo Tiến sĩ Sebastian Farquhar:

“Khi một LLM tạo ra câu trả lời cho một câu hỏi, bạn bắt nó trả lời nhiều lần. Sau đó, bạn so sánh các câu trả lời khác nhau với nhau. Trước đây, mọi người đã không sửa chữa thực tế là trong ngôn ngữ tự nhiên có rất nhiều cách khác nhau để nói điều tương tự. Điều này khác với nhiều tình huống học máy khác, trong đó đầu ra của mô hình là rõ ràng.”

Nghiên cứu được thực hiện trên sáu mô hình, bao gồm GPT-4 của OpenAI. Kết quả nghiên cứu của các nhà nghiên cứu chỉ ra rằng entropy ngữ nghĩa hiệu quả hơn trong việc phát hiện các câu hỏi được chọn từ tìm kiếm trên Google, các câu hỏi y sinh kỹ thuật và hơn nữa so với các phương pháp khác dễ bị phản hồi sai.

Nhược điểm duy nhất của entropy ngữ nghĩa là nó yêu cầu nhiều năng lực tính toán và tài nguyên hơn.

Ưu đãi Office 365 tốt nhất hôm nay

tại

tại

tại

tại

tại

tại

tại

tại

tại

tại

Leave a Reply

Your email address will not be published. Required fields are marked *