Chatbot AI ngày càng 'đuối' theo thời gian — Nghiên cứu mới
- nautxplorer
- 5 ngày
Một nghiên cứu mới được công bố trên tạp chí Nature đã tiết lộ rằng các chatbot AI đang ngày càng mắc nhiều lỗi hơn khi các mô hình mới được phát hành. Nghiên cứu này có tựa đề “Larger and more instructable language models become less reliable”.
Lexin Zhou, một trong những tác giả của nghiên cứu, cho biết các mô hình AI thường được tối ưu hóa để đưa ra câu trả lời có vẻ đáng tin cậy, nhưng không phải lúc nào cũng chính xác. Điều này dẫn đến việc các phản hồi sai lệch được ưu tiên và gửi đến người dùng.
Những “ảo giác” AI này tự củng cố và tích lũy theo thời gian, đặc biệt khi các mô hình ngôn ngữ lớn cũ hơn được dùng để huấn luyện các mô hình mới, dẫn đến “sự sụp đổ của mô hình.”
Mathieu Roy, biên tập viên và nhà văn, cảnh báo người dùng không nên quá phụ thuộc vào các công cụ AI và cần kiểm tra kỹ kết quả tìm kiếm để tránh sự không nhất quán:
“Mặc dù AI có thể hữu ích, nhưng người dùng cần xác minh thông tin từ các mô hình AI. Kiểm tra sự thật là bước cần thiết khi sử dụng công cụ AI, đặc biệt là với các chatbot dịch vụ khách hàng.” Roy nhấn mạnh rằng thường không có cách nào để kiểm tra thông tin ngoài việc hỏi chính chatbot.
Vấn đề cố hữu của ảo giác AI
Nền tảng AI của Google đã bị chỉ trích vào tháng 2 năm 2024 khi AI tạo ra các hình ảnh lịch sử không chính xác, như miêu tả người da màu là sĩ quan Đức Quốc xã.
Những sự cố này khá phổ biến với các mô hình AI hiện tại. CEO Nvidia Jensen Huang đã đề xuất giảm thiểu ảo giác AI bằng cách yêu cầu các mô hình AI nghiên cứu và cung cấp nguồn cho từng câu trả lời.
Dù đã có những biện pháp tích hợp trong các mô hình AI phổ biến, vấn đề ảo giác AI vẫn tồn tại.
Gần đây, CEO HyperWrite AI Matt Shumer thông báo rằng mô hình 70B mới của công ty sử dụng phương pháp “Reflection-Tuning” — giúp bot AI học hỏi từ sai lầm của chính nó và điều chỉnh phản hồi theo thời gian.
Chain Việt Nam