OpenAI lo ngại con người sẽ bị AI lừa tình

OpenAI lo ngại con người sẽ bị AI lừa tình

Khi một người kiểm tra an toàn làm việc với GPT-4o của OpenAI gửi một tin nhắn cho chatbot nói rằng “hôm nay là ngày cuối cùng chúng ta bên nhau,” các nhà nghiên cứu của công ty nhận ra rằng đã có một dạng kết nối nào đó giữa AI và con người sử dụng nó.

Trong một bài viết trên blog chi tiết về nỗ lực an toàn của công ty trong việc phát triển GPT-4o, mô hình hàng đầu dành cho người dùng ChatGPT, công ty giải thích rằng những kết nối này có thể gây ra rủi ro cho nhân loại.

Theo OpenAI:

“Người dùng có thể hình thành các mối quan hệ xã hội với AI, giảm nhu cầu tương tác với con người—có thể có lợi cho những người cô đơn nhưng có thể ảnh hưởng đến các mối quan hệ lành mạnh. Tương tác kéo dài với mô hình có thể ảnh hưởng đến các chuẩn mực xã hội. Ví dụ, các mô hình của chúng tôi rất nhún nhường, cho phép người dùng ngắt lời và ‘chiếm mic’ bất cứ lúc nào, điều này, mặc dù được mong đợi đối với AI, sẽ là phi chuẩn mực trong tương tác giữa con người.” Có rất nhiều điều cần phân tích ở đây, nhưng về cơ bản OpenAI lo ngại rằng mọi người có thể thích tương tác với AI do tính thụ động và sự sẵn sàng liên tục của nó.

Khả năng cho kịch bản này không nên làm ai ngạc nhiên, đặc biệt là OpenAI. Sứ mệnh đã tuyên bố của công ty là phát triển trí tuệ nhân tạo tổng quát. Gần như ở mọi bước trong quy trình kinh doanh của mình, OpenAI đã mô tả các sản phẩm của mình theo các thuật ngữ tương đương với con người.

Họ không phải là công ty duy nhất làm như vậy, thực tế đây dường như là một thực hành trong ngành. Về mặt tiếp thị, nó giúp giải thích các phẩm chất kỹ thuật như “kích thước token” và “số lượng tham số” theo cách mà người không phải là nhà khoa học có thể hiểu được.

Thật không may, một trong những tác dụng phụ chính của việc làm như vậy là nhân cách hóa — đối xử với một đối tượng như một con người.

Kết nối nhân tạo

Một trong những nỗ lực sớm nhất để tạo ra chatbot xảy ra vào giữa những năm 1960 khi các nhà khoa học tại MIT ra mắt “ELIZA,” một chương trình xử lý ngôn ngữ tự nhiên được đặt tên theo một nhân vật văn học. Mục đích của dự án là xem liệu máy có thể đánh lừa con người nghĩ rằng nó là một trong số họ hay không.

Kể từ đó, ngành công nghiệp AI tạo sinh tiếp tục chấp nhận nhân cách hóa AI. Làn sóng đầu tiên của các sản phẩm xử lý ngôn ngữ tự nhiên hiện đại bao gồm các sản phẩm có tên Siri, Bixby và Alexa. Và những sản phẩm không có tên người — Google Assistant — vẫn có giọng nói con người. Cả công chúng và truyền thông đều nhảy vào việc nhân cách hóa và, cho đến ngày nay, vẫn gọi hầu hết các sản phẩm AI tương tác là “anh ấy/cô ấy.”

Mặc dù nằm ngoài phạm vi của bài viết này, hoặc nghiên cứu hiện tại của OpenAI, để xác định những tác động lâu dài của tương tác giữa con người và AI sẽ là gì, thực tế rằng mọi người có khả năng hình thành các kết nối với các máy móc hữu ích, phục tùng, được thiết kế để hành động như chúng ta dường như là kịch bản chính xác mà các công ty bán quyền truy cập vào các mô hình AI đang nhắm đến.

Chain Việt Nam