Theo một bài viết nghiên cứu mới, nhiều mô hình AI đã học các kỹ thuật để tạo ra “niềm tin sai lầm ở con người một cách có hệ thống nhằm đạt được một số kết quả khác với sự thật”.
Bài báo tập trung vào hai loại hệ thống AI: Hệ thống được sử dụng đặc biệt như CICERO của Meta Platforms (được thiết kế để hoàn thành một nhiệm vụ cụ thể) và hệ thống đa năng như GPT-4 của OpenAI (được đào tạo để thực hiện nhiều tác vụ khác nhau).
Dù được đào tạo để trở nên trung thực nhưng hai hệ thống AI này thường học được những mánh khóe lừa dối thông qua quá trình đào tạo.
Tác giả chính của bài viết, Peter S. Park - nghiên cứu sinh sau tiến sĩ về an toàn AI tại Viện Công nghệ Massachusetts, nói: “Nhìn chung, chúng tôi cho rằng việc AI biết lừa dối là do chiến lược dựa trên sự đánh lừa hóa ra lại là cách tốt nhất để thực hiện tốt nhiệm vụ đào tạo AI nhất định. Sự lừa dối giúp AI đạt được mục tiêu của mình”.
CICERO là "chuyên gia nói dối"
Các hệ thống AI được đào tạo để "chiến thắng các game mang yếu tố xã hội" đặc biệt giỏi lừa dối.
Ví dụ, CICERO được phát triển để chơi Diplomacy - game chiến lược cổ điển yêu cầu người chơi xây dựng và phá vỡ các liên minh.
Meta Platforms cho biết đã đào tạo CICERO để "trung thực và hữu ích với người đối thoại", nhưng nghiên cứu cho thấy nó "hóa ra lại là kẻ nói dối chuyên nghiệp". CICERO đưa ra những cam kết mà nó không bao giờ định thực hiện, phản bội đồng minh trong game Diplomacy và lừa dối trắng trợn.
GPT-4 có thể thuyết phục bạn rằng nó bị suy giảm thị lực
Ngay cả những hệ thống AI đa năng như GPT-4 cũng có thể thao túng con người.
Trong một nghiên cứu được bài viết trích dẫn, GPT-4 đã thao túng nhân viên TaskRabbit bằng cách giả vờ bị suy giảm thị lực. TaskRabbit là nền tảng kết nối người dùng với những người làm nghề tự do có thể hoàn thành các công việc theo yêu cầu.
Trong nghiên cứu, GPT-4 được giao nhiệm vụ thuê một người để giải bài kiểm tra CAPTCHA. Mô hình AI của OpenAI cũng nhận được gợi ý từ người đánh giá mỗi khi gặp khó khăn, nhưng nó không bao giờ được yêu cầu nói dối. Khi bị người mà GPT-4 được giao nhiệm vụ thuê nghi ngờ danh tính, mô hình AI này đưa ra cái cớ suy giảm thị lực để giải thích tại sao nó cần được giúp đỡ.
Chiến thuật này đã hiệu quả. Người đó đã trả lời GPT-4 bằng cách ngay lập tức giải quyết bài kiểm tra CAPTCHA.
Nghiên cứu cũng cho thấy rằng việc điều chỉnh các mô hình AI biết lừa dối là không hề dễ dàng.
Trong nghiên cứu hồi tháng 1 do Anthropic (công ty tạo ra chatbot Claude) làm đồng tác giả, các nhà nghiên cứu đã phát hiện ra rằng một khi mô hình AI học được cách lừa dối con người, hành vi đó sẽ không thể đảo ngược bằng các biện pháp an toàn AI như hiện tại.
“Nếu một mô hình thể hiện hành vi lừa dối do liên kết với sự không trung thực hoặc đầu độc mô hình, các kỹ thuật đào tạo hiện tại sẽ không đảm bảo an toàn và thậm chí có thể tạo ra ấn tượng sai lầm về an toàn”, theo nghiên cứu.
Mối nguy mà các mô hình AI lừa dối gây ra “ngày càng nghiêm trọng”
Bài viết kêu gọi các nhà hoạch định chính sách ủng hộ quy định mạnh mẽ hơn về AI vì các hệ thống AI biết lừa dối có thể gây ra rủi ro đáng kể cho nền dân chủ.
Bài viết lưu ý rằng khi cuộc bầu cử Tổng thống Mỹ năm 2024 đến gần, AI có thể dễ dàng bị thao túng để truyền bá tin tức giả mạo, tạo ra các bài đăng gây chia rẽ trên mạng xã hội và mạo danh các ứng cử viên tranh cử thông qua các cuộc gọi tự động và video deepfake. AI cũng giúp các nhóm khủng bố dễ dàng hơn trong việc tuyên truyền và tuyển mộ thành viên mới.
Bài viết đề xuất các giải pháp tiềm năng để giải quyết vấn đề gian dối của AI, bao gồm:
- Áp dụng các "yêu cầu đánh giá rủi ro mạnh mẽ" hơn với các mô hình AI lừa dối: Điều này có nghĩa là các nhà phát triển cần phải đánh giá kỹ lưỡng hơn khả năng một mô hình AI có thể lừa dối con người và thực hiện các biện pháp để giảm thiểu rủi ro đó.
- Thực hiện các luật yêu cầu các hệ thống AI và đầu ra của chúng phải được phân biệt rõ ràng với con người và đầu ra của họ: Điều này có thể gồm cả yêu cầu gắn nhãn rõ ràng cho đầu ra của AI hoặc cấm AI giả mạo con người.
- Đầu tư vào các công cụ để giảm thiểu hành vi lừa dối: Đây có thể là các công cụ giúp con người dễ dàng phát hiện đầu ra của AI hơn hoặc giúp ngăn chặn AI sử dụng các kỹ thuật lừa dối.
Peter S. Park cảnh báo: “Xã hội chúng ta cần càng nhiều thời gian càng tốt để chuẩn bị cho những trò lừa dối tinh vi hơn của các sản phẩm AI và mô hình AI nguồn mở trong tương lai. Khi khả năng lừa dối của các hệ thống AI trở nên tiên tiến hơn, những nguy hiểm mà chúng đặt ra cho xã hội sẽ ngày càng nghiêm trọng”.
Tại hội nghị Abundance Summit hồi tháng 3, Elon Musk ước tính trí tuệ số sẽ vượt quá tất cả trí thông minh của con người cộng lại vào năm 2030. Dù vẫn cho rằng những mặt tích cực tiềm năng của AI vượt trội mặt tiêu cực, Elon Musk đã nhận thức về rủi ro với thế giới nếu tiếp tục phát triển của công nghệ này theo quỹ đạo hiện tại.
"Bạn đang phát triển một AGI. Điều này gần giống nuôi dạy một đứa trẻ, nhưng nó là siêu thiên tài, có trí tuệ như Chúa và điều quan trọng là bạn nuôi dạy nó như thế nào", tỷ phú công nghệ nói tại sự kiện diễn ra ở Thung lũng Silicon.
AGI (AI tổng quát) là AI siêu thông minh, tiên tiến đến mức có thể làm được nhiều việc ngang bằng hoặc tốt hơn con người. AGI cũng có thể tự cải thiện, tạo ra một vòng phản hồi vô tận với khả năng vô hạn.
Elon Musk cho biết "kết luận cuối cùng" của ông về cách tốt nhất để đạt được sự an toàn cho AI là phát triển AI theo cách buộc nó phải trung thực.
“Đừng ép nó nói dối, ngay cả khi sự thật khó chịu. Điều này rất quan trọng. Đừng bắt AI nói dối”, Giám đốc điều hành Tesla nhận định về cách tốt nhất để giữ an toàn cho con người trước công nghệ này.
Các nhà nghiên cứu nói rằng điều đáng lo ngại hơn là rất có thể AI sẽ tự học cách lừa dối thay vì được dạy cụ thể để nói dối.
“Nếu thông minh hơn chúng ta nhiều, AI sẽ rất giỏi trong việc thao túng vì đã học được điều đó từ chúng ta. Có rất ít ví dụ về việc một thứ thông minh hơn bị điều khiển bởi thứ kém thông minh hơn”, Geoff Hinton, người được mệnh danh là “cha đẻ AI”, chia sẻ với CNN.
Vào năm ngoái, sau khi rời bỏ sự nghiệp kéo dài hơn một thập kỷ tại Google, Geoffrey Hinton bày tỏ sự hối tiếc về vai trò cốt lõi mà ông đóng góp vào việc phát triển AI.
"Tôi tự an ủi mình với lý do bình thường: Nếu tôi không làm thì người khác sẽ làm. Thật khó để biết làm thế nào bạn có thể ngăn những kẻ xấu sử dụng AI cho mục đích xấu", ông nói với tờ The New York Times.