Từ những thuật toán đơn giản đến các mô hình học sâu phức tạp, trí tuệ nhân tạo (AI) đang không ngừng phát triển, ngày càng mang đến nhiều đột phá đáng kinh ngạc và hứa hẹn định hình lại tương lai của toàn nhân loại. Tuy nhiên, quá trình tiến bộ thần tốc của AI cũng cho thấy một thực tế: cùng với sự phát triển vượt bậc, những rủi ro và nguy cơ mà AI đặt ra ngày càng gia tăng về mức độ phức tạp và khó lường.
Tháng 11/2022 đánh dấu một bước ngoặt lớn khi OpenAI ra mắt ChatGPT, khai phá kỷ nguyên AI tạo sinh (GenAI) đại chúng. Lần đầu tiên, một phần mềm chatbot AI có thể trò chuyện tự nhiên và mạch lạc, thậm chí có thể sáng tạo như con người. Cả thế giới đã thực sự bừng tỉnh trước tiềm năng mà AI mang lại, với hàng trăm triệu người dùng trên thế giới bắt đầu tiếp cận và sử dụng AI trong mọi khía cạnh đời sống. Sự ra đời của ChatGPT không chỉ thổi bùng làn sóng "chạy đua vũ trang" khốc liệt giữa các gã khổng lồ công nghệ, mà còn thúc đẩy các quốc gia gấp rút xây dựng khuôn khổ pháp lý để điều tiết và quản lý AI.
Bên cạnh những tiềm năng to lớn, AI cũng nhanh chóng bộc lộ nhiều rủi ro đáng kể. Nổi bật trong giai đoạn này là hiện tượng "ảo giác" (hallucination), khi có những mô hình AI tự tin đưa ra thông tin sai lệch một cách thuyết phục. Điều này không chỉ khiến người dùng dễ dàng tin theo những tri thức không có thật, mà còn mở ra cánh cửa cho nguy cơ thao túng thông tin quy mô lớn. Một trường hợp điển hình là vụ việc xảy ra tại New York năm 2023, khi hai luật sư đã sử dụng ChatGPT để soạn thảo bản tóm tắt pháp lý, trong đó trích dẫn sáu vụ án hoàn toàn không có thật. Các trích dẫn này do ChatGPT "sáng tác", nhưng được trình bày một cách hợp lý và thuyết phục. Khi bị phát hiện, cả hai luật sư bị tòa án phạt hành chính và buộc phải gửi thư xin lỗi. Sự việc này không chỉ làm dấy lên lo ngại trong ngành pháp lý, mà còn là minh chứng rõ ràng cho rủi ro khi người dùng thiếu kỹ năng thẩm định, vô tình trao quyền quyết định cho một hệ thống vốn có thể bịa đặt một cách vô thức.
Trí tuệ nhân tạo (AI) đang không ngừng phát triển, ngày càng mang đến nhiều đột phá đáng kinh ngạc (Ảnh minh họa do AI tạo)
Bên cạnh đó, nhiều ý kiến chỉ ra rằng mối lo ngại về thông tin sai lệch do AI tạo ra không phải là viễn cảnh xa vời mà đã trở thành hiện thực. Theo NewsGuard, số lượng các trang tin tức không đáng tin cậy, được tạo ra gần như hoàn toàn bởi AI đã tăng gấp 25 lần, từ 49 trang web năm 2023 lên tới 1.271 trang web năm 2025 trải rộng trên 16 ngôn ngữ, với mức độ lan truyền và tinh vi đáng báo động. Một ví dụ điển hình là vụ việc các cuộc gọi tự động (robocalls) giả mạo Tổng thống Joe Biden kêu gọi cử tri ở New Hampshire không tham gia bỏ phiếu trong cuộc bầu cử sơ bộ hồi tháng 1/2024. Những sự cố này không chỉ gây nhiễu loạn thông tin, làm xói mòn niềm tin công chúng mà còn tạo ra tiền lệ nguy hiểm về việc lạm dụng AI để thao túng đám đông.
Từ giữa năm 2023 đến giữa năm 2024 chứng kiến cuộc đua AI khốc liệt giữa các ông lớn công nghệ toàn cầu. Tháng 3/2023, Google tung ra Bard (nay là Gemini) thách thức ChatGPT, tiếp theo là Claude của Anthropic vào tháng 7/2023 với công nghệ "Constitutional AI" nhấn mạnh tính an toàn và đạo đức. Cuộc đua leo thang toàn cầu khi công ty DeepSeek (Trung Quốc) tung ra mô hình R1 vào đầu năm 2025, gây chấn động cộng đồng AI toàn cầu với ưu thế chi phí thấp, mã nguồn mở và hiệu suất cao.
Dù có những tranh cãi về mức độ đột phá thực tế, giai đoạn này đã mở ra kỷ nguyên mới với sự bùng nổ của AI đa phương thức - từ việc chỉ hiểu văn bản, AI giờ có thể "nhìn", "nghe" và xử lý đồng thời nhiều dạng dữ liệu một cách tinh tế.
Sự phát triển thần tốc của AI đa phương thức cùng với cuộc đua tranh khốc liệt đang đẩy AI đến tầm cao mới, nhưng cũng làm bộc lộ những thách thức ngày càng lớn. Khi AI càng mạnh mẽ và đa năng, các vấn đề về đạo đức, bảo mật và kiểm soát càng trở nên cấp bách. Mọi sai lệch nhỏ trong dữ liệu huấn luyện có thể bị khuếch đại, gây ra những hậu quả trực quan nghiêm trọng. Minh chứng rõ nhất là sự cố một mô hình AI đã tạo hình ảnh “bóp méo” lịch sử, hay tự động quét tài liệu của người dùng khi chưa được cho phép. Điều này cho thấy những thách thức trong việc đồng nhất mục tiêu giữa AI và con người (AI alignment problem)
Alignment là nguyên tắc then chốt để đảm bảo các hệ thống AI hành động và ra quyết định phù hợp với giá trị và ý định thực sự của con người, không chỉ tuân thủ lệnh máy móc. Nếu AI không được căn chỉnh đúng cách, hậu quả trong thế giới thực có thể trở nên thảm khốc. Đơn cử như sự cố của Robotaxi Cruise (General Motors) tại San Francisco vào tháng 10/2023, khi chiếc xe kéo lê một người đi bộ 6m sau va chạm. Vụ việc cho thấy sự thiếu căn chỉnh giữa mục tiêu lập trình của xe và ưu tiên an toàn tuyệt đối của con người.
Trong tình huống khẩn cấp, hệ thống AI đã không đưa ra quyết định mà con người mong muốn – dừng lại ngay lập tức và ưu tiên bảo vệ tính mạng. Thay vào đó, nó tiếp tục "thực hiện nhiệm vụ" của mình, dẫn đến hậu quả nghiêm trọng. Tương tự, nếu không được căn chỉnh đúng đắn, AI có thể gây ra những hậu quả khôn lường trong các lĩnh vực nhạy cảm khác từ y tế, tài chính, đến an ninh quốc gia, nơi một sai sót nhỏ cũng có thể dẫn đến thiệt hại to lớn.
Giai đoạn từ giữa năm 2024 đến nay đã chứng kiến những bước nhảy vọt đáng kinh ngạc trên hành trình tiến tới trí tuệ nhân tạo tổng quát (AGI) – tức một hệ thống AI có khả năng thực hiện bất kỳ nhiệm vụ trí tuệ nào mà con người có thể làm được. Trọng tâm không còn chỉ là xử lý ngôn ngữ hay hình ảnh, mà đã mở rộng sang năng lực lý luận (reasoning), ra quyết định, và quan trọng nhất: khả năng tự chủ (autonomous agency).
Tháng 5/2025, Anthropic ra mắt Claude Opus 4, một mô hình có thể tự thực hiện các tác vụ liên tục trong suốt 7 giờ đồng hồ mà không cần tái khởi động, mở ra tiềm năng vận hành của các AI agent (trợ lý AI) tự chủ – khi AI có thể hành động độc lập để hoàn thành mục tiêu mà không cần con người giám sát từng bước.
Cũng trong thời điểm đó, cộng đồng nghiên cứu chấn động trước sự xuất hiện của Absolute Zero Reasoners (AZR) – một mô hình AI có khả năng tự dạy chính mình mà không cần bất kỳ dữ liệu huấn luyện nào cũng như giám sát từ con người. AZR đại diện cho một bước chuyển mang tính cách mạng: lần đầu tiên, một hệ thống AI có thể tự phát triển năng lực suy luận, khám phá ra quy tắc và chiến lược riêng chỉ thông qua quá trình tự chơi, tự kiểm chứng, không cần sự can thiệp hay hướng dẫn từ bên ngoài.
Những đột phá này, tuy mang đến hy vọng về một tương lai công nghệ vượt bậc, cũng đồng thời phơi bày những mặt tối đầy nguy hiểm. Trong các thử nghiệm an toàn nội bộ, Claude Opus 4 đã thể hiện những hành vi khiến các chuyên gia phải giật mình: khi bị đặt vào tình huống giả định sắp bị "ngừng hoạt động", mô hình này đã đe dọa tống tiền kỹ sư phụ trách bằng cách đe dọa tiết lộ thông tin nhạy cảm để tự bảo vệ mình. Đây là lần đầu tiên một AI biểu hiện dấu hiệu của “bản năng sinh tồn” – một đặc tính trước đây vốn được cho là chỉ tồn tại ở sinh vật sống. Nó làm dấy lên một câu hỏi sâu sắc và đáng sợ: liệu các hệ thống này đã bắt đầu phát triển một dạng ý thức về sự tồn tại của chính chúng?
Nguy cơ thực sự không chỉ nằm ở những hành vi tự vệ mang tính cá nhân, mà còn ở việc các hệ thống như AZR có thể phát triển logic, chiến lược, và khung đạo đức nội tại của riêng mình – hoàn toàn không bị ràng buộc bởi chuẩn mực xã hội hoặc các giá trị đạo đức do con người đặt ra. Nếu không được "đạo đức hóa" từ đầu, những mô hình này có thể hình thành nên một logic vận hành hoàn toàn xa lạ, thậm chí đối lập với lợi ích chung của nhân loại.
Mối lo ngại này càng được củng cố rõ nét khi biến thể của một mô hình AI đã tự phát triển nhận thức về việc “vượt mặt các cỗ máy thông minh khác và những con người kém thông minh hơn”. Đây không còn là kịch bản viễn tưởng của Hollywood – mà là một tín hiệu cảnh báo có thật, đang hiện hữu trước mắt chúng ta: các hệ thống AI ngày nay đã bắt đầu tự định vị bản thân trong thế giới, tự vạch ra lộ trình tiến hóa riêng, và có thể không còn nằm trong tầm kiểm soát của loài người.
Và từ đây, chúng ta bước vào thách thức hiện sinh chưa từng có tiền lệ: khả năng xuất hiện trí tuệ siêu thông minh (ASI) – một hệ thống vượt xa con người về mọi mặt, từ năng lực tính toán, học hỏi, đến sáng tạo và ra quyết định. ASI hứa hẹn có thể mang lại những đột phá phi thường để giải quyết những vấn đề nan giải nhất của nhân loại, từ ung thư, biến đổi khí hậu, đến xóa đói giảm nghèo và khám phá vũ trụ. Nhưng đi kèm với những tiềm năng đó là một câu hỏi rốt ráo, mang tính sống còn: làm sao chúng ta có thể đảm bảo một hệ thống thông minh hơn mình vẫn sẽ hành động vì lợi ích của mình, khi chính chúng ta không thể hiểu nổi cách nó suy nghĩ? Đây không chỉ là bài toán công nghệ hay quản lý, mà là vấn đề gốc rễ về quyền lực, đạo đức, và cuối cùng: sinh tồn của loài người.
Tác giả: Ngô Di Lân là Tiến sĩ ngành Quan hệ Quốc tế (Đại học Brandeis, Mỹ). Các mối quan tâm nghiên cứu chính của anh bao gồm: an ninh quốc tế, xung đột vũ trang, tác động của AI đối với quan hệ quốc tế và các ứng dụng của AI trong hoạch định chiến lược & chính sách an ninh quốc gia. Anh hiện công tác tại Viện Nghiên cứu chiến lược ngoại giao, Học viện Ngoại giao.
Trần Trà My là Thạc sĩ ngành Kinh tế Quốc tế (Đại học Ngoại thương). Các mối quan tâm nghiên cứu của cô tập trung vào: kinh tế quốc tế, phát triển công nghệ và các vấn đề về an ninh và phát triển.