Các mô hình mới này, chỉ có sẵn thông qua giao diện lập trình ứng dụng (API) của OpenAI, vượt trội hơn cả mô hình tiên tiến nhất hiện tại là GPT-4o trên mọi phương diện, theo tuyên bố của nhà phát triển ChatGPT.
Với khả năng hiểu ngữ cảnh được cải thiện, GPT-4.1, GPT-4.1 mini và GPT-4.1 nano có thể xử lý lên đến 1 triệu token (thuật ngữ chỉ đơn vị dữ liệu mà mô hình AI xử lý). Các mô hình AI mới cũng được cập nhật kiến thức đến tháng 6.2024.
GPT-4.1 cho thấy mức cải thiện 21% so với GPT-4o và 27% so với GPT-4.5 trong các bài kiểm tra về lập trình. Trong khi đó, những cải tiến về khả năng tuân theo hướng dẫn và hiểu ngữ cảnh dài cũng giúp GPT-4.1 hiệu quả hơn trong việc vận hành các tác tử AI.
Tác tử AI là hệ thống hoặc chương trình máy tính được thiết kế để thực hiện các tác vụ tự động bằng cách sử dụng AI. Các tác tử AI có khả năng tương tác với môi trường, thu thập thông tin, xử lý dữ liệu, ra quyết định và thực hiện các hành động dựa trên mục tiêu được đặt ra.
Đặc điểm của một tác tử AI
Tự động: Có khả năng hoạt động độc lập mà không cần sự can thiệp của con người trong suốt quá trình xử lý.
Nhận thức môi trường: Có thể cảm nhận hoặc thu thập dữ liệu từ môi trường thông qua các cảm biến, API, hoặc dữ liệu được cung cấp.
Ra quyết định: Dựa trên các thuật toán hoặc mô hình học máy, tác tử AI có thể phân tích dữ liệu và chọn hành động phù hợp.
Hành động: Tác tử thực hiện các hành động cụ thể để đạt được mục tiêu, ví dụ như gửi thông báo, điều khiển thiết bị, hoặc cập nhật dữ liệu.
Các loại tác tử AI phổ biến
Reactive Agent (tác tử phản ứng): Hoạt động dựa trên các quy tắc đơn giản và phản ứng ngay lập tức với những thay đổi trong môi trường.
Goal-based Agent (tác tử dựa trên mục tiêu): Được thiết kế để đạt được một hoặc nhiều mục tiêu cụ thể thông qua việc lập kế hoạch và hành động.
Learning Agent (tác tử học tập): Sử dụng các kỹ thuật học máy để tự cải thiện hiệu suất và khả năng ra quyết định qua thời gian.
Multi-agent Systems (hệ thống đa tác tử): Một nhóm các tác tử AI hoạt động cùng nhau để giải quyết các nhiệm vụ phức tạp.
Ứng dụng của tác tử AI
Trợ lý ảo: Siri, Alexa, Google Assistant.
Tác tử tìm kiếm: Công cụ thu thập dữ liệu và cung cấp thông tin từ internet.
Tự động hóa công việc: Robot xử lý tài liệu, chatbot trả lời khách hàng.
Điều khiển hệ thống: Tác tử AI trong các hệ thống thông minh như nhà thông minh, ô tô tự hành.
Tác tử AI là một phần quan trọng trong sự phát triển của AI, được ứng dụng rộng rãi trong nhiều lĩnh vực như chăm sóc sức khỏe, giáo dục, dịch vụ khách hàng và công nghiệp.
“Các bài đánh giá hiệu năng rất tốt nhưng chúng tôi tập trung vào tính hữu dụng trong thực tế, và những nhà phát triển dường như rất hài lòng”, Sam Altman (Giám đốc điều hành OpenAI) chia sẻ trên mạng xã hội X.
Dòng mô hình mới này cũng hoạt động với “chi phí thấp hơn nhiều” so với GPT-4.5, theo OpenAI. Công ty cho biết sẽ tắt bản xem trước GPT-4.5 trên API vào tháng 7 tới, vì các mô hình mới mang lại hiệu năng “cải thiện hoặc tương đương”.
Hồi tháng 2, OpenAI đã phát hành bản research preview của GPT-4.5 cho một số người dùng và nhà phát triển, đồng thời công bố kế hoạch mở rộng quyền truy cập trong những tuần tiếp theo.
Thời điểm đó, OpenAI từng nói rằng GPT-4.5 là mô hình AI lớn nhất và mạnh mẽ nhất của công ty.
Trên X, Sam Altman mô tả GPT-4.5 là "mô hình đầu tiên mang lại cảm giác như đang nói chuyện với một người suy nghĩ sâu sắc".
Alex Paino, người dẫn đầu phần huấn luyện sơ bộ về học máy cho GPT-4.5, nói mô hình AI này được thiết kế để "thông minh gấp 10 lần" so với GPT-4, vốn đã ra mắt từ tháng 3.2023.
"Chúng tôi đang mở rộng quy mô gấp 10 lần so với trước đây với các đợt huấn luyện sơ bộ cho GPT này", Alex Paino nói.
Học máy là lĩnh vực trong AI tập trung vào việc phát triển các thuật toán và mô hình máy tính có khả năng học hỏi từ dữ liệu và cải thiện hiệu suất của chúng theo thời gian mà không cần lập trình cụ thể. Các hệ thống học máy có khả năng tự động tìm hiểu và áp dụng kiến thức từ dữ liệu để thực hiện các nhiệm vụ cụ thể như phân loại, dự đoán, nhận dạng mẫu và tối ưu hóa quyết định. Những ứng dụng của học máy rất đa dạng như xử lý ngôn ngữ tự nhiên, thị giác máy tính, xe tự hành, dự đoán thời tiết, quản lý dữ liệu lớn...
Học máy đã có sự tiến bộ đáng kể trong thập kỷ gần đây, nhờ sự phát triển của các mô hình học sâu và khả năng xử lý dữ liệu lớn (big data), mang lại nhiều cơ hội và tiềm năng giải quyết các vấn đề phức tạp và cải thiện hiệu suất trong nhiều lĩnh vực khác nhau.
Việc xây dựng GPT-4 trước đây đòi hỏi rất nhiều nhân lực. Nay, OpenAI cho biết có thể tái tạo lại GPT-4 chỉ với khoảng 5 người, tất cả là nhờ những gì họ học được từ GPT-4.5.
Trong một tập podcast do OpenAI phát hành hôm 11.4, Giám đốc điều hành Sam Altman đã đặt câu hỏi cho ba kỹ sư chủ chốt đứng sau GPT-4.5: "Nhóm nhỏ nhất của OpenAI có thể huấn luyện lại GPT-4 từ đầu hiện nay là bao nhiêu người?"
Sam Altman cho biết việc xây dựng GPT-4 từng cần đến "hàng trăm người, gần như toàn bộ nỗ lực của OpenAI" nhưng mọi thứ trở nên dễ dàng hơn nhiều khi mô hình không còn ở vị trí tiên phong nữa.
Alex Paino nói rằng việc huấn luyện lại GPT-4 hiện nay "có thể chỉ cần" 5 đến 10 người.
"Chúng tôi đã huấn luyện GPT-4o, một mô hình có đẳng cấp tương đương GPT-4. Chúng tôi đã huấn luyện lại nó bằng cách sử dụng rất nhiều thứ từ chương trình nghiên cứu GPT-4.5. Việc huấn luyện đó thực sự chỉ cần một số lượng người ít hơn nhiều", Alex Paino nói.
Daniel Selsam, nhà nghiên cứu tại OpenAI chuyên về hiệu quả dữ liệu và thuật toán, cũng đồng ý rằng việc tái tạo GPT-4 giờ đã dễ hơn rất nhiều.
"Không còn bị giới hạn bởi năng lực tính toán"
Sam Altman cũng cho biết OpenAI hiện không còn bị "giới hạn bởi khả năng tính toán" với những mô hình tốt nhất mà họ có thể tạo ra. Đây là một sự thay đổi mà ông cho rằng thế giới vẫn chưa thực sự nhận ra.
Với nhiều công ty AI, rào cản lớn nhất trong việc xây dựng các mô hình tốt hơn đơn giản là không có đủ năng lực tính toán.
"Đây là một cập nhật điên rồ. Suốt một thời gian dài, chúng ta sống trong thế giới mà năng lực tính toán luôn là yếu tố giới hạn", ông nói thêm.
Các hãng công nghệ đã và đang đổ hàng tỉ USD vào hạ tầng AI. Microsoft, Amazon, Google và Meta Platforms được dự đoán sẽ chi tổng cộng 320 tỉ USD cho chi phí vốn trong năm nay để mở rộng năng lực AI của họ.
Vào tháng 3, OpenAI công bố đã hoàn tất vòng gọi vốn tư nhân lớn nhất từ trước đến nay trong lĩnh vực công nghệ, gồm 30 tỉ USD từ SoftBank và 10 tỉ USD từ các nhà đầu tư khác, đưa định giá công ty lên 300 tỉ USD.
Theo một nguồn tin, SoftBank Group sẽ đóng góp 75% số vốn trong 40 tỉ USD, phần còn lại đến từ Microsoft, Coatue Management, Altimeter Capital và Thrive Capital.
Số vốn mới sẽ giúp OpenAI thúc đẩy nghiên cứu AI, mở rộng cơ sở hạ tầng tính toán và cải thiện các công cụ của mình.
OpenAI đặt mục tiêu cung cấp các công cụ AI ngày càng mạnh mẽ hơn cho 500 triệu người dùng ChatGPT mỗi tuần.
Jensen Huang, Giám đốc điều hành Nvidia, nói trong cuộc họp công bố buổi cáo tài chính vào tháng 2 rằng nhu cầu cho năng lực tính toán AI sẽ chỉ tiếp tục tăng.
"Các mô hình suy luận có thể tiêu thụ lượng tính toán gấp 100 lần. Tương lai, suy luận còn có thể cần nhiều tính toán hơn nữa", Jensen Huang cho biết trong cuộc họp.
Điều cần thiết để đạt đến bước nhảy vọt 10x hay 100x tiếp theo, nhà nghiên cứu Daniel Selsam nói rằng đó là hiệu quả dữ liệu.
Các mô hình GPT rất hiệu quả trong việc xử lý thông tin, nhưng vẫn có một "trần giới hạn về mức độ sâu sắc của hiểu biết mà nó có thể đạt được từ dữ liệu", ông nói.
Daniel Selsam nói rằng, dù máy móc ngày càng mạnh mẽ, nhưng nếu không có đủ dữ liệu chất lượng thì việc huấn luyện AI cũng sẽ bị giới hạn. Lúc này, không phải máy tính quá yếu mà là dữ liệu không đủ để khai thác hết sức mạnh của máy và đó mới là vấn đề.
Để vượt qua điều đó, Daniel Selsam cho rằng sẽ cần "một vài đổi mới về thuật toán" để khai thác nhiều giá trị hơn từ cùng một lượng dữ liệu.