Chỉ vài ngày sau khi OpenAI thông báo đang đào tạo phiên bản GPT tiếp theo, CEO Sam Altman tuyên bố công ty không cần phải hiểu đầy đủ về sản phẩm của mình để phát hành các phiên bản mới.
Trong cuộc phỏng vấn ngày 30/5 tại hội nghị AI for Good Global ở Thụy Sĩ, Sam Altman  đã nói về mức độ an toàn và lợi ích mà AI có thể mang lại cho nhân loại. Tuy nhiên, CEO dường như không có câu trả lời thỏa đáng cho câu hỏi cơ bản về cách thức hoạt động của GPT .
Altman nói: “Chúng tôi chưa lý giải được cách AI đưa ra quyết định”.
Trong lĩnh vực AI, khả năng diễn giải - hoặc khả năng giải thích - là sự hiểu biết về cách AI và hệ thống máy học đưa ra quyết định, theo Trung tâm An ninh và Công nghệ mới nổi của Đại học Georgetown.
Sam Altman trong cuộc phỏng vấn qua video tại hội nghị AI for Good Global Summit ở Thụy Sĩ ngày 30/5. Ảnh: Observer |
Nicholas Thompson, CEO của The Atlantic, đã đặt ra câu hỏi rằng: “Nếu không hiểu chuyện gì đang xảy ra, đó chẳng phải là lý do để ngừng tung ra những mô hình mới hay sao?”.
Ban đầu lảng tránh câu hỏi, Altman cuối cùng khẳng định rằng, ngay cả khi nhà phát triển chưa hoàn toàn hiểu về chúng, “những hệ thống AI có thể coi là an toàn và vững chắc”.
Ví mô hình GPT với bộ não người, ông cho biết: “Giới khoa học vẫn chưa hiểu rõ những gì xảy ra trong bộ não người ở cấp độ tế bào thần kinh, nhưng vẫn biết con người có thể tuân theo một số quy tắc và giải thích cách tư duy của họ”.
Giống như bộ não con người, công nghệ AI tạo sinh như GPT tạo ra nội dung mới dựa trên các dữ liệu hiện có và có khả năng học hỏi theo thời gian.
Dù GPT không sở hữu cảm xúc hoặc ý thức như con người, nhưng vẫn có sự khó hiểu và bí ẩn về cách các thuật toán đưa ra quyết định cụ thể.
Đầu tháng này, OpenAI đã ra mắt mô hình GPT-4o và thông báo họ đang bắt đầu đào tạo mô hình tiếp theo của mình. Công ty dự đoán mô hình mới sẽ giúp họ tiến thêm một bước trên con đường hướng tới AGI (AI nhân tạo tổng hợp)”.
Khi OpenAI tiếp tục triển khai hệ thống, an toàn vẫn là mối quan tâm hàng đầu. Gần đây, công ty đã giải tán nhóm bảo đảm an toàn AI cũ do cựu nhà khoa học trưởng Ilya Sutskever lãnh đạo và thành lập một nhóm mới dưới sự điều hình của chính Altman.
Tại hội nghị, Altman nhấn mạnh rằng việc thành lập một nhóm an toàn và bảo mật mới là để giúp OpenAI chuẩn bị sẵn sàng cho những mô hình tiếp theo.
Ông khẳng định: “Đối với tôi, càng hiểu rõ những gì đang diễn ra trong những mô hình này thì càng tốt”. Đồng thời, vị CEO thừa nhận đây là điều OpenAI chưa đạt được.