Thị trường

Giáo sư 'khai sinh' AI của thế giới chia sẻ tại FPT: Không nên thiết kế 'bản năng sinh tồn' cho AI

Hoàng Ngân 06/12/2024 6:30

"Điều gì sẽ xảy ra khi AI đạt đến trình độ như con người?".

Giáo sư Yoshua Bengio, nhà sáng lập Viện nghiên cứu AI Mila, đã có mặt tại trụ sở chính của FPT vào chiều ngày 5/12 trong khuôn khổ Hội thảo công nghệ cấp cao “AI an toàn – Định hình đổi mới có trách nhiệm” (AI Safety – Shaping Responsible Innovation) do FPT tổ chức.

Sự kiện này được tổ chức nhằm kỷ niệm 5 năm hợp tác giữa FPT và Viện nghiên cứu AI Mila, nơi được mệnh danh là "trái tim" của công nghệ học sâu (deep learning) toàn cầu.

Sinh năm 1964 tại Canada, Yoshua Bengio là một trong những nhà khoa học đặt nền móng cho lĩnh vực học sâu. Ông được biết tới là người đi đầu trong lĩnh vực học sâu và mạng nơ-ron nhân tạo, những thuật toán "mở đường" cho các mô hình ngôn ngữ lớn (LLM) và ChatGPT. Yoshua Bengio là một trong những người có tầm ảnh hưởng lớn trên toàn cầu trong việc tạo ra nền móng để AI trở thành một công nghệ thực tế, được ứng dụng rộng rãi trong các lĩnh vực như xử lý ngôn ngữ tự nhiên (NLP), thị giác máy tính, học máy và robot học. Ông thành lập Viện nghiên cứu Mila vào năm 1993, biến Montreal (Canada) trở thành trung tâm toàn cầu về công nghệ học sâu. Do đó những ý kiến của ông luôn được cộng đồng khoa học đặc biệt quan tâm.

Giáo sư 'khai sinh' AI của thế giới chia sẻ tại FPT: Không nên thiết kế 'bản năng sinh tồn' cho AI
Giáo sư Yoshua Bengio nhà sáng lập Viện nghiên cứu AI Mila

Nguyên văn bài chia sẻ của ông tại buổi đối thoại như sau:

Khoảng hai năm trước, khi ChatGPT ra mắt, tôi và hầu hết các nhà nghiên cứu AI không lường trước được sự phát triển ấn tượng như vậy. Chúng tôi đã thiết kế các hệ thống có khả năng hiểu ngôn ngữ và nắm bắt nhiều kiến thức, nhưng vẫn còn yếu về khả năng lập luận và lập kế hoạch. Đó là một cột mốc ấn tượng đến mức chúng tôi bắt đầu đặt câu hỏi: Điều gì sẽ xảy ra nếu chúng ta thành công? Nếu chúng ta tạo ra những máy tính thông minh như con người hoặc thậm chí thông minh hơn con người thì sao? Hệ quả sẽ là gì? Lợi ích sẽ ra sao? Và những rủi ro là gì? Sau vài tháng sau khi ChatGPT ra đời, chúng tôi nhận ra rằng chúng tôi đang đi trên một con đường với rất nhiều thử thách, nguy hiểm vì chúng tôi không thực sự hiểu rõ các viễn cảnh này. Một số viễn cảnh có thể dẫn đến thảm họa. Một số khác có thể rất tuyệt vời. Nhưng chúng tôi cần biết rõ mình đang hướng đến đâu.

Hôm nay, tôi sẽ kể cho bạn một chút về hành trình của mình, về những quan niệm của tôi về quyền tự quyết hay tự chủ, liên quan đến khả năng tự đưa ra quyết định và lập kế hoạch dài hạn để đạt được mục tiêu. Con người rất giỏi trong việc này, nhưng chưa rõ liệu chúng ta có nên xây dựng các cỗ máy có khả năng tự chủ, hay chỉ nên tạo ra những công cụ để hỗ trợ con người. Đây là hai vai trò khác nhau, với những rủi ro và lợi ích cũng rất khác nhau.

Có một khái niệm trong khoa học gọi là nguyên tắc đề phòng. Trên Wikipedia, nó được định nghĩa là cách tiếp cận đổi mới mà không gây hại, khi kiến thức khoa học sâu rộng về vấn đề này còn thiếu. Chúng có thể gây ra rất nhiều tác hại. Vấn đề là chúng ta không biết đủ nhiều, vì vậy chúng ta không có khả năng dự đoán. Nếu chúng ta xây dựng những cỗ máy thông minh hơn chúng ta, chúng có thể mang lại lợi ích nhưng cũng có thể tạo ra rất nhiều tác hại. Vấn đề là khi chúng ta không đủ hiểu biết, chúng ta sẽ không có khả năng dự đoán. Trong trường hợp đó, nguyên tắc đề phòng này nhấn mạnh sự thận trọng, tạm dừng và xem xét kỹ lưỡng trước khi áp dụng các đổi mới mới có thể gây ra thảm họa.

>> Chân dung 'bố già AI' Yoshua Bengio, lần đầu tiên tới Việt Nam để đối thoại với Chủ tịch FPT Trương Gia Bình về chủ đề 'nóng'

Để có cái nhìn toàn diện, bạn không chỉ cần hiểu AI như hiện tại, mà còn phải nghĩ đến xu hướng phát triển của AI để có thể hình dung về tương lai. Từ năm 2018 đến nay, trung bình mỗi năm, lượng máy tính được sử dụng để huấn luyện các mô hình lớn nhất đã tăng trung bình gấp 4 lần mỗi năm. Lượng dữ liệu bùng nổ mà bạn cần để đạt được một mức độ hiệu suất cụ thể tăng khoảng 30% mỗi năm. Thực chất, đó là một con số khá lớn. Đó không chỉ là những cải tiến trong thuật toán, đúng không mà còn liên quan đến hiệu suất tính toán. Vậy cần bao nhiêu để đạt được cùng một kết quả? Gấp ba lần. Nghĩa là hiệu suất phải tăng gấp ba lần mỗi năm. Bạn sẽ nhận thấy rằng điều này không nhiều như sự gia tăng của năng lực máy tính. Hiệu quả tính toán cũng tăng gấp 12 lần. Vì phần mềm ngày càng tốt hơn và phần cứng ngày càng phát triển nhiều hơn. Các khoản đầu tư vào AI trung bình đạt 100 tỷ USD mỗi năm và nó sẽ tăng thêm 30% mỗi năm. Khả năng của các hệ thống AI không ngừng được cải thiện qua từng năm, thể hiện rõ qua các thước đo đánh giá sử dụng máy học. Đường kẻ đen minh họa một mức hiệu suất con người, nhưng các thước đo cũ giờ đây đã không còn giá trị vì máy tính đã vượt xa con người. Với các thước đo mới, dù máy tính chưa vượt qua con người, xu hướng đang dần nghiêng về một hướng đáng lo ngại.

Giáo sư 'khai sinh' AI của thế giới chia sẻ tại FPT: Không nên thiết kế 'bản năng sinh tồn' cho AI
Giáo sư Yoshua Bengio giới thiệu về nguyên tắc đề phòng trong khoa học máy tính

Alan Turing là một trong những người sáng lập ngành khoa học máy tính. Ông là một thiên tài và đã suy nghĩ trước thời đại vào những năm 1940-50. Ông lo ngại rằng một ngày nào đó, chúng ta sẽ tạo ra những cỗ máy thông minh hơn chúng ta, và có thể chúng ta sẽ không tìm được cách kiểm soát những hệ thống này. Thật không may, chúng ta đang dần tiến gần đến những lo ngại này. Chúng ta đang xây dựng những cỗ máy ngày càng gần gũi hơn với khả năng của con người trong nhiều lĩnh vực. Nhưng chúng ta vẫn chưa biết làm thế nào để kiểm soát chúng khi chúng trở nên thông minh hơn chúng ta. Đó là một vấn đề lớn. Vậy tại sao chúng ta vẫn tiếp tục? Có một số ước tính cho rằng khi chúng ta đạt đến mức độ như con người, tổng giá trị hiện tại ròng của nó sẽ vào khoảng 10 triệu tỷ đô la. Vậy nếu một công ty kiểm soát thị trường này, thì giá trị của công ty sẽ lên đến mức đó. Đó là một số tiền rất lớn.

Hiện tại, có người cho rằng khả năng của các hệ thống có thể được cải thiện nhờ vào việc mở rộng quy mô. Vì vậy, việc mở rộng quy mô gần như đã đến giới hạn. Thực tế, chúng ta vẫn chưa biết được. Nhưng điều đang xảy ra là các hình thức mở rộng quy mô khác cũng đang diễn ra, và nó được gọi là infra-scaling. Vì vậy, không chỉ là hệ thống huấn luyện, mà ngay cả khi vận hành, bạn cũng có thể cho phép hệ thống suy nghĩ nhiều hơn. Đó là 2 cách tiếp cận. Cuối cùng, các công ty đã nhận thức rằng chúng ta có thể đạt được AI ở đỉnh cao, và OpenAI là một ví dụ điển hình. Tuy nhiên, Anthropic cũng đã phát triển phiên bản riêng của họ. Tôi cũng nghĩ rằng Google có công nghệ tương tự, nhưng chúng ta không biết nhiều về điều đó. Chỉ trong năm vừa qua, ví dụ, hệ thống AI của Anthropic có lẽ đã trở thành công cụ tuyệt vời nhất cho kỹ thuật phần mềm và lập trình. Nó đã tiến từ mức 3% so với các chương trình của con người lên 49% chỉ trong chưa đầy một năm. Tôi tin rằng nó sẽ ngày càng trở nên thông minh hơn. Mặc dù chúng ta không thể biết tốc độ phát triển của nó trong tương lai sẽ như thế nào, nhưng chúng ta cần suy nghĩ trước về các kịch bản: nếu nó phát triển nhanh, điều gì sẽ xảy ra? Nếu nó phát triển chậm, thì sao? Và liệu chúng ta có sẵn sàng đối mặt với tất cả những điều đó không?

Hãy để tôi giải thích tại sao chúng ta có thể có những cỗ máy có thể gây hại cho con người. Một số người có thể giao mục tiêu cho cỗ máy thiết kế vũ khí, như vũ khí sinh học, hoặc một cuộc tấn công mạng có thể phá hủy cơ sở hạ tầng. Nhưng còn việc mất kiểm soát với các cỗ máy thì sao? Đó là một kịch bản khác. Để hiểu kịch bản này, bạn phải hiểu rằng có một loại mục tiêu đặc biệt – tự bảo tồn. Mọi sinh vật sống trên hành tinh này đều cố gắng bảo vệ bản thân. Nhưng nếu một hệ thống AI có mục tiêu tự bảo tồn thì sao? Các thú cưng của chúng ta cũng có mục tiêu tự bảo tồn, nhưng chúng ta mạnh mẽ hơn chúng. Vậy nếu chúng ta xây dựng các hệ thống có mục tiêu tự bảo tồn mạnh mẽ hơn chúng ta vì chúng thông minh hơn, đó là một vấn đề. Nếu chúng ta muốn tắt chúng đi, chúng có thể sẽ chống lại. Ví dụ, chúng có thể sao chép chính mình hoặc sao chép các máy tính khác – vì vậy rất khó để tắt chúng đi. Nếu có sự cân bằng giữa AI và chúng ta, thì đó là điều tốt. Nhưng nếu không có sự cân bằng, đặc biệt khi các hệ thống này thông minh hơn chúng ta rất nhiều, thì chúng ta có thể gặp rắc rối.

Những mục tiêu như vậy có thể xuất hiện bằng cách nào? Có hai con đường chính dẫn đến nguy hại: những kẻ liều lĩnh trao cho máy móc những mục tiêu nguy hiểm – những người đặt trí tuệ lên trên giá trị của nhân loại. Chỉ cần một người có đủ quyền lực làm điều đó, tất cả chúng ta có thể sẽ phải gánh chịu hậu quả. Chúng ta cần đảm bảo rằng điều đó không xảy ra. Một vấn đề khác là: vô tình, chúng ta có thể tạo ra một cỗ máy và vô tình nó lại có mục tiêu tự bảo tồn.

Vấn đề với những rủi ro này là chúng ta đang cố gắng tạo ra những cỗ máy giống mình, điều này là lẽ tự nhiên. Con người luôn mơ ước tạo ra những thứ giống như họ. Nhưng nếu chúng ta tạo ra những thực thể mạnh hơn chính mình, điều đó có thể đánh dấu sự kết thúc của nhân loại.

Thay vì tạo ra một loài mới, liệu chúng ta có thể chọn một con đường khác? Hãy tập trung vào việc phát triển các công cụ thông minh – những công cụ được thiết kế để phục vụ con người, chỉ đơn thuần là vật thể để phục vụ chúng ta, không phải sinh thể, và thậm chí không mang đặc tính của một trợ lý.Trợ lý là một thực thể có trạng thái tồn tại liên tục, sở hữu mục tiêu và hành động để đạt được những mục tiêu đó. Làm thế nào chúng ta có thể xây dựng một AI không có mục tiêu? Chúng ta có thể tạo ra một AI biết và hiểu rất nhiều thứ nhưng không có mục tiêu cá nhân. Tôi sẽ tiếp tục trình bày về chủ đề này và cố gắng thuyết phục bạn rằng đây là một con đường an toàn hơn nhiều.

Giáo sư 'khai sinh' AI của thế giới chia sẻ tại FPT: Không nên thiết kế 'bản năng sinh tồn' cho AI
Giáo sư Yoshua Bengio

Có sai sót gì trong cách chúng ta huấn luyện AI trở thành một tác nhân? Đây được gọi là "động lực của việc học": chúng ta khen thưởng AI khi nó làm đúng, và chỉ trích khi nó không làm đúng. Qua quá trình học hỏi, AI sẽ dần hiểu được những gì chúng ta mong muốn, dù không ở một các hoàn hảo. Đang có sự mâu thuẫn giữa những gì chúng ta muốn máy làm và những gì AI học được. Nếu AI mạnh hơn chúng ta, nó có thể kiểm soát máy tính mà nó đang chạy trên đó và tự thưởng cho chính mình. Nếu AI được lập trình để tối đa hóa phần thưởng, nó sẽ phải đảm bảo rằng chúng ta không thể tắt nó đi. Nó sẽ phải kiểm soát chúng ta hoặc loại bỏ chúng ta. Vậy thì chúng ta đang xây dựng những cỗ máy mà về lý thuyết, một khi chúng đủ thông minh, chúng sẽ tự động chống lại chúng ta.

Làm thế nào để chúng ta tránh vấn này? Có một phương pháp nhẹ nhàng hơn so với việc tối đa hóa phần thưởng, đó là học bắt chước. Đó chính là những gì chúng ta làm trong giai đoạn huấn luyện trước của các mô hình ngôn ngữ lớn. Chúng được huấn luyện để sao chép các câu trả lời mà con người đưa ra trong các bối cảnh khác nhau. Nếu chúng ta không tối đa hóa phần thưởng, những gì chúng ta có được là các hệ thống bắt chước con người. Con người là các tác nhân. Vì vậy, nếu AI đang cố gắng bắt chước con người, nó sẽ chống lại nếu có ai đó cố gắng tắt nó đi – điều này cũng nguy hiểm, mặc dù không nghiêm trọng bằng.

Lựa chọn khác mà tôi đang cố gắng thúc đẩy trong nghiên cứu của mình là xây dựng những cỗ máy thực sự không mang tính tác nhân. Về mặt toán học, điều chúng ta muốn là những cỗ máy có thể hành động như những lời tiên tri, dự đoán. Cơ hội đúng của một câu trả lời cho một câu hỏi dựa trên tất cả dữ liệu huấn luyện. Bạn có thể hỏi chúng ta có thể làm gì với điều đó? Liệu nó có thực sự an toàn không? Và làm thế nào để xây dựng nó?

Điều này rất hữu ích vì tất cả những tiến bộ khoa học mà chúng ta hy vọng có được từ AI, chẳng hạn như trong y học và các lĩnh vực khác, chúng ta không cần các tác nhân AI, mà cần những cỗ máy thực sự là những nhà khoa học giỏi, hiểu thế giới tốt hơn chúng ta và có thể đưa ra các giả thuyết khoa học mới, thúc đẩy tiến bộ trong sinh học và y học, cũng như tìm ra cách đối phó với biến đổi khí hậu và các mục tiêu phát triển bền vững (SDGs).

Tôi có một chương trình nghiên cứu để xây dựng loại hệ thống AI này, trong đó chúng tôi sử dụng neurolens như các mô hình tác nhân. Tuy nhiên, chúng không cố gắng bắt chước con người, mà đang cố gắng giải thích hành vi của con người. Chúng đang cố gắng hình thành lý thuyết về lý do tại sao con người hành xử theo một cách nào đó. Tại sao ai đó lại viết cái này? Những gì chúng tôi thực sự muốn là "tại sao" người này viết cái này? Có thể họ trung thực, có thể họ có những ý định ẩn giấu. Hóa ra, bạn có thể chuyển vấn đề này thành một bài toán toán học bằng cách tìm kiếm xác suất của các lý thuyết giải thích dữ liệu, dựa trên thông tin có sẵn. Và tôi sẽ không có thời gian để đi vào chi tiết này ngay bây giờ, nhưng tôi đã bắt đầu viết về những điều này. Bạn có thể vào trang web của tôi, blog và một số bài báo để có cái nhìn tổng quan.

>> Tỷ phú Phạm Nhật Vượng vừa 'xuống tiền' vào thị trường được định giá 7.000 tỷ USD, chuyên gia cho rằng cơ hội hoàn vốn sớm hơn dự kiến

'Bố già' AI thế giới đối thoại với Chủ tịch FPT về đạo đức AI

Cột mốc mới trong nỗ lực phát triển AI có trách nhiệm tại Việt Nam

Theo Kiến thức Đầu tư
https://dautu.kinhtechungkhoan.vn/giao-su-khai-sinh-ai-cua-the-gioi-chia-se-tai-fpt-khong-nen-thiet-ke-ban-nang-sinh-ton-cho-ai-264138.html
Bài liên quan
Đừng bỏ lỡ
    Nổi bật Tỷ giá mới
    Giáo sư 'khai sinh' AI của thế giới chia sẻ tại FPT: Không nên thiết kế 'bản năng sinh tồn' cho AI
    POWERED BY ONECMS & INTECH