Trí tuệ Nhân tạo (AI) đã trở thành tâm điểm thảo luận ở nhiều diễn đàn, nhất là sau khi ChatGPT được tung ra. Với rất nhiều người dùng, công cụ này đã cho họ có được trải nghiệm lần đầu tiên về những năng lực “phi thường” của một thế hệ các hệ thống AI siêu thông minh. Song công cụ này cũng buộc con người phải suy nghĩ: sớm hay muộn các hệ thống AI sẽ có ngày "phản chủ".
Tác động của AI là không biên giới
Trên thực tế, các tổ chức và các nước có những bước đi riêng để hình thành các khuôn khổ nhằm quản lý công nghệ này.
Nhóm các nền công nghiệp phát triển (G7) đã thống nhất một quy tắc ứng xử dành cho doanh nghiệp phát triển các hệ thống AI tiên tiến có tên "Quy trình Hiroshima".
Trước đó, Thủ tướng Anh Rishi Sunak tuyên bố thành lập Viện An toàn AI đầu tiên trên thế giới.
Tổng thống Mỹ Joe Biden cũng vừa ký sắc lệnh hành pháp yêu cầu các công ty AI gửi thông báo tới Chính phủ liên bang khi bắt tay vào huấn luyện những mô hình AI có thể tiềm ẩn rủi ro và phải cung cấp các kết quả thử nghiệm độ an toàn trước khi đưa vào sử dụng...
Dù vậy, như Ngoại trưởng Anh James Cleverly khẳng định, AI phát triển không ngừng và những tác động của AI với thế giới sẽ ngày càng sâu rộng hơn.
Bộ trưởng Công nghệ Anh Michelle Donelan cũng nhấn mạnh, không có quốc gia đơn lẻ nào có thể tự ứng phó với các thách thức và nguy cơ từ AI. Do đó, cần có sự phối hợp toàn cầu, xuyên quốc gia, liên lĩnh vực để quản lý hiệu quả những công cụ này.
Hai mục tiêu của Tuyên bố
Ngay trong ngày đầu tiên của hội nghị, Chính phủ Anh đã thông báo Tuyên bố Bletchley về An toàn AI với chữ ký của đại diện 27 quốc gia, trong đó có những nước hàng đầu về AI như Mỹ và Trung Quốc, cùng với Liên minh châu Âu (EU).
Tuyên bố đề ra chương trình nghị sự gồm 2 mũi nhọn tập trung nhận diện các rủi ro chung và củng cố hiểu biết khoa học về những rủi ro này đồng thời xây dựng các chính sách xuyên quốc gia về giảm thiểu rủi ro.
Theo tuyên bố, tất cả các bên đều nhất trí rằng cần khẩn trương tìm hiểu và cùng phối hợp quản lý những nguy cơ tiềm tàng từ AI thông qua nỗ lực chung toàn cầu nhằm bảo đảm AI được phát triển và triển khai theo cách an toàn, có trách nhiệm và vì lợi ích của cộng đồng toàn cầu; rằng việc cố ý lạm dụng AI với những năng lực đặc biệt hoặc vô ý quản lý AI chưa chặt chẽ có thể dẫn đến những nguy cơ tiềm tàng, thậm chí là thảm kịch, trong nhiều khía cạnh của cuộc sống, đặc biệt phải kể đến như an ninh mạng, công nghệ sinh học, tin giả.
Hiểu rằng AI có nhiều tiềm năng và nguy cơ mà ngay cả người phát triển cũng không nắm hết, các nước nhất trí tiếp tục phối hợp để thúc đẩy nghiên cứu khoa học về an toàn AI. Điều này sẽ giúp bảo đảm những nghiên cứu khoa học tối ưu sẽ được sử dụng để tạo ra cơ sở chắc chắn cho việc quản lý các nguy cơ mà không cản trở việc tận dụng lợi ích từ AI.
Một yếu tố quan trọng của tuyên bố tập trung vào “AI biên giới”, được định nghĩa là “các mô hình nền tảng có năng lực cao, có thể sở hữu các khả năng nguy hiểm đủ để gây ra rủi ro nghiêm trọng cho an toàn công cộng”, đặc biệt là trong an ninh mạng và công nghệ sinh học. Thỏa thuận nhấn mạnh nhu cầu ngày càng tăng trong việc hiểu rõ và giảm thiểu những rủi ro này thông qua hợp tác toàn cầu.
Bên cạnh Tuyên bố Bletchley, một kết quả khác của hội nghị là thỏa thuận về “Thử nghiệm an toàn” AI, được chính thức hóa trong tài liệu chính sách. Theo đó, bất kỳ tổ chức, cá nhân nào tạo ra những năng lực AI có sức mạnh đặc biệt và tiềm ẩn nguy cơ phải chịu trách nhiệm đặc biệt trong bảo đảm mức độ an toàn của những hệ thống này, trong đó có việc thử nghiệm và các biện pháp phù hợp khác.
Tuy nhiên, hội nghị vẫn chưa tìm được tiếng nói chung về vấn đề cho phép tiếp cận nghiên cứu AI công khai hay kín. Bên ủng hộ tiếp cận công khai cho rằng thế độc quyền về nghiên cứu AI dẫn tới những hậu quả tồi tệ, cản trở nghiên cứu về an toàn AI. Trong khi đó, phe phản đối lo ngại các mô hình AI có những năng lực mạnh mẽ nhưng tiềm ẩn nguy cơ nếu được phát tán rộng sẽ dẫn tới nhiều hiểm họa khôn lường. Bước đầu nỗ lực tháo gỡ vấn đề, các công ty AI đã nhất trí sẽ cho phép các Chính phủ được tiếp cận sớm những mô hình mà công ty phát triển để đánh giá mức độ an toàn.
Hội nghị cũng mở đường thành lập một ủy ban liên Chính phủ chuyên nghiên cứu khoa học để thống nhất về nguy cơ và năng lực của các hệ thống AI.
Hội nghị lần này được kỳ vọng sẽ tạo những bước tiến nhất định hướng tới việc xây dựng một khuôn khổ quốc tế để một quyết định như vậy có thể được đưa vào triển khai.
Nhà vật lý học nổi tiếng Stephen Hawking từng nói “AI có thể là điều tốt nhất hoặc tồi tệ nhất đến với loài người”. Thủ tướng Anh Sunak khẳng định: trong tương lai trước mắt, việc phát triển những công nghệ như AI sẽ giúp đổi mới nền kinh tế, xã hội và đời sống rõ rệt hơn tất cả. Dù vậy, mỗi một làn sóng công nghệ mới đều kéo theo những mối lo ngại mới và những nguy cơ mới. Nhà lãnh đạo Anh tin tưởng rằng nếu kiểm soát tốt công nghệ này, thế giới sẽ chạm tay vào phần thưởng quý giá mà AI mang lại.