Dưới đây là những bước đi mới nhất mà các cơ quan quản lý quốc gia và quốc tế đang thực hiện để quản lý các công cụ AI.
Mỹ: Ban hành sắc lệnh hành pháp
Hồi tháng 10, Tổng thống Mỹ Joe Biden đã ký ban hành một sắc lệnh hành pháp bao gồm các quy định toàn diện cho hoạt động nghiên cứu, phát triển (R&D) và ứng dụng trí tuệ nhân tạo AI. Mặc dù Quốc hội Mỹ vẫn chưa ban hành luật toàn diện quy định việc sử dụng và phát triển AI, nhưng Sắc lệnh hành pháp là một bước rất cần thiết hướng tới quy định hợp lý đối với công nghệ đang phát triển nhanh chóng này.
Sắc lệnh hành pháp bao gồm thiết lập các tiêu chuẩn mới về an toàn và bảo mật AI, bảo vệ quyền riêng tư của người Mỹ, thúc đẩy bình đẳng và dân quyền, bảo vệ người tiêu dùng và người lao động, thúc đẩy đổi mới và cạnh tranh, đồng thời bảo đảm rằng Mỹ luôn ở vị trí dẫn đầu trong cuộc cạnh tranh AI toàn cầu.
Sắc lệnh hành pháp cũng viện dẫn Đạo luật Sản xuất quốc phòng, yêu cầu các công ty công nghệ phải thông báo cho Chính phủ khi phát triển bất kỳ hệ thống AI nào có thể gây nguy hiểm cho an ninh quốc gia, an ninh kinh tế hoặc an ninh y tế công cộng của Washington.
Phó Chánh văn phòng Nhà Trắng Bruce Reed cho rằng, sắc lệnh hành pháp này có sức mạnh hơn bất kỳ quy định nào trong việc giải quyết vấn đề an toàn, bảo mật và tin cậy của AI.
Trung Quốc: Ban hành quy định tạm thời
Ngày 13.8, Trung Quốc đã công bố một số biện pháp tạm thời nhằm quản lý ngành công nghệ AI tạo sinh đang bùng nổ, có hiệu lực từ ngày 15.8. AI tạo sinh là một dạng AI có thể tạo ra nội dung và ý tưởng mới, bao gồm các cuộc trò chuyện, câu chuyện, hình ảnh, video và âm nhạc, làm theo trí thông minh của con người trong các tác vụ điện toán phi truyền thống như nhận dạng hình ảnh, xử lý ngôn ngữ tự nhiên (NLP) và dịch thuật.
Quy định này yêu cầu các nhà cung cấp dịch vụ gửi đánh giá bảo mật và nhận được giấy phép trước khi tung ra thị trường đại chúng các sản phẩm AI. Phiên bản tạm thời của những quy tắc quản lý AI tạo sinh của Trung Quốc được đánh giá là khá sát với kỳ vọng của thị trường; đồng thời, chúng cũng gửi tín hiệu tích cực rằng nhà quản lý đang mở đường để doanh nghiệp ra mắt sản phẩm trên quy mô lớn hơn.
Với quy định mới, Bắc Kinh đã phát triển nhanh hơn một bước, trong khi nhiều nước vẫn đang vật lộn với việc đặt ra “hàng rào” kiểm soát AI tạo sinh. Sau sự chấp thuận của Chính phủ, 4 công ty công nghệ Trung Quốc, bao gồm Baidu Inc và SenseTime Group đã ra mắt chatbot AI vào 31.8.
Liên minh châu Âu: Thông qua Đạo luật AI
Các nhà lập pháp EU gần đây đã thông qua một dự thảo luật toàn diện được gọi là Đạo luật AI, tìm cách giảm thiểu rủi ro do AI gây ra và bảo đảm rằng các quyền cơ bản của cá nhân được bảo vệ. Theo dự thảo luật, dự kiến sẽ được hoàn thiện vào cuối năm nay, các hệ thống AI khai thác lỗ hổng của cá nhân hoặc thao túng hành vi của con người sẽ bị cấm. Việc sử dụng nhận dạng khuôn mặt theo thời gian thực ở những nơi công cộng cũng là vi phạm pháp luật, vì nó xâm phạm các quyền và tự do cơ bản. Các hệ thống AI có thể dẫn đến sự phân biệt đối xử trong việc tiếp cận việc làm hoặc lợi ích công cộng của mọi người cũng sẽ bị quản lý chặt chẽ. Tuy nhiên, dự luật này cần sự đồng ý của các quốc gia thành viên trước khi có hiệu lực.
Vấn đề lớn nhất dự kiến sẽ quy định về nhận dạng khuôn mặt và giám sát sinh trắc học, lĩnh vực mà một số nhà lập pháp muốn có lệnh cấm hoàn toàn trong khi các nước EU muốn có ngoại lệ cho các mục đích an ninh quốc gia, quốc phòng và quân sự.
G7: Lấy ý kiến về “Quy trình Hiroshima”
Một quyết định chưa từng có được đưa ra tại Hội nghị thượng đỉnh Các nền kinh tế phát triển (G7) ở Hiroshima, Nhật Bản hồi tháng 5 đánh dấu một bước quan trọng trong quy định về AI trên toàn thế giới. Các nhà lãnh đạo G7, khi nhận ra sự tiến bộ nhanh chóng và mang tính biến đổi của AI, đã đồng ý thiết lập một giao thức quản trị có tên là “Quy trình Hiroshima”. Quy trình này sẽ khám phá các vấn đề chính xung quanh AI tổng quát, bao gồm các thách thức về bản quyền và khả năng dẫn đến thông tin sai lệch. Cuộc họp đầu tiên của Quy trình Hiroshima dự kiến sẽ diễn ra vào cuối năm nay.
Quy trình Hiroshima là sự thể hiện ý chí chung của các quốc gia G7 trong việc định hướng bối cảnh quản trị AI cùng nhau, hướng tới một tương lai AI đáng tin cậy, lấy con người làm trung tâm, phù hợp với các giá trị dân chủ được chia sẻ. Kết quả của sáng kiến này có khả năng ảnh hưởng đến việc quản trị AI trên toàn cầu, đánh dấu một chương quan trọng trong lịch sử phát triển AI.
Israel: Lấy ý kiến đóng góp về quy định
Israel đã nghiên cứu các quy định về AI trong suốt hai năm qua để đạt được sự cân bằng hợp lý giữa đổi mới và bảo vệ nhân quyền cũng như bảo vệ quyền công dân. Vào tháng 10 vừa qua, Israel đã xuất bản dự thảo quy định về AI dài 115 trang và đang thu thập phản hồi của công chúng trước khi đưa ra quyết định cuối cùng.
Nhật Bản: Sẽ ban hành quy định vào cuối năm
Nhật Bản dự kiến sẽ đưa ra các quy định vào cuối năm 2023. Nước này có vẻ sẽ đi theo cách tiếp cận của Mỹ thay vì tham khảo những quy định nghiêm ngặt của EU.
Anh: Thành lập Viện An toàn AI để đánh giá rủi ro
Thủ tướng Anh Rishi Sunak ngày 26.10 thông báo, nước này sẽ thành lập Viện An toàn trí tuệ nhân tạo (AI) đầu tiên trên thế giới. Viện này sẽ kiểm tra, đánh giá và thử nghiệm các loại hình mới của AI để nắm bắt khả năng của từng mô hình mới, xác định tất cả các rủi ro từ những tác hại đối với xã hội như quan điểm thiên vị và thông tin sai lệch cho đến những nguy cơ cao nhất. Theo ông Sunak, Chính phủ Anh không vội vã kiểm soát AI, mà sẽ xây dựng năng lực hàng đầu thế giới nhằm nắm bắt và đánh giá độ an toàn của các mô hình AI trong phạm vi quốc gia.