Sau cuộc bỏ phiếu ngày 14.6, các cuộc đàm phán về đạo luật cuối cùng sẽ tiếp tục diễn ra giữa Nghị viện châu Âu (EP) và 27 nước thành viên Liên minh châu Âu (EU). Dự thảo luật vẫn cần phải được đệ trình lên Nghị viện các quốc gia thành viên thông qua trước khi trở thành luật chính thức. Nếu EU thực hiện được mục tiêu tham vọng là đạt được thỏa thuận vào cuối năm nay, khối này sẽ có bộ luật đầu tiên trên thế giới về quản lý AI. Nói cách khác, EU đang cố gắng trở thành tạo ra một khuôn khổ pháp lý mang tính khuôn mẫu để quản lý AI, đặt ra các giới hạn và hạn chế nhất định đối với việc phát triển và triển khai AI và các thuật toán học máy.
Dù các kế hoạch được khởi động từ năm 2021 nhưng phải đến khi ChatGPT tạo nên cơn sốt toàn cầu vào cuối năm 2022 với những tiến bộ đáng kinh ngạc và cả những nguy cơ tiềm tàng, việc soạn thảo luật mới trở nên cấp bách hơn. Các nhà công nghệ đã cảnh báo về mặt tối tiềm tàng của các hệ thống cho phép con người sử dụng để viết luận đại học, làm bài kiểm tra học thuật và xây dựng trang web. Tháng trước, hàng trăm chuyên gia hàng đầu đã cảnh báo về nguy cơ diệt vong của loài người do AI, nói rằng việc giảm thiểu khả năng đó “nên là ưu tiên toàn cầu bên cạnh các rủi ro quy mô xã hội khác như đại dịch và chiến tranh hạt nhân”.
Những lời kêu gọi quản lý AI ở nhiều nơi trên thế giới gây áp lực với các chính phủ, buộc các nhà quản lý hành động nhanh chóng để bảo vệ người dùng trước nguy cơ từ AI. Trong khi nhiều người tiên phong trong nghiên cứu AI khẳng định công nghệ này sẽ giúp thay đổi xã hội, từ lĩnh vực việc làm, chăm sóc sức khỏe đến các lĩnh vực sáng tạo thì một số hệ thống trí tuệ nhân tạo nhất định gây ra các mối đe dọa mà chúng ta phải xem xét để tránh những kết quả không mong muốn. Chính vì vậy, những quy định về AI được đề xuất bảo đảm rằng người châu Âu có thể tin tưởng vào những gì AI cung cấp.
Ví dụ, thường không thể tìm ra lý do tại sao hệ thống trí tuệ nhân tạo đưa ra một quyết định nhất định, đưa ra dự đoán hoặc thực hiện một hành động thích hợp. Vì vậy, có thể trở nên khó đánh giá liệu một người có bị thiệt thòi một cách không công bằng, chẳng hạn như trong quyết định tuyển dụng hoặc đơn đăng ký chương trình phúc lợi.
Mặc dù luật hiện hành cung cấp một số biện pháp bảo vệ, nhưng vẫn chưa đủ để giải quyết các vấn đề cụ thể mà hệ thống AI có thể tạo ra.
Trên thực tế, các nhà lập pháp EU muốn giải thích rõ ràng trong luật sự khác biệt giữa AI có mục đích chung và các mô hình cơ bản. Cả hai dạng trí tuệ nhân tạo đều khác nhau về quy mô dữ liệu, khả năng thích ứng và khả năng được sử dụng cho các mục đích không lường trước được. Tất cả các tham số này đều cao hơn trong các mô hình cơ bản, là nền tảng của các mô hình như GPT-3 và GPT-4. Chúng xử lý một lượng dữ liệu khổng lồ không ngừng mở rộng khi chúng hoạt động. Do đó, chúng có thể nhanh chóng nạp thêm những dữ liệu mới và sử dụng những dữ liệu đó theo cách hoàn toàn khác so với dự định của người tạo ra chúng. Loại AI ở mô hình cơ bản sẽ bị quản lý chặt chẽ hơn.
Để giải quyết vấn đề đó, các quy tắc sau đây đã được đề xuất: loại bỏ rủi ro do các chương trình AI tạo ra; đề xuất một danh sách các lĩnh vực rủi ro cao; đặt ra các yêu cầu rõ ràng đối với các hệ thống AI cho các ứng dụng có rủi ro cao; xác định nghĩa vụ cụ thể cho người dùng AI và nhà cung cấp phần mềm rủi ro cao; đưa ra đánh giá sự phù hợp trước khi hệ thống AI được đưa vào vận hành hoặc đưa ra thị trường; đề xuất các lĩnh vực ứng dụng sau khi một hệ thống AI như vậy được đưa ra thị trường; đề xuất một cấu trúc quản trị ở cấp châu Âu và quốc gia.
Ngoài việc thông qua luật mới về trí tuệ nhân tạo, EU cũng dự định hợp tác với Hoa Kỳ để tạo ra một quy tắc thực hành tự nguyện về công nghệ, dự kiến sẽ sớm sẵn sàng và có thể được cung cấp cho các quốc gia khác tuân thủ các nguyên tắc tương tự.
Luật Trí tuệ nhân tạo cũng sẽ tạo cơ sở cho việc thành lập Cơ quan quản lý trí tuệ nhân tạo. Nó nhằm hỗ trợ các Quốc gia Thành viên và chính quyền của họ thực hiện quy định mới thông qua chuyên môn kỹ thuật, cũng như tạo điều kiện phối hợp các giải pháp trong trường hợp có vấn đề ảnh hưởng đến nhiều quốc gia.