Tại EU, dự luật AI sắp tới của khối sẽ bao gồm nhiều quy tắc đặc biệt nghiêm ngặt đối với các ứng dụng AI để bảo đảm rằng trí tuệ nhân tạo không phân biệt đối xử với các nhóm thiểu số dễ bị tổn thương. Các quan chức ở Brussels hy vọng, luật mới sẽ trở thành “tiêu chuẩn vàng” cho các quy định về AI và được các Chính phủ trên thế giới học tập. Văn bản pháp lý rất được mong đợi này dự kiến sẽ được đưa ra bỏ phiếu tại Nghị viện châu Âu vào cuối tháng 3 tới, tại thời điểm đó, các quốc gia riêng lẻ sẽ bắt đầu đàm phán các điều khoản cuối cùng của dự luật.
Dự luật AI của EU chia AI thành 4 nhóm rủi ro khác nhau dựa trên việc sử dụng hệ thống có mục đích.
Rủi ro không thể chấp nhận: đây là những ứng dụng AI bị cấm “được coi là không thể chấp nhận được vì đi ngược lại các giá trị của EU, chẳng hạn như vi phạm các quyền cơ bản”. Chúng bao gồm những kỹ thuật AI tiềm ẩn nhằm bóp méo đáng kể hành vi của một người theo cách gây ra hoặc có khả năng gây ra… tổn hại về thể chất hoặc tâm lý; một hệ thống AI có hành vi thao túng khi khai thác bất kỳ lỗ hổng nào của một nhóm người cụ thể do tuổi tác, khuyết tật về thể chất hoặc tinh thần của họ, nhằm bóp méo đáng kể hành vi của một người thuộc nhóm đó theo cách có khả năng gây hại thể chất hoặc tổn hại tâm lý…
Rủi ro cao: các hệ thống AI có rủi ro cao phải tuân theo chế độ chứng nhận chi tiết, nhưng về cơ bản không bị coi là phản cảm đến mức chúng nên bị cấm. Có thể liệt kê một số hệ thống AI có rủi ro cao bao gồm: cơ sở hạ tầng quan trọng (ví dụ: giao thông vận tải), có thể đặt cuộc sống và sức khỏe của công dân vào rủi ro; hệ thống ID sinh trắc học; giáo dục và đào tạo nghề, có thể quyết định đến khả năng tiếp cận với giáo dục và các khóa học chuyên nghiệp của một ai đó (ví dụ: chấm điểm bài kiểm tra tự động); việc làm, quản lý người lao động và tiếp cận với việc tự kinh doanh (ví dụ: tuyển dụng tự động và phần mềm phân loại CV); các dịch vụ tư nhân và công cộng thiết yếu (ví dụ: hệ thống phúc lợi tự động; hệ thống chấm điểm tín nhiệm khu vực tư nhân); các hệ thống thực thi pháp luật có thể can thiệp vào quyền cơ bản của mọi người (ví dụ: chấm điểm rủi ro tự động để được tại ngoại, phần mềm “phát hiện trước tội phạm”); quản lý di cư, tị nạn và kiểm soát biên giới( như xác minh tính xác thực của các tài liệu du lịch, xử lý visa); quản lý các quy trình tư pháp và dân chủ (ví dụ: phần mềm hỗ trợ tuyên án tự động)…
Rủi ro hạn chế: ba hệ thống AI được định nghĩa là “rủi ro hạn chế”. Các nhà phát triển có nghĩa vụ phải cung cấp tính minh bạch như ghi nhãn hoặc tiết lộ rằng nội dung đã bị thao túng. Các hệ thống đó là: các Chatbot (đây là những ứng dụng phần mềm dùng để quản lý một hệ thống thảo luận trực tuyến bằng văn bản hoặc văn bản chuyển thành giọng nói, thay vì cung cấp các thảo luận trực tiếp với người dùng có thật); các hệ thống nhận dạng cảm xúc và phân loại sinh trắc học; và các hệ thống tạo ra “deepfake” hoặc nội dung tổng hợp. Deepfake là một kỹ thuật cho tổng hợp hình ảnh con người dựa trên trí tuệ nhân tạo.
Liên quan đến chatbot, chỉ nhà cung cấp chứ không phải người dùng mới có nghĩa vụ minh bạch. Các nhà cung cấp phải thiết kế một hệ thống sao cho người dùng được thông báo rằng họ đang tương tác với máy chứ không phải con người. Ngược lại, liên quan đến nhận diện cảm xúc và deepfake, người dùng có nhiệm vụ cung cấp sự minh bạch.
Trong số 4 nhóm rủi ro này, dự luật AI của EU quan tâm nhất đến hệ thống AI có “mức rủi ro cao”, chẳng hạn như những hệ thống ảnh hưởng đến sự an toàn của một người hoặc vi phạm các quyền cơ bản. Những người triển khai các hệ thống như vậy sẽ phải tuân theo các quy tắc giám sát và minh bạch nghiêm ngặt. Cụ thể, họ sẽ phải tiến hành đánh giá sự phù hợp trước khi đưa chúng ra thị trường. Ngoài ra, các nhà cung cấp phải thiết lập hệ thống quản lý rủi ro trong toàn bộ vòng đời của hệ thống AI, mục đích là giảm mức “rủi ro cao” của nó xuống mức có thể cấp nhận được.
Thực tế đây là một trong những lĩnh vực gây tranh cãi nhất của dự luật, đòi hỏi các nghị sĩ châu Âu phải nỗ lực để tìm ra tiếng nói chung, giúp nó được thông qua và đi vào cuộc sống.