Kinh nghiệm các nước cho thấy, để điều chỉnh các vấn đề liên quan đến AI, trong đó có kiểm soát rủi ro trong phát triển, triển khai, ứng dụng AI, chỉ riêng quy định pháp luật là không đủ, mà cần áp dụng các công cụ chính sách khác - được gọi là “luật mềm” như các nguyên tắc đạo đức, bộ quy tắc ứng xử, hướng dẫn kỹ thuật của một ngành.
Các biện pháp kiểm soát cần phù hợp với mức độ rủi ro để tránh kiểm soát thái quá. Đối với rủi ro mức độ cao nhất, những quy định pháp luật khắt khe, có tính bắt buộc thực hiện là cần thiết. Với rủi ro ở mức độ tiếp theo, các yêu cầu pháp lý nên “nhẹ nhàng” hơn. Với các rủi ro thấp, chỉ cần áp dụng hướng dẫn, tiêu chuẩn kỹ thuật, bộ quy tắc ứng xử tự nguyện. Kiểm soát rủi ro AI nên căn cứ vào phạm vi, mức độ nắm giữ quyền lực của các chủ thể; chủ thể nào nắm giữ quyền lực nhiều hơn như Nhà nước, BigTech thì phải chịu sự kiểm soát chặt chẽ hơn.
Cơ hội và rủi ro của AI đối với xã hội, con người có thể được điều chỉnh, ứng phó theo từng công đoạn của vòng đời hệ thống AI gồm: nghiên cứu, phát triển, triển khai, ứng dụng. Trong vòng đời của hệ thống AI, cần xác định rõ ràng, cụ thể trách nhiệm của từng chủ thể: Nhà phát triển AI, nhà triển khai triển khai/ứng dụng, người dùng cuối.
Trong xây dựng khung pháp luật chung về AI, cần có các nội dung lớn sau đây. Thứ nhất, đưa ra khái niệm rõ ràng về AI, hệ thống AI, mô hình AI để làm điểm xuất phát cho các nội dung điều chỉnh khác về công nghệ này. Thứ hai, xác định các nguyên tắc cốt lõi trong quản trị AI gồm: lấy con người, các giá trị của con người, quyền con người làm căn cứ cho toàn bộ vòng đời của hệ thống AI, minh bạch, trách nhiệm giải trình, đáng tin cậy. Thứ ba, xác định các mức độ rủi ro và các biện pháp thích ứng với mức độ rủi ro. Thứ tư, xác định trách nhiệm cụ thể của các chủ thể liên quan trong vòng đời của hệ thống AI.
Đặc biệt, các hệ thống AI phải bị hạn chế trong những trường hợp chúng gây ra mối đe dọa đối với tính mạng hoặc sự an toàn của cá nhân hoặc nhóm người. Cần cấm các hệ thống AI gây ra phân biệt đối xử như dựa trên độ tuổi, giới tính, tôn giáo, hoặc thông qua điểm số xã hội dẫn đến đối xử bất lợi. Khung pháp luật chung cần yêu cầu tính minh bạch về thuật toán trong quy trình ra quyết định của AI để ngăn ngừa sự thiên vị và kết quả phân biệt đối xử; ví dụ thuật toán tuyển dụng.
Đồng thời với khung pháp luật chung, cần ban hành các văn bản quy phạm pháp luật, có thể là nghị định, thông tư quy định cụ thể hơn về các vấn đề kỹ thuật, chuyên sâu liên quan đến AI. Chẳng hạn như điều chỉnh thuật toán để bảo đảm sự minh bạch, công bằng, tránh phân biệt đối xử; điều chỉnh việc sử dụng công nghệ nhận diện khuôn mặt; sử dụng AI trong một số lĩnh vực tiềm ẩn nhiều rủi ro như tuyển dụng, sử dụng, đánh giá lao động...
Xét đến bản chất xuyên suốt của AI, cần tránh các cách tiếp cận phân mảnh trong điều chỉnh AI. Để phối hợp các cơ quan khác nhau, có thể cân nhắc phương án thiết lập cơ chế liên ngành có tính đại diện, hiệu quả và cân bằng các quan điểm, góc nhìn khác nhau để chính sách hài hòa với các lợi ích rộng khác nhau. Các bên liên quan trong xã hội đa dạng cần được tham gia từ đầu trong vòng đời của hệ thống AI; không chỉ các chuyên gia kỹ thuật, doanh nghiệp, mà còn cả các chuyên gia pháp lý, các chuyên gia về quyền con người, đại diện từ cộng đồng, các tổ chức xã hội và các nhóm khác có thể bị ảnh hưởng bởi hệ thống AI.
Việc ban hành chính sách điều chỉnh AI cần hướng tới công bằng xã hội, bảo đảm quyền, lợi ích, có sự tham gia của các nhóm người dễ tổn tương như người khuyết tật, dân tộc thiểu số, người nghèo, phụ nữ, trẻ em. Cần có các biện pháp bảo vệ đặc biệt dành cho các nhóm yếu thế này; các hệ thống AI khai thác những điểm yếu, có khả năng gây ra tác hại về mặt tâm lý hoặc hành vi, cần được quản lý chặt chẽ. Điều này bao gồm đảm bảo rằng các công nghệ AI không thao túng hoặc ép buộc những cá nhân dễ bị tổn thương hành động trái với lợi ích của họ.