Kazakhstan đặt nền móng cho khung pháp lý về trí tuệ nhân tạo
Hạ viện Kazakhstan (Mazhilis) đã thông qua dự thảo luật về trí tuệ nhân tạo (AI) trong lần đọc đầu tiên vào ngày 14/5 vừa qua, đánh dấu cột mốc chiến lược trong nỗ lực xây dựng nền tảng pháp lý cho sự phát triển và quản lý AI tại quốc gia Trung Á này.

Trong bối cảnh toàn cầu đang vật lộn với tốc độ phát triển chóng mặt của AI, động thái của Kazakhstan phản ánh một tầm nhìn rõ ràng: Không chạy theo tiến bộ công nghệ bằng mọi giá, mà kiến tạo một hệ sinh thái AI cân bằng giữa đổi mới và đạo đức, giữa phát triển và kiểm soát.
Thời điểm “vàng” để thiết lập luật chơi cho AI
Tờ The Astana Times cho hay, trong thập kỷ qua, AI đã bước ra khỏi phòng thí nghiệm để hiện diện trong đời sống thường nhật, từ các hệ thống đề xuất nội dung trên mạng xã hội đến những ứng dụng chẩn đoán y tế, xe tự hành và tự động hóa công nghiệp. Tuy nhiên, chính tốc độ phát triển thần tốc này lại đặt ra những thách thức lớn: khoảng trống pháp lý, nguy cơ xâm phạm quyền riêng tư, bất bình đẳng số, và những hậu quả xã hội khó lường.
Theo bà Sholpan Saimova, Giám đốc Trung tâm Lập pháp và quản trị công tại Viện Nghiên cứu lập pháp thuộc Văn phòng Tổng thống Kazakhstan, dự thảo luật mới “phản ánh nỗ lực nghiêm túc của Kazakhstan trong việc nhận diện các thách thức toàn cầu mà AI đặt ra, và đề xuất một phản ứng có hệ thống”.
Bà cho biết thêm, khung pháp lý đang được xây dựng của Kazakhstan được lấy cảm hứng từ các xu hướng quốc tế, đặc biệt là Đạo luật AI năm 2024 của EU, vốn được coi là văn kiện pháp lý đầu tiên trên thế giới áp dụng mô hình quản lý dựa trên mức độ rủi ro.
Bà lưu ý rằng, Kazakhstan không chỉ muốn bắt kịp mà còn muốn dẫn đầu với một khuôn khổ được thiết kế riêng cho quốc gia, thúc đẩy sự tin tưởng giữa con người và thuật toán, giữa tiến bộ công nghệ và pháp quyền. Dự luật tập trung vào nền tảng pháp lý và đạo đức để đảm bảo phát triển AI có trách nhiệm, mang lại lợi ích cho xã hội.
Lấy con người làm trung tâm
Một điểm nhấn nổi bật trong dự thảo là cách tiếp cận “lấy con người làm trung tâm”, đặt AI vào vị trí công cụ phục vụ con người chứ không thay thế hay thống trị con người. Các nguyên tắc nền tảng bao gồm tính hợp pháp, công bằng, bình đẳng, minh bạch, khả năng giải thích được, trách nhiệm giải trình, và bảo vệ lợi ích xã hội.
“Minh bạch và khả năng giải thích được là điều bắt buộc, nhất là khi các quyết định của AI ảnh hưởng đến quyền lợi công dân. Công nghệ không thể được phép vận hành như một hộp đen” bà Saimova nhận định.
Cách tiếp cận này mang tính chất định hướng: Không ngăn cản đổi mới, nhưng yêu cầu sự rõ ràng và kiểm soát trong từng bước triển khai. Luật không đơn thuần là “cấm” hay “cho phép” mà là xây dựng hệ sinh thái nơi công nghệ phát triển có trách nhiệm.
Điểm đáng ghi nhận là quy trình soạn thảo luật diễn ra trong bối cảnh hợp tác rộng rãi. Các nghị sĩ, chuyên gia pháp lý, đại diện doanh nghiệp và giới công nghệ, bao gồm Atameken, Kazakhtelecom, Hiệp hội Công nghệ số Kazakhstan, và cả Yandex Qazaqstan, đều tham gia đóng góp.
“Các cuộc đối thoại diễn ra một cách cởi mở và mang tính xây dựng. Đây không chỉ là một dự luật, mà là một sản phẩm hợp tác xã hội,” bà Saimova chia sẻ.
Dự thảo luật quy định rõ ràng các điều kiện bảo vệ dữ liệu cá nhân, cấm thu thập và xử lý dữ liệu không được phép, đồng thời đặt nền móng cho các chế tài hình sự nếu vi phạm gây rủi ro cho cộng đồng.
Tạo ra khu vực tài phán AI thông minh
Ông Evgeny Pitolin, Giám đốc điều hành của Datastar và đồng Chủ tịch Ủy ban An ninh Thông tin thuộc QazTech Alliance cho biết, Kazakhstan đang trên đường trở thành quốc gia thứ hai trên thế giới ban hành một đạo luật độc lập về AI (sau EU).
“Nếu triển khai đúng, dự luật sẽ tạo lực đẩy cho quá trình số hóa ở mọi lĩnh vực, từ xây dựng, khai khoáng, dầu mỏ cho tới các ngành công nghệ cao. Quan trọng hơn, nó sẽ đặt nền móng cho môi trường pháp lý rõ ràng, nơi trước đây còn thiếu định hướng”.
Ba nguyên tắc cốt lõi trong dự thảo luật được ông Pitolin nhấn mạnh gồm: Minh bạch thuật toán, việc ra quyết định ưu tiên con người, và bảo đảm an toàn dữ liệu lẫn an ninh mạng. Đặc biệt, khi AI được tích hợp vào hạ tầng trọng yếu hoặc hệ thống nhà nước, các yêu cầu về kiểm soát và giải trình càng trở nên cấp thiết.
Điều chỉnh rủi ro, nhưng không bóp nghẹt đổi mới
Một điểm đáng chú ý là Kazakhstan không lựa chọn con đường “siết chặt toàn diện”, mà phân loại mức độ rủi ro của hệ thống AI để áp dụng các mức quản lý khác nhau. Những hệ thống AI tự động có khả năng gây tác động nghiêm trọng sẽ phải tuân theo các quy định nghiêm ngặt hơn.
Dự thảo cũng nêu rõ trách nhiệm pháp lý đối với các nhà phát triển và sở hữu hệ thống AI nếu công nghệ của họ gây tổn hại đến sức khỏe, an toàn hoặc quyền công dân. Đồng thời, các nguy cơ mới như deepfake, gian lận tiêu dùng bằng AI, hoặc truy cập dữ liệu trái phép cũng sẽ được xử lý song song trong các bộ luật liên quan khác như Bộ luật Hành chính sửa đổi hay các luật kỹ thuật số khác.
Không chỉ dừng ở khuôn khổ pháp lý, dự luật về AI còn có tác động lâu dài đến thị trường lao động công nghệ và chính sách giáo dục. Theo ông Pitolin, nhu cầu về nhân sự hiểu biết cả về kỹ thuật lẫn pháp lý, đạo đức số sẽ gia tăng mạnh.
“Những ai không nâng cấp kỹ năng về dữ liệu lớn, lập trình ngôn ngữ AI, bảo mật thông tin… sẽ bị bỏ lại phía sau. Không phải vì vì AI thay thế họ, mà vì họ không còn đủ năng lực để thích nghi và tồn tại trong môi trường số mới”, ông nói.
Luật gián tiếp tạo động lực cho cải cách giáo dục, đặc biệt là trong lĩnh vực đào tạo kỹ sư, chuyên viên dữ liệu, và các ngành giao thoa giữa công nghệ và luật pháp.
Dự thảo luật AI của Kazakhstan không chỉ là phản ứng chính sách, mà là tuyên bố chiến lược, rằng quốc gia này không chỉ theo đuổi vai trò người dùng công nghệ, mà còn muốn định hình tương lai của công nghệ đó.
“Thế giới từng chần chừ vì sợ luật hóa sẽ giết chết sáng tạo. Nhưng giờ đây, người ta đã hiểu: không kiểm soát, giám sát được AI mới chính là mối nguy thực sự”, ông Pitolin kết luận.
Kazakhstan, với bước đi đầu tiên này, đang bước vào hàng ngũ những quốc gia tiên phong trong kỷ nguyên AI, một tương lai vừa hứa hẹn, vừa đòi hỏi tỉnh táo và trách nhiệm cao độ.