Trên cơ sở sự hỗ trợ của Chương trình Aus4Innovation, ngày 4.10, Trường Đại học Luật, Đại học Quốc gia Hà Nội, tổ chức hội thảo “Thực trạng phát triển và thách thức cơ bản dưới góc độ xã hội, đạo đức và pháp lý của AI ở Việt Nam”. Một lần nữa, những vấn đề liên quan đến thực tiễn phát triển, ứng dụng AI tại Việt Nam cùng các thách thức về xã hội, đạo đức và pháp lý lại được đưa ra bàn thảo dưới nhiều góc độ.
AI cần hệ thống giá trị
TS. Hoàng Đỗ Thanh Tùng - Trưởng phòng Nghiên cứu hệ thống và quản lý, Viện Công nghệ thông tin, Viện hàn lâm Khoa học và Công nghệ Việt Nam - đã lược thuật sự phát triển của AI qua các thời kỳ, cho thấy AI đã tiến hóa thành công nghệ tự học mạnh mẽ. AI có khả năng giải quyết nhiều vấn đề khác nhau, từ công nghệ cao đến những nhiệm vụ hàng ngày, giúp cải thiện hiệu quả và tự động hóa trong nhiều lĩnh vực như: nhận diện hình ảnh, xử lý ngôn ngữ tự nhiên, chẩn đoán y tế, chuyển động robot, phát hiện gian lận…
TS. Hoàng Đỗ Thanh Tùng cho rằng, xã hội có thể đang phấn khích về AI nhưng cũng cần thực tế. Đó là AI chỉ hoạt động tốt trong một ứng dụng cụ thể mà nó đã được thiết kế và huấn luyện, không thể vượt ra ngoài các nhiệm vụ được chỉ định. Chưa kể hàng loạt vấn đề cơ bản với AI như: khi thiếu dữ liệu huấn luyện, AI có thể cho ra những kết quả rất kỳ quặc; quy trình học sâu rất khó kiểm tra, sửa lỗi và nâng cấp; thiếu hiểu biết ngôn ngữ và suy luận nhân quả…
“AI phụ thuộc rất nhiều vào lượng lớn dữ liệu đa dạng và có nhãn chính xác để hiểu và xử lý đúng. Nếu AI được huấn luyện với dữ liệu không đủ, nó sẽ dễ mắc nhiều lỗi hơn”, TS. Hoàng Đỗ Thanh Tùng nhấn mạnh; đồng thời khẳng định: “AI cần hệ thống giá trị. AI không chỉ cần các thuật toán phân tích mà còn phải có khả năng đưa ra các quyết định đạo đức trong một số tình huống”.
Lỗ hổng trong quản lý rủi ro về đạo đức và bảo mật AI
Từ năm 2021, Chính phủ Việt Nam đã ban hành Chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng AI đến năm 2030, với mục tiêu đưa Việt Nam vào nhóm 4 quốc gia dẫn đầu ASEAN về AI. Đến năm 2023, Việt Nam đã thăng hạng lên thứ 5 trong bảng xếp hạng Chỉ số Sẵn sàng cho AI của Chính phủ. Các doanh nghiệp lớn như FPT, Vingroup (VinAI) và Viettel đang dẫn đầu trong việc phát triển và ứng dụng AI.
Việt Nam đang tập trung xây dựng các trung tâm dữ liệu lớn, đặc biệt là các khu công nghệ thông tin tại Hà Nội, Đà Nẵng, và TP. Hồ Chí Minh. Bình Định cũng đang xây dựng trung tâm AI trị giá 173 triệu USD nhằm hỗ trợ nghiên cứu và ứng dụng AI.
Thế nhưng tại Việt Nam, việc thu thập dữ liệu vẫn còn gặp nhiều trở ngại về tính toàn diện và tính đại diện. Các doanh nghiệp nhỏ không có đủ khả năng lưu trữ và xử lý khối lượng dữ liệu lớn, điều này làm hạn chế khả năng ứng dụng AI vào các quy trình sản xuất và kinh doanh. Nguồn nhân lực chất lượng cao là một trong những điểm yếu của Việt Nam trong phát triển AI.
Đặc biệt, việc quản lý dữ liệu cá nhân và bảo mật thông tin trong ứng dụng AI là vấn đề quan trọng mà Việt Nam chưa giải quyết triệt để. Các quy định về bảo vệ quyền riêng tư, trách nhiệm pháp lý khi ứng dụng AI, cũng đang ở giai đoạn sơ khai. Theo TS. Hoàng Đỗ Thanh Tùng, điều này tạo ra lỗ hổng trong việc quản lý các rủi ro liên quan đến đạo đức và bảo mật AI.
Linh hoạt và thích ứng
Trên cơ sở đánh giá tổng quan chính sách, pháp luật hiện hành của Việt Nam về lĩnh vực này, PGS.TS. Nguyễn Thị Quế Anh, Trường Đại học Luật, Đại học Quốc gia Hà Nội, cho rằng cần hướng tới cân bằng giữa thúc đẩy phát triển và kiểm soát rủi ro trong ứng dụng AI dựa trên 3 trụ cột: Hợp pháp - Đạo đức - Bền vững công nghệ; kết hợp điều chỉnh giữa “Luật cứng” (như các đạo luật) và “Luật mềm” (như các Bộ quy tắc/ hướng dẫn thực hành).
Theo PGS.TS. Nguyễn Thị Quế Anh, “AI đang phát triển nhanh chóng và tác động sâu rộng đến mọi mặt đời sống xã hội. Điều này dẫn tới xu hướng toàn cầu về thúc đẩy AI có trách nhiệm thông qua các công cụ điều chỉnh, đặc biệt là công cụ đạo đức”.
Tổ chức Hợp tác và Phát triển kinh tế (OECD, 2019), Australia (2019), Liên minh châu Âu (2019), UNESCO (2021), Hoa Kỳ (2022, 2023), Trung Quốc (2023), ASEAN (2/2024), Nhật Bản (4.2024) đã ban hành các bộ nguyên tắc chung về AI có trách nhiệm. Bên cạnh đó còn có các bộ nguyên tắc về AI có trách nhiệm theo lĩnh vực, như Hướng dẫn của UNESCO về AI tạo sinh và giáo dục (2023); các khuyến nghị của WHO về nguyên tắc đạo đức của AI trong chăm sóc sức khỏe (2021, 2023, 2024)…
Nghiên cứu về sự phát triển và ứng dụng AI trong các lĩnh vực giáo dục - đào tạo, y tế và nông nghiệp tại Việt Nam, cũng như những thách thức về xã hội, đạo đức, pháp lý, các nhà nghiên cứu đề xuất, cần thiết xây dựng và ban hành bộ nguyên tắc chung về AI có trách nhiệm tại Việt Nam, đồng thời hướng dẫn cụ thể trong một số lĩnh vực nhạy cảm như giáo dục - đào tạo và y tế.
Các giá trị cốt lõi của AI có trách nhiệm gồm: tôn trọng quyền tự chủ của con người; ngăn ngừa thiệt hại đối với con người và xã hội; không tạo ra hoặc làm trầm trọng thêm sự phân biệt đối xử; bảo đảm tính minh bạch và khả năng giải thích các quyết định của AI.
Điều này cũng được các đại biểu tham gia hội thảo đồng thuận, cho rằng cần tiếp cận một cách hệ thống và đa chiều nhằm thúc đẩy hiệu quả việc phát triển và ứng dụng AI có trách nhiệm, phù hợp với sự phát triển của công nghệ cũng như xu hướng quốc tế. Bộ nguyên tắc và các hướng dẫn này cần mang tính linh hoạt, thích ứng, thường xuyên được đánh giá, cập nhật, bổ sung theo sự phát triển nhanh chóng của AI trong các lĩnh vực khác nhau.