Cà phê phin

Đạo đức trong Al

- Chủ Nhật, 22/09/2019, 08:43 - Chia sẻ
AI (Artificial Intelligence - Trí tuệ nhân tạo) hiện diện khắp mọi nơi. Các mạng xã hội hiện nay thường dùng AI để phân tích, đánh giá khuynh hướng của từng người đọc và từ đó đưa ra những tin tức mà nó cho là phù hợp. Nhưng...

Mới đây, tại trường ĐH École Normale Supérieure (Paris, Pháp), trong bài phát biểu khai mạc cho một Chaire về “Trí tuệ nhân tạo” (AI), nhà khoa học Kate Crawford đã chọn một chủ đề thú vị: “Đạo đức trong AI”.

AI có lẽ đang đưa tới một thời đại mà khoa học tự nhiên và khoa học xã hội sẽ gắn kết với nhau hơn, nơi các nhà khoa học khi hướng tới một vấn đề nghiên cứu cần hình dung và đánh giá xem liệu nghiên cứu của mình có thể bị lạm dụng để kéo lùi sự tiến bộ của nhân loại hay không, cho dù mục đích ban đầu là tích cực.

Chẳng hạn, hãy thử hình dung một ứng dụng nhận dạng và phân tích khuôn mặt của một em bé 10 tuổi! Dựa trên kho dữ liệu khổng lồ, nó sẽ nhận biết được (với độ chính xác 90%) đứa trẻ nào thông minh, lãng mạn, có khả năng phát triển âm nhạc, nghệ thuật hay khoa học, và do đó có chiến lược giúp trẻ phát triển tài năng. Thế nhưng, nếu nghiên cứu có vẻ thú vị đó là khả thi thì không ngoại trừ, sẽ là “con dao hai lưỡi”. Câu hỏi cần xem xét luôn là “What’s next?” (Điều tiếp theo sẽ là gì?).

 “Để thực sự trở thành một công cụ giúp nâng cao sự hiểu biết thì cần một công cụ AI giúp người đọc có tính khai phá, thoát khỏi thói quen thường nhật, vượt qua khuôn khổ của những suy nghĩ và định kiến thông thường, tiếp cận những học thuyết tiên tiến của thế giới mà trong đầu chưa từng có ý niệm. Muốn vậy, ngoài khía cạnh thuật toán AI, nguồn đầu vào phải thật sự phong phú và đại diện cho mọi góc cạnh, tư tưởng đa chiều của thế giới”.

Ứng dụng tương tự có thể sẽ là: Chỉ cần “trông mặt mà bắt hình dong”, sẽ đoán được cậu bé nào sẽ... phạm tội hay không. Kết quả là những ai bị gắn mác có khả năng phạm tội sẽ bị theo dõi ngặt nghèo, thậm chí bị đối xử như tội phạm, ngay khi chưa phạm lỗi. Dù tỷ lệ đoán đúng có là 90% thì điều đó có nghĩa: Nếu có 10.000 cậu bé bị dán mác “sẽ phạm tội” thì sẽ có 1.000 cậu bị nhận dạng và đối xử oan. Nó tước đi cuộc sống bình thường không phải chỉ của những người bị nhận oan mà của mọi người dân, ai cũng sống trong lo sợ bị khép vào một nhóm người tiêu cực nào đó, ở mặt này hay mặt khác.

Điều trên không phải là xa vời, cách đây không lâu, hai nhà nghiên cứu Trung Quốc đã công khai đưa nghiên cứu lên cộng đồng về việc nhận dạng. Bài báo, dù chẳng được đâu nhận, đã gây ra làn sóng phản ứng từ phương Tây với nghi ngại: Những nghiên cứu kiểu này rất dễ bị sử dụng vào mục đích nguy hiểm, hoặc gây phiền toái cho cuộc sống của người dân. Làn sóng phản đối khá mạnh và hai nhà nghiên cứu đã viết thư cho hay, nghiên cứu của họ thuần túy mang tính chất khoa học.

Tuy nhiên, chính Kate Crawford là một người chỉ trích dữ dội quan điểm: “Tôi chỉ là nhà khoa học, không cần quan tâm đến xã hội, chính trị...”.

 

Xã hội khi sử dụng khoa học làm công cụ cũng rất cần chú ý để tránh sự phiến diện. Các mạng xã hội hiện nay thường dùng AI để phân tích, đánh giá khuynh hướng của từng người đọc và từ đó đưa ra những tin tức mà nó cho là phù hợp. Để thực sự trở thành một công cụ giúp nâng cao sự hiểu biết thì cần một công cụ AI giúp người đọc có tính khai phá, thoát khỏi thói quen thường nhật, vượt qua khuôn khổ của những suy nghĩ và định kiến thông thường, tiếp cận những học thuyết tiên tiến của thế giới mà trong đầu chưa từng có ý niệm. Muốn vậy, ngoài khía cạnh thuật toán AI, nguồn đầu vào phải thật sự phong phú và đại diện cho mọi góc cạnh, tư tưởng đa chiều của thế giới. Tóm lại, công cụ AI có thể được dùng để thực hiện đồng thời cả những nhiệm vụ trái ngược nhau: Làm kéo lùi văn hóa trong một thế giới đóng hay mở mang tư tưởng, tiếp cận với những vấn đề cốt lõi của tiến bộ xã hội (về con người và môi trường sống).

GS. Phan Dương Hiệu (từ ĐH Limoges, Pháp)