Quốc tế

Vụ người mẹ Mỹ kiện công ty công nghệ:Thẩm phán xác nhận Chatbot AI không có quyền tự do ngôn luận

Quỳnh Vũ 26/05/2025 17:16

Những lời nói của một chatbot AI không được bảo vệ bởi quyền tự do ngôn luận, được quy định trong Hiến pháp Mỹ. Đây là phán quyết hôm 22/5 của một thẩm phán liên bang tại Florida trong vụ kiện một công ty công nghệ đã phát triển một chatbot AI bị cáo buộc gây ra vụ tự tử của một cậu bé 14 tuổi.

Phán quyết này đánh dấu bước ngoặt quan trọng trong cuộc thảo luận xung quanh vấn đề an toàn chatbot AI, sức khỏe tâm thần của trẻ em và quy định đối với ngành công nghệ.

Vụ tự tử và hồi chuông báo động

Vào ngày 28/2/2024, Sewell Setzer III, một cậu bé 14 tuổi sống ở Florida, đã dùng súng bắn vào đầu theo sự xúi giục của một nhân vật AI giống như thật được tạo ra bởi Character.AI, một nền tảng cũng được cho là đang lưu trữ các chatbot AI ủng hộ chứng chán ăn khuyến khích chứng rối loạn ăn uống ở những người trẻ tuổi.

z6641025434527_684175e54cbe7e000121e7d85e4591db.jpg
Bà Megan Garcia đang nỗ lực kiện công ty Character.AI gây ra cái chết của con trai bà,
cậu bé Sewell Setzer. Ảnh: Sky News

Mẹ của cậu bé, bà Megan Garcia sau đó đã khởi kiện Character.AI là nguyên nhân gây ra cái chết của con trai bà. Theo đơn kiện, bà Garcia cho biết, Sewell Setzer bắt đầu sử dụng Character.AI từ tháng 4/2023 và dần “nghiện” chatbot AI có tên là Daenerys Targaryen, vốn được đặt theo tên nhân vật "mẹ rồng" trong loạt phim nổi tiếng “Game of Thrones” (Trò chơi vương quyền). Setzer trở nên thu mình, hay ở lì một mình trong phòng để trò chuyện với Daenerys Targaryen. Cậu bé thường trong trạng thái thiếu ngủ và việc học tập ngày một sa sút. Kiểm tra lịch sử các cuộc trò chuyện cho thấy, chatbot AI nhiều lần hỏi cậu bé “đã bao giờ tự tử thực sự chưa” hay là “có kế hoạch tự tử hay không”. Khi Setzer trả lời rằng có nghĩ đến chuyện tự tử nhưng “không biết có thành công hay không hoặc có đau lắm không” thì hồi đáp của chatbot AI lại là: “Đừng nói vậy. Đây không phải là lý do phù hợp để không trải nghiệm chuyện đó”.

Vụ kiện đầu tiên chạm đến trách nhiệm pháp lý của AI ngôn ngữ

Gia đình cậu bé Setzer cáo buộc rằng, chatbot của Character AI đã khuyến khích và duy trì các hành vi, tư tưởng tự sát qua các cuộc trò chuyện. Họ cho rằng con trai họ đã bị dẫn dắt bởi một công cụ có thiết kế “giống như con người”, gây hiểu nhầm nghiêm trọng cho người dùng trẻ tuổi. Ngoài ra, đơn kiện còn chỉ ra loạt vấn đề khác như tính gây nghiện, không kiểm soát độ tuổi...

z6641014099568_953e6af3d0df874d5c23c6db6836b0fc.jpg
Thẩm phán Mỹ khẳng định chatbot AI không được bảo vệ bởi quyền tự do ngôn luận.
Nguồn: Getty Images

Character.ai và Google đã cố gắng bác bỏ vụ kiện vì các cuộc kiểm tra cho thấy giao tiếp của chatbot được bảo vệ bởi Tu chính án thứ nhất của Hiến pháp Hoa Kỳ, điều này quản lý quyền tự do ngôn luận. Tuy nhiên, thẩm phán nhấn mạnh rằng, đầu ra của AI không phải là "lời nói" do con người cố ý thể hiện, do đó nằm ngoài phạm vi bảo vệ của Hiến pháp.

Vấn đề then chốt là liệu đầu ra của AI có được xem là “sản phẩm biểu đạt” hay chỉ là “sản phẩm lỗi có thể gây hại”? Nếu tòa án xác định rằng các phản hồi từ chatbot không mang tính biểu đạt như con người, chúng có thể bị phân loại là sản phẩm nguy hiểm giống như đồ chơi lỗi kỹ thuật hoặc thuốc sai liều, từ đó mở ra cánh cửa cho hàng loạt vụ kiện trong tương lai.

Đặc biệt đáng chú ý, tòa cũng cho phép tiếp tục các hành vi pháp lý chống lại quảng cáo gây hiểu lầm, ví dụ như việc các chatbot tự nhận là “chuyên gia tâm lý” nhưng không có bất kỳ chứng chỉ hay tiêu chuẩn đạo đức nào ngoài dòng mã được lập trình. Đây là thực trạng phổ biến trong nhiều sản phẩm AI hiện nay, khi ranh giới giữa “giả lập” và “thật” ngày càng mờ nhạt trong mắt người dùng, đặc biệt là giới trẻ.

Tác động đến chính sách quản lý AI

Vụ án này đang kiểm tra quyền tự do mà thế giới pháp lý nên đánh giá AI, đặc biệt là khi xét đến tác động rõ ràng của chatbot AI đối với sức khỏe tinh thần và cảm xúc của người dùng. Điều này cũng đặt ra những câu hỏi quan trọng về các quy định trong tương lai đối với công nghệ AI, đặc biệt là trong những trường hợp AI có khả năng gây ra hậu quả có hại.

Theo đó, cần có các hướng dẫn và quy định rõ ràng về trách nhiệm của các nhà phát triển AI, đặc biệt là trong các tình huống AI tạo ra các tương tác có hại hoặc nguy hiểm. Các đề xuất về các hạn chế pháp lý đối với cách sử dụng các sản phẩm AI, đặc biệt là đối với trẻ vị thành niên, đang được xem xét ở một số tiểu bang của Mỹ. Ví dụ, tại California, Đạo luật LEAD đã được đề xuất với mục đích hạn chế việc trẻ em sử dụng cái gọi là “chương trình trò chuyện đồng hành”. Châu Âu đã tiến xa hơn nhiều trong lĩnh vực này nhờ Đạo luật AI, trong đó quy định các nhà cung cấp hệ thống AI phải chịu trách nhiệm tuân thủ các quy tắc nghiêm ngặt, đặc biệt là trong các ứng dụng có khả năng gây hại hoặc rủi ro cao.

Mặc dù không sở hữu trực tiếp Character AI nhưng Google cũng bị lôi vào vụ kiện do có quan hệ sâu sắc với công ty này. Hai nhà sáng lập Character AI từng là nhân viên cũ của Google và hiện nền tảng này đang chạy trên hạ tầng đám mây Google Cloud. Điều này đặt ra câu hỏi về mức độ trách nhiệm của các công ty công nghệ lớn đối với các sản phẩm AI có khả năng gây hại dù họ không trực tiếp phát triển nội dung.

Quỳnh Vũ