Câu hỏi về nguồn dữ liệu thu thập của ChatGPT
Cơ quan Bảo vệ dữ liệu của Italy cho biết công ty OpenAI của Mỹ, công ty sản xuất ChatGPT, không có cơ sở pháp lý để biện minh cho “việc thu thập và lưu trữ hàng loạt dữ liệu cá nhân nhằm phục vụ cho quá trình “đào tạo” các thuật toán làm cơ sở cho hoạt động của ChatGPT”.
ChatGPT từng gây chấn động toàn cầu khi được giới thiệu vào năm 2022 nhờ khả năng tạo các bài luận, bài hát, bài kiểm tra và thậm chí cả các bài báo. Nhưng các nhà phê bình từ lâu đã băn khoăn rằng không rõ ChatGPT và các đối thủ cạnh tranh lấy dữ liệu của họ từ đâu hoặc cách họ xử lý dữ liệu đó.
Các trường đại học và một số cơ quan giáo dục đã cấm loại hình trí tuệ nhân tạo này vì lo ngại rằng sinh viên có thể sử dụng nó để viết luận hoặc gian lận trong các kỳ thi.
Bên cạnh đó, hàng trăm chuyên gia và nhiều nhân vật có ảnh hưởng trong lĩnh vực này đã ký một bức thư ngỏ trong tuần vừa qua kêu gọi tạm dừng phát triển các hệ thống AI vì lo ngại chúng có thể gây ra “những rủi ro sâu sắc cho xã hội và nhân loại”.
Bức thư ngỏ được đưa ra sau khi OpenAI phát hành phiên bản GPT-4 trong tháng 3, một phiên bản chatbot mạnh mẽ nhất từ trước đến nay và ít minh bạch hơn về nguồn dữ liệu của nó.
Đáp lại quyết định trên, OpenAI cho biết họ đã tạm thời “vô hiệu hóa ChatGPT cho người dùng ở Italy”. “Chúng tôi cam kết bảo vệ quyền riêng tư của tất cả mọi người và chúng tôi tin rằng mình tuân thủ pháp luật về quyền riêng tư. Chúng tôi tích cực để hạn chế việc thu thập dữ liệu cá nhân trong quá trình đào tạo các hệ thống AI của mình như ChatGPT vì chúng tôi muốn AI của mình tìm hiểu về thế giới chứ không phải về các cá nhân riêng tư”, một phát ngôn viên của OpenAI cho biết.
“Chúng tôi cũng tin rằng quy định về AI là cần thiết, vì vậy chúng tôi mong muốn được hợp tác chặt chẽ với Chính quyền Italy và trao đổi để họ hiểu hơn về cách hệ thống của chúng tôi được xây dựng và sử dụng”, người phát ngôn nói thêm.
“Người dùng ở Italy đã nói với chúng tôi rằng họ thấy ChatGPT hữu ích cho các công việc hàng ngày và chúng tôi mong muốn sớm mở lại tính năng này cho họ”.
Những nội dung không phù hợp với trẻ em
Chính quyền Italy cho biết họ đang mở một cuộc điều tra về vấn đề này. Ngoài cáo buộc OpenAI thiếu cơ sở pháp lý để thu thập dữ liệu trong việc đào tạo ChatGPT, Cơ quan Bảo vệ dữ liệu của Italy lưu ý rằng, đối tượng mà AI này đang thu thập dữ liệu thiếu rõ ràng.
Cơ quan Bảo vệ dữ liệu Italy cho biết việc chatbot đưa ra các câu trả lời sai cho thấy dữ liệu không được xử lý đúng cách và cáo buộc công ty cha đẻ của AI đã để trẻ em tiếp xúc với “những câu trả lời không phù hợp”.
Cơ quan giám sát cũng đề cập đến một vụ vi phạm dữ liệu vào ngày 20.3, khi các cuộc trò chuyện của người dùng và thông tin thanh toán bị xâm phạm.
Theo Luật Bảo vệ dữ liệu cá nhân của Italy, OpenAI có 20 ngày để phản hồi và có thể bị phạt 20 triệu euro hoặc lên tới 4% doanh thu hàng năm.
Thành công rực rỡ của ChatGPT đã mang lại cho OpenAI một hợp đồng trị giá hàng tỷ đô la với Microsoft, công ty sử dụng công nghệ này trong công cụ tìm kiếm Bing và các chương trình khác.
Thành công của ChatGPT cũng gây ra một cơn sốt chạy đua giữa các công ty công nghệ và nhà đầu tư mạo hiểm khác, khi Google vội vã công bố chatbot của riêng mình và các nhà đầu tư đổ tiền vào đủ loại dự án AI.