Đây là chia sẻ của Thứ trưởng Bộ Thông tin và Truyền thông Phạm Đức Long tại Hội thảo và Triển lãm quốc tế về An toàn không gian mạng (Vietnam Security Summit 2024) diễn ra ngày 30.5 tại Hà Nội. Đây là sự kiện thường niên về an toàn thông tin được tổ chức dưới sự bảo trợ của Bộ Thông tin và Truyền thông, Cục An toàn thông tin và Tập đoàn IEC.
Tấn công mạng gây thiệt hại 8.000 tỷ USD
Thứ trưởng Phạm Đức Long nhận định, AI phát triển ngày càng mạnh mẽ, đang thực hiện nhiều việc mà trước đây chỉ con người mới có thể xử lý được và thậm chí vượt qua con người trong một số lĩnh vực. AI đang định hình lại gần như mọi ngành công nghiệp, và an toàn thông tin mạng cũng không ngoại lệ.
AI đang góp phần cách mạng hóa lĩnh vực an toàn thông tin trên cả hai chiến tuyến tấn công mạng và phòng thủ hệ thống. Bên cạnh lợi ích mang lại, công nghệ AI đang bị tội phạm mạng sử dụng để dễ dàng chế tạo ra các phần mềm độc hại mới, tạo ra các cuộc tấn công lừa đảo mới, tinh vi, với nhiều kịch bản tấn công đa dạng; hay sử dụng công nghệ Deepfake (là một kỹ thuật kết hợp giữa các thuật toán học sâu và học máy với mục đích tạo ra những video, hình ảnh hoặc âm thanh giả mạo một cách rất chân thực) để thực hiện các chiến dịch tấn công lừa đảo trực tuyến trên không gian mạng… Hiện các cuộc tấn công mạng liên tục phát triển với mức độ ngày càng tinh vi, phức tạp. Đặc biệt, khi có sự hỗ trợ của AI, nguy cơ, mối đe dọa an toàn thông tin mà chúng ta phải đối mặt sẽ ngày càng tăng theo cấp số nhân, Thứ trưởng Phạm Đức Long nhận định.
Trong năm 2023, thế giới ước tính thiệt hại tới 8.000 tỷ USD bởi các cuộc tấn công mạng, tương đương gần 21 tỷ USD mỗi ngày. Con số đó dự kiến sẽ tăng lên 9.500 tỷ USD vào năm 2024. Cứ sau 11 giây lại có một tổ chức trên toàn cầu bị tấn công ransomware (là một loại phần mềm độc hại mã hóa dữ liệu của nạn nhân, sau đó kẻ tấn công yêu cầu "tiền chuộc" hoặc một khoản thanh toán để khôi phục quyền truy cập vào các tệp). Đồng thời, có hơn 353 triệu người đã bị ảnh hưởng do vi phạm dữ liệu với chi phí trung bình toàn cầu của một vụ vi phạm dữ liệu lên tới 4,45 triệu USD. Đây là những con số biết nói, đặc biệt trong thời kỳ bùng nổ của công nghệ AI.
Theo Phó Cục trưởng phụ trách Cục An toàn thông tin, Bộ Thông tin và Truyền thông Trần Đăng Khoa, tại Việt Nam, AI cũng được nhắc tới nhiều trong những năm gần đây. Là một công nghệ lưỡng dụng, AI được sử dụng cho cả mục đích tấn công và phòng thủ. Mối đe dọa lớn nhất là các hacker sử dụng AI để tạo ra các cuộc tấn công tinh vi hơn; tạo ra các phần mềm độc hại, dò quét và phát hiện những lỗ hổng để từ đó vượt qua các phương pháp bảo vệ và tấn công vào hệ thống thông tin.
Phó Giám đốc Trung tâm Giám sát an toàn không gian mạng quốc gia, Cục An toàn thông tin Phạm Thái Sơn, cho hay, theo các thống kê, số lỗ hổng an toàn thông tin được phát hiện và công bố có xu hướng tăng liên tục qua mỗi năm. Năm 2023, có tới 29.000 lỗ hổng an toàn thông tin, tức là trung bình mỗi ngày có khoảng 60 - 70 lỗ hổng mới được phát hiện; khi số lượng tài sản số của các tổ chức ngày càng tăng lên, các phương hướng tấn công mới cũng liên tục tăng thêm theo thời gian, bề mặt tấn công được mở rộng hơn. Rủi ro an toàn thông tin có thể xuất hiện ở trên bất kỳ tài sản số nào, và chủ quản hay đơn vị vận hành hệ thống thông tin khó có thể kiểm soát hết được các rủi ro.
Cần sự chung tay, hợp lực củatoàn xã hội
Trước thực trạng này, theo Thứ trưởng Phạm Đức Long, chúng ta cần nhanh chóng nghiên cứu, ứng dụng những ưu điểm của công nghệ AI mang lại để tìm ra những giải pháp ứng phó kịp thời và ngăn chặn những mặt tiêu cực. Để tạo ra một không gian mạng an toàn, bảo vệ người dân trước các nguy cơ tấn công từ không gian mạng, bên cạnh trách nhiệm của các cơ quan chuyên trách hay các doanh nghiệp an toàn thông tin mạng thì cần có sự chung tay của toàn xã hội. Trong đó, mỗi cá nhân và mỗi tổ chức đều phải ý thức được trách nhiệm của mình trong việc bảo vệ thông tin, hệ thống thông tin của mình. Quá trình này đòi hỏi tính liên tục và thường xuyên, cùng nhau hợp lực để đối phó với những mối đe dọa an toàn thông tin ngày càng tinh vi, phức tạp.
Ngoài ra, theo ông Nguyễn Anh Tuấn, Phó Giám đốc Trung tâm Dữ liệu quốc gia về dân cư, Cục Cảnh sát quản lý hành chính về trật tự xã hội, Bộ Công an, để giảm thiểu rủi ro, Việt Nam cần sớm hoàn thiện hành lang pháp lý về AI; cần có quy định về đạo đức trong quá trình phát triển, sản xuất, ứng dụng và sử dụng AI tại Việt Nam; có tiêu chuẩn kỹ thuật với các hệ thống có sử dụng, ứng dụng, kết nối, cung cấp dịch vụ AI; có quy chuẩn kỹ thuật về nền tảng kết nối, chia sẻ, ứng dụng, sử dụng AI.
Đồng thời, cần nghiên cứu, ứng dụng các công trình AI để chống lại rủi ro về trí tuệ nhân tạo. Bởi lẽ AI được tạo ra bởi con người, là sản phẩm của tri thức, sẽ có những biến thể “AI tốt” và “AI xấu”, nên cần ngăn cản sự phát triển của AI bằng chính AI. Phát triển AI phải được song hành với vấn đề an ninh mạng và an toàn thông tin để tránh việc bị tấn công, chiếm quyền điều khiển gây ra các hậu quả nghiêm trọng, ông Tuấn nhấn mạnh.