Luật Trí tuệ nhân tạo vừa được ban hành, lần đầu tiên đặt ra khung pháp lý toàn diện nhằm phòng ngừa, ngăn chặn và xử lý các hành vi lợi dụng AI để chiếm đoạt tài sản, thao túng nhận thức xã hội.

Hội thảo góp ý Dự thảo Luật Trí tuệ nhân tạo
Lừa đảo bằng AI ngày càng tinh vi, khó nhận diện
Thời gian gần đây, các cơ quan chức năng liên tục cảnh báo về sự gia tăng của các hình thức lừa đảo sử dụng AI. Phổ biến nhất là công nghệ giả mạo giọng nói, hình ảnh và video (deepfake). Chỉ với vài giây dữ liệu thu thập từ mạng xã hội, AI có thể tái tạo gần như giống tuyệt đối giọng nói của người thân, bạn bè đến lãnh đạo cơ quan, đối tác làm ăn, từ đó thực hiện các cuộc gọi yêu cầu chuyển tiền khẩn, phê duyệt giao dịch hoặc cung cấp thông tin nhạy cảm.
Không dừng lại ở đó, AI còn được sử dụng để tạo email, tin nhắn và website giả mạo với nội dung trau chuốt, được “cá nhân hóa” theo từng nạn nhân. Các thông báo về xác minh tài khoản, cảnh báo bảo mật, hoàn tiền hay trúng thưởng được trình bày chuyên nghiệp, dẫn dắt người dùng đến các trang web giả có giao diện gần như bản thật nhằm đánh cắp mật khẩu, mã OTP hoặc thông tin thẻ ngân hàng.
Đặc biệt, lừa đảo đầu tư và tài chính trên mạng xã hội đang bùng nổ mạnh mẽ. Kẻ gian sử dụng AI để tạo hình ảnh, video giả mạo chuyên gia tài chính, người nổi tiếng nhằm quảng bá các dự án “siêu lợi nhuận”, “cam kết không rủi ro”. Thậm chí, các chatbot AI còn được lập trình để tư vấn, trò chuyện liên tục 24/7, tạo cảm giác chuyên nghiệp, đáng tin cậy, từng bước dẫn dụ nạn nhân nạp tiền.
Điểm chung của các thủ đoạn này là đánh vào tâm lý tin tưởng, sự khẩn cấp và thói quen thiếu kiểm chứng thông tin của người dùng. Trong bối cảnh đó, yêu cầu đặt ra không chỉ là nâng cao cảnh giác của người dân mà còn cần một hành lang pháp lý đủ mạnh để kiểm soát việc sử dụng AI.
Khuôn khổ pháp lý ngăn chặn lừa đảo công nghệ cao
Nhằm kiểm soát các rủi ro phát sinh từ việc lạm dụng trí tuệ nhân tạo, Luật Trí tuệ nhân tạo 2025, có hiệu lực từ ngày 1/3/2026 đã thiết lập một hệ thống quy định chặt chẽ, trực tiếp và gián tiếp hướng tới ngăn chặn các hành vi lừa đảo sử dụng AI.
Trước hết, Luật xác định rõ những hành vi bị nghiêm cấm. Theo Điều 7, việc sử dụng AI để giả mạo, thao túng hoặc lừa dối con người bị cấm tuyệt đối. Đáng chú ý là nghiêm cấm việc sử dụng yếu tố giả mạo hoặc mô phỏng người thật, sự kiện thật nhằm lừa dối hoặc thao túng nhận thức, hành vi của con người một cách có chủ đích. Quy định này tạo cơ sở pháp lý trực diện để xử lý các hành vi deepfake giọng nói, video giả mạo lãnh đạo, người thân hoặc đối tác nhằm yêu cầu chuyển tiền, chiếm đoạt tài sản.
Đồng thời, Luật cũng cấm việc tạo ra hoặc phổ biến nội dung giả mạo có khả năng gây nguy hại nghiêm trọng đến trật tự, an toàn xã hội, bao trùm các hình thức video, hình ảnh, thông tin giả do AI tạo ra để lừa đảo cộng đồng.
Bên cạnh việc cấm hành vi, Luật yêu cầu minh bạch đối với nội dung và hệ thống AI. Theo Điều 11 Luật Trí tuệ nhân tạo 2025, người sử dụng phải được nhận biết rõ ràng khi đang tương tác với hệ thống AI, nhất là trong các trường hợp chatbot, trợ lý ảo hoặc hệ thống chăm sóc khách hàng tự động.
Song song đó, Luật cũng quy định âm thanh, hình ảnh, video do AI tạo ra phải được đánh dấu, gắn nhãn dễ nhận biết, đặc biệt khi nội dung đó mô phỏng ngoại hình, giọng nói của người thật hoặc tái hiện sự kiện có thật. Đây được xem là quy định quan trọng nhằm giảm nguy cơ người dân bị đánh lừa bởi các cuộc gọi, video call hoặc nội dung giả mạo có độ chân thực cao.
Luật Trí tuệ nhân tạo cũng tiếp cận vấn đề lừa đảo từ góc độ quản lý rủi ro. Theo Điều 9, các hệ thống AI có khả năng gây nhầm lẫn hoặc thao túng người dùng do không phân biệt được nội dung do AI tạo ra được xếp vào nhóm rủi ro trung bình. Những hệ thống này không được vận hành tự do mà phải chịu các yêu cầu về thông báo, giám sát và kiểm tra của cơ quan có thẩm quyền.
Trong trường hợp hệ thống AI gây ra hoặc có nguy cơ gây thiệt hại, Luật trao quyền cho cơ quan quản lý yêu cầu tạm dừng, thu hồi hệ thống, đồng thời buộc nhà phát triển, nhà cung cấp và đơn vị triển khai phối hợp khắc phục hậu quả và thông báo cho cơ quan có thẩm quyền. Cơ chế này cho phép can thiệp sớm, hạn chế thiệt hại lan rộng khi phát hiện công cụ AI bị lợi dụng cho lừa đảo trên diện rộng.
Luật Trí tuệ nhân tạo 2025 cũng đã thiết lập cơ chế thanh tra, xử lý vi phạm và bồi thường thiệt hại. Theo đó, cơ quan quản lý có quyền yêu cầu cung cấp hồ sơ kỹ thuật, nhật ký hệ thống và dữ liệu liên quan để xác định trách nhiệm. Ngoài ra, hành vi sử dụng AI để lừa đảo có thể bị xử phạt hành chính hoặc truy cứu trách nhiệm hình sự theo quy định của pháp luật, đồng thời phải bồi thường thiệt hại cho người bị ảnh hưởng.
Với hệ thống quy định nêu trên, Luật Trí tuệ nhân tạo không chỉ tạo điều kiện cho việc phát triển và ứng dụng AI một cách an toàn, có trách nhiệm, mà còn tạo dựng khuôn khổ pháp lý quan trọng nhằm ngăn chặn làn sóng lừa đảo công nghệ cao ngày một gia tăng trong kỷ nguyên số.