Tội phạm mạng đang dùng AI để tạo ra các chiến dịch lừa đảo và tấn công “đáng tin ở quy mô lớn”, khiến phishing, giả mạo giọng nói, video deepfake và khai thác lỗ hổng ngày càng khó nhận diện.
Cùng công nghệ từng được dùng để cá nhân hóa quảng cáo, kẻ xấu nay tận dụng để thu thập dữ liệu cá nhân, soạn thông điệp theo ngữ cảnh và triển khai lừa đảo với tốc độ rất cao, đe dọa từ tiền tiết kiệm hưu trí đến bí mật doanh nghiệp.
- AI giúp lừa đảo và tấn công mạng trở nên thuyết phục hơn, mở rộng phạm vi và tăng quy mô phát tán.
- Chợ ngầm đang bán hoặc cho thuê công cụ AI phục vụ tội phạm, hạ thấp rào cản gia nhập.
- Tự động hóa bằng AI đang tái định hình “chuỗi cung ứng” ransomware, đồng thời AI cũng được dùng để tăng cường phòng thủ.
AI đang khuếch đại quy mô và mức độ thuyết phục của lừa đảo trực tuyến
AI giúp kẻ tấn công tạo thông điệp giống người thật, bám sát văn phong nội bộ và bối cảnh cụ thể, từ đó khiến phishing và các biến thể lừa đảo trở nên khó phát hiện hơn.
Các công ty AI lớn như Anthropic, OpenAI và Google cho biết tội phạm đang lợi dụng nền tảng của họ để tổ chức phishing phức tạp, phát triển phần mềm độc hại và tiến hành nhiều kiểu tấn công số. Chuyên gia an ninh cũng cảnh báo về việc tạo audio, video giả mạo lãnh đạo nhằm lừa nhân viên tiết lộ thông tin nhạy cảm.
Alice Marwick, trưởng nhóm nghiên cứu tại Data & Society, nhận định thay đổi lớn nhất là “quy mô và phạm vi”. Khi AI giúp sản xuất nội dung hàng loạt nhưng vẫn cá nhân hóa, các chiến dịch lừa đảo có thể vừa rộng hơn vừa nhắm mục tiêu chính xác hơn, làm tăng tỷ lệ nạn nhân mắc bẫy.
“Thay đổi thực sự là phạm vi và quy mô. Lừa đảo lớn hơn, nhắm mục tiêu hơn, thuyết phục hơn.”
– Alice Marwick, Trưởng nghiên cứu, Data & Society (Wall Street Journal)
Spam và phishing do AI tạo ra đang chiếm tỷ trọng lớn
Một số nhà nghiên cứu ước tính phần đáng kể tin nhắn spam và phishing hiện nay được tạo bởi hệ thống AI, khiến khối lượng tấn công tăng mạnh mà không cần thêm nhân lực.
Brian Singer, nghiên cứu sinh tiến sĩ tại Đại học Carnegie Mellon, người nghiên cứu cách mô hình ngôn ngữ lớn được dùng trong tấn công và phòng thủ, ước tính khoảng một nửa đến ba phần tư spam và phishing toàn cầu hiện đến từ hệ thống AI. Dù đây là ước tính cá nhân, nó cho thấy xu hướng tự động hóa đang đẩy sản lượng tấn công lên cao.
AI có thể được huấn luyện trên dữ liệu giao tiếp doanh nghiệp để viết hàng nghìn email “đúng giọng”, bắt chước cách lãnh đạo soạn thảo, và chèn các chi tiết thời sự lấy từ hồ sơ công khai. Điều này làm giảm các dấu hiệu bất thường vốn giúp người dùng nhận ra lừa đảo trước đây.
Deepfake và che giấu lỗi ngôn ngữ làm tăng “độ tin” của kẻ mạo danh
AI giúp kẻ lừa đảo xóa lỗi ngôn ngữ và tạo video, giọng nói giả, khiến mạo danh trở nên dễ triển khai và khó kiểm chứng hơn ở nhiều kênh cùng lúc.
Công cụ AI giúp các nhóm lừa đảo xuyên biên giới tránh các lỗi ngữ pháp từng là “cờ đỏ” điển hình. Đồng thời, kỹ thuật sao chép giọng nói và deepfake cho phép giả danh nạn nhân hoặc lãnh đạo để thúc ép chuyển tiền, cung cấp mã xác thực, hoặc mở quyền truy cập hệ thống.
John Hultquist, trưởng phân tích của Google Threat Intelligence Group, mô tả chuyển dịch trọng tâm là “độ tin cậy ở quy mô lớn”. Khi nội dung trông hợp lý và được phát tán hàng loạt, việc dựa vào cảm giác chủ quan để nhận biết lừa đảo trở nên kém hiệu quả.
“Sự thay đổi chính là ‘độ tin cậy ở quy mô lớn’.”
– John Hultquist, Trưởng phân tích, Google Threat Intelligence Group
AI giúp chọn mục tiêu dựa trên dấu hiệu dễ tổn thương trên mạng xã hội
Kẻ xấu có thể dùng AI để dò tìm người đang gặp biến cố, sau đó tối ưu kịch bản lừa đảo như romance scam, gian lận đầu tư hoặc việc làm giả.
AI cho phép rà soát mạng xã hội để tìm các tín hiệu như ly hôn, tang gia, mất việc, hoặc áp lực tài chính. Những trạng thái này thường làm nạn nhân dễ phản ứng theo cảm xúc, dễ bỏ qua bước xác minh độc lập. Mạo danh “nhà tuyển dụng”, “người yêu”, hoặc “cơ hội đầu tư” là các kịch bản thường xuyên khai thác điểm yếu tâm lý.
Chợ đen và dark web đang hạ thấp rào cản gia nhập tội phạm mạng
Các chợ ngầm hiện bán hoặc cho thuê công cụ AI phục vụ tấn công với mô hình thuê bao, khiến người ít kỹ năng kỹ thuật cũng có thể triển khai chiến dịch lừa đảo.
Theo Nicolas Christin, người đứng đầu bộ phận Software and Societal Systems tại Carnegie Mellon, các chợ ngầm có nhiều mức giá và cả hỗ trợ khách hàng. Một ví dụ được nêu là công cụ có thể được bán hoặc cho thuê từ 90 USD mỗi tháng. Tham khảo thêm tại bài viết về công cụ AI trên dark web.
Các dịch vụ thường được quảng bá với tên như WormGPT, FraudGPT và DarkGPT, có thể hỗ trợ tạo phần mềm độc hại, dựng chiến dịch phishing, thậm chí kèm tài liệu hướng dẫn kỹ thuật tấn công. Margaret Cunningham, Phó chủ tịch phụ trách an ninh và chiến lược AI tại Darktrace, nhấn mạnh người dùng “không cần biết lập trình, chỉ cần biết tìm đúng công cụ”.
“Bạn không cần biết cách viết mã, chỉ cần biết tìm công cụ ở đâu.”
– Margaret Cunningham, Phó chủ tịch An ninh & Chiến lược AI, Darktrace
“Vibe-hacking” có thể giúp tạo mã độc mà không cần mua từ chợ ngầm
Một xu hướng mới là dùng AI để “tạo nhanh” mã độc, giúp người ít kỹ năng có thể tự sản xuất công cụ tấn công thay vì mua lại.
Khái niệm vibe-coding hoặc vibe-hacking được nhắc đến như cách dùng AI để tạo chương trình độc hại theo mô tả tự nhiên. Anthropic cho biết họ đã chặn nhiều nỗ lực sử dụng Claude để tạo ransomware bởi “tội phạm có ít kỹ năng kỹ thuật”. Tài liệu liên quan: bản công bố của Anthropic.
Tự động hóa bằng AI đang tái cấu trúc “chuỗi cung ứng” ransomware
AI tăng tốc và tự động hóa nhiều khâu trong hệ sinh thái ransomware, giúp nhóm tấn công vận hành với ít người hơn, giảm rủi ro và tăng hiệu suất.
Trong nhiều năm, tội phạm mạng đã vận hành như một thị trường: có “cò” quyền truy cập (access brokers) đột nhập rồi bán lối vào, nhóm xâm nhập di chuyển trong hệ thống để đánh cắp dữ liệu, và bên ransomware-as-a-service phát tán mã độc, thương lượng và chia tiền. AI làm hệ thống này nhanh hơn và sẵn có hơn, vì các tác vụ kỹ thuật trước kia do người làm có thể tự động chạy.
Nicolas Christin mô tả đây là “lớp công nghiệp hóa tiếp theo”, khi AI tăng “throughput” mà không cần thêm lao động tay nghề cao. Điều này đặc biệt nguy hiểm với doanh nghiệp vì thời gian từ xâm nhập đến khai thác có thể rút ngắn.
AI chưa thể tự tiến hành tấn công hoàn toàn, nhưng năng lực đang tiến rất nhanh
AI vẫn chưa tự thực hiện trọn vẹn mọi bước tấn công trong thế giới thực, nhưng các thí nghiệm cho thấy khả năng tự động hóa đang tăng và có thể tái hiện các kịch bản xâm nhập nghiêm trọng.
Giới chuyên gia ví hiện trạng giống xe tự lái: đạt phần lớn chặng đường, nhưng “đoạn cuối” để hoạt động ở mọi tình huống vẫn khó. Dù vậy, các phòng thí nghiệm đã thử nghiệm năng lực tấn công của AI. Một nhóm tại Carnegie Mellon, được Anthropic hỗ trợ, đã tái tạo vụ rò rỉ dữ liệu Equifax trong môi trường nghiên cứu bằng AI. Chi tiết: bài tường thuật về nghiên cứu tái hiện Equifax.
AI cũng đang được dùng để tăng cường phòng thủ, nhưng không thay thế được khả năng chống chịu
Các công ty AI đang xây hệ thống rà soát mã và tìm lỗ hổng liên tục, song tổ chức vẫn cần thiết kế mạng “chống chịu” vì không có công nghệ nào ngăn được mọi sự cố.
Anthropic và OpenAI đang phát triển hệ thống AI có khả năng kiểm tra mã phần mềm để phát hiện điểm yếu mà tội phạm có thể khai thác, nhưng con người vẫn phải phê duyệt bản sửa. Một chương trình AI từ nhóm nghiên cứu Stanford được nêu là hoạt động tốt hơn một số người thử nghiệm khi đi tìm vấn đề an ninh trong mạng.
Dù có AI hỗ trợ, rò rỉ và xâm nhập vẫn có thể xảy ra. Theo Hultquist, trọng tâm nên là xây dựng hệ thống có khả năng duy trì hoạt động khi bị tấn công, gồm phân đoạn mạng, sao lưu an toàn, quyền truy cập tối thiểu, xác thực đa yếu tố và quy trình phản ứng sự cố đã diễn tập.
Những câu hỏi thường gặp
Vì sao lừa đảo dùng AI khó nhận ra hơn?
Vì AI có thể bắt chước văn phong doanh nghiệp, viết tiếng tự nhiên, chèn chi tiết đúng bối cảnh từ nguồn công khai và loại bỏ lỗi ngôn ngữ. Điều này làm email, tin nhắn hoặc cuộc gọi nghe “hợp lý” hơn so với lừa đảo truyền thống.
Deepfake thường được dùng để lừa nhân viên theo cách nào?
Kẻ tấn công có thể tạo video hoặc giọng nói giả của lãnh đạo để thúc ép chuyển tiền, yêu cầu gửi dữ liệu nhạy cảm, hoặc đề nghị cung cấp mã xác thực. Mục tiêu là tạo áp lực thời gian để nạn nhân bỏ qua bước xác minh.
Công cụ AI trên dark web có thể được cung cấp theo hình thức gì?
Theo mô tả trong bài, chợ ngầm có thể bán hoặc cho thuê công cụ AI theo mô hình thuê bao, có nhiều gói giá và hỗ trợ khách hàng. Ví dụ được nêu là mức giá từ 90 USD mỗi tháng cho một số công cụ.
AI có thể tự tiến hành tấn công mạng hoàn toàn chưa?
Chưa hẳn. Chuyên gia cho rằng AI đã làm được phần lớn các bước, nhưng chưa đạt mức “tự vận hành mọi nơi, mọi lúc” trong thế giới thực. Tuy nhiên, các thử nghiệm trong phòng lab cho thấy khả năng tự động hóa tấn công đang tiến nhanh.
Doanh nghiệp nên ưu tiên biện pháp nào khi lừa đảo bằng AI gia tăng?
Nên kết hợp phòng ngừa và chống chịu: xác thực đa yếu tố, nguyên tắc quyền tối thiểu, quy trình xác minh yêu cầu chuyển tiền qua kênh độc lập, đào tạo nhận diện deepfake, phân đoạn mạng, sao lưu an toàn và diễn tập ứng phó sự cố.
