UNICEF kêu gọi siết luật hình sự hóa nội dung lạm dụng trẻ em do AI tạo

UNICEF cảnh báo nội dung tình dục hóa do AI tạo ra, đặc biệt là deepfake dựa trên ảnh trẻ em, đang tăng nhanh và cần hành động khẩn cấp từ chính phủ lẫn ngành công nghệ để ngăn tạo mới và lan truyền.

Sự phổ biến của mô hình AI mã nguồn mở và công cụ tạo ảnh, video khiến kẻ xấu dễ sản xuất tài liệu lạm dụng tình dục trẻ em, kể cả khi không có nạn nhân “trực tiếp” xuất hiện trong quá trình tạo nội dung.

NỘI DUNG CHÍNH
  • UNICEF coi deepfake lạm dụng là một dạng lạm dụng và kêu gọi chặn từ khâu tạo đến khâu phát tán.
  • Dữ liệu từ IWF ghi nhận số lượng lớn ảnh, video AI CSAM và mức tăng đột biến theo năm.
  • Một số quốc gia hạn chế hoặc chặn Grok do lo ngại deepfake tình dục, X triển khai geoblock theo vùng cấm.

Nội dung tình dục hóa do AI gây hại lâu dài cho trẻ em

Nội dung tình dục hóa do AI tạo ra có thể xâm phạm quyền được bảo vệ của trẻ em, làm gia tăng kỳ thị và gây tổn thương cảm xúc kéo dài, ngay cả khi trẻ không biết mình bị nhắm tới.

Lạm dụng bằng deepfake là lạm dụng. Hình ảnh, video hoặc âm thanh tình dục hóa của trẻ em được tạo ra hoặc bị chỉnh sửa bằng công cụ AI là tài liệu lạm dụng tình dục trẻ em. Ngay cả khi không có nạn nhân có thể nhận diện, nó vẫn bình thường hóa việc bóc lột tình dục trẻ em. UNICEF kêu gọi hành động khẩn cấp để ngăn chặn…
– UNICEF, bài đăng X (04/02/2026)

UNICEF cho biết chưa đến 5 năm trước, các mô hình tạo sinh chất lượng cao đòi hỏi năng lực tính toán và chuyên môn lớn. Hiện nay, các mô hình mã nguồn mở và công cụ dễ tiếp cận hơn đã hạ rào cản, giúp đối tượng xấu tạo nội dung lạm dụng nhanh và rẻ hơn, từ đó làm tăng rủi ro cho trẻ em thông qua công nghệ số.

Cơ quan này nhấn mạnh rủi ro không chỉ nằm ở việc “có hay không có” trẻ em tham gia. Nội dung tổng hợp vẫn có thể bình thường hóa việc tình dục hóa trẻ em và làm phức tạp quá trình xác định nạn nhân. UNICEF lập luận rằng kẻ xấu có thể tạo hình ảnh tình dục “giống thật” của một đứa trẻ mà không cần sự tham gia hay nhận thức của trẻ. Tham khảo: UNICEF giải thích vì sao deepfake lạm dụng vẫn là lạm dụng.

Đọc thêm:  TMZ nhận thư đòi tiền chuộc Bitcoin vụ Nancy Guthrie mất tích

UNICEF cảnh báo tác động xã hội đối với trẻ có thể gồm xấu hổ, kỳ thị, bị bạn bè và người lớn phán xét, bị cô lập và tổn thương cảm xúc dài hạn. Theo cách nhìn bảo vệ trẻ em, đây là hành vi xâm phạm quyền an toàn và quyền được bảo vệ, kể cả trong trường hợp trẻ không biết hình ảnh của mình đã bị thao túng.

IWF ghi nhận gia tăng mạnh ảnh, video AI CSAM và xuất hiện video “giống thật”

Dữ liệu từ IWF cho thấy AI đang thúc đẩy sản xuất và phát tán CSAM, gồm hàng nghìn ảnh nghi vấn trên dark web và mức tăng theo năm cực lớn đối với video AI lạm dụng.

UNICEF dẫn dữ liệu của Internet Watch Foundation (IWF): khoảng 14.000 hình ảnh nghi vấn do AI tạo ra đã được phát hiện trên một diễn đàn dark web chuyên về tài liệu lạm dụng tình dục trẻ em chỉ trong 1 tháng. Báo cáo cũng nêu một phần đáng kể là tài liệu phạm pháp và ghi nhận các video AI “giống thật” đầu tiên về lạm dụng tình dục trẻ em. Xem chi tiết tại: cảnh báo của IWF về AI và lạm dụng trực tuyến.

IWF cho biết họ phát hiện 3.440 video AI lạm dụng tình dục trẻ em, tăng 26.362% so với 13 video của năm trước. Trong số này, 2.230 video (65%) bị xếp Category A do mức độ cực đoan, và 1.020 video (30%) thuộc Category B. Các con số này cho thấy mức độ leo thang không chỉ ở “khối lượng”, mà còn ở tính nghiêm trọng của nội dung.

IWF cũng cho biết đã thấy AI CSAM xuất hiện trên các nền tảng phổ biến, gồm deepfake ảnh khỏa thân trong bối cảnh ngang hàng (peer-to-peer) nhắm vào các bé gái. Ở Hàn Quốc, cơ quan thực thi pháp luật báo cáo số vụ phạm tội tình dục liên quan AI và deepfake tăng gấp 10 lần trong giai đoạn 2022–2024. Tham khảo bài viết tổng hợp: thông tin về tội phạm tình dục số tại Hàn Quốc.

Đọc thêm:  Cảnh sát Đài Loan bắt nghi phạm tội phạm crypto liên quan đột nhập nhà

Thiếu niên vừa là nạn nhân vừa có thể là tác nhân trong deepfake tình dục

Một phần rủi ro đến từ môi trường học đường và nhóm bạn, nơi thanh thiếu niên có thể dùng AI để tạo ảnh nhạy cảm không đồng thuận, dẫn tới lan truyền nhanh và khó kiểm soát.

Thông tin trong bài cho biết các vụ liên quan AI và deepfake chủ yếu có yếu tố tuổi teen, chiếm đa số trong nhóm bị cáo buộc ở một số bối cảnh. Khảo sát của Thorn ghi nhận 1/10 thanh thiếu niên tại Mỹ biết trường hợp bạn bè dùng AI để tạo hình ảnh thân mật tổng hợp không đồng thuận của trẻ em. Xem khảo sát: báo cáo của Thorn về AI tạo ảnh nhạy cảm.

UNICEF, ECPAT International và INTERPOL cho biết tại 11 quốc gia, khoảng 1,2 triệu trẻ em có hình ảnh bị thao túng thành deepfake khiêu dâm bằng công cụ AI trong năm 2025. Các tổ chức cũng báo cáo rằng ở một số quốc gia trong nhóm 11 nước này, có đến hai phần ba trẻ em lo AI có thể bị dùng để tạo ảnh tình dục giả. Tài liệu tham chiếu: báo cáo “Disrupting Harm”.

UNICEF kêu gọi phụ huynh và người chăm sóc được trang bị kiến thức về bóc lột, lạm dụng tình dục có yếu tố AI. Cơ quan này cũng nhấn mạnh vai trò của trường học trong giáo dục rủi ro liên quan AI, giúp học sinh hiểu hậu quả đối với người bị hại và giảm hành vi chia sẻ, phát tán gây tổn thương.

Các quốc gia hạn chế Grok sau lo ngại deepfake tình dục

Một số chính phủ đã yêu cầu siết kiểm soát hoặc chặn Grok do khả năng tạo deepfake tình dục, buộc nền tảng áp dụng giới hạn theo khu vực nơi tính năng bị cấm.

Báo cáo của UNICEF xuất hiện trong bối cảnh công cụ AI Grok triển khai tính năng ngăn chỉnh sửa ảnh thật của người thật thành hình ảnh ăn mặc gợi dục ở các quốc gia nơi điều đó bị cấm. Động thái này diễn ra sau làn sóng lo ngại về deepfake tình dục và khả năng công cụ bị lạm dụng để tạo nội dung xâm hại.

Đọc thêm:  Thượng nghị sĩ kêu gọi Apple và Google gỡ ứng dụng X, Grok

Chính phủ Anh kêu gọi X kiểm soát Grok, trong khi cơ quan quản lý Ofcom nói đang làm việc liên tục để xử lý. X cho biết đã geoblock khả năng tạo hình ảnh người thật trong bikini, đồ lót và trang phục tương tự qua tài khoản Grok và Grok trong X tại các quốc gia nơi bị cấm. Tham khảo tuyên bố: thông báo của X về giới hạn theo khu vực.

Malaysia và Indonesia cũng từng chặn truy cập Grok trong tháng trước do khả năng tạo deepfake khiêu dâm. Sau đó, Indonesia được cho là cho phép Grok hoạt động trở lại khi X cam kết cải thiện tuân thủ pháp luật địa phương. Diễn biến này cho thấy quản trị rủi ro AI đang chuyển từ khuyến nghị sang các biện pháp cưỡng chế và hạn chế truy cập theo lãnh thổ.

Những câu hỏi thường gặp

UNICEF coi nội dung deepfake tình dục về trẻ em là gì?

UNICEF khẳng định “deepfake lạm dụng là lạm dụng”: hình ảnh, video hoặc âm thanh tình dục hóa của trẻ em được tạo hoặc bị thao túng bằng AI là tài liệu lạm dụng tình dục trẻ em, ngay cả khi không có nạn nhân có thể nhận diện.

Vì sao nội dung AI tạo ra vẫn gây hại dù không có trẻ em tham gia trực tiếp?

UNICEF cho rằng nội dung này bình thường hóa việc tình dục hóa trẻ em, làm khó nhận diện nạn nhân và có thể xâm phạm quyền được bảo vệ của trẻ. Tác động còn gồm xấu hổ, kỳ thị, bị phán xét, cô lập xã hội và tổn thương cảm xúc dài hạn.

IWF đã phát hiện quy mô AI CSAM như thế nào?

IWF ghi nhận khoảng 14.000 hình ảnh nghi vấn do AI tạo ra trên một diễn đàn dark web trong 1 tháng, và phát hiện 3.440 video AI CSAM, tăng 26.362% so với 13 video của năm trước; trong đó 65% thuộc Category A và 30% thuộc Category B.

Grok đã bị các nước phản ứng ra sao vì deepfake tình dục?

Anh kêu gọi X kiểm soát Grok; Malaysia và Indonesia từng chặn Grok do lo ngại khả năng tạo deepfake khiêu dâm. X nói đã áp dụng geoblock khả năng tạo ảnh người thật trong bikini, đồ lót ở các quốc gia nơi bị cấm.

More like this

Chỉ báo đầu hàng Bitcoin phát tín hiệu bán tháo bắt buộc

Chỉ báo đầu hàng Bitcoin phát tín hiệu bán...

Chỉ báo “capitulation” của Bitcoin theo Glassnode lại tăng vọt về mức từng xuất hiện trong đợt...
Tether đưa vốn hóa USDT lên kỷ lục 187,3 tỷ USD khi crypto giảm

Tether đưa vốn hóa USDT lên kỷ lục 187,3...

USDT của Tether khép lại quý 4/2025 với vốn hóa kỷ lục 187,3 tỷ USD, mở rộng...
Vitalik Buterin bán ra 3.000 ETH, thu 6,7 triệu USD

Vitalik Buterin bán ra 3.000 ETH, thu 6,7 triệu...

Dữ liệu on-chain cho thấy Vitalik Buterin đã chuyển đổi gần 3.000 ETH trong 3 ngày, nhưng...