Nhiều chính phủ đang siết kiểm soát DeepSeek vì lo ngại dữ liệu người dùng, prompt và tệp tải lên có thể được lưu trên máy chủ tại Trung Quốc, kéo theo rủi ro về an ninh và quyền riêng tư.
DeepSeek là startup AI Trung Quốc tuyên bố mô hình suy luận có thể cạnh tranh ChatGPT với chi phí thấp. Tuy nhiên, các cơ quan công quyền tập trung vào cách nền tảng xử lý dữ liệu, mức độ tuân thủ luật bảo vệ dữ liệu nội địa và nguy cơ thông tin nhạy cảm bị tiếp cận ngoài biên giới.
- Nhiều nước cảnh báo DeepSeek có thể làm lộ dữ liệu nhạy cảm do lưu trữ tại Trung Quốc.
- Một số quốc gia đã chặn trên thiết bị chính phủ, hạn chế tải ứng dụng, hoặc yêu cầu gỡ khỏi kho ứng dụng.
- Tại Mỹ, lo ngại mở rộng sang xuất khẩu chip AI, kiểm soát công nghệ và cáo buộc liên quan quân đội.
DeepSeek trở thành tâm điểm kiểm tra vì rủi ro dữ liệu và quyền riêng tư
Trọng tâm tranh cãi là việc DeepSeek lưu prompt và tệp người dùng trên máy chủ đặt tại Trung Quốc, làm dấy lên lo ngại về tuân thủ luật bảo vệ dữ liệu và nguy cơ dữ liệu nhạy cảm bị truy cập ngoài ý muốn.
DeepSeek quảng bá các mô hình suy luận với chi phí thấp và hiệu năng cạnh tranh. Tuy vậy, chính sách quyền riêng tư của chính họ cho thấy dữ liệu do người dùng cung cấp, gồm prompt và tệp tải lên, có thể được lưu trữ trên máy chủ tại Trung Quốc.
Nhiều cơ quan nhà nước coi điều này là rủi ro đặc biệt với tài liệu công vụ, dữ liệu cá nhân, và thông tin liên quan an ninh quốc gia. Một số cảnh báo rằng việc dùng DeepSeek có thể vô tình đưa dữ liệu nhạy cảm vào luồng xử lý khó kiểm soát, dẫn đến khả năng vi phạm quy định nội địa về bảo mật.
Các chính phủ tăng biện pháp chặn và hạn chế sử dụng DeepSeek
Nhiều quốc gia đã chuyển từ cảnh báo sang hành động: chặn trên thiết bị chính phủ, hạn chế tải ứng dụng, điều tra tuân thủ, hoặc yêu cầu gỡ khỏi cửa hàng ứng dụng vì lo ngại cách DeepSeek xử lý dữ liệu.
Australia, Czech và các lệnh cấm trong khu vực công
Australia là một trong những nước sớm hành động. Đầu tháng 2, nước này thông báo thiết bị của chính phủ không còn được phép truy cập DeepSeek vì lo ngại an ninh.
Cộng hòa Czech cũng áp dụng biện pháp tương tự vào tháng 7, không cho các đơn vị hành chính công sử dụng bất kỳ dịch vụ nào của DeepSeek do quan ngại về bảo vệ dữ liệu.
Pháp, Đức: hỏi đáp cơ quan riêng tư và yêu cầu gỡ ứng dụng
Tại Pháp, cơ quan giám sát quyền riêng tư công bố vào tháng 1/2025 rằng sẽ chất vấn DeepSeek để làm rõ cách nền tảng vận hành và đánh giá nguy cơ đối với người dùng.
Đức đi xa hơn khi đề nghị Apple và Google gỡ DeepSeek khỏi kho ứng dụng do lo ngại về cách dữ liệu được xử lý.
Ấn Độ, Hàn Quốc: hạn chế trong cơ quan nhà nước và yêu cầu tuân thủ luật địa phương
Ở Ấn Độ, Bộ Tài chính khuyến cáo nhân sự không dùng các công cụ AI như ChatGPT và DeepSeek cho công việc chính thức, với lý do an toàn của tài liệu nhạy cảm.
Hàn Quốc từng tạm dừng cho người dùng mới tải ứng dụng DeepSeek vào tháng 2 sau khi đại diện DeepSeek thừa nhận chưa tuân thủ đầy đủ luật riêng tư địa phương. Việc tải ứng dụng được khôi phục vào tháng 4 sau khi nền tảng điều chỉnh để đáp ứng yêu cầu.
Italy, Hà Lan, Đài Loan: vừa chặn vừa điều tra
Phản ứng của Italy được mô tả là “pha trộn”. Tháng 1/2025, cơ quan quản lý tại Italy ban hành lệnh chặn đối với ứng dụng DeepSeek.
Sau đó, cơ quan này dừng điều tra về chống độc quyền khi DeepSeek đồng ý các cam kết ràng buộc. Trong khi đó, Hà Lan và Đài Loan được cho là đang tiến hành các cuộc điều tra liên quan đến DeepSeek.
Mỹ mở rộng lo ngại sang quân sự và kiểm soát chip AI
Tại Mỹ, quan ngại không chỉ nằm ở quyền riêng tư mà còn mở rộng sang xuất khẩu chip AI, khả năng lách kiểm soát công nghệ và cáo buộc liên quan hỗ trợ quân đội Trung Quốc.
Một số quan chức trong chính quyền Trump được cho là cân nhắc các hạn chế có thể ngăn DeepSeek tiếp cận công nghệ từ công ty Mỹ, đồng thời có thể hạn chế người Mỹ sử dụng dịch vụ của DeepSeek.
Quốc hội Mỹ cũng yêu cầu Lầu Năm Góc đưa DeepSeek vào danh sách các công ty Trung Quốc bị cho là có liên quan đến quân đội. Các động thái này phản ánh mối quan tâm kép: an toàn dữ liệu khi dùng mô hình AI và chuỗi cung ứng phần cứng (đặc biệt là chip AI) phục vụ huấn luyện, suy luận.
“DeepSeek đã tự nguyện cung cấp và nhiều khả năng sẽ tiếp tục cung cấp hỗ trợ” cho Quân Giải phóng Nhân dân Trung Quốc.
– Quan chức cấp cao Mỹ, theo Reuters
Cũng theo cùng nguồn trích dẫn, DeepSeek bị cáo buộc cố gắng vượt kiểm soát xuất khẩu bằng cách dùng các công ty “vỏ bọc” ở Đông Nam Á để tiếp cận chip AI bị hạn chế, thay vì chỉ dựa trên việc truy cập mã nguồn mở của mô hình.
Một nhóm bảy Thượng nghị sĩ Cộng hòa đã đề nghị Bộ Thương mại Mỹ điều tra rủi ro an ninh dữ liệu khi dùng các mô hình AI mã nguồn mở do Trung Quốc phát triển như DeepSeek, đồng thời gây áp lực để các cơ quan liên bang có hành động mạnh tay hơn.
Một báo cáo trước đó từ Cryptopolitan cũng nhấn mạnh lo ngại DeepSeek có liên hệ với quân đội và hệ thống giám sát của Trung Quốc nhiều hơn những gì công ty thể hiện trước công chúng, bao gồm cáo buộc chia sẻ dữ liệu người dùng với chính phủ Trung Quốc.
Những câu hỏi thường gặp
Vì sao DeepSeek bị nhiều nước xem là rủi ro?
Vì lo ngại về nơi lưu trữ dữ liệu và cách xử lý prompt, tệp tải lên. Nhiều cơ quan cho rằng việc dữ liệu nằm trên máy chủ tại Trung Quốc có thể tạo rủi ro pháp lý, quyền riêng tư và an ninh quốc gia.
Những quốc gia nào đã hạn chế hoặc chặn DeepSeek?
Trong nội dung này có Australia (chặn trên thiết bị chính phủ), Czech (cấm trong khu vực công), Hàn Quốc (từng tạm dừng tải với người dùng mới), Italy (từng chặn), cùng các động thái giám sát/điều tra tại Pháp, Đức, Hà Lan và Đài Loan.
Ở Mỹ, tranh cãi về DeepSeek tập trung vào điểm gì?
Ngoài dữ liệu, Mỹ còn lo ngại về kiểm soát công nghệ và chip AI: khả năng DeepSeek tiếp cận công nghệ Mỹ, cáo buộc liên quan hỗ trợ quân đội Trung Quốc, và nghi vấn lách quy định xuất khẩu thông qua công ty trung gian.
Cơ quan nhà nước nên làm gì khi dùng công cụ AI như DeepSeek?
Nên tránh đưa tài liệu mật, dữ liệu cá nhân hoặc thông tin nội bộ lên nền tảng AI; áp dụng chính sách phân loại dữ liệu; và ưu tiên công cụ đã được thẩm định tuân thủ pháp lý, lưu trữ và kiểm soát truy cập theo yêu cầu quốc gia.
