Các báo cáo mới cho biết mô hình AI Claude của Anthropic đã được tích hợp vào một chiến dịch quân sự của Mỹ nhằm bắt giữ cựu Tổng thống Venezuela Nicolás Maduro, thông qua hợp tác giữa Anthropic và Palantir.
Dù Anthropic công bố chính sách chống bạo lực, việc Claude xuất hiện trong môi trường tác chiến đặt ra câu hỏi về phạm vi sử dụng AI thương mại trong nhiệm vụ mật, cũng như ranh giới giữa “hỗ trợ phi sát thương” và ứng dụng quân sự trực tiếp.
- Claude được cho là đã được dùng trong “Operation Resolve” để hỗ trợ xử lý dữ liệu tình báo và ra quyết định ở môi trường phân loại mật.
- Anthropic cấm sử dụng Claude cho bạo lực, vũ khí, giám sát, nhưng hợp tác với Palantir có thể đưa Claude vào các kịch bản quân sự.
- Chính quyền Trump được cho là cân nhắc hủy hợp đồng 200 triệu USD do bất đồng về việc gỡ bỏ hạn chế AI cho mục đích quân sự.
Claude AI được tích hợp vào chiến dịch bắt giữ Nicolás Maduro
Claude được cho là đã hỗ trợ quân đội Mỹ trong “Operation Resolve” đầu tháng 1/2026, thông qua việc tích hợp với nền tảng của Palantir trong môi trường tác chiến phân loại.
Một loạt báo cáo cho biết quân đội Mỹ đã sử dụng mô hình Claude của Anthropic trong chiến dịch “Operation Resolve”, diễn ra đầu tháng 1/2026, dẫn tới việc bắt giữ ông Nicolás Maduro và bà Cilia Flores tại Caracas.
Theo tường thuật, Claude được đưa vào quy trình nhiệm vụ nhờ quan hệ đối tác giữa Anthropic và Palantir Technologies, công ty chuyên phân tích dữ liệu và triển khai hệ thống cho các cơ quan chính phủ. Bản chất các tác vụ cụ thể bị xếp loại mật.
Trong các kịch bản phổ biến của AI thương mại trong phân tích quốc phòng, mô hình ngôn ngữ có thể được dùng để tóm tắt khối lượng lớn báo cáo tình báo, hỗ trợ truy vấn dữ liệu, tổng hợp tín hiệu từ nhiều nguồn, hoặc chuyển đổi định dạng thông tin để tăng tốc ra quyết định.
Bài viết cũng nêu Claude có thể liên quan đến phân tích ảnh vệ tinh và hỗ trợ quyết định cho các chuyển động lực lượng phức tạp. Đây là các nhóm tác vụ thường gắn với “decision support” thay vì điều khiển vũ khí trực tiếp, dù ranh giới thực tế phụ thuộc thiết kế hệ thống và quyền truy cập dữ liệu.
Về bối cảnh chính sách, Bộ Chiến tranh Mỹ (cách gọi trong nội dung gốc) cho biết đang thúc đẩy việc dùng AI thương mại để hiện đại hóa tác chiến. Thông báo liên quan được đăng tại kế hoạch tăng tốc AI nhằm bảo đảm năng lực AI quân sự Mỹ.
Chiến dịch “Operation Resolve” diễn ra rạng sáng 03/01/2026 tại Caracas
Báo cáo mô tả lực lượng đặc nhiệm Mỹ đột kích rạng sáng 03/01/2026, áp chế phòng không và đánh bom một số cơ sở quân sự, sau đó đưa ông Maduro rời Venezuela và đối mặt cáo buộc liên bang tại Mỹ.
Chiến dịch được cho là diễn ra vào những giờ đầu ngày 3/1/2026, khi lực lượng tác chiến đặc biệt Mỹ, bao gồm biệt kích Delta Force, đột nhập một cung điện được gia cố của ông Maduro.
Nội dung nêu Tổng thống Donald Trump mô tả ông Maduro bị “bum-rushed” trước khi kịp vào phòng trú ẩn gia cố thép. Đồng thời, phòng không Venezuela bị áp chế và một số địa điểm quân sự bị không kích trong quá trình thực hiện nhiệm vụ.
Sau đó, ông Maduro được chuyển đến một chiến hạm Mỹ rồi đưa tới New York City, nơi ông đối mặt các cáo buộc liên bang về “narco-terrorism” và nhập khẩu cocaine. Nội dung gốc không cung cấp thêm tài liệu pháp lý hoặc số hiệu hồ sơ vụ án.
Việc sử dụng Claude đặt ra xung đột với chính sách chống bạo lực của Anthropic
Dù Anthropic tuyên bố Claude không được dùng cho bạo lực, phát triển vũ khí hay giám sát, đối tác triển khai như Palantir có thể khiến Claude xuất hiện trong môi trường quân sự, nơi phạm vi sử dụng khó kiểm chứng công khai.
Claude được mô tả là thiết kế theo định hướng an toàn, với “constitutional focus on safety”. Theo hướng dẫn công khai được nêu trong nội dung gốc, Anthropic cấm dùng Claude cho bạo lực, phát triển vũ khí hoặc hoạt động giám sát.
Anthropic cũng nói rằng họ giám sát việc sử dụng công cụ và bảo đảm tuân thủ chính sách. Tuy nhiên, hợp tác với Palantir bị cho là cho phép quân đội dùng Claude trong môi trường phân loại mật, làm giảm mức độ minh bạch với bên ngoài.
Nguồn tin cho rằng Claude có thể chỉ làm tác vụ phi sát thương như dịch thuật và hậu cần
Một số nguồn hiểu biết vụ việc cho rằng Claude có thể chỉ hỗ trợ dịch liên lạc và xử lý hậu cần, nhưng áp lực gỡ hạn chế AI cho mục đích quân sự đang gia tăng.
Các nguồn tin “familiar with the matter” được trích trong nội dung gốc nhận định AI có thể được dùng cho các tác vụ hỗ trợ không gây chết người, chẳng hạn dịch liên lạc hoặc xử lý thông tin hậu cần.
Dù vậy, nội dung cũng nêu Bộ Chiến tranh Mỹ đang thúc đẩy việc yêu cầu các công ty AI gỡ bỏ nhiều hạn chế tiêu chuẩn để phục vụ nhu cầu quân sự. Điều này có thể khiến ranh giới “hỗ trợ” và “tác chiến” mờ đi, đặc biệt khi công cụ được nhúng sâu vào quy trình ra quyết định.
Hợp đồng 200 triệu USD có nguy cơ bị hủy do bất đồng về hạn chế AI trong quân sự
Báo cáo cho biết chính quyền Trump cân nhắc hủy hợp đồng 200 triệu USD với Anthropic vì công ty lo ngại AI bị dùng cho drone tự động hoặc giám sát, trong khi lãnh đạo Bộ Chiến tranh nhấn mạnh ưu tiên năng lực tác chiến.
Nội dung nêu chính quyền Trump đang cân nhắc hủy một hợp đồng trị giá 200 triệu USD với Anthropic, do Anthropic bày tỏ quan ngại về việc AI bị dùng cho drone tự động hoặc mục đích giám sát.
Bộ trưởng Pete Hegseth được trích lời: “the future of American warfare is spelled AI” và cho biết Lầu Năm Góc sẽ không làm việc với các công ty hạn chế năng lực quân sự. Nội dung gốc không nêu thời hạn ra quyết định cuối cùng về hợp đồng.
Những câu hỏi thường gặp
Claude AI được cho là đã làm gì trong chiến dịch bắt giữ Nicolás Maduro?
Các tác vụ cụ thể bị xếp loại mật, nhưng báo cáo nêu Claude có thể được dùng để tóm tắt dữ liệu tình báo quy mô lớn, hỗ trợ phân tích ảnh vệ tinh và cung cấp hỗ trợ ra quyết định cho điều phối lực lượng.
Việc này có vi phạm chính sách chống bạo lực của Anthropic không?
Chính sách công khai được mô tả là cấm dùng Claude cho bạo lực, phát triển vũ khí và giám sát. Tuy nhiên, do triển khai trong môi trường phân loại mật thông qua Palantir, việc Claude được dùng đúng phạm vi “phi sát thương” hay không không thể xác nhận công khai từ chi tiết nhiệm vụ.
Tại sao Palantir lại liên quan đến việc Claude được dùng trong môi trường quân sự?
Báo cáo cho biết quan hệ đối tác giữa Anthropic và Palantir giúp Claude được tích hợp vào các hệ thống phân tích dữ liệu và vận hành trong môi trường phân loại, nơi quân đội có thể sử dụng công cụ AI trong quy trình nhiệm vụ.
Hợp đồng 200 triệu USD giữa chính quyền Trump và Anthropic có thể bị ảnh hưởng thế nào?
Nội dung nêu chính quyền Trump cân nhắc hủy hợp đồng 200 triệu USD vì Anthropic lo ngại AI bị dùng cho drone tự động hoặc giám sát, trong khi phía Bộ Chiến tranh muốn giảm hạn chế để tối đa hóa năng lực quân sự.



