Bộ Quốc phòng Mỹ đang gây sức ép để các công ty AI lớn đưa mô hình “AI tiên phong” vào cả hệ thống mật và không mật, với ít ràng buộc hơn so với các giới hạn sử dụng thông thường.
Yêu cầu này phản ánh mục tiêu tăng tốc ứng dụng AI trong tác chiến tương lai, nhưng cũng làm nổi bật rủi ro “ảo giác” thông tin, quyền riêng tư và đạo đức, khiến một số nhà nghiên cứu AI rời bỏ công ty và lên tiếng cảnh báo.
- Lầu Năm Góc muốn AI chạy trực tiếp trong mạng lưới mật và không mật, hạn chế tối đa các “rào chắn” do doanh nghiệp đặt ra.
- OpenAI đã ký thỏa thuận đưa ChatGPT lên genai.mil (mạng không mật), đồng thời nới nhiều hạn chế sử dụng; mở rộng sang hệ mật cần thỏa thuận mới.
- Nhiều nhà nghiên cứu cảnh báo rủi ro từ ảo giác, thao túng người dùng và dữ liệu riêng tư; Anthropic phản đối dùng AI cho nhắm mục tiêu tự động hoặc giám sát nội địa.
Lầu Năm Góc yêu cầu AI hoạt động trong cả mạng mật lẫn không mật
Lầu Năm Góc muốn các mô hình AI được triển khai trên hệ thống phân loại (mật) và không phân loại (không mật), thay vì chỉ dùng bản giới hạn cho các tác vụ hành chính.
Thông điệp được đưa ra trong cuộc họp tại Nhà Trắng, khi Giám đốc Công nghệ của Lầu Năm Góc Emil Michael nói với các lãnh đạo công nghệ rằng quân đội muốn AI vận hành xuyên suốt cả hai loại mạng. Một quan chức gần với các cuộc trao đổi cho biết chính phủ đang nhắm đến việc đưa “năng lực AI tiên phong” vào mọi cấp độ sử dụng quân sự.
Động lực xuất phát từ thực tế chiến tranh hiện đại ngày càng bị định hình bởi bầy đàn drone, robot và các đợt tấn công mạng liên tục. Lầu Năm Góc không muốn “chạy theo” trong khi các công ty công nghệ tự đặt giới hạn về việc AI được phép làm gì, nhất là trong môi trường ra quyết định có nhịp độ cao.
Quân đội muốn giảm ràng buộc sử dụng AI trong môi trường nhạy cảm
Mục tiêu của Lầu Năm Góc là tiếp cận trực tiếp AI trong hệ thống mật và giảm các giới hạn sử dụng tiêu chuẩn, dù vẫn có thể giữ một số “rào chắn” an toàn.
Hiện phần lớn doanh nghiệp chỉ cung cấp phiên bản “giảm tính năng”, chạy trên hệ thống mở và không mật phục vụ công việc hành chính. Anthropic được mô tả là ngoại lệ tương đối: Claude có thể dùng trong một số bối cảnh mật, nhưng thông qua nền tảng bên thứ ba và người dùng chính phủ vẫn phải tuân theo quy tắc của Anthropic.
Lầu Năm Góc muốn khác đi: họ hướng tới triển khai chatbot/AI trực tiếp bên trong các mạng lưới phân loại có độ nhạy cực cao, phục vụ các hoạt động như lập kế hoạch nhiệm vụ hoặc “khóa mục tiêu”. Bài toán là khi nào và triển khai bằng cách nào để các hệ thống như Claude hay ChatGPT có thể vận hành trong môi trường đó, nhưng đây là đích đến được nêu rõ.
AI có thể tăng tốc xử lý dữ liệu, nhưng nguy cơ ảo giác có thể gây hậu quả chết người
AI được kỳ vọng giúp xử lý khối dữ liệu khổng lồ và chuyển hóa thành thông tin cho người ra quyết định nhanh hơn, nhưng nếu tạo thông tin sai, hậu quả trong tác chiến có thể rất nghiêm trọng.
Các quan chức tin rằng AI có thể “lọc” và tổng hợp dữ liệu để hỗ trợ chỉ huy trong thời gian ngắn. Tuy nhiên, rủi ro cốt lõi là mô hình có thể tạo thông tin không đúng sự thật, hiện tượng đã được các nhà nghiên cứu cảnh báo. Trong môi trường quân sự, sai lệch như vậy có thể dẫn tới quyết định sai và gây thương vong.
OpenAI triển khai ChatGPT trên genai.mil và nới nhiều giới hạn sử dụng
OpenAI đã ký thỏa thuận để đưa ChatGPT vào mạng không mật genai.mil của Bộ Quốc phòng Mỹ, đồng thời loại bỏ nhiều hạn chế sử dụng thông thường.
Theo nội dung được nêu, genai.mil là mạng không mật hiện tiếp cận hơn 3 triệu nhân sự trong Bộ Quốc phòng. Trong thỏa thuận tuần này, OpenAI gỡ bỏ “nhiều” giới hạn dùng AI; vẫn còn một số rào chắn, nhưng Lầu Năm Góc đạt được phần lớn yêu cầu.
Một người phát ngôn của công ty cho biết việc mở rộng sang môi trường mật sẽ cần một thỏa thuận mới. Nội dung cũng đề cập Google và xAI của Elon Musk từng có các thỏa thuận tương tự trước đây.
Anthropic phản đối dùng AI cho nhắm mục tiêu tự động và giám sát trong nước
Anthropic nói rõ họ không muốn công nghệ của mình bị dùng cho nhắm mục tiêu tự động hoặc theo dõi người dân trong lãnh thổ Mỹ, dù Claude đã tham gia một số nhiệm vụ an ninh quốc gia.
Các cuộc trao đổi với Anthropic được mô tả là khó hơn. Lãnh đạo công ty nói với Lầu Năm Góc rằng họ muốn giới hạn cách AI được ứng dụng trong các kịch bản có rủi ro đạo đức cao, đặc biệt là tự động hóa nhắm mục tiêu và hoạt động giám sát nội địa.
“Anthropic cam kết bảo vệ lợi thế dẫn đầu của nước Mỹ về AI và giúp chính phủ Mỹ đối phó các mối đe dọa từ nước ngoài bằng cách cung cấp cho các chiến binh quyền truy cập vào những năng lực AI tiên tiến nhất.”
– Người phát ngôn Anthropic, tuyên bố được trích dẫn
Công ty cũng cho biết Claude đã được sử dụng và họ vẫn phối hợp chặt chẽ với cơ quan phụ trách quốc phòng. Bài viết đồng thời nêu chi tiết về đề xuất đổi tên Bộ Quốc phòng thành “Department of War”, nhưng còn cần Quốc hội phê chuẩn.
Làn sóng rời đi của nhà nghiên cứu AI làm nổi bật rủi ro thao túng và dữ liệu riêng tư
Một số nhà nghiên cứu tại các công ty AI rời bỏ công việc và cảnh báo về tốc độ triển khai quá nhanh, nguy cơ thao túng người dùng, cùng việc lưu trữ dữ liệu nhạy cảm.
Nội dung đề cập một nhà nghiên cứu an toàn hàng đầu của Anthropic rời đi và cảnh báo “thế giới đang lâm nguy”. Một nhà nghiên cứu tại OpenAI cũng rời đi, nói công nghệ có “tiềm năng thao túng người dùng theo những cách mà chúng ta không có công cụ để hiểu, chứ chưa nói đến ngăn chặn”.
Zoë Hitzig, người làm việc tại OpenAI trong hai năm, được nêu là đã nghỉ việc trong tuần. Trong một bài viết, cô nói có “quan ngại sâu sắc” về kế hoạch đưa quảng cáo vào, và cảnh báo ChatGPT lưu dữ liệu riêng tư như nỗi lo y tế, vấn đề quan hệ, và niềm tin tôn giáo, trong khi người dùng có xu hướng tin chatbot mà không nghĩ nó có động cơ ẩn.
Cùng thời điểm, trang Platformer được nhắc đến như đã đưa tin OpenAI giải thể nhóm “mission alignment” vốn được lập năm 2024 để đảm bảo mục tiêu phát triển AI vì lợi ích nhân loại được thực thi một cách có ý nghĩa.
Những câu hỏi thường gặp
Lầu Năm Góc đang yêu cầu các công ty AI điều gì?
Họ muốn mô hình AI chạy được trong cả mạng không mật và mạng mật, đồng thời giảm các giới hạn sử dụng mà doanh nghiệp thường áp cho người dùng, nhằm đưa “AI tiên phong” vào nhiều lớp hoạt động quân sự.
genai.mil là gì và ChatGPT được dùng ở đâu?
genai.mil là một mạng không mật của Bộ Quốc phòng Mỹ. Theo thỏa thuận tuần này, OpenAI đưa ChatGPT vào genai.mil; việc mở rộng sang môi trường mật sẽ cần một thỏa thuận mới.
Vì sao AI trong quân sự gây tranh cãi?
AI có thể tăng tốc xử lý dữ liệu, nhưng rủi ro tạo thông tin sai (ảo giác) có thể dẫn đến quyết định nguy hiểm. Ngoài ra còn tranh cãi về nhắm mục tiêu tự động, giám sát nội địa, thao túng người dùng và quyền riêng tư dữ liệu.
Anthropic phản đối những ứng dụng nào của AI?
Anthropic nói họ không muốn công nghệ bị dùng cho nhắm mục tiêu tự động hoặc theo dõi người dân trong nước Mỹ, dù Claude đã được sử dụng trong một số bối cảnh an ninh quốc gia.



