Trong nhiều thập niên, sức mạnh quân sự Mỹ được xây dựng trên ba trụ cột: công nghiệp quốc phòng, ưu thế công nghệ và mạng lưới đồng minh. Nhưng bước sang thập niên 2020, một trụ cột mới đang nổi lên nhanh chóng: trí tuệ nhân tạo (AI).
Vụ việc mới đây giữa Palantir Technologies, Anthropic và United States Department of Defense cho thấy một thực tế chưa từng có: AI không còn chỉ là công cụ công nghệ – nó đã trở thành hạ tầng chiến tranh.
Và khi hạ tầng chiến tranh phụ thuộc vào các công ty AI tư nhân, xung đột giữa đạo đức công nghệ và logic quân sự là điều không thể tránh khỏi.
AI bước vào “kill chain”
Trong chiến tranh hiện đại, chuỗi hành động từ phát hiện mục tiêu đến ra quyết định tấn công được gọi là kill chain.
Trong quá khứ, quá trình này gồm nhiều bước:
- thu thập dữ liệu tình báo
- phân tích hình ảnh hoặc tín hiệu
- đánh giá mục tiêu
- quyết định tấn công
Ngày nay, AI có thể rút ngắn toàn bộ chuỗi này xuống còn vài phút.
Một trong những hệ thống trung tâm của Mỹ là Project Maven, chương trình AI của Pentagon dùng để phân tích video drone và dữ liệu chiến trường. Nền tảng phần mềm triển khai trong hệ thống này được phát triển bởi Palantir.
Trong một số cấu hình gần đây, các mô hình AI như Claude của Anthropic đã được tích hợp để hỗ trợ:
- phân tích dữ liệu tình báo
- tóm tắt báo cáo chiến trường
- nhận diện mục tiêu từ dữ liệu lớn.
Điều đó khiến AI trở thành bộ não phân tích của hệ thống chiến tranh số hóa.
Xung đột: Guardrails hay ưu thế quân sự?
Anthropic được thành lập với triết lý khá rõ ràng: AI phải có “safety guardrails” – những giới hạn nhằm ngăn công nghệ bị sử dụng cho các mục đích nguy hiểm.
Các giới hạn này bao gồm:
- không hỗ trợ vũ khí tự động sát thương
- không tham gia giám sát hàng loạt
- hạn chế ứng dụng trong một số hoạt động quân sự.
Nhưng đối với Pentagon, những hạn chế đó có thể trở thành vấn đề chiến lược.
Quân đội Mỹ đang chạy đua với Trung Quốc và Nga trong lĩnh vực AI quân sự. Trong môi trường đó, bất kỳ giới hạn nào do công ty công nghệ đặt ra đều có thể bị xem là cản trở lợi thế chiến trường.
Xung đột vì thế trở nên không thể tránh khỏi.
Khi Anthropic không chấp nhận nới lỏng một số hạn chế, chính quyền Mỹ đã xem công ty này là “supply-chain risk”đối với hệ thống AI quân sự.
Đây là một quyết định chưa từng có tiền lệ.
Palantir mắc kẹt ở giữa
Vấn đề không chỉ nằm ở Anthropic.
Palantir đang vận hành nhiều nền tảng dữ liệu và AI cho quân đội Mỹ, bao gồm hệ thống Maven Smart System. Nếu Claude bị loại khỏi hệ thống, Palantir phải gỡ bỏ hoặc thay thế một thành phần AI quan trọng trong phần mềm.
Việc này không đơn giản như thay một ứng dụng.
Trong hệ thống quân sự, AI thường được tích hợp sâu vào:
- pipeline dữ liệu
- công cụ phân tích
- giao diện ra quyết định.
Gỡ một mô hình AI ra khỏi hệ thống có thể đồng nghĩa với việc viết lại nhiều phần mềm quan trọng.
Điều này đặt ra câu hỏi lớn hơn:
Liệu quân đội Mỹ có đang phụ thuộc quá nhiều vào các nhà cung cấp AI tư nhân?
Cuộc chiến triết lý trong ngành AI
Xung đột này phản ánh một cuộc tranh luận sâu sắc trong ngành công nghệ.
Một bên cho rằng AI phải có giới hạn đạo đức rõ ràng.
Một bên cho rằng AI là công cụ chiến lược quốc gia, và việc sử dụng nó không thể bị ràng buộc bởi các quy tắc do công ty đặt ra.
Trong lịch sử công nghệ quân sự, các nhà thầu quốc phòng hiếm khi đặt điều kiện đạo đức cho khách hàng của mình.
Nhưng AI khác với máy bay hay tên lửa.
Các mô hình AI thường được xây dựng bởi các công ty công nghệ dân sự, với đội ngũ kỹ sư và nhà nghiên cứu mang tư duy khác với ngành công nghiệp quốc phòng truyền thống.
Khi hai thế giới này gặp nhau, xung đột là điều khó tránh.
AI đã trở thành hạ tầng chiến tranh
Vụ việc Palantir–Anthropic cho thấy một sự thật lớn hơn: chiến tranh đang bước vào thời kỳ software-defined warfare.
Trong mô hình này:
- dữ liệu là nhiên liệu
- thuật toán là vũ khí
- AI là trung tâm điều khiển.
Điều này cũng khiến Big Tech trở thành một phần của hệ thống quốc phòng.
Những công ty như Palantir, OpenAI, Anthropic hay Google không chỉ là nhà cung cấp phần mềm. Họ đang tham gia trực tiếp vào cấu trúc quyền lực của chiến tranh hiện đại.
Một tiền lệ nguy hiểm
Việc gắn nhãn “supply-chain risk” cho một công ty AI Mỹ có thể tạo ra tiền lệ mới.
Trong quá khứ, thuật ngữ này thường được sử dụng với các công ty nước ngoài bị nghi ngờ gây rủi ro an ninh quốc gia.
Nếu chính phủ bắt đầu sử dụng cùng một công cụ với các công ty nội địa, điều đó có thể tạo ra sự bất ổn lớn trong hệ sinh thái công nghệ quốc phòng.
Các công ty AI có thể phải lựa chọn:
- tuân theo yêu cầu quân sự
- hoặc rời khỏi thị trường quốc phòng.
Cuộc chiến quyền lực mới
Đằng sau câu chuyện kỹ thuật là một câu hỏi lớn hơn:
Ai kiểm soát AI trong chiến tranh?
Có ba khả năng:
- Chính phủ kiểm soát hoàn toàn
- Các công ty công nghệ đặt giới hạn
- Một mô hình cân bằng giữa hai bên
Hiện nay, thế giới vẫn chưa có câu trả lời rõ ràng.
Kết luận: khủng hoảng AI–quốc phòng đầu tiên
Vụ Palantir–Anthropic có thể trở thành cuộc khủng hoảng AI quân sự đầu tiên của thế kỷ 21.
Nó cho thấy chiến tranh tương lai sẽ không chỉ được quyết định bởi:
- số lượng tàu chiến
- số lượng tên lửa
- hay ngân sách quốc phòng.
Nó sẽ được quyết định bởi thuật toán, dữ liệu và các công ty công nghệ.
Khi AI trở thành hạ tầng chiến tranh, quyền lực cũng thay đổi theo.
Và câu hỏi lớn nhất không còn là quốc gia nào có nhiều vũ khí hơn.
Mà là:
Quốc gia nào kiểm soát được AI – và ai kiểm soát những người tạo ra AI.






































