Anthropic và Lầu Năm Góc: Điều gì thực sự đang bị đặt cược?

Nguồn: techcrunch
Tác giả: Rebecca Bellan
Ngày đăng: 27/2/2026
Để đọc nội dung đầy đủ, vui lòng truy cập vào bài viết gốc.
Đọc bài viết gốcTranh cãi gần đây giữa công ty AI Anthropic và Bộ Quốc phòng Hoa Kỳ (DoD) xoay quanh quyền kiểm soát việc sử dụng các mô hình AI mạnh mẽ, đặc biệt liên quan đến các giới hạn về đạo đức và vận hành. Anthropic từ chối cho phép công nghệ AI của mình được sử dụng để giám sát hàng loạt công dân Mỹ hoặc các hệ thống vũ khí sát thương hoàn toàn tự động hoạt động mà không có sự giám sát của con người. Công ty lập luận rằng AI mang lại những rủi ro đặc thù đòi hỏi các biện pháp bảo vệ nghiêm ngặt, nhất là trong bối cảnh quân sự, nơi các quyết định liên quan đến sinh mạng truyền thống luôn có sự phán xét của con người. Anthropic lo ngại rằng các chính sách hiện tại của DoD cho phép sử dụng vũ khí tự động có khả năng lựa chọn và tấn công mục tiêu mà không cần sự can thiệp của con người, điều này có thể dẫn đến những sai sót nguy hiểm hoặc leo thang không mong muốn nếu các hệ thống AI kém năng lực hơn được triển khai quá sớm.
Mặt khác, Lầu Năm Góc khẳng định họ nên có quyền tự do sử dụng AI của Anthropic cho bất kỳ mục đích hợp pháp nào, nhấn mạnh sự linh hoạt trong vận hành hơn là các hạn chế do nhà cung cấp đặt ra. Bộ trưởng Hegseth và phát ngôn viên Lầu Năm Góc Sean Parnell đã tuyên bố rằng DoD không có ý định sử dụng AI cho việc giám sát nội địa hàng loạt hoặc vũ khí hoàn toàn tự động nhưng...
Thẻ
robotautonomous-weaponsAI-ethicsmilitary-technologyartificial-intelligencedefense-systemssurveillance-technology