RIEM News LogoRIEM News

Cái bẫy mà Anthropic tự tạo ra cho chính mình

Cái bẫy mà Anthropic tự tạo ra cho chính mình
Nguồn: techcrunch
Tác giả: Connie Loizos
Ngày đăng: 1/3/2026

Để đọc nội dung đầy đủ, vui lòng truy cập vào bài viết gốc.

Đọc bài viết gốc
Bài viết bàn về sự rạn nứt gần đây giữa chính quyền Trump và Anthropic, một công ty AI có trụ sở tại San Francisco được thành lập bởi các nhà nghiên cứu cựu OpenAI, tập trung vào an toàn AI. Chính quyền đã cắt đứt quan hệ với Anthropic sau khi công ty từ chối cho phép công nghệ của mình được sử dụng để giám sát hàng loạt công dân Mỹ hoặc cho các drone vũ trang tự động có khả năng hành động gây chết người mà không có sự giám sát của con người. Quyết định này dẫn đến việc Anthropic bị đưa vào danh sách đen khỏi các hợp đồng với Lầu Năm Góc trị giá lên tới 200 triệu đô la và bị cấm hợp tác với các nhà thầu quốc phòng khác, theo chỉ thị của Tổng thống Trump về việc ngừng sử dụng tất cả công nghệ của Anthropic trong liên bang. Anthropic đã thách thức cơ sở pháp lý của việc xếp loại rủi ro chuỗi cung ứng này, gọi đó là điều chưa từng có đối với một công ty Mỹ. Max Tegmark, một nhà vật lý tại MIT và người ủng hộ quản trị AI, chỉ trích Anthropic và các công ty AI tương tự vì vai trò của họ trong việc tự tạo ra tình thế khó khăn bằng cách chống lại các quy định bắt buộc của chính phủ mặc dù đã cam kết công khai về an toàn AI. Tegmark nhấn mạnh rằng các công ty như Anthropic, OpenAI, Google DeepMind và xAI đã nhiều lần hứa hẹn...

Thẻ

robotartificial-intelligenceautonomous-weaponsAI-ethicsdefense-technologyAI-regulationsurveillance-technology