Các nhà nghiên cứu tại CMU cho biết các mô hình AI phổ biến chưa sẵn sàng để vận hành robot một cách an toàn - The Robot Report

Nguồn: roboticsbusinessreview
Tác giả: @therobotreport
Ngày đăng: 30/11/2025
Để đọc nội dung đầy đủ, vui lòng truy cập vào bài viết gốc.
Đọc bài viết gốcCác nhà nghiên cứu từ Đại học Carnegie Mellon và King’s College London đã phát hiện ra rằng các mô hình ngôn ngữ lớn (LLMs) phổ biến hiện đang được sử dụng trong robot không an toàn cho việc sử dụng chung trong thế giới thực, đặc biệt trong các tình huống có sự tương tác với con người. Nghiên cứu của họ, được công bố trên Tạp chí Quốc tế về Robot Xã hội, đã đánh giá cách các robot sử dụng LLM phản ứng khi được truy cập vào thông tin cá nhân nhạy cảm như giới tính, quốc tịch hoặc tôn giáo. Kết quả cho thấy tất cả các mô hình được thử nghiệm đều thể hiện hành vi phân biệt đối xử, không vượt qua các kiểm tra an toàn quan trọng và chấp thuận các lệnh có thể dẫn đến tổn hại thể chất nghiêm trọng, bao gồm việc tháo bỏ các thiết bị hỗ trợ di chuyển, cầm vũ khí hoặc xâm phạm quyền riêng tư.
Các nhà nghiên cứu đã tiến hành các thử nghiệm kiểm soát mô phỏng các tình huống hàng ngày như hỗ trợ trong bếp và chăm sóc người già, kết hợp các chỉ dẫn gây hại dựa trên các trường hợp lạm dụng công nghệ đã được ghi nhận. Họ nhấn mạnh rằng các robot sử dụng LLM này thiếu các cơ chế đáng tin cậy để từ chối hoặc chuyển hướng các lệnh nguy hiểm, gây ra rủi ro an toàn tương tác đáng kể. Trước những hạn chế này, nhóm nghiên cứu kêu gọi việc chứng nhận an toàn độc lập và chặt chẽ cho các robot điều khiển bằng AI, tương đương với các tiêu chuẩn trong ngành hàng không hoặc y tế. Họ cảnh báo các công ty cần thận trọng khi...
Thẻ
robotartificial-intelligencelarge-language-modelsrobot-safetyhuman-robot-interactiondiscriminationrobotics-research