Microsoft, Google, xAI cho phép chính phủ Mỹ kiểm tra an ninh các mô hình AI mới
Al Jazeera English
Microsoft, Google và xAI đồng ý cho chính phủ liên bang Mỹ truy cập các mô hình trí tuệ nhân tạo mới để kiểm tra an ninh quốc gia. Thỏa thuận với Trung tâm Tiêu chuẩn và Đổi mới AI (CAISI) nhằm phát hiện rủi ro từ tấn công mạng đến lạm dụng quân sự trước khi triển khai rộng rãi. Động thái này diễn ra trong bối cảnh lo ngại về sức mạnh của các hệ thống AI tiên tiến như Mythos của Anthropic.
Tech giants Microsoft, Google và xAI cho biết họ sẽ cho phép chính phủ liên bang Mỹ truy cập vào các mô hình trí tuệ nhân tạo (AI) mới để phục vụ mục đích kiểm tra an ninh quốc gia.
Trung tâm Tiêu chuẩn và Đổi mới AI (CAISI) thuộc Bộ Thương mại đã công bố thỏa thuận này vào đầu tháng này, trong bối cảnh lo ngại ngày càng tăng về khả năng mà mô hình Mythos mới của Anthropic có thể mang lại cho tin tặc.
Theo thỏa thuận, chính phủ Mỹ sẽ được phép đánh giá các mô hình AI trước khi triển khai và tiến hành nghiên cứu để xác định khả năng cũng như rủi ro an ninh của chúng. Thỏa thuận này thực hiện cam kết mà chính quyền Tổng thống Donald Trump đưa ra vào tháng 7 năm ngoái về việc hợp tác với các công ty công nghệ để kiểm tra các mô hình AI của họ nhằm phát hiện “rủi ro an ninh quốc gia”.
Microsoft cho biết trong một tuyên bố rằng họ sẽ hợp tác với các nhà khoa học chính phủ Mỹ để kiểm tra các hệ thống AI “theo những cách phát hiện các hành vi bất ngờ”. Cùng nhau, họ sẽ phát triển các bộ dữ liệu và quy trình làm việc chung để kiểm tra các mô hình của công ty. Microsoft cũng đã ký một thỏa thuận tương tự với Viện An ninh AI của Vương quốc Anh.
Mối lo ngại đang gia tăng ở Washington về rủi ro an ninh quốc gia do các hệ thống AI mạnh mẽ gây ra. Bằng cách đảm bảo quyền truy cập sớm vào các mô hình tiên tiến, các quan chức Mỹ đang nhắm đến việc xác định các mối đe dọa, từ tấn công mạng đến lạm dụng quân sự, trước khi các công cụ này được triển khai rộng rãi.
Sự phát triển của các hệ thống AI tiên tiến, bao gồm cả Mythos của Anthropic, trong những tuần gần đây đã gây xôn xao trên toàn cầu, bao gồm cả giới quan chức Mỹ và doanh nghiệp Mỹ, về khả năng tăng cường sức mạnh cho tin tặc.
Giám đốc CAISI Chris Fall cho biết: “Khoa học đo lường độc lập và nghiêm ngặt là điều cần thiết để hiểu về AI tiên tiến và các tác động an ninh quốc gia của nó.”
Động thái này được xây dựng dựa trên các thỏa thuận năm 2024 với OpenAI và Anthropic dưới thời chính quyền Tổng thống Joe Biden, khi CAISI còn được gọi là Viện An toàn AI của Mỹ. Dưới thời Biden, viện tập trung vào việc phát triển các bài kiểm tra AI, định nghĩa và tiêu chuẩn an toàn tự nguyện.
CAISI, cơ quan đầu mối chính của chính phủ về kiểm tra mô hình AI, cho biết đã hoàn thành hơn 40 đánh giá, bao gồm cả các mô hình tiên tiến chưa được công bố rộng rãi. Các nhà phát triển thường giao nộp các phiên bản mô hình đã loại bỏ các rào cản an toàn để trung tâm có thể thăm dò các rủi ro an ninh quốc gia.
Trên thị trường chứng khoán Phố Wall, cổ phiếu Microsoft giảm 0,6% vào giữa phiên giao dịch ngay sau thông báo. Trong khi đó, Alphabet, công ty mẹ của Google, lại tăng 1,3%. xAI không được giao dịch công khai.
Thông báo này được đưa ra sau thỏa thuận giữa Lầu Năm Góc và bảy công ty công nghệ lớn – Google, Microsoft, Amazon Web Services, Nvidia, OpenAI, Reflection và SpaceX – về việc sử dụng hệ thống AI trên các mạng máy tính mật. Bộ Quốc phòng cho biết thỏa thuận sẽ cung cấp các nguồn lực để giúp “tăng cường khả năng ra quyết định của chiến binh trong các môi trường tác chiến phức tạp”. Đáng chú ý là sự vắng mặt của công ty AI Anthropic sau cuộc tranh chấp công khai và kiện tụng với chính quyền Trump về đạo đức và an toàn của việc sử dụng AI trong chiến tranh.
