Theo Bộ Thương mại Hoa Kỳ vào ngày 26 tháng 7, Bộ Thương mại Hoa Kỳ đã công bố một loạt các kế hoạch của Viện An toàn AI nhằm cải thiện tính bảo mật và độ tin cậy của AI. Kế hoạch cụ thể bao gồm: 1. Ngăn ngừa rủi ro sử dụng sai các mô hình cơ sở sử dụng kép, cung cấp bảy phương pháp chính để giảm rủi ro lạm dụng mô hình, bao gồm các phương pháp triển khai và đề xuất để cải thiện tính minh bạch; 2. Kiểm tra cách các mô hình AI phản ứng với các nền tảng tấn công, một gói phần mềm nguồn mở mới giúp người kiểm tra và nhà phát triển xác định xem phần mềm AI đã phát triển có thể chống lại các cuộc tấn công đối nghịch hay không; 3. “Quản lý rủi ro của Trí tuệ nhân tạo tạo sinh” (NIST AI 600-1), liệt kê 12 rủi ro và hơn 200 biện pháp quản lý mà nhà phát triển có thể thực hiện; 4. “Thực hành phát triển phần mềm an toàn cho Trí tuệ nhân tạo tạo sinh và Mô hình cơ sở sử dụng kép” (Ấn phẩm đặc biệt của NIST (SP) 800-218A); 5. Chương trình tham gia toàn cầu cho các tiêu chuẩn trí tuệ nhân tạo (NIST AI 100-5).