Theo TechCrunch vào ngày 27 tháng 7, Viện Tiêu chuẩn và Công nghệ Quốc gia (NIST) đã phát hành một nền tảng thử nghiệm có tên là Dioptra, nhằm mục đích đo lường tác động của các cuộc tấn công độc hại đến hiệu suất của các hệ thống trí tuệ nhân tạo, đặc biệt là các cuộc tấn công đầu độc dữ liệu đào tạo của các mô hình trí tuệ nhân tạo. Dioptra là một công cụ nguồn mở giúp đánh giá, phân tích và theo dõi các rủi ro AI, cung cấp một nền tảng để đánh giá chuẩn và mô phỏng các mối đe dọa. Tuy nhiên, Dioptra hiện chỉ áp dụng để đánh giá các mô hình cục bộ như Llama, không phải các mô hình trực tuyến.
Nguồn: https://techcrunch.com/2024/07/27/nist-releases-a-tool-for-testing-ai-model-risk/