인공 지능(AI) 보안
-
영국 정부의 인공지능(AI) 안전 연구소, 새로운 AI 안전 평가 플랫폼 출시
인공지능 보안 연구소는 인공지능 모델의 안전성과 성능을 평가하기 위해 설계된 오픈소스 테스트 플랫폼인 Inspect를 출시했습니다.Inspect는 인공지능 모델의 핵심 지식, 추론 및 자율성을 감지하여 글로벌 인공지능 커뮤니티의 발전을 촉진하며, Inspect는 인공지능 보안 연구의 초석이 되고 있습니다.
-
AIGC AI 안전 보고서 2024
AIGC(인공지능 생성 콘텐츠) 분야에서는 상당한 진전이 있었습니다. 그러나 기술 발전에는 항상 새로운 도전이 따르기 마련이며, AIGC 분야의 보안 문제가 대두되고 있습니다. 이 보고서에서는 AIGC의 보안 위험을 심층적으로 분석하고 해결책을 제안합니다.
-
전 세계 16개국, 안전한 인공지능 시스템 개발 가이드라인 공동 발표
인공 지능(AI)을 사용하는 모든 시스템 제공업체를 위한 지침으로 해당 시스템이 처음부터 새로 생성되었거나 다른 사람이 제공한 도구 및 서비스를 기반으로 구축되었습니다.