전 세계 16개국, 안전한 인공지능 시스템 개발 가이드라인 공동 발표

인공 지능(AI)을 사용하는 모든 시스템 제공업체를 위한 지침으로 해당 시스템이 처음부터 새로 생성되었거나 다른 사람이 제공한 도구 및 서비스를 기반으로 구축되었습니다.

영국과 미국은 물론 16개국의 국제 파트너가 보안을 공개했습니다.일체 포함 (일체 포함) 시스템 개발에 대한 새로운 가이드.

미국사이버 보안CISA(인프라 보안국)는 "이러한 접근 방식은 보안 결과에 대한 고객 소유권을 우선시하고, 근본적인 투명성과 책임성을 수용하며, 보안 설계를 최우선으로 하는 조직 구조를 구축합니다"라고 말했습니다.

국립사이버보안센터(NCSC)는 인공지능에 대한 사이버 보안을 개선하고 해당 기술이 안전한 방식으로 설계, 개발 및 배포되도록 돕는 것이 목표라고 덧붙였습니다.

또한 이 지침은 인공 지능으로 인한 위험을 관리하기 위한 미국 정부의 지속적인 노력을 바탕으로 새로운 도구가 공개되기 전에 완전히 테스트되고, 편견, 차별, 개인정보 보호 문제 등 사회적 피해를 해결하기 위한 적절한 보호 장치가 마련되어 있음을 보장합니다. 소비자가 AI 생성 자료를 식별할 수 있는 신뢰할 수 있는 방법을 확립합니다.

또한 이 약속에 따르면 기업은 이러한 취약점을 신속하게 발견하고 수정할 수 있도록 제3자가 버그 포상금 시스템을 통해 AI 시스템의 취약점을 발견하고 보고하도록 홍보해야 합니다.

NCSC는 최신 지침이 "개발자가 사이버 보안이 AI 시스템의 안전을 위한 중요한 전제 조건이자 소위 '설계 보안' 접근 방식인 개발 프로세스 전반에 걸쳐 시작부터 필수적인 부분임을 보장하는 데 도움이 된다"고 밝혔습니다.

여기에는 안전한 디자인,안전한 개발, 보안 배포 및 보안 운영은 AI 시스템 개발 수명주기의 모든 중요한 영역을 다루며 조직은 시스템에 대한 위협을 모델링하고 공급망과 인프라를 보호해야 합니다.

기관들은 또한 모델 분류에 영향을 미치고 사용자가 승인되지 않은 작업을 수행하도록 허용하는 것을 포함하여 다양한 방식으로 의도하지 않은 동작을 유발하도록 설계된 인공 지능 및 기계 학습(ML) 시스템에 대한 적대적 공격에 맞서 싸우기 위한 것이라고 지적했습니다. 민감한 정보의.

NCSC는 다음과 같이 말합니다. “대규모 언어 모델(LLM) 분야의 힌트 주입 공격, 훈련 데이터 또는 사용자 피드백의 고의적 손상('데이터 중독'이라고 함) 등 이러한 효과를 달성하는 방법은 여러 가지가 있습니다.

요약

이 문서는 인공 지능(AI)을 사용하는 시스템이 처음부터 새로 생성되었거나 다른 사람이 제공한 도구 및 서비스를 기반으로 구축되었는지 여부에 관계없이 시스템 제공업체에 대한 지침을 제공합니다. 이러한 지침을 구현하면 공급자는 예상대로 작동하고 필요할 때 사용할 수 있으며 승인되지 않은 당사자에게 중요한 데이터를 유출하지 않고 작동하는 AI 시스템을 구축하는 데 도움이 됩니다.

이 문서는 주로 조직에서 호스팅하는 모델을 사용하거나 외부 API(응용 프로그래밍 인터페이스)를 사용하는 AI 시스템 제공업체를 대상으로 합니다. 우리는 데이터 과학자, 개발자, 관리자, 정책 입안자, 위험 소유자를 포함한 모든 이해관계자가 AI 시스템의 설계, 개발, 배포 및 운영에 대해 정보에 입각한 결정을 내리는 데 도움이 되도록 이 지침을 읽을 것을 촉구합니다.

가이드에 대하여

인공지능 시스템은 사회에 많은 이점을 가져올 수 있는 잠재력을 가지고 있습니다. 그러나 AI의 기회를 완전히 실현하려면 AI를 안전하고 책임감 있는 방식으로 개발, 배포 및 운영해야 합니다.

AI 시스템은 표준 사이버 보안 위협과 함께 고려해야 하는 새로운 보안 취약점을 제시합니다. 개발이 빠르게 진행되는 경우(인공 지능의 경우) 보안은 종종 부차적인 고려 사항입니다. 보안은 개발 단계뿐만 아니라 시스템 수명 주기 전반에 걸쳐 핵심 요구 사항이 되어야 합니다.

이를 위해 가이드는 인공 지능 시스템의 개발 수명주기 내에서 안전한 설계, 안전한 개발, 안전한 배포, 안전한 작동 및 유지 관리의 네 가지 주요 영역을 세분화합니다. 각 섹션마다 조직의 AI 시스템 개발 프로세스의 전반적인 위험을 줄이는 데 도움이 되는 고려 사항과 완화 방법을 권장합니다.

1. 안전설계

이 섹션에는 AI 시스템 개발 라이프사이클의 설계 단계에 적용 가능한 지침이 포함되어 있습니다. 위험과 위협 모델링에 대한 이해뿐만 아니라 시스템과 모델을 설계할 때 고려해야 할 특정 주제와 장단점에 대해서도 다룹니다.

2. 보안 개발

이 섹션에는 공급망 보안, 문서화, 자산 및 기술 부채 관리를 포함하여 AI 시스템 개발 수명주기의 개발 단계에 적용 가능한 지침이 포함되어 있습니다.

3. 안전한 배포

이 섹션에는 손상, 위협 또는 손실로부터 인프라 및 모델 보호, 사고 관리 프로세스 개발 및 책임 있는 릴리스를 포함하여 AI 시스템 개발 수명주기의 배포 단계에 적용되는 지침이 포함되어 있습니다.

4. 안전한 작동 및 유지 관리

이 섹션에는 AI 시스템 개발 수명주기의 보안 운영 단계에 적용되는 지침이 포함되어 있습니다. 로깅 및 모니터링, 업데이트 관리, 정보 공유 등 시스템 배포 후 특히 관련된 작업에 대한 지침을 제공합니다.

이 지침은 "기본적으로 보안" 접근 방식을 따르며 NCSC의 보안 개발 및 배포 지침, NIST의 보안 소프트웨어 개발 프레임워크 및 CISA, NCSC 및 국제 사이버 기관에서 게시한 "설계 원칙에 따른 보안"에 정의된 관행과 밀접하게 일치합니다.

고려해야 할 요소:

  • 고객의 안전 결과를 책임집니다.
  • 급진적인 투명성과 책임을 수용합니다.
  • 설계에 의한 보안을 기업의 최우선 비즈니스 우선순위로 삼을 수 있는 조직 구조 및 리더십 확립

안전한 인공지능 시스템 개발 가이드 다운로드:

시청하려면 나머지 콘텐츠를 잠금 해제해야 합니다.

전체 텍스트를 보려면 잠금을 해제하세요.

이미 로그인하셨나요?지금 새로고침

원본 기사, 저자: lyon, 재인쇄할 경우 출처를 밝혀주세요: https://cncso.com/kr/release-guidelines-for-secure-artificial-intelligence-system-development.html

좋다 (2)
이전의 2023년 11월 27일 오후9:00
다음 2023년 11월 29일 오후10:01

관련 제안