대형 모델 보안

  • 大模型安全:开源框架Guardrails安全护栏介绍与解析

    OpenGuardrails是首个完整开源的企业级大模型安全护栏平台,支持119种语言、统一LLM架构、可配置敏感度策略、多云部署。本报告深度解析其核心技术创新、应用场景、部署模式、性能对标与未来发展,为金融、医疗、法律等受管制行业的AI应用提供安全合规指引。通过分析OpenGuardrails的可配置策略、高效模型设计与生产级基础设施,揭示下一代AI安全护栏的发展方向。

    2026年1月6日
    06560
  • CSO: 최고 보안 책임자를 위한 AI 데이터의 풀링크 보안 가이드

    首席安全官(CSO)正面临前所未有的挑战:AI系统既放大了现有数据风险,又引入了诸如数据投毒、模型逆向工程和供应链污染等全新威胁。这份指南基于NIST AI风险管理框架(AI RMF)、Google安全AI框架(SAIF)和行业实践,为CSO提供一套可操作的数据安全治理体系。

    2025년 12월 31일
    01.3K0
  • CVE-2025-68664 : 대규모 모델 오픈 소스 프레임워크인 LangChain의 직렬화 인젝션 취약점 보고서

    오픈소스 메가 모델인 랭체인은 직렬화/역직렬화 과정에서 "lc" 키가 누락된 심각도 수준의 직렬화 인젝션 취약점(CVE-2025-68664)을 발견한 Cyata Security의 보안 연구원 Yarden Porat에 의해 공개되었습니다. 이 취약점은 직렬화/역직렬화 프로세스에서 "lc" 키가 누락되어 공격자가 환경 변수를 유출하거나 임의의 객체를 인스턴스화하거나 프롬프트 인젝션을 통해 원격으로 코드를 실행할 수 있는 것으로, Cyata Security의 보안 연구원 Yarden Porat가 발견했습니다. 이 취약점은 버전 0.3.81 이전과 버전 1.0.0-1.2.5 범위 내의 모든 LangChain Core 배포에 영향을 미치며, 12월 24일에 공식 패치 버전 1.2.5 및 0.3.81이 릴리스되었고 동시에 기본 보안 정책도 강화되었습니다.

    영국 및 북아일랜드 외무부 장관의 2025년 12월 27일자 서한
    01.9K0
  • 인공지능 보안 방어 심층 분석: Google SAIF AI 보안 프레임워크에 대한 설명

    기업 애플리케이션에 대규모 언어 모델(LLM)과 생성 인공 지능(GenAI)이 널리 보급되면서 결정론적 논리에 기반한 기존의 소프트웨어 보안 패러다임으로는 모델 역전, 데이터 중독, 큐 워드 삽입과 같은 새로운 확률적 위협에 더 이상 대응할 수 없게 되었습니다.2023년에 출시될 Google의 보안 AI 프레임워크(SAIF)는 전통적인 사이버 보안 모범 사례와 AI 시스템의 특수성을 결합하는 것을 목표로 하는 체계적인 방어 아키텍처를 제안하고 있습니다. 구글이 2023년에 출시할 보안 AI 프레임워크(SAIF)는 기존 사이버 보안의 모범 사례와 AI 시스템의 특수성을 결합하는 것을 목표로 하는 체계적인 방어 아키텍처를 제안합니다. 이 백서에서는 아키텍처 설계 관점에서 SAIF의 6가지 핵심 요소, 생태적 시너지 메커니즘, 진화 경로를 분석하여 엔터프라이즈급 AI 보안 시스템 구축을 위한 이론적, 실무적 참고자료를 제공합니다.

    2025년 12월 20일
    01.8K0
  • 인공지능(AI) 빅 모델 보안 위험 및 방어 심층 보고서

    이 보고서는 AI 어시스턴트, 에이전트, 도구, 모델, 스토리지의 5가지 핵심 공격 표면과 표적 보안 위험, 방어 아키텍처 및 솔루션으로 구성된 5가지 핵심 공격 표면을 기반으로 작성되었습니다.

    2025년 11월 29일자 서신, 상임대표가 보낸
    09.6K0