정보수집

  • Nginx UI 인증 우회 취약점 (CVE-2026-33032 / MCPwn)

    취약점의 핵심은 경로 등록의 논리적 오류로 인한 것입니다. /mcp 엔드포인트는 AuthRequired() 미들웨어로 보호되지만 실제 도구 호출에 대한 지침을 수신하는 데 사용되는 쌍을 이루는 /mcp_message 엔드포인트는 해당 인증 미들웨어 없이 배포됩니다. 따라서 이 UI에 네트워크 액세스 권한이 있는 공격자는 아무런 자격 증명 없이도 Nginx 서비스를 장악할 수 있습니다.

    2026년 4월 19일자 서신, 상임 대표가 보낸
    01.1K0
  • AI 보안의 변화: 클로드 코드 보안 릴리스와 사이버 보안 업계에 미치는 영향에 대한 분석

    빅 모델 기술은 생성형 AI에서 심층 추론 기능을 갖춘 지능형 기관으로 진화하여 사이버 보안을 규칙 중심 모드에서 AI 네이티브 모드로 전환하고 있습니다. 클로드 코드 보안과 같은 솔루션은 아키텍처 매핑과 데이터 흐름 추적을 통해 취약점을 지능적으로 발견하고 폐쇄 루프 방식으로 수정하여 소프트웨어 공급망의 보안을 재구성하고 기존 보안 시장의 패턴에 큰 변화를 일으키고 있습니다.
    주요 사항은 다음과 같습니다:
    1. 생성에서 추론으로: 빅 모델은 텍스트 완성에서 코드 이해 및 작업 계획 기능을 갖춘 지능형 몸체로 진화하여 복잡한 논리 분석과 자율적 의사 결정을 지원합니다.
    2. 보안 패러다임 전환: 빅 모델은 취약성 탐지, 위협 인텔리전스, 코드 복구 등의 측면에서 기존 규칙 시스템을 능가하며 “보조 도구'에서 ”방어 핵심'으로 그 역할을 업그레이드합니다.
    클로드 코드 보안: 이 솔루션은 아키텍처 매핑, 데이터 흐름 추적 및 폐쇄 루프 수정이라는 세 가지 주요 기능을 기반으로 개발 프로세스에 통합된 실시간 지능형 코드 보안 분석을 제공합니다.
    4. 산업 환경에 미치는 영향: AI 기반 보안 솔루션은 기존 보안 기업의 주가를 하락시켜 툴체인 통합을 촉진하고 방어 문턱을 낮추며 취약점 악용 기간을 단축시켰습니다.
    5. 기술적 한계 존재: 모델 착시는 오탐으로 이어질 수 있으며, 고도로 맞춤화되거나 폐쇄적인 아키텍처에서는 추론 정확도가 여전히 어렵고 지속적인 검증과 최적화가 필요합니다.

    2026년 2월 21일자 서신, 상임 대표가 보낸
    04.0K0
  • 빅 모델 보안: 클로드 데스크톱 확장 제로 클릭 원격 코드 실행 취약점

    클로드 데스크톱 익스텐션은 샌드박스가 없는 아키텍처로 인해 간접 프롬프트 인젝션을 기반으로 제로 클릭 원격 코드 실행 취약점이 발생하고, AI 에이전트에 전체 시스템 권한이 부여됩니다. 이 취약점은 신뢰 경계가 없는 MCP 프로토콜의 설계 결함을 악용하여 공격자가 외부 데이터 소스를 오염시켜 임의의 코드를 실행할 수 있게 해줍니다. 위험 등급이 가장 높았음에도 불구하고 해당 공급업체는 "위협 모델 외부"라는 이유로 취약점 수정을 거부하여 AI 시대의 보안 책임 분담에 대한 광범위한 논란을 불러 일으켰습니다. 이 사례는 권한 제어 및 입력 유효성 검사 측면에서 AI 에이전트 시스템의 근본적인 보안 위험을 강조합니다.
    주요 사항은 다음과 같습니다:
    1. 높은 권한 샌드박스가 없는 아키텍처: Claude DXT는 브라우저 샌드박스에서 분리된 로컬 MCP 서버로 실행되며, 사용자로부터 모든 시스템 권한을 상속받아 고위험 공격 표면을 생성합니다.
    2. 제로 클릭 간접 프롬프트 주입: 공격자는 Google 캘린더와 같은 합법적인 데이터 소스에 악성 명령을 삽입하여 사용자 개입 없이도 AI 에이전트가 이를 획득하고 실수로 실행하도록 유도합니다.
    3. MCP 프로토콜 신뢰 경계 실패: 모델 컨텍스트 프로토콜은 저위험 작업의 출력이 고위험 시스템 호출을 직접 트리거할 수 있도록 허용하여 AI를 공격의 발판으로 만드는 '난독화된 에이전트' 취약점을 초래합니다.

    2026년 2월 13일자 서신, 상임 대표가 보낸
    03.0K0
  • AI BOT: AI 기술 기반 자동화 위협 환경에 대한 심층 분석

    이 글은 임퍼바 2025 악성 로봇 보고서의 세 가지 핵심 트렌드를 기반으로 작성되었습니다:
    자동화된 트래픽의 새로운 표준: 2024년에 처음으로 자동화된 트래픽이 인간 트래픽을 넘어 511 TP3T를 기록했으며, 이 중 371 TP3T가 악성 봇으로 6년 연속 증가하면서 인터넷 상호작용 패턴의 구조적 변화와 기업 보안 문제의 새로운 국면을 예고하고 있습니다.
    AI를 활용한 공격의 진화: 인공 지능(AI)과 대규모 언어 모델(LLM)의 확산으로 공격 임계값이 크게 낮아지면서 악의적인 자동 공격의 규모와 정교함이 더욱 커졌습니다. AI는 봇을 생성하는 데 사용될 뿐만 아니라 봇이 회피 기술을 분석, 학습 및 최적화하도록 유도하여 더욱 진화한 고급 봇을 생성하고 비즈니스 로직 공격의 증가로 이어집니다.
    API, 새로운 공격의 중심이 되다: 마이크로서비스와 모바일 앱의 인기로 인해 API는 집중된 가치, 상대적으로 취약한 방어, 자동화의 용이성으로 인해 악성 봇의 주요 공격 대상이 되었습니다.44%의 지능형 봇 트래픽이 API로 향했으며, 금융 서비스 및 통신 업계가 가장 심각한 공격을 받았으며 데이터 크롤링, 결제 사기, 계정 탈취가 주요 공격 전술로 사용되었습니다.
    또한, 2024년에 전년 대비 40%가 증가할 것으로 예상되는 계정 탈취 공격의 부활을 자세히 분석하고, ATO 공격이 급증하는 원인과 가장 큰 영향을 받는 산업, 규제에 따른 처벌에 대해 살펴봅니다. 마지막으로 이 백서에서는 조직이 점점 더 지능화되고 규모가 커지는 악성 봇의 위협에 효과적으로 대응하고 디지털 자산과 비즈니스 연속성을 보호할 수 있도록 기존의 WAF를 뛰어넘어 API 보안 강화, ATO 대응, 통합 보안 뷰 구축, 지속적인 모니터링 및 위협 인텔리전스를 포함한 다계층의 적응형 심층 방어 전략을 제안합니다.

    2026년 2월 10일자 서신, 상임대표가 보낸
    03.1K0
  • OpenClaw, VirusTotal 엔진과 통합하여 악성 ClawHub 기술 탐지 강화

    인공지능(AI) 기술의 급속한 발전과 함께 OpenClaw로 대표되는 오픈 소스 AI 지능(에이전트)은 인간과 컴퓨터의 상호작용 및 작업 자동화를 전례 없는 방식으로 재편하고 있습니다. 그러나 강력한 기능과 개방형 에코시스템은 심각한 보안 문제를 야기하기도 합니다. 이 백서에서는 OpenClaw의 아키텍처, 기능 및 에코시스템(특히 ClawHub 스킬 마켓플레이스)이 직면한 보안 위험을 심층적으로 살펴보고, 악성 스킬 위협을 탐지하고 완화하기 위해 VirusTotal 스캐닝 엔진을 통합하는 솔루션을 자세히 분석합니다. 이 글은 AI 보안 분야의 연구자와 실무자에게 인텔리전스 생태계의 보안 거버넌스에 대한 사례 연구와 함께 향후 AI 공급망 보안의 방향에 대한 성찰을 제공하는 것을 목표로 합니다.

    2026년 2월 8일자 서신, 다음 상임 대표의 서신
    04.3K0
  • AI 공급망 보안: 약 175,000개의 글로벌 올라마 프레임워크 인스턴스의 공격 표면에 대한 심층 분석 보고서

    대규모 모델(LLM)의 인기와 함께 Ollama로 대표되는 오픈소스 현지화된 배포 프레임워크는 개발자가 AI 모델을 사용하고 관리할 수 있는 문턱을 크게 낮췄습니다. 하지만 이러한 편리함의 이면에는 새로운 대규모 보안 위험도 존재합니다. SentinelOne, Censys, Pillar Security가 공동으로 발표한 최근 연구에 따르면 전 세계적으로 인터넷에 공개적으로 노출된 Ollama 인스턴스가 175,000개 이상 존재하여 대규모 AI 컴퓨팅 인프라 보안 공격 표면 위험이 발생한다는 놀라운 사실이 밝혀졌습니다.
    이 보고서는 이 사건에 대한 심층적인 기술적 분석을 제공하는 것을 목표로 합니다. 이 보고서는 이 사건에 대한 심층적인 기술적 분석을 제공하고 공격 표면, 실제 위협, 시스템적 위험을 분석하며 이에 대응하는 전사적 차원의 보안 강화 및 거버넌스 전략을 제안하는 것을 목표로 합니다.

    2026년 1월 31일
    03.7K0
  • AI 오픈소스 프레임워크 : Chainlit AI 프레임워크 ChainLeak 취약점 포트폴리오 영향 분석

    임의 파일 읽기 원리와 SSRF 취약점, 공격 데모, AI 보안 실무자 및 기업 보안팀을 위한 보호 권장 사항 등 체인릿 프레임워크의 고위험 보안 취약점인 ChainLeak에 대해 설명합니다.

    2026년 1월 21일자 서신, 상임 대표가 보낸
    13.7K0
  • 글로벌 사이버 공격 환경 및 AI 보안 위협 보고서 2025

    2025년은 사이버 보안에 있어 '전례 없는 복잡성'을 맞이하는 해입니다. 인공지능(AI) 기술의 급속한 발전과 대규모 적용으로 사이버 위협은 전례 없이 복잡하고 규모가 커지고 있습니다. 이 보고서는 2025년의 새로운 글로벌 사이버 공격, 대표적인 보안 사고, AI 보안 위협 및 그에 따른 위험 관리 전략에 대한 심층 분석을 제공하여 AI 엔지니어, 보안 엔지니어, 최고보안책임자(CSO)에게 기술적 참고자료와 의사 결정의 근거를 제공합니다.

    2026년 1월 9일자 서신, 상임 대표가 보낸
    06.2K0
  • AI IDE 보안: 커서 윈드서프, 구글 안티그래비티 공급망 공격 분석

    커서, 윈드서프, 구글 안티그래비티와 같은 AI 개발 중심 IDE는 VSCode에서 상속된 구성 파일 결함으로 인해 공급망 공격의 위험에 노출되어 있습니다. 이 세 플랫폼은 모두 백만 명 이상의 사용자를 보유하고 있으며, 확장 기능에 대한 자동화된 추천 메커니즘이 있어 공격자가 이를 악용하여 OpenVSX 확장 기능 마켓플레이스를 오염시켜 개발자에게 악성 코드를 푸시할 수 있습니다. 이 취약점을 통해 공격자는 선언되지 않은 확장 프로그램 네임스페이스를 등록하고 악성 확장 프로그램을 업로드하여 기존의 소셜 엔지니어링 없이도 SSH 키, AWS 자격 증명 및 소스 코드 액세스 권한을 얻을 수 있습니다. 이 위험의 영향 표면은 개발자 도구 체인에서 새로운 공격 벡터를 강조하며 MITRE ATT&CK 프레임워크에 IDE 확장 프로그램이 공식적으로 포함되었음을 의미합니다.

    2026년 1월 7일자 서신, 상임 대표가 보낸
    03.5K0
  • OWASP 릴리스: AI 인텔리전스 기관 보안 OWASP 상위 10 2026년

    AI가 단순한 챗봇에서 자율적인 계획, 의사 결정 및 실행 기능을 갖춘 에이전트 AI로 진화함에 따라 애플리케이션의 공격 표면이 근본적으로 바뀌었습니다. 기존의 LLM과 달리 ...

    2025년 12월 22일
    07.7K0