Sicherheit durch künstliche Intelligenz (KI)

  • AI 安全:Cursor IDE 企业级安全开发指南

    Cursor 是一款基于开源项目 Visual Studio Code(VS Code)的 AI 驱动集成开发环境,深度集成生成式大语言模型(如 GPT-4、Claude),为开发人员提供智能代码生成、自动补全、错误修复等功能。其核心特性包括 Cursor Tab(智能代码补全)、Agent Mode(自主代码生成)和 Model Context Protocol(MCP)集成等。

    2026年1月26日
    04930
  • CSO:2025年中国网络安全从合规到AI驱动风险治理趋势

    一、报告摘要 核心观点 2025年中国网络安全领域正经历范式转变。监管强化与生成式AI爆发式采纳的”双重压力”,正将企业安全焦点从被动合规防御转向主动数据治…

    2026年1月18日
    02.0K0
  • Data Security Intelligence: ein KI-gesteuertes Paradigma für die nächste Generation des Schutzes von Unternehmensdaten

    Mit der rasanten Entwicklung der Large Language Model (LLM)-Technologie und der Vertiefung der digitalen Transformation von Unternehmen kann das herkömmliche passive Datensicherheitssystem die Verteidigungsanforderungen moderner Bedrohungen nicht mehr erfüllen. Chinas erstes intelligentes Datensicherheitssystem vereint generative KI, adaptive Schutzmechanismen, die Zusammenarbeit mehrerer intelligenter Systeme und andere Spitzentechnologien, um den Paradigmenwechsel von "künstlichem Stapeln" zu "intelligent und aktiv" zu vollziehen.

    Schreiben vom 13. Januar 2026 des Ständigen Vertreters von
    01.5K0
  • AI Security: AI Attack Surface Analysis Report über künstliche Intelligenz 2026

    Im Jahr 2026 erfährt die KI-Sicherheitslandschaft eine grundlegende Umgestaltung. Als Reaktion auf eine globale Cybersecurity-Talentlücke von bis zu 4,8 Millionen Menschen setzen Unternehmen massiv hochprivilegierte, rund um die Uhr arbeitende KI-Intelligenzen ein und werden so zur Zielscheibe für Angreifer. Top-Sicherheitsorganisationen wie Palo Alto Networks, Moody's und CrowdStrike sagen voraus, dass KI-Intelligenzen bis 2026 die größte Insider-Bedrohung für Unternehmen darstellen werden. Traditionelle Verteidigungssysteme versagen, und neue Governance-Systeme und Schutzarchitekturen sind notwendig geworden.

    Schreiben vom 10. Januar 2026 des Ständigen Vertreters von
    03.0K0
  • Globale Cyber-Angriffslandschaft und KI-Sicherheitsbedrohungsbericht 2025

    Das Jahr 2025 ist ein Jahr "noch nie dagewesener Komplexität" im Bereich der Cybersicherheit. Mit der rasanten Entwicklung und großflächigen Anwendung von Technologien der künstlichen Intelligenz (KI) nehmen Cyberbedrohungen eine nie dagewesene Komplexität und ein nie dagewesenes Ausmaß an. Dieser Bericht bietet eingehende Analysen neuer globaler Cyberangriffe, typischer Sicherheitsvorfälle, KI-Sicherheitsbedrohungen und entsprechender Risikomanagementstrategien im Jahr 2025 und liefert technische Referenzen und Entscheidungsgrundlagen für KI-Ingenieure, Sicherheitsingenieure und Chief Security Officers (CSOs).

    Schreiben vom 9. Januar 2026 des Ständigen Vertreters von
    02.4K0
  • KI-Sicherheit: Aufbau eines KI-Sicherheitssystems für Unternehmen auf der Grundlage der ATT&CK-Methodik

    In diesem Papier wird die KI-Sicherheitsbedrohungsmatrix als zentraler Rahmen verwendet, und auf der Grundlage der ausgereiften ATT&CK-Methode werden systematisch die Sicherheitsbedrohungen für KI-Systeme über den gesamten Lebenszyklus hinweg ausgearbeitet, einschließlich Data Poisoning, Modellextraktion, Preisgabe der Privatsphäre, gegnerische Proben und wichtige Angriffstechniken wie Cue-Word-Injection. Referenz.

    Schreiben vom 9. Januar 2026 des Ständigen Vertreters von
    01.7K0
  • AI IDE Security: Cursor Windsurf Google Antigravity Supply Chain Attack Analysis

    KI-gesteuerte IDEs wie Cursor, Windsurf und Google Antigravity sind aufgrund von Konfigurationsdateifehlern, die von VSCode geerbt wurden, von Angriffen auf die Lieferkette bedroht. Die drei Plattformen, die zusammen mehr als eine Million Nutzer haben, verfügen über einen automatischen Empfehlungsmechanismus für Erweiterungen, der von einem Angreifer ausgenutzt werden könnte, um bösartigen Code an Entwickler weiterzuleiten, indem er den OpenVSX-Erweiterungsmarktplatz infiziert. Die Schwachstelle ermöglicht es einem Angreifer, nicht deklarierte Erweiterungs-Namespaces zu registrieren und bösartige Erweiterungen hochzuladen, um SSH-Schlüssel, AWS-Anmeldedaten und Quellcode-Zugang ohne herkömmliches Social Engineering zu erlangen. Die Auswirkungsfläche des Risikos hebt einen neuen Angriffsvektor in der Entwickler-Toolchain hervor und markiert die offizielle Aufnahme von IDE-Erweiterungen in das MITRE ATT&CK-Framework.

    Schreiben vom 7. Januar 2026 des Ständigen Vertreters von
    01.9K0
  • Big Model Security: Einführung und Analyse des Open-Source-Frameworks Guardrails Security Fence

    OpenGuardrails ist die erste vollständige Open-Source-Sicherheitsplattform für Unternehmen, die 119 Sprachen, eine einheitliche LLM-Architektur, konfigurierbare Empfindlichkeitsrichtlinien und eine Multi-Cloud-Bereitstellung unterstützt. Dieser Bericht bietet eine eingehende Analyse der wichtigsten technischen Innovationen, Anwendungsszenarien, Bereitstellungsmodelle, Leistungsbenchmarking und zukünftigen Entwicklungen und liefert Richtlinien zur Einhaltung von Sicherheitsvorschriften für KI-Anwendungen in regulierten Branchen wie dem Finanz-, Gesundheits- und Rechtswesen. Durch die Analyse der konfigurierbaren Richtlinien, des effizienten Modelldesigns und der produktionsgerechten Infrastruktur von OpenGuardrails zeigt er die Richtung der nächsten Generation von KI-Sicherheits-Guardrails auf.

    Schreiben vom 6. Januar 2026 des Ständigen Vertreters von
    01.9K0
  • CSO:Künstliche Intelligenz (KI) Cyberangriffe und -abwehr Statistiken, Trends, Kosten und Verteidigungssicherheitsbericht 2025

    Künstliche Intelligenz (KI) verändert das Verteidigungs- und Angriffsparadigma im Sicherheitsbereich. Angreifer nutzen KI, um realistische Phishing-Nachrichten in großem Maßstab zu generieren, Stimmen von Führungskräften zu klonen, ungeschützte KI-Infrastrukturen zu erkennen und das Eindringen in die Privatsphäre zu automatisieren. Verteidiger wiederum nutzen KI, um Anomalien schneller zu erkennen, Risikowarnungen zu klassifizieren und Vorfälle einzudämmen. Doch fehlende Fähigkeiten und falsch konfigurierte KI-Architekturen öffnen neuen Angriffen Tür und Tor. Dieser Leitfaden fasst die neuesten KI-Cyberangriffsstatistiken für 2025 zusammen, übersetzt die Daten in geschäftliche Auswirkungen und bietet einen priorisierten Aktionsplan, den Sie dieses Jahr umsetzen können.

    Schreiben vom 4. Januar 2026 des Ständigen Vertreters von
    04.3K0
  • CSO: Ein Leitfaden für Chief Security Officer zur vollständigen Sicherheit von KI-Daten

    Chief Security Officers (CSOs) stehen vor einer noch nie dagewesenen Herausforderung: KI-Systeme verstärken sowohl bestehende Datenrisiken als auch völlig neue Bedrohungen wie Data Poisoning, Model Reverse Engineering und Kontamination der Lieferkette. Dieser Leitfaden baut auf dem NIST AI Risk Management Framework (AI RMF), dem Google Secure AI Framework (SAIF) und Branchenpraktiken auf, um CSOs ein umsetzbares System zur Datensicherheitssteuerung an die Hand zu geben.

    31. Dezember 2025
    02.6K0