Sicherheit durch künstliche Intelligenz (KI)

  • MCP Governance Framework: Wie man ein Sicherheitsmodell der nächsten Generation aufbaut, das KI-Supermächten widersteht

    Konzentrieren Sie sich darauf, wie MCP sich direkt auf das bestehende Sicherheitssystem auswirken kann, während KI die tatsächliche "Ausführungsbefugnis" erhält. Einerseits ermöglicht MCP den LLMs den Zugriff auf Tools, Datenbanken und Geschäftssysteme über ein einheitliches Protokoll, wodurch sie wirklich zu Multi-Agenten werden, die systemübergreifend arbeiten können, anstatt passive Frage-und-Antwort-Bots zu sein. Andererseits stützt sich diese Fähigkeit auf eine "hybride Identität" und eine langwierige Autorisierung und Authentifizierung, so dass die klare Identität, die minimalen Privilegien und die kontinuierliche Überprüfung, die für Zero Trust erforderlich sind, systematisch geschwächt und die versteckten Bedrohungen wie Context Poisoning, Tool Poisoning, Angriffe auf die Lieferkette usw. dramatisch vergrößert werden.
    Derzeit muss die Governance um MCP herum neu aufgebaut werden - mit dem Gateway als Drehscheibe, einheitlicher Identität, feinkörniger Autorisierung und vollständiger Überprüfung der Verbindungen -, um den wahren Wert der agentenbasierten KI zu erschließen, ohne die Sicherheit zu opfern.

    30. Dezember 2025
    02.3K0
  • KI-Sicherheitsarchitektur: von KI-Fähigkeiten zu Sicherheitsplattformen in der Praxis vor Ort

    Eine zukunftssichere KI-Sicherheitsarchitektur ist nicht nur eine technische Frage, sondern auch ein strategischer Wandel. Von "tool-driven" zu "intelligence-driven", von "after-the-fact response" zu "before-the-fact governance", von "artificial dependence" zu "human-machine collaboration" - diese Verschiebungen werden das Gesicht der Sicherheitsbranche tiefgreifend verändern. Von der "manuellen Abhängigkeit" zur "Mensch-Maschine-Zusammenarbeit" - diese Veränderungen werden das Erscheinungsbild der Sicherheitsbranche grundlegend verändern.

    Die Unternehmen, die bei der Entwicklung von KI-basierten Sicherheitssystemen die Führung übernehmen, werden einen Wettbewerbsvorteil in verschiedenen Bereichen wie Bedrohungserkennung, betriebliche Effizienz, Kostenkontrolle und Talentbindung erlangen. Und die Unternehmen, die im traditionellen Tool-Stacking und der Erstellung von Regeln verharren, werden schließlich von der Zeit überholt werden.

    Die Entwicklung der KI ist unumkehrbar. Entscheidungsträger im Sicherheitsbereich sollten sofort handeln, um diese historische Chance zu nutzen, indem sie den Aufbau von KI-Sicherheitsplattformen in vier Dimensionen einleiten: Strategie, Organisation, Technologie und Investitionen.

    30. Dezember 2025
    07.1K0
  • CVE-2025-68664 : Serialisierung Injection Vulnerability Report für LangChain, ein großes Modell Open Source Framework

    Das Open-Source-Megamodell LangChain hat eine schwerwiegende Serialisierungsschwachstelle (CVE-2025-68664) offengelegt, die von dem Sicherheitsforscher Yarden Porat von Cyata Security entdeckt wurde, bei der der "lc"-Schlüssel im Serialisierungs-/Deserialisierungsprozess fehlt. Diese vom Sicherheitsforscher Yarden Porat von Cyata Security entdeckte Schwachstelle wird durch einen fehlenden "lc"-Schlüssel im Serialisierungs-/Deserialisierungsprozess verursacht, der es einem Angreifer ermöglicht, Umgebungsvariablen auszuspähen, beliebige Objekte zu instanziieren oder sogar Code aus der Ferne mittels Prompt Injection auszuführen. Die Schwachstelle betrifft alle Implementierungen von LangChain Core vor Version 0.3.81 und im Bereich von Version 1.0.0-1.2.5. Die offiziellen Patches für Version 1.2.5 und 0.3.81 wurden am 24. Dezember veröffentlicht und gleichzeitig wurde die Standard-Sicherheitsrichtlinie verschärft.

    Schreiben des Ministers für auswärtige Angelegenheiten des Vereinigten Königreichs Großbritannien und Nordirland vom 27. Dezember 2025
    02.9K0
  • AI Intelligence Body Security: GitHub Actions Prompt Word Injection (PromptPwnd) Sicherheitslücke

    PromptPwnd ist eine neue Schwachstelle, die vom Aikido Security-Forschungsteam entdeckt wurde und eine ernsthafte Bedrohung für GitHub Actions und GitLab CI/CD-Pipelines darstellt, die KI-Agenten integrieren. Die Schwachstelle nutzt Prompt Injection aus, um Schlüssel zu kompromittieren, Arbeitsabläufe zu manipulieren und die Lieferkette zu gefährden, indem böswillige Befehle in ein KI-Modell injiziert werden, die es veranlassen, Operationen mit hohen Rechten durchzuführen. Mindestens fünf Fortune-500-Unternehmen sind von der Schwachstelle betroffen, und bei mehreren hochkarätigen Projekten wie Google Gemini CLI wurde die Schwachstelle nachgewiesen.

    Schreiben des Ministers für auswärtige Angelegenheiten des Vereinigten Königreichs Großbritannien und Nordirland vom 27. Dezember 2025
    01.6K0
  • AI-Hacking: Automatisierte Infiltrationsanalyse von AI-Agenten

    Strix stellt einen Paradigmenwechsel im Bereich der Cybersicherheitstests dar - eine Entwicklung von einem manuell-zentrierten Penetrationsansatz zu einem kollaborativen Automatisierungsmodell mit mehreren Agenten. Das Tool ermöglicht ein komplettes Schwachstellen-Lebenszyklusmanagement (Erkundung, Ausnutzung, Validierung) durch LLM-gesteuerte autonome Intelligenz und weist im Vergleich zu herkömmlichen manuellen Penetrations- und passiven Scanning-Tools erhebliche Kostenvorteile (Kostenreduzierung um mehr als 70%) und Zeiteffizienzvorteile (von Wochen auf Stunden reduzierte Testzyklen) auf. Ihre Grenzen sind jedoch ebenso offensichtlich: Die Erfolgsquote bei der Ausnutzung von Zero-Day-Schwachstellen beträgt nur 10-12%, die Fähigkeit zur Erkennung von Schwachstellen in der Geschäftslogik ist völlig unzureichend, und die inhärenten Sicherheitsrisiken von Multi-Agenten-Systemen (Hint Injection, Vertrauensmissbrauch zwischen Agenten) erfordern einen strukturierten Governance-Rahmen.

    24. Dezember 2025
    02.8K0
  • KI-Sicherheit: Ausweitung der Angriffsfläche für künstliche Intelligenz (KI) und Security Governance

    Viele Menschen denken, dass die Auswirkungen der KI auf die Cybersicherheit hauptsächlich in der Form eines "noch intelligenteren Werkzeugs" bestehen. Nach der Lektüre dieses Kompendiums über KI-Cybersicherheit im asiatisch-pazifischen Raum (AP) kommt man jedoch zu dem solideren Schluss, dass KI Angriffe schneller, billiger und realistischer macht, während...

    24. Dezember 2025
    01.9K0
  • OWASP-Veröffentlichung: KI-Intelligenz Körperschutz OWASP Top 10 2026

    Da sich KI von reinen Chatbots zu agentenbasierter KI mit autonomen Planungs-, Entscheidungs- und Ausführungsfunktionen entwickelt, hat sich die Angriffsfläche von Anwendungen grundlegend verändert. Im Gegensatz zu traditionellen LLM ...

    22. Dezember 2025
    03.8K0
  • Artificial Intelligence Security Defence in Depth: Erläuterung des Google SAIF AI Security Framework

    Mit der weiten Verbreitung von Large Language Models (LLM) und generativer künstlicher Intelligenz (GenAI) in Unternehmensanwendungen ist das traditionelle, auf deterministischer Logik basierende Paradigma der Softwaresicherheit nicht mehr in der Lage, neue stochastische Bedrohungen wie Modellinversion, Data Poisoning und Cue Word Injection zu bewältigen.Das Secure AI Framework (SAIF) von Google, das 2023 auf den Markt kommen soll, schlägt eine systematische Verteidigungsarchitektur vor, die darauf abzielt, traditionelle Best Practices der Cybersicherheit mit den Besonderheiten von KI-Systemen zu kombinieren. Das Secure AI Framework (SAIF), das 2023 von Google auf den Markt gebracht wird, schlägt eine systematische Verteidigungsarchitektur vor, die darauf abzielt, die besten Praktiken der traditionellen Cybersicherheit mit den Besonderheiten von KI-Systemen zu kombinieren. In diesem Beitrag werden die sechs Kernsäulen, der ökologische Synergiemechanismus und der Entwicklungspfad von SAIF aus der Perspektive des Architekturdesigns analysiert und theoretische und praktische Hinweise für den Aufbau eines KI-Sicherheitssystems auf Unternehmensebene gegeben.

    20. Dezember 2025
    02.4K0
  • CVE-2025-34291: Langflow AI Intelligence Body und Workflow-Plattform Kontoübernahme und Remotecode-Ausführung Sicherheitslücke

    CVE-2025-34291 ist eine kritische Sicherheitslücke in der Langflow AI Agent and Workflow Platform mit einer Sicherheitsbewertung von CVSS v4.0: 9.4. Die Sicherheitslücke ermöglicht es einem Angreifer, eine vollständige Kontoübernahme und Remotecodeausführung (RCE) von Langflow-Instanzen zu erreichen, indem er Benutzer dazu bringt, eine bösartige Webseite zu besuchen.

    11. Dezember 2025
    02.0K0
  • Artificial Intelligence (AI) Big Model Security Risk and Defence In-Depth Report

    Dieser Bericht basiert auf fünf zentralen Angriffsflächen, die aus kritischen Verbindungen von KI-Assistenten, Agenten, Tools, Modellen und Speicher bestehen, mit gezielten Sicherheitsrisiken, Abwehrarchitekturen und Lösungen.

    Schreiben vom 29. November 2025 des Ständigen Vertreters von
    010.3K0