Große Modellsicherheit
-
KI-Sicherheit: Aufbau eines KI-Sicherheitssystems für Unternehmen auf der Grundlage der ATT&CK-Methodik
In diesem Papier wird die KI-Sicherheitsbedrohungsmatrix als zentraler Rahmen verwendet, und auf der Grundlage der ausgereiften ATT&CK-Methode werden systematisch die Sicherheitsbedrohungen für KI-Systeme über den gesamten Lebenszyklus hinweg ausgearbeitet, einschließlich Data Poisoning, Modellextraktion, Preisgabe der Privatsphäre, gegnerische Proben und wichtige Angriffstechniken wie Cue-Word-Injection. Referenz.
-
Big Model Security: Einführung und Analyse des Open-Source-Frameworks Guardrails Security Fence
OpenGuardrails ist die erste vollständige Open-Source-Sicherheitsplattform für Unternehmen, die 119 Sprachen, eine einheitliche LLM-Architektur, konfigurierbare Empfindlichkeitsrichtlinien und eine Multi-Cloud-Bereitstellung unterstützt. Dieser Bericht bietet eine eingehende Analyse der wichtigsten technischen Innovationen, Anwendungsszenarien, Bereitstellungsmodelle, Leistungsbenchmarking und zukünftigen Entwicklungen und liefert Richtlinien zur Einhaltung von Sicherheitsvorschriften für KI-Anwendungen in regulierten Branchen wie dem Finanz-, Gesundheits- und Rechtswesen. Durch die Analyse der konfigurierbaren Richtlinien, des effizienten Modelldesigns und der produktionsgerechten Infrastruktur von OpenGuardrails zeigt er die Richtung der nächsten Generation von KI-Sicherheits-Guardrails auf.
-
CSO: Ein Leitfaden für Chief Security Officer zur vollständigen Sicherheit von KI-Daten
Chief Security Officers (CSOs) stehen vor einer noch nie dagewesenen Herausforderung: KI-Systeme verstärken sowohl bestehende Datenrisiken als auch völlig neue Bedrohungen wie Data Poisoning, Model Reverse Engineering und Kontamination der Lieferkette. Dieser Leitfaden baut auf dem NIST AI Risk Management Framework (AI RMF), dem Google Secure AI Framework (SAIF) und Branchenpraktiken auf, um CSOs ein umsetzbares System zur Datensicherheitssteuerung an die Hand zu geben.
-
CVE-2025-68664 : Serialisierung Injection Vulnerability Report für LangChain, ein großes Modell Open Source Framework
Das Open-Source-Megamodell LangChain hat eine schwerwiegende Serialisierungsschwachstelle (CVE-2025-68664) offengelegt, die von dem Sicherheitsforscher Yarden Porat von Cyata Security entdeckt wurde, bei der der "lc"-Schlüssel im Serialisierungs-/Deserialisierungsprozess fehlt. Diese vom Sicherheitsforscher Yarden Porat von Cyata Security entdeckte Schwachstelle wird durch einen fehlenden "lc"-Schlüssel im Serialisierungs-/Deserialisierungsprozess verursacht, der es einem Angreifer ermöglicht, Umgebungsvariablen auszuspähen, beliebige Objekte zu instanziieren oder sogar Code aus der Ferne mittels Prompt Injection auszuführen. Die Schwachstelle betrifft alle Implementierungen von LangChain Core vor Version 0.3.81 und im Bereich von Version 1.0.0-1.2.5. Die offiziellen Patches für Version 1.2.5 und 0.3.81 wurden am 24. Dezember veröffentlicht und gleichzeitig wurde die Standard-Sicherheitsrichtlinie verschärft.
-
Artificial Intelligence Security Defence in Depth: Erläuterung des Google SAIF AI Security Framework
Mit der weiten Verbreitung von Large Language Models (LLM) und generativer künstlicher Intelligenz (GenAI) in Unternehmensanwendungen ist das traditionelle, auf deterministischer Logik basierende Paradigma der Softwaresicherheit nicht mehr in der Lage, neue stochastische Bedrohungen wie Modellinversion, Data Poisoning und Cue Word Injection zu bewältigen.Das Secure AI Framework (SAIF) von Google, das 2023 auf den Markt kommen soll, schlägt eine systematische Verteidigungsarchitektur vor, die darauf abzielt, traditionelle Best Practices der Cybersicherheit mit den Besonderheiten von KI-Systemen zu kombinieren. Das Secure AI Framework (SAIF), das 2023 von Google auf den Markt gebracht wird, schlägt eine systematische Verteidigungsarchitektur vor, die darauf abzielt, die besten Praktiken der traditionellen Cybersicherheit mit den Besonderheiten von KI-Systemen zu kombinieren. In diesem Beitrag werden die sechs Kernsäulen, der ökologische Synergiemechanismus und der Entwicklungspfad von SAIF aus der Perspektive des Architekturdesigns analysiert und theoretische und praktische Hinweise für den Aufbau eines KI-Sicherheitssystems auf Unternehmensebene gegeben.
-
Artificial Intelligence (AI) Big Model Security Risk and Defence In-Depth Report
Dieser Bericht basiert auf fünf zentralen Angriffsflächen, die aus kritischen Verbindungen von KI-Assistenten, Agenten, Tools, Modellen und Speicher bestehen, mit gezielten Sicherheitsrisiken, Abwehrarchitekturen und Lösungen.