AI-Risiko-Kartierung
-
Artificial Intelligence Security Defence in Depth: Erläuterung des Google SAIF AI Security Framework
Mit der weiten Verbreitung von Large Language Models (LLM) und generativer künstlicher Intelligenz (GenAI) in Unternehmensanwendungen ist das traditionelle, auf deterministischer Logik basierende Paradigma der Softwaresicherheit nicht mehr in der Lage, neue stochastische Bedrohungen wie Modellinversion, Data Poisoning und Cue Word Injection zu bewältigen.Das Secure AI Framework (SAIF) von Google, das 2023 auf den Markt kommen soll, schlägt eine systematische Verteidigungsarchitektur vor, die darauf abzielt, traditionelle Best Practices der Cybersicherheit mit den Besonderheiten von KI-Systemen zu kombinieren. Das Secure AI Framework (SAIF), das 2023 von Google auf den Markt gebracht wird, schlägt eine systematische Verteidigungsarchitektur vor, die darauf abzielt, die besten Praktiken der traditionellen Cybersicherheit mit den Besonderheiten von KI-Systemen zu kombinieren. In diesem Beitrag werden die sechs Kernsäulen, der ökologische Synergiemechanismus und der Entwicklungspfad von SAIF aus der Perspektive des Architekturdesigns analysiert und theoretische und praktische Hinweise für den Aufbau eines KI-Sicherheitssystems auf Unternehmensebene gegeben.