Laut einer neuen Studie, die am 8. Januar in der Harvard Business Review veröffentlicht wurde, sind generative KI-Systeme durch herkömmliche Cybersicherheitsmaßnahmen nicht geschützt. Die Studie kombiniert Umfragedaten, Interviews mit Führungskräften und Laboranalysen, um systemische Sicherheitslücken aufzudecken.
Zentrale Ergebnisse:
Anfälligkeit der Lieferkette: Die KI-Lieferkette birgt strukturelle Risiken, einschließlich der Möglichkeit der böswilligen Einschleusung von Hardware-/Softwarekomponenten an verschiedenen Stellen der Kette
Falsch ausgerichtete Schutzmechanismen: Herkömmliche Schutzmechanismen, die für regelbasierte Software entwickelt wurden, können nicht gegen generative KI-Systeme schützen, die aus Daten lernen und sich anpassen.
Gravierender Talentmangel: Extremer Mangel an KI-Sicherheitsexperten verschärft das Dilemma der Unternehmensverteidigung
Die Schlussfolgerung der Studie ist eindeutig: Die Verantwortlichen müssen über das Basteln von Anwendungen hinausgehen und die Infrastruktur und die Lieferkette stärken, von denen die KI abhängt, und gleichzeitig die KI selbst als vorderste Verteidigungslinie nutzen, um die Widerstandsfähigkeit zu gewährleisten.