Sicherheit durch künstliche Intelligenz (KI)
-
Das Institut für die Sicherheit künstlicher Intelligenz (KI) der britischen Regierung startet eine neue Plattform zur Bewertung der KI-Sicherheit
Artificial Intelligence Security Research hat Inspect veröffentlicht, eine Open-Source-Testplattform zur Bewertung der Sicherheit und Leistung von KI-Modellen. Inspect erkennt das Kernwissen, die Argumentation und die Autonomie von KI-Modellen und fördert die Entwicklung der globalen KI-Gemeinschaft, wodurch Inspect zu einem Eckpfeiler der KI-Sicherheitsforschung wird.
-
AIGC AI-Sicherheitsbericht 2024
Auf dem Gebiet der KI-generierten Inhalte (AIGC) wurden erhebliche Fortschritte erzielt. Allerdings bringen technologische Fortschritte auch immer neue Herausforderungen mit sich, und Sicherheitsfragen im Bereich AIGC sind in den Vordergrund getreten. Der Bericht wird die Sicherheitsrisiken von AIGC eingehend analysieren und Lösungen vorschlagen.
-
Sechzehn Länder auf der ganzen Welt haben gemeinsam Leitlinien für die Entwicklung von sicheren Systemen der künstlichen Intelligenz herausgegeben
Ein Leitfaden für jeden Systemanbieter, der künstliche Intelligenz (KI) einsetzt, unabhängig davon, ob diese Systeme von Grund auf neu entwickelt werden oder auf Tools und Dienstleistungen anderer Anbieter aufbauen.