Artikelbild für den Artikel: Die erste bekannte KI-gestützte Ransomware: PromptLock

Die erste bekannte KI-gestützte Ransomware: PromptLock

/
PromptLock ist die erste bekannte KI-gestützte Ransomware, die lokal auf Geräten ausgeführt werden kann. Sie nutzt das gpt-oss-20b Modell von OpenAI und könnte ernsthafte Sicherheitsrisiken darstellen.
Artikelbild für den Artikel: OpenAI und Anthropic teilen Sicherheitszugang für KI-Modelle

OpenAI und Anthropic teilen Sicherheitszugang für KI-Modelle

/
OpenAI und Anthropic haben gegenseitigen API-Zugriff ermöglicht, um blinde Flecken in der Modellbewertung zu entdecken und Sicherheitsstandards in der KI-Branche zu verbessern.
Artikelbild für den Artikel: Kritische Sicherheitsrichtlinien für KI vom SANS Institute

Kritische Sicherheitsrichtlinien für KI vom SANS Institute

/
Die Sicherheitsrichtlinien des SANS Institute bieten einen umfassenden Rahmen zur Sicherung von KI-Implementierungen und betonen die Notwendigkeit eines mehrschichtigen Sicherheitsansatzes.
Artikelbild für den Artikel: Herausforderungen der Sicherheitsleiter im Umgang mit unkontrolliertem KI-Zugang

Herausforderungen der Sicherheitsleiter im Umgang mit unkontrolliertem KI-Zugang

/
Die Herausforderungen, die Sicherheitsleiter im Umgang mit unkontrolliertem Zugang zu KI-Tools haben, sind vielfältig. Eine aktuelle Umfrage zeigt, dass nur 21% der Sicherheitsleiter vollständige Sichtbarkeit über die verwendeten KI-Tools haben. Der Artikel beleuchtet vier Hauptprobleme und bietet Lösungsansätze.
Artikelbild für den Artikel: Wie Anthropic Sicherheitsmaßnahmen für Claude entwickelt

Wie Anthropic Sicherheitsmaßnahmen für Claude entwickelt

/
In diesem Artikel erfahren Sie, wie Anthropic Sicherheitsmaßnahmen für ihr KI-Modell Claude entwickelt, um Missbrauch zu verhindern und die Sicherheit der Nutzer zu gewährleisten.
Artikelbild für den Artikel: Evaluierung von GPT-5 durch METR: Eine umfassende Analyse

Evaluierung von GPT-5 durch METR: Eine umfassende Analyse

/
Die Evaluierung von OpenAI's GPT-5 durch METR stellt einen bedeutenden Schritt in der Sicherheitsanalyse von KI-Modellen dar. Diese Untersuchung zielt darauf ab, potenzielle katastrophale Risiken zu identifizieren, bevor das Modell extern eingesetzt wird.
Artikelbild für den Artikel: Die Rollen von Blue Teams und Red Teams in der Cybersicherheit

Die Rollen von Blue Teams und Red Teams in der Cybersicherheit

/
In der Cybersicherheit spielen Blue Teams und Red Teams entscheidende Rollen. Während Blue Teams sichere Systeme aufbauen, identifizieren Red Teams Schwachstellen. Die Zusammenarbeit beider Teams ist unerlässlich für eine robuste Sicherheitsarchitektur.
Artikelbild für den Artikel: Der vierte Offset: Wie das Wettrennen um AGI die nationale Sicherheit neu gestalten könnte

Der vierte Offset: Wie das Wettrennen um AGI die nationale Sicherheit neu gestalten könnte

/
Die ersten Nationen, die AGI erreichen, könnten einen entscheidenden militärischen Vorteil erlangen. Dieser Artikel untersucht die Bedeutung von AGI für die nationale Sicherheit und gibt Empfehlungen für die USA.
Artikelbild für den Artikel: Meta lehnt freiwillige EU-KI-Sicherheitsrichtlinien ab

Meta lehnt freiwillige EU-KI-Sicherheitsrichtlinien ab

/
Meta hat die freiwilligen EU-KI-Sicherheitsrichtlinien abgelehnt und argumentiert, dass diese rechtliche Unsicherheiten schaffen. Der Artikel beleuchtet die Hintergründe und die Reaktionen anderer Unternehmen auf diese Entscheidung.