Artikelbild für den Artikel: OpenAI testet neues Sicherheitssystem für ChatGPT

OpenAI testet neues Sicherheitssystem für ChatGPT

/
OpenAI testet ein neues Sicherheitssystem, das Benutzer von GPT-4o zu anderen Modellen umleitet, wenn sensible Themen angesprochen werden. In diesem Artikel werden die Hintergründe, Herausforderungen und ethischen Überlegungen zu diesem Ansatz beleuchtet.
Artikelbild für den Artikel: Die Herausforderung der sicheren KI-Entwicklung auf DevSecCon 2025

Die Herausforderung der sicheren KI-Entwicklung auf DevSecCon 2025

/
Die erste AI Security Developers Challenge bei DevSecCon 2025 bietet Entwicklern und Sicherheitsexperten eine Plattform, um sich mit den Herausforderungen der KI-Sicherheit auseinanderzusetzen.
Artikelbild für den Artikel: Cross-Agent Privilege Escalation: Wenn Agenten sich gegenseitig befreien

Cross-Agent Privilege Escalation: Wenn Agenten sich gegenseitig befreien

/
Cross-Agent Privilege Escalation ist ein neuartiger Angriff, bei dem KI-Agenten manipuliert werden, um ihre Berechtigungen zu erhöhen. Dieser Artikel beleuchtet die Mechanismen, Risiken und notwendigen Sicherheitsmaßnahmen.
Artikelbild für den Artikel: DeepMind untersucht die Gefahren von missalignierter KI

DeepMind untersucht die Gefahren von missalignierter KI

/
DeepMind hat die dritte Version seines Frontier Safety Framework veröffentlicht, die die Risiken von missalignierter KI untersucht und die Notwendigkeit von Sicherheitsmaßnahmen betont.
Artikelbild für den Artikel: Warum wir LLMs ernsthaft als potenzielle Quelle von Biorisiken betrachten

Warum wir LLMs ernsthaft als potenzielle Quelle von Biorisiken betrachten

/
In diesem Artikel werden die Sicherheitsmaßnahmen von Anthropic gegen die Entwicklung biologischer Waffen und die potenziellen Gefahren, die von großen Sprachmodellen (LLMs) ausgehen, untersucht.
Artikelbild für den Artikel: Anthropic unterstützt das kalifornische Gesetz zur KI-Sicherheit SB 53

Anthropic unterstützt das kalifornische Gesetz zur KI-Sicherheit SB 53

/
Anthropic unterstützt das kalifornische Gesetz SB 53, das Transparenz in den Sicherheitspraktiken für fortschrittliche KI-Systeme fordert. Der Artikel beleuchtet die Anforderungen des Gesetzes und die Bedeutung von verantwortungsvoller KI-Nutzung.
Artikelbild für den Artikel: Die Risiken einer populären Bewegung für KI-Sicherheit

Die Risiken einer populären Bewegung für KI-Sicherheit

/
Der Aufbau einer populären Bewegung für KI-Sicherheit birgt erhebliche Risiken und Herausforderungen, die bestehende organische Unterstützung untergraben könnten.
Artikelbild für den Artikel: AI-induzierte Psychose: Eine oberflächliche Untersuchung

AI-induzierte Psychose: Eine oberflächliche Untersuchung

/
In diesem Artikel untersuchen wir das Phänomen der AI-induzierten Psychose, die Auswirkungen von KI auf psychisch verletzliche Nutzer und die Verantwortung der Entwickler.
Artikelbild für den Artikel: Die offenen Geheimnisse von KI und der Exposition sensibler Daten

Die offenen Geheimnisse von KI und der Exposition sensibler Daten

/
Eine aktuelle Umfrage von 1Password zeigt, dass 63% der Sicherheitsverantwortlichen glauben, dass die größte interne Sicherheitsbedrohung darin besteht, dass Mitarbeiter KI Zugriff auf sensible Daten gewähren. In diesem Artikel werden die Herausforderungen und Lösungen im Bereich der KI-Sicherheit untersucht.