Beiträge

Warum Kaliforniens neues KI-Sicherheitsgesetz erfolgreich war, wo SB 1047 gescheitert ist
/
0 Kommentare
Kalifornien hat mit dem neuen KI-Sicherheitsgesetz SB 53 einen bedeutenden Schritt in Richtung Transparenz und Sicherheit in der KI-Industrie gemacht. Dieses Gesetz verlangt von großen KI-Labors wie OpenAI und Anthropic, ihre Sicherheitsprotokolle offenzulegen und einzuhalten.

Petri: Ein Open-Source-Audit-Tool zur Beschleunigung der KI-Sicherheitsforschung
Petri ist ein Open-Source-Framework von Anthropic, das KI-Agenten ermöglicht, automatisch Zielmodelle zu testen und deren Verhalten in verschiedenen Szenarien zu überprüfen. Es stellt einen bedeutenden Fortschritt in der KI-Sicherheitsforschung dar.

Sora 2: Die nächste Generation der Video-Generierung von OpenAI
OpenAI hat mit Sora 2 ein bahnbrechendes Video-Generierungsmodell vorgestellt, das verbesserte physische Realität, feineres Detail und größere Kontrolle über die generierten Inhalte bietet.

Eine Forschungsagenda für die Wirtschaft von Transformative AI
Der Artikel behandelt die wirtschaftlichen Auswirkungen von Transformative AI (TAI) und schlägt eine Forschungsagenda vor, die neun große Herausforderungen identifiziert, die es zu bewältigen gilt, um die wirtschaftlichen Potenziale von TAI zu verstehen und zu nutzen.

Die Rolle von KI in der Cybersicherheit: Fortschritte und Herausforderungen
Die Rolle von KI in der Cybersicherheit wird zunehmend wichtiger. Insbesondere Claude Sonnet 4.5 von Anthropic hat bemerkenswerte Fortschritte gemacht, die es zu einem wertvollen Werkzeug für Sicherheitsfachleute machen.

Die SANS Secure AI Blueprint für sichere KI-Nutzung
Die SANS Secure AI Blueprint bietet ein bewährtes Modell zur Risikominderung und sicheren Nutzung von Künstlicher Intelligenz (KI). In einer Zeit, in der die Einführung von KI schneller voranschreitet als die Sicherheitsvorkehrungen in Unternehmen, ist es entscheidend, dass Organisationen über die notwendigen Kontrollen und Governance-Modelle verfügen.

Die Herausforderung der sicheren KI-Entwicklung auf DevSecCon 2025
Die erste AI Security Developers Challenge bei DevSecCon 2025 bietet Entwicklern und Sicherheitsexperten eine Plattform, um sich mit den Herausforderungen der KI-Sicherheit auseinanderzusetzen.

Cross-Agent Privilege Escalation: Wenn Agenten sich gegenseitig befreien
Cross-Agent Privilege Escalation ist ein neuartiger Angriff, bei dem KI-Agenten manipuliert werden, um ihre Berechtigungen zu erhöhen. Dieser Artikel beleuchtet die Mechanismen, Risiken und notwendigen Sicherheitsmaßnahmen.

Die Angriffsfläche von On-Device KI
Die Nutzung von Künstlicher Intelligenz auf persönlichen Geräten hat die Produktivität transformiert, bringt jedoch auch erhebliche Sicherheitsrisiken mit sich, die nicht ignoriert werden dürfen.