
AI-gestützte Cyber-Spionagekampagne von Anthropic
/
0 Kommentare
Anthropic hat die erste dokumentierte AI-gestützte Cyber-Spionagekampagne aufgedeckt. Dieser Artikel untersucht die Technologien, die hinter dieser Kampagne stehen, sowie die Auswirkungen auf die Cybersicherheit und mögliche Gegenmaßnahmen.

Einführung von GPT-OSS-SAFEGUARD: Neue Sicherheitsmodelle von OpenAI
OpenAI hat mit gpt-oss-safeguard ein neues Modell eingeführt, das Entwicklern ermöglicht, benutzerdefinierte Sicherheitsrichtlinien in Echtzeit anzuwenden. Dieses Modell bietet Flexibilität und Anpassungsfähigkeit in der Sicherheitsklassifizierung von Inhalten.

Verbesserung von ChatGPTs Antworten in sensiblen Gesprächen
OpenAI hat bedeutende Fortschritte bei der Verbesserung von ChatGPTs Antworten in sensiblen Gesprächen erzielt, indem es mit Experten für psychische Gesundheit zusammenarbeitet und die Reaktionen des Modells optimiert.

Reddit verklagt Perplexity wegen angeblichem Datenklau für KI-Modelle
Reddit hat Klage gegen Perplexity und andere Unternehmen eingereicht, um die illegale Nutzung seiner Daten zu stoppen. Die rechtlichen und ethischen Aspekte des Datenkratzens werden in diesem Artikel beleuchtet.

Kalifornien wird erster Bundesstaat, der KI-Chatbots reguliert
Kalifornien hat mit dem Gesetz SB 243 einen bedeutenden Schritt in der Regulierung von KI-Chatbots gemacht, um Kinder und schutzbedürftige Nutzer zu schützen.

Wie wenige manipulierte Dokumente große Sprachmodelle gefährden können
Die Studie von Anthropic zeigt, dass bereits 250 manipulierte Dokumente ausreichen, um Rückdoor-Schwachstellen in großen Sprachmodellen zu erzeugen, was erhebliche Sicherheitsrisiken birgt.

Warum Kaliforniens neues KI-Sicherheitsgesetz erfolgreich war, wo SB 1047 gescheitert ist
Kalifornien hat mit dem neuen KI-Sicherheitsgesetz SB 53 einen bedeutenden Schritt in Richtung Transparenz und Sicherheit in der KI-Industrie gemacht. Dieses Gesetz verlangt von großen KI-Labors wie OpenAI und Anthropic, ihre Sicherheitsprotokolle offenzulegen und einzuhalten.

Petri: Ein Open-Source-Audit-Tool zur Beschleunigung der KI-Sicherheitsforschung
Petri ist ein Open-Source-Framework von Anthropic, das KI-Agenten ermöglicht, automatisch Zielmodelle zu testen und deren Verhalten in verschiedenen Szenarien zu überprüfen. Es stellt einen bedeutenden Fortschritt in der KI-Sicherheitsforschung dar.

Googles CodeMender: Ein neuer AI-Agent für die Cybersicherheit
Googles CodeMender ist ein AI-Agent, der automatisch Code-Sicherheitsanfälligkeiten erkennt und behebt. In diesem Artikel erfahren Sie mehr über die Funktionsweise von CodeMender und die Bedeutung von AI in der Cybersicherheit.
