Artikelbild für den Artikel: AI-gestützte Cyber-Spionagekampagne von Anthropic

AI-gestützte Cyber-Spionagekampagne von Anthropic

/
Anthropic hat die erste dokumentierte AI-gestützte Cyber-Spionagekampagne aufgedeckt. Dieser Artikel untersucht die Technologien, die hinter dieser Kampagne stehen, sowie die Auswirkungen auf die Cybersicherheit und mögliche Gegenmaßnahmen.
Artikelbild für den Artikel: Einführung von GPT-OSS-SAFEGUARD: Neue Sicherheitsmodelle von OpenAI

Einführung von GPT-OSS-SAFEGUARD: Neue Sicherheitsmodelle von OpenAI

/
OpenAI hat mit gpt-oss-safeguard ein neues Modell eingeführt, das Entwicklern ermöglicht, benutzerdefinierte Sicherheitsrichtlinien in Echtzeit anzuwenden. Dieses Modell bietet Flexibilität und Anpassungsfähigkeit in der Sicherheitsklassifizierung von Inhalten.
Artikelbild für den Artikel: Verbesserung von ChatGPTs Antworten in sensiblen Gesprächen

Verbesserung von ChatGPTs Antworten in sensiblen Gesprächen

/
OpenAI hat bedeutende Fortschritte bei der Verbesserung von ChatGPTs Antworten in sensiblen Gesprächen erzielt, indem es mit Experten für psychische Gesundheit zusammenarbeitet und die Reaktionen des Modells optimiert.
Artikelbild für den Artikel: Reddit verklagt Perplexity wegen angeblichem Datenklau für KI-Modelle

Reddit verklagt Perplexity wegen angeblichem Datenklau für KI-Modelle

/
Reddit hat Klage gegen Perplexity und andere Unternehmen eingereicht, um die illegale Nutzung seiner Daten zu stoppen. Die rechtlichen und ethischen Aspekte des Datenkratzens werden in diesem Artikel beleuchtet.
Artikelbild für den Artikel: Kalifornien wird erster Bundesstaat, der KI-Chatbots reguliert

Kalifornien wird erster Bundesstaat, der KI-Chatbots reguliert

/
Kalifornien hat mit dem Gesetz SB 243 einen bedeutenden Schritt in der Regulierung von KI-Chatbots gemacht, um Kinder und schutzbedürftige Nutzer zu schützen.
Artikelbild für den Artikel: Wie wenige manipulierte Dokumente große Sprachmodelle gefährden können

Wie wenige manipulierte Dokumente große Sprachmodelle gefährden können

/
Die Studie von Anthropic zeigt, dass bereits 250 manipulierte Dokumente ausreichen, um Rückdoor-Schwachstellen in großen Sprachmodellen zu erzeugen, was erhebliche Sicherheitsrisiken birgt.
Artikelbild für den Artikel: Warum Kaliforniens neues KI-Sicherheitsgesetz erfolgreich war, wo SB 1047 gescheitert ist

Warum Kaliforniens neues KI-Sicherheitsgesetz erfolgreich war, wo SB 1047 gescheitert ist

/
Kalifornien hat mit dem neuen KI-Sicherheitsgesetz SB 53 einen bedeutenden Schritt in Richtung Transparenz und Sicherheit in der KI-Industrie gemacht. Dieses Gesetz verlangt von großen KI-Labors wie OpenAI und Anthropic, ihre Sicherheitsprotokolle offenzulegen und einzuhalten.
Artikelbild für den Artikel: Petri: Ein Open-Source-Audit-Tool zur Beschleunigung der KI-Sicherheitsforschung

Petri: Ein Open-Source-Audit-Tool zur Beschleunigung der KI-Sicherheitsforschung

/
Petri ist ein Open-Source-Framework von Anthropic, das KI-Agenten ermöglicht, automatisch Zielmodelle zu testen und deren Verhalten in verschiedenen Szenarien zu überprüfen. Es stellt einen bedeutenden Fortschritt in der KI-Sicherheitsforschung dar.
Artikelbild für den Artikel: Googles CodeMender: Ein neuer AI-Agent für die Cybersicherheit

Googles CodeMender: Ein neuer AI-Agent für die Cybersicherheit

/
Googles CodeMender ist ein AI-Agent, der automatisch Code-Sicherheitsanfälligkeiten erkennt und behebt. In diesem Artikel erfahren Sie mehr über die Funktionsweise von CodeMender und die Bedeutung von AI in der Cybersicherheit.