Beiträge

Was wir beim Vergleich von Basis- und Chat-Modellen gelernt haben und warum es wichtig ist
/
0 Kommentare
In diesem Artikel untersuchen wir die Unterschiede zwischen Basis- und Chat-Modellen in der KI und die Bedeutung des Modell-Diffings für die Sicherheit von KI-Systemen.

Änderungen am Model Context Protocol: Ein Überblick über die neuesten Entwicklungen
In diesem Artikel werden die wesentlichen Änderungen des Model Context Protocol (MCP) in der Revision vom 18. Juni 2025 vorgestellt, einschließlich der Entfernung von JSON-RPC-Batching und der Verbesserung der Sicherheitsüberlegungen.

Die Darwin Gödel Maschine: KI, die sich selbst durch Neuschreibung ihres Codes verbessert
Die Darwin Gödel Maschine von Sakana AI ist ein innovativer Coding-Agent, der sich selbst durch Neuschreibung seines Codes verbessert und somit das Potenzial hat, die KI-Forschung revolutionär voranzutreiben.

OAUTH für agentische KI: Die Zukunft der KI-Agenten und die Notwendigkeit einer Weiterentwicklung
Microsoft hat dargelegt, wie die nächsten Generationen von KI-Agenten weiterentwickelte Identitäts- und Zugangsstandards erfordern werden, während sich die Technologie von reaktiven Assistenten zu proaktiven Kollaborateuren wandelt.

GitHub MCP Exploited: Zugriff auf private Repositories über MCP
In diesem Artikel beleuchten wir eine kritische Sicherheitsanfälligkeit im offiziellen GitHub MCP Server, die es Angreifern ermöglicht, auf Daten aus privaten Repositories zuzugreifen.

OPENAI OPERATOR UPDATE: Einführung des o3 Operators
Im Januar 2025 hat OpenAI den Operator vorgestellt, ein Produkt, das auf dem Computer Using Agent (CUA) Modell basiert und als Forschungs-Vorschau dient.

Robustheit von LLM-basierten Sicherheitsrichtern
Die Studie untersucht die Schwachstellen von LLM-basierten Sicherheitsrichtern und zeigt, wie Eingabensensitivität und adversarielle Angriffe die Zuverlässigkeit der Bewertungen beeinträchtigen können.

FBI warnt vor Deepfake-Betrügereien, die Regierungsbeamte imitieren
Das FBI warnt vor einer Betrugsmasche, bei der KI-generierte Sprachdeepfakes verwendet werden, um hochrangige US-Beamte zu imitieren und Regierungsmitarbeiter zu täuschen.

OpenAI startet Safety Metrics Hub angesichts von Transparenzbedenken
OpenAI hat einen Safety Evaluations Hub vorgestellt, der die Leistung von Modellen in Bezug auf Halluzinationen, schädliche Inhalte, Jailbreak-Widerstand und Anweisungsbefolgung verfolgt.

KLARNA’S AI RETRENCHMENT AND BROADER AI APP RISK
Klarna's Entscheidung, ihre Investitionen in Künstliche Intelligenz zurückzufahren, ist ein Signal für tiefere Probleme in der Branche, die mit dem probabilistischen Verhalten von KI in der Produktion zusammenhängen.

Google integriert Gemini Nano in Chrome zur Bekämpfung von Online-Betrug
Google hat Gemini Nano in Chrome integriert, um Nutzer vor Online-Betrug zu schützen. Der Artikel beleuchtet die neuen Technologien und Maßnahmen, die Google ergreift, um Betrügereien zu bekämpfen.

Open Source Projekt cURL kämpft gegen Welle von KI-generierten falschen Sicherheitsmeldungen
Daniel Stenberg, der Gründer des cURL-Projekts, kämpft gegen die Flut von KI-generierten falschen Sicherheitsmeldungen, die die Wartenden über Plattformen wie HackerOne überfluten.

Die Trennung von Fakt und Fiktion: So transformiert KI Cyberkriminalität
In der sich schnell verändernden Landschaft der Cybersicherheit ist 'künstliche Intelligenz' das Schlagwort, das die Gespräche in der Branche dominiert. Dieser Artikel beleuchtet, wie KI Cyberkriminalität transformiert und welche Herausforderungen und Chancen sich daraus ergeben.

AI-generierter Code könnte eine Katastrophe für die Software-Lieferkette sein. Hier ist der Grund.
AI-generierter Code birgt erhebliche Risiken für die Software-Lieferkette, da er oft auf nicht existierende Bibliotheken verweist und somit Angriffe erleichtert.