Beiträge

Artikelbild für den Artikel: Einführung von GPT-OSS-SAFEGUARD: Neue Sicherheitsmodelle von OpenAI

Einführung von GPT-OSS-SAFEGUARD: Neue Sicherheitsmodelle von OpenAI

/
OpenAI hat mit gpt-oss-safeguard ein neues Modell eingeführt, das Entwicklern ermöglicht, benutzerdefinierte Sicherheitsrichtlinien in Echtzeit anzuwenden. Dieses Modell bietet Flexibilität und Anpassungsfähigkeit in der Sicherheitsklassifizierung von Inhalten.
Artikelbild für den Artikel: Verbesserung von ChatGPTs Antworten in sensiblen Gesprächen

Verbesserung von ChatGPTs Antworten in sensiblen Gesprächen

/
OpenAI hat bedeutende Fortschritte bei der Verbesserung von ChatGPTs Antworten in sensiblen Gesprächen erzielt, indem es mit Experten für psychische Gesundheit zusammenarbeitet und die Reaktionen des Modells optimiert.
Artikelbild für den Artikel: Warum Ihr Chef sich keine Sorgen um KI macht

Warum Ihr Chef sich keine Sorgen um KI macht

/
In diesem Artikel untersuchen wir die Missverständnisse zwischen Experten und Laien in Bezug auf Künstliche Intelligenz und erläutern die Unterschiede zwischen traditioneller Software und modernen KI-Systemen.
Artikelbild für den Artikel: Petri: Ein Alignment-Auditing-Agent für realistische Hypothesentests

Petri: Ein Alignment-Auditing-Agent für realistische Hypothesentests

/
Petri ist ein Alignment-Auditing-Agent, der für realistische Hypothesentests in der KI-Forschung entwickelt wurde. Er ermöglicht es, Hypothesen über KI-Modelle schnell zu überprüfen und deren Verhalten zu analysieren.
Artikelbild für den Artikel: Warum Kaliforniens neues KI-Sicherheitsgesetz erfolgreich war, wo SB 1047 gescheitert ist

Warum Kaliforniens neues KI-Sicherheitsgesetz erfolgreich war, wo SB 1047 gescheitert ist

/
Kalifornien hat mit dem neuen KI-Sicherheitsgesetz SB 53 einen bedeutenden Schritt in Richtung Transparenz und Sicherheit in der KI-Industrie gemacht. Dieses Gesetz verlangt von großen KI-Labors wie OpenAI und Anthropic, ihre Sicherheitsprotokolle offenzulegen und einzuhalten.
Artikelbild für den Artikel: Petri: Ein Open-Source-Audit-Tool zur Beschleunigung der KI-Sicherheitsforschung

Petri: Ein Open-Source-Audit-Tool zur Beschleunigung der KI-Sicherheitsforschung

/
Petri ist ein Open-Source-Framework von Anthropic, das KI-Agenten ermöglicht, automatisch Zielmodelle zu testen und deren Verhalten in verschiedenen Szenarien zu überprüfen. Es stellt einen bedeutenden Fortschritt in der KI-Sicherheitsforschung dar.
Artikelbild für den Artikel: Sora 2: Die nächste Generation der Video-Generierung von OpenAI

Sora 2: Die nächste Generation der Video-Generierung von OpenAI

/
OpenAI hat mit Sora 2 ein bahnbrechendes Video-Generierungsmodell vorgestellt, das verbesserte physische Realität, feineres Detail und größere Kontrolle über die generierten Inhalte bietet.
Artikelbild für den Artikel: Die Rolle von KI in der Cybersicherheit: Fortschritte und Herausforderungen

Die Rolle von KI in der Cybersicherheit: Fortschritte und Herausforderungen

/
Die Rolle von KI in der Cybersicherheit wird zunehmend wichtiger. Insbesondere Claude Sonnet 4.5 von Anthropic hat bemerkenswerte Fortschritte gemacht, die es zu einem wertvollen Werkzeug für Sicherheitsfachleute machen.
Artikelbild für den Artikel: Die SANS Secure AI Blueprint für sichere KI-Nutzung

Die SANS Secure AI Blueprint für sichere KI-Nutzung

/
Die SANS Secure AI Blueprint bietet ein bewährtes Modell zur Risikominderung und sicheren Nutzung von Künstlicher Intelligenz (KI). In einer Zeit, in der die Einführung von KI schneller voranschreitet als die Sicherheitsvorkehrungen in Unternehmen, ist es entscheidend, dass Organisationen über die notwendigen Kontrollen und Governance-Modelle verfügen.