Artikelbild für den Artikel: Neue Werkzeuge und Funktionen in der Responses API

Neue Werkzeuge und Funktionen in der Responses API

OpenAI hat neue integrierte Werkzeuge und Funktionen zur Responses API hinzugefügt, die nun alle Remote Model Context Protocol (MCP) Server und Tools wie die Bildgenerierung unterstützen.

Einführung in die neuen Funktionen

Heute fügen wir der Responses API neue integrierte Werkzeuge hinzu – unser Kern-API-Primitiv zur Erstellung agentischer Anwendungen. Dazu gehört die Unterstützung für alle Remote Model Context Protocol (MCP) Server sowie Tools wie die Bildgenerierung, den Code Interpreter und Verbesserungen bei der Dateisuche. Diese Werkzeuge sind in unseren GPT-4o-Serien, GPT-4.1-Serien und OpenAI o-Serie Denkmodellen verfügbar. Die Modelle o3 und o4-mini können nun Werkzeuge und Funktionen direkt innerhalb ihrer Denkprozesse in der Responses API aufrufen, was zu kontextuell reicheren und relevanteren Antworten führt.

Unterstützung für Remote MCP Server

Wir erweitern die Responses API um die Unterstützung für Remote MCP Server. MCP ist ein offenes Protokoll, das standardisiert, wie Anwendungen Kontext an LLMs bereitstellen. Durch die Unterstützung von MCP Servern in der Responses API können Entwickler unsere Modelle mit Werkzeugen verbinden, die auf jedem MCP Server gehostet werden, mit nur wenigen Zeilen Code.

Beispiele für die Verwendung von Remote MCP Servern

response = client.responses.create(
    model="gpt-4.1",
    tools=[{
        "type": "mcp",
        "server_label": "shopify",
        "server_url": "https://pitchskin.com/api/mcp",
    }],
    input="Add the Blemish Toner Pads to my cart"
)

In diesem Beispiel wird ein Produkt in den Warenkorb hinzugefügt, indem der Remote MCP Server von Shopify verwendet wird.

Updates zur Bildgenerierung, Code Interpreter und Dateisuche

Mit den integrierten Werkzeugen in der Responses API können Entwickler leistungsfähigere Agenten mit nur einem API-Aufruf erstellen. Heute fügen wir neue Werkzeuge hinzu, darunter:

  • Bildgenerierung: Entwickler können jetzt auf unser neuestes Bildgenerierungsmodell gpt-image-1 als Werkzeug innerhalb der Responses API zugreifen. Dieses Werkzeug unterstützt Echtzeit-Streaming und mehrstufige Bearbeitungen.
  • Code Interpreter: Entwickler können den Code Interpreter innerhalb der Responses API verwenden, um Datenanalysen durchzuführen und komplexe mathematische sowie Programmierprobleme zu lösen.
  • Dateisuche: Die Dateisuche ermöglicht es Entwicklern, relevante Teile ihrer Dokumente basierend auf Benutzeranfragen in den Kontext des Modells zu ziehen.

Neue Funktionen in der Responses API

Zusätzlich zu den neuen Werkzeugen fügen wir auch neue Funktionen in der Responses API hinzu:

  • Hintergrundmodus: Entwickler können jetzt Hintergrundmodus verwenden, um langwierige Aufgaben asynchron und zuverlässig zu bearbeiten.
  • Zusammenfassungen des Denkprozesses: Die Responses API kann jetzt prägnante, natürliche Zusammenfassungen des internen Denkprozesses des Modells generieren.
  • Verschlüsselte Denkobjekte: Kunden, die für Zero Data Retention (ZDR) berechtigt sind, können Denkobjekte über API-Anfragen hinweg wiederverwenden, ohne dass diese auf den Servern von OpenAI gespeichert werden.

Preise und Verfügbarkeit

Alle diese Werkzeuge und Funktionen sind jetzt in der Responses API verfügbar, unterstützt in unseren GPT-4o-Serien, GPT-4.1-Serien und unseren OpenAI o-Serie Denkmodellen. Die Preisgestaltung für bestehende Werkzeuge bleibt unverändert. Die Kosten für die Bildgenerierung betragen $5.00 pro 1M Text-Eingabetokens, $10.00 pro 1M Bild-Eingabetokens und $40.00 pro 1M Bild-Ausgabetokens.

Fazit

Wir sind gespannt, was Sie mit diesen neuen Werkzeugen und Funktionen entwickeln werden!

Quellenliste:

Dieser Artikel wurde mithilfe von KI verfasst und basiert auf automatisch gesammelten Informationen.
0 Kommentare

Hinterlasse einen Kommentar

An der Diskussion beteiligen?
Hinterlasse uns deinen Kommentar!

Schreibe einen Kommentar