Die LLM-Landschaft im späten Jahr 2025 ist ein dynamisches Ökosystem, weit entfernt von den Anfängen der frühen generativen KI. Wir beobachten einen unerbittlichen Drang nach größerer Autonomie, tieferem kontextuellem Verständnis und zunehmend ausgefeilten multimodalen Fähigkeiten. Als Entwickler verketten wir nicht mehr nur API-Aufrufe; wir entwerfen komplexe Systeme, die fortschrittliche Tool-Nutzung nutzen, riesige Kontextfenster verwalten und komplexe agentische Workflows orchestrieren. Nachdem ich gerade die neuesten Iterationen von OpenAIs GPT-Serie und Anthropic's Claude getestet habe, möchte ich Ihnen die praktischen Aspekte, die neuen Primitiven und die verbleibenden Unebenheiten erläutern.
Die sich entwickelnde Landschaft des Kontextmanagements: Über einfache Token hinaus
Die Fähigkeit eines LLM, einen kohärenten, relevanten Kontext über erweiterte Interaktionen hinweg beizubehalten, war eine ständige Herausforderung. Im späten Jahr 2025 haben sowohl OpenAI als auch Anthropic bedeutende Fortschritte gemacht und sich über die bloße Erhöhung der Token-Limits hinaus zu intelligenteren Strategien für das Kontextmanagement entwickelt.
Für OpenAI markiert der Übergang von der ursprünglichen Assistants API zur neueren Responses API (veröffentlicht am 11. März 2025) einen strategischen Schritt hin zu einer robusteren Agentenplattform. Während die Assistants API v1 Ende 2024 eingestellt wurde und v2 derzeit unterstützt wird, ist die Responses API die Zukunft, die von Grund auf so konzipiert ist, dass sie den Gesprächsverlauf und den Kontext effizienter verarbeitet. Sie verspricht, viel von der manuellen Zustandsverwaltung, die Entwickler zuvor implementieren mussten, zu abstrahieren. Im Hintergrund beinhaltet dies oft Techniken wie Sliding Window Attention, bei denen das Modell sich auf ein aktuelles Segment des Gesprächs konzentriert und gleichzeitig weniger relevante ältere Informationen intelligent zusammenfasst oder verwirft. Dies ist entscheidend, da Kontextfenster trotz massiver Zunahmen nicht unendlich sind und quadratische Rechenkosten immer noch für traditionelle Aufmerksamkeitsmechanismen gelten. Modelle wie GPT-4.1, die bei Codierungsaufgaben hervorragend sind, demonstrieren eine verbesserte Kontextbehaltung über lange Codebasen hinweg.
Anthropic's Claude, insbesondere die Opus-Serie, hat konsequent die Grenzen der rohen Kontextfenstergröße erweitert. Der Claude Opus 4.1, der im August 2025 veröffentlicht wurde, verfügt über ein Kontextfenster von 200.000 Token, was ihn ideal für die Verarbeitung ganzer Bücher oder umfangreicher Codebasen macht. Darüber hinaus unterstützt die öffentliche Beta von Claude Sonnet 4 jetzt ein erstaunliches Kontextfenster von einer Million Token, das eine beispiellose analytische Tiefe für die Analyse großer Dokumente oder mehrstündige Refactoring-Sitzungen ermöglicht. Dies ist ein Wendepunkt für Aufgaben, die ein tiefes Verständnis großer Mengen unstrukturierter Daten erfordern. Um Entwickler weiter zu unterstützen, enthält Anthropic's SDK einen compaction_control-Helfer. Diese Funktion verwaltet Token-intensive Gespräche automatisch, indem sie den Kontext zusammenfasst und löscht, wenn vordefinierte Schwellenwerte erreicht sind, wodurch die Notwendigkeit einer benutzerdefinierten Komprimierungslogik entfällt.
Hier erfahren Sie genau, wie Sie compaction_control von Claude in Python nutzen können, ein praktisches Tool zur Verwaltung der Token-Kosten in lang andauernden Dialogen:
import anthropic
import os
# Stellen Sie sicher, dass Ihre ANTHROPIC_API_KEY als Umgebungsvariable festgelegt ist
# os.environ["ANTHROPIC_API_KEY"] = "YOUR_ANTHROPIC_API_KEY"
client = anthropic.Anthropic()
# Konfigurieren Sie compaction_control
# Dies fasst den Gesprächsverlauf zusammen, wenn er 5000 Token überschreitet,
# unter Verwendung von Claude Sonnet 4.5 (oder einem anderen geeigneten Zusammenfassungsmodell)
# und einer benutzerdefinierten Aufforderung zur Zusammenfassung.
compaction_settings = {
"token_threshold": 5000,
"summarization_model": "claude-sonnet-4.5-20251130", #
"summarization_prompt": "Fassen Sie das vorherige Gespräch für Claude zusammen und konzentrieren Sie sich auf wichtige Fakten und das ultimative Ziel des Benutzers, um ihm zu helfen, genau fortzufahren."
}
def chat_with_claude_with_compaction(user_message: str, history: list):
# Fügen Sie die neue Benutzernachricht zum Verlauf hinzu
history.append({"role": "user", "content": user_message})
try:
response = client.messages.create(
model="claude-opus-4.1-20250805", #
max_tokens=1024,
messages=history,
compaction_control=compaction_settings #
)
assistant_response = response.content[0].text
history.append({"role": "assistant", "content": assistant_response})
return assistant_response
except Exception as e:
print(f"Ein Fehler ist aufgetreten: {e}")
return "Entschuldigung, es ist ein Fehler aufgetreten."
# Beispielverwendung
conversation_history = []
print("Benutzer: Hallo, ich brauche Hilfe bei der Planung eines komplexen Projekts.")
response = chat_with_claude_with_compaction("Hallo, ich brauche Hilfe bei der Planung eines komplexen Projekts. Es umfasst mehrere Stakeholder und enge Fristen.", conversation_history)
print(f"Claude: {response}")
print("\nBenutzer: Der Projektumfang hat sich erheblich erweitert. Wir müssen jetzt drei neue Module integrieren.")
response = chat_with_claude_with_compaction("Der Projektumfang hat sich erheblich erweitert. Wir müssen jetzt drei neue Module integrieren. Wie wirkt sich dies auf unseren Zeitplan aus?", conversation_history)
print(f"Claude: {response}")
Auch wenn dies beeindruckend ist, ist es wichtig zu beachten, dass selbst mit riesigen Kontextfenstern eine effektive Aufforderung für eine optimale Abfrage und Synthese innerhalb dieses Fensters eine Fähigkeit bleibt. Entwickler müssen immer noch eine sorgfältige Prompt-Engineering-Technik anwenden, um die Aufmerksamkeit des Modells zu lenken, insbesondere in Szenarien, in denen die Abfrage von "Nadel in einem Heuhaufen" entscheidend ist.
Präzise Tool-Nutzung und Funktionsaufrufe: Orchestrierung komplexer Workflows
Die Fähigkeit von LLMs, mit externen Systemen – Datenbanken, APIs, Code-Interpretern – zu interagieren, hat sie zu leistungsstarken Agenten gemacht. Sowohl OpenAI als auch Anthropic haben ihre Tool-Nutzungsfunktionen verfeinert und sich hin zu autonomerer und effizienterer Orchestrierung bewegt.
Die jüngsten Verbesserungen von Anthropic an seiner Claude Developer Platform, die im November 2025 eingeführt wurden, sind besonders hervorzuheben, da sie sich auf die Effizienz von Agenten konzentrieren. Sie führten drei wichtige Funktionen ein:
Erweiterte Agentenfunktionen
- Programmatische Tool-Aufrufe: Claude kann jetzt Code generieren und ausführen, der mehrere Tools direkt in einer verwalteten Ausführungsumgebung aufruft. Dies reduziert die Latenz und den Token-Verbrauch drastisch, indem Rundreisen durch das Modell für jeden Tool-Aufruf und die anschließende Ergebnisverarbeitung eliminiert werden.
- Tool Search Tool: Dies behebt die Herausforderung des Managements einer großen Anzahl von Tools. Anstatt alle Tool-Definitionen im Voraus zu laden, kann Claude dynamisch nur die benötigten Tools über eine neue Suchfunktion entdecken und laden.
- Tool Use Examples: Entwickler können jetzt konkrete Nutzungsmuster direkt in Tool-Definitionen hinzufügen. Diese Beispiele, die genau wie echte LLM-Ausgaben formatiert sind, verbessern die Tool-Nutzungsleistung von Claude, indem sie demonstrieren, wann und wie ein Tool verwendet werden soll.
OpenAI's Ansatz, insbesondere mit der neuen Responses API, betont ebenfalls eine robuste Tool-Integration. Während die Assistants API v2 bereits verbesserte Funktionsaufrufe und den Zugriff auf von OpenAI gehostete Tools wie Code Interpreter und File Search bot, ist die Responses API so konzipiert, dass diese noch nahtloser integriert werden. Sie ermöglicht es Entwicklern weiterhin, benutzerdefinierte Tools mithilfe von JSON-Schemata zu definieren, die das Modell dann aufrufen kann.
Schauen wir uns ein konzeptionelles Python-Beispiel an, das Claude's programmatische Tool-Aufrufe demonstriert und zeigt, wie es mehrere Operationen durch einen einzigen Codeblock orchestrieren kann:
import anthropic
import json
import os
client = anthropic.Anthropic()
def get_user_profile(user_id: str):
if user_id == "user123":
return {"id": "user123", "name": "Alice Smith", "email": "alice@example.com", "plan": "premium"}
return {"error": "User not found"}
def update_user_subscription(user_id: str, new_plan: str):
if user_id == "user123":
return {"status": "success", "user_id": user_id, "old_plan": "premium", "new_plan": new_plan}
return {"error": "User not found"}
tools = [
{
"name": "get_user_profile",
"description": "Ruft die Profilinformationen für eine bestimmte Benutzer-ID ab.",
"input_schema": {
"type": "object",
"properties": {
"user_id": {"type": "string", "description": "Die ID des Benutzers."}
},
"required": ["user_id"]
}
},
{
"name": "update_user_subscription",
"description": "Aktualisiert den Abonnementplan für einen Benutzer.",
"input_schema": {
"type": "object",
"properties": {
"user_id": {"type": "string", "description": "Die ID des Benutzers."},
"new_plan": {"type": "string", "description": "Der neue Abonnementplan."}
},
"required": ["user_id", "new_plan"]
}
}
]
def chat_with_claude_tools(user_message: str, history: list):
history.append({"role": "user", "content": user_message})
response = client.messages.create(
model="claude-opus-4.1-20250805",
max_tokens=2048,
messages=history,
tools=tools
)
# Logik zur Behandlung von Tool-Code- oder Tool-Use-Stop-Gründen würde hier folgen
return response.content[0].text
Dieser programmatische Ansatz signalisiert eine Bewegung hin zu robusterem, fehlertoleranterem agentischem Verhalten, bei dem die Argumentation des LLM in Code und nicht nur in natürlichen Sprachaufforderungen zur Tool-Aktivierung ausgedrückt wird.
Multimodalität reift: Von Pixeln zur Praktikabilität
Multimodale Fähigkeiten, einst eine futuristische Vision, sind heute ein fester Bestandteil führender LLMs. Im Jahr 2025 sehen wir, dass sich diese Fähigkeiten über beeindruckende Demos hinaus zu praktischen, API-gesteuerten Anwendungen entwickeln.
OpenAI's GPT-4o ("Omni"), veröffentlicht im Mai 2024, war ein Meilenstein bei der Vereinigung von Text-, Audio- und Bildmodalitäten in einem einzigen neuronalen Netzwerk. Obwohl der API-Zugriff auf GPT-4o im Februar 2026 eingestellt werden soll, um Platz für die leistungsfähigere GPT-5.1-Serie und spezialisierte Modelle wie o3 und o4-mini (veröffentlicht im April 2025) zu machen, bleibt die zugrunde liegende multimodale Architektur bestehen und verbessert sich. Diese Modelle können Bildinputs akzeptieren und mit Text und Bildern antworten. Der "multimodale Chain of Thought"-Ansatz bedeutet, dass sie Probleme über verschiedene Modalitäten hinweg lösen können, bevor sie eine Lösung formulieren.
Anthropic's Claude bietet ebenfalls Vision-Fähigkeiten, die die Bildanalyse und das Verständnis ermöglichen, insbesondere mit den Modellen Opus und Sonnet. Dies ist besonders nützlich für Aufgaben wie Dokumentenanalyse, Diagramminterpretation oder visuelle Inhaltsmoderation.
import openai
import base64
import requests
import os
def encode_image(image_path):
with open(image_path, "rb") as image_file:
return base64.b64encode(image_file.read()).decode("utf-8")
def analyze_image_with_openai_multimodal(image_path: str, prompt: str):
base64_image = encode_image(image_path)
headers = {
"Content-Type": "application/json",
"Authorization": f"Bearer {os.environ.get('OPENAI_API_KEY')}"
}
payload = {
"model": "gpt-5.1-latest-20251115",
"messages": [
{
"role": "user",
"content": [
{"type": "text", "text": prompt},
{"type": "image_url", "image_url": {"url": f"data:image/jpeg;base64,{base64_image}"}}
]
}
],
"max_tokens": 500
}
response = requests.post("https://api.openai.com/v1/chat/completions", headers=headers, json=payload)
return response.json()["choices"][0]["message"]["content"]
Obwohl beeindruckend, stellen multimodale Modelle immer noch Herausforderungen dar. Eine fein abgestimmte Objekterkennung oder komplexe räumliche Schlussfolgerungen können weniger robust sein als dedizierte Computer-Vision-Modelle. Darüber hinaus kann die Interpretation mehrdeutiger visueller Hinweise oder hoch domänenspezifischer Bilder immer noch zu "Halluzinationen" führen.
Der Aufstieg agentischer Architekturen: Über Single-Turn-Interaktionen hinaus
Der Wandel von einfachen Prompt-Response-Zyklen zu komplexen, autonomen agentischen Workflows ist ein definierender Trend im späten Jahr 2025. Entwickler bauen jetzt Multi-Step-Systeme, in denen LLMs als intelligente Orchestratoren fungieren, Aufgaben abwägen, Tools auswählen, Aktionen ausführen und ihren Ansatz auf der Grundlage von Feedback verfeinern. Während Frameworks wie AI Agents 2025: Why AutoGPT and CrewAI Still Struggle with Autonomy die aktuellen Einschränkungen selbstgesteuerter Systeme hervorheben, zielen die neuen nativen Plattformen von OpenAI und Anthropic darauf ab, diese Lücke zu schließen.
OpenAI's neue Agents-Plattform, die auf der Responses API basiert, steht an vorderster Front dieser Bewegung. Sie führt Konzepte wie persistente Threads für das konversationelle Gedächtnis und den Zugriff auf von OpenAI gehostete Tools wie Web Search, File Search und Computer Use ein. Das Agents SDK mit Tracing bietet eine entscheidende Beobachtbarkeit dieser komplexen Workflows und ermöglicht es Entwicklern, den Entscheidungsprozess des Agenten zu debuggen und zu verstehen.
Anthropic investiert ebenfalls stark in agentische Fähigkeiten, insbesondere für Enterprise-Anwendungsfälle. Ihre Claude Code und Claude Artifacts sind spezialisierte Agenten, wobei Claude Code speziell für die Programmierunterstützung entwickelt wurde, die jetzt in Team- und Enterprise-Abonnements gebündelt sind. Die Einführung einer Compliance API ermöglicht es IT- und Sicherheitsleitern, programmatisch auf Nutzungs- und Inhaltsmetriken zuzugreifen, was für die Steuerung der KI-gestützten Codierung in großen Teams entscheidend ist.
Neben direkten API-Angeboten hat sich ein robustes Ökosystem von agentischen KI-Frameworks deutlich weiterentwickelt. LangChain, CrewAI, AutoGen (Microsoft), Phidata, LlamaIndex und LangGraph (Teil von LangChain) sind weit verbreitet. Diese Frameworks bieten das architektonische Gerüst für den Aufbau anspruchsvoller Agenten und abstrahieren einen Großteil der Komplexität des Zustandsmanagements und der Tool-Orchestrierung.
Quellen
🛠️ Related Tools
Entdecken Sie diese DataFormatHub-Tools, die sich auf dieses Thema beziehen:
- JSON Formatter - Formatieren und verschönern Sie JSON für API-Antworten
- Base64 Encoder - Kodieren Sie Daten für API-Payloads
