Claude Opus 4.7 zieht Kontext aus dir — ohne 1000-Wort-Prompt
Claude Opus 4.7 ist der erste LLM, der Implicit-Need-Tests besteht. Was das praktisch heißt — getestet an echten Kundenprojekten.
Mein letzter Chat mit Claude 4.6 ging so: Ich brauche eine Antwort an einen Kunden. Claude fragt zurück. "Welcher Ton? Wie förmlich? Wie lang?" Drei Nachfragen vor der ersten Zeile Output. Ich tippe drei Mal länger als ich gespart habe.
Das ist seit 16. April vorbei.
Anthropic hat Claude Opus 4.7 ausgerollt. Plus 14 Prozent gegenüber Opus 4.6. Ein Drittel der Tool-Errors. Und das Spannende: das erste Modell, das die Implicit-Need-Tests besteht. Heißt im Klartext — Claude zieht den Kontext aus dem, was du ohnehin sagst. Statt jedes Detail einzeln abzufragen.
Was das praktisch ändert. Und wo es noch hakt.
Was Implicit-Need-Tests überhaupt sind
Die meisten KI-Modelle sind höflich-dumm. Du sagst "Schreib eine Antwort an einen Kunden, der unzufrieden ist." Das Modell antwortet: "Welcher Kunde? Welche Branche? Welcher Ton? Welche Länge? Worum geht's konkret?"
Das ist kein Service. Das ist Verhandlung mit dem Bürgermeister-Sekretariat.
Ein Implicit-Need-Test prüft genau das Gegenteil: kann das Modell aus deinem Kontext erschließen, was du eigentlich willst — ohne dass du jeden Parameter buchstabierst. Du sagst nur "Schreib eine Antwort", aber im selben Chat hängst du eine E-Mail-Vorlage von letzter Woche, hast vorher einen Sales-Call zusammengefasst, dein CRM-Eintrag liegt offen. Versteht das Modell, dass du genau diesen Stil und diese Länge willst, ohne nachzufragen?
Opus 4.7 ist laut Anthropic das erste LLM, das hier durchkommt.
Mein Praxis-Test: 6 Kunden-Tasks, kein Nachhaken
Letzte Woche habe ich's bewusst hart getestet. Sechs Tasks, alle realistisch aus meinem Alltag als Videograf:
- Pitch-Mail an Hotel-Kunde
- Drehplan-Update nach kurzfristiger Wetteränderung
- Ablehnungsmail an Anfrage, die nicht passt
- Reel-Konzept aus einem alten Sales-Deck
- Drei LinkedIn-Hooks aus einem Podcast-Transkript
- Kostenvoranschlag-Vorlage aus altem Dokument
Bei jedem Task: minimaler Prompt. Nur das Ziel. Keine Erklärung von Tonality, Länge, Format. Der Kontext liegt im Chat — ältere Mails, alte Drehpläne, mein letztes Reel-Skript.
Bei Opus 4.6 hätte ich vorher jedes Mal eine 200-Wort-Erklärung mit-tippen müssen. Bei 4.7: erste Antwort brauchbar, in fünf von sechs Fällen direkt einsetzbar.
Der eine Task, wo's schiefging? Der Kostenvoranschlag — das Modell hat eine alte Stundensatz-Vorlage erwischt und nicht meine aktuelle. Mein Fehler im Setup. Nicht seiner.
Die plus 14 Prozent sind nicht das Spannende
Anthropic verkauft Opus 4.7 mit "+14% gegenüber 4.6 bei weniger Tokens". Klingt schön. Ist auch real. Aber ehrlich: 14 Prozent Performance-Gain merkt kein Selbstständiger im Alltag.
Was du merkst, ist die Tool-Error-Rate. Ein Drittel.
Ich automatisiere viel mit Claude — Cal.com-Buchungen, Notion-Updates, Skool-Posts, Dropbox-Uploads. Bei Opus 4.6 hat Claude regelmäßig den falschen Kalender gegriffen oder einen Token verfehlt. Ein-zwei Mal pro Tag musste ich rumräumen. Bei 4.7 sehe ich diese Fehler kaum noch.
Das ist der eigentliche Gewinn. Weniger Murks beim Toolcalling. Tools werden brauchbar als Mitarbeiter — nicht nur als Zaubertrick auf der Demo.
Wo es noch hakt — kein Hype hier
Drei Dinge, die mich genervt haben:
Lange Chats verlieren immer noch Kontext. Wenn du eine 80.000-Token-Konversation führst, fängt Opus 4.7 irgendwann an, alte Details zu vergessen oder neu zu erfinden. Nicht häufig. Aber häufig genug, dass du wichtige Sessions splitten solltest.
Es lehnt mehr ab. Anthropic hat den Safety-Layer mitgezogen. Bei sensiblen Recherche-Tasks — Konkurrenz-Analyse, Branchen-Tratsch — wird Opus 4.7 vorsichtiger als 4.6. Manchmal zu vorsichtig.
Implicit-Needs heißt nicht Telepathie. Wenn dein Kontext im Chat fehlt, rät das Modell. Schlecht. Du kannst dir das Briefing nicht komplett sparen — du musst nur weniger explizit drüber sprechen.
Vier Hebel, die in der Praxis den Unterschied machen
- Chats länger leben lassen. Statt jeden Task in einem fresh Chat — schmeiß die letzten fünf ähnlichen Aufgaben in einen einzigen, mit kurzem "Hier ist Kontext" am Anfang. Opus 4.7 zieht daraus.
- Beispiele statt Anweisungen. "Schreib so wie diese drei Mails hier" funktioniert besser als "Schreib förmlich aber freundlich, 150 bis 200 Wörter, mit Call-to-Action am Ende".
- Tool-Use anschalten. Wenn dein Workflow MCP-Server hat — Skool, Cal, Notion, Drive — Opus 4.7 ist das erste Modell, dem ich das ohne Bauchschmerzen anvertraue.
- Style-Guides als Files greifbar haben. Tonality, Brand-Voice, Mailvorlagen — als kurze Markdown-Files in Projects. Nicht jedes Mal neu erklären.
Was das für Selbstständige in 6 Monaten heißt
Die Richtung ist klar. KI-Modelle bewegen sich weg vom Befehl-Empfangs-System hin zum Kontext-Mitarbeiter. In sechs Monaten redet keiner mehr über Prompts. Wir reden über Setups: welche Files dein Modell sieht, welche Tools es bedienen darf, welcher Verlauf im Chat liegt.
Das ist ein Vorteil für jeden, der seinen Workflow ordentlich aufgesetzt hat. Und ein Nachteil für jeden, der weiter "schreib mir mal X" tippt.
Wer jetzt anfängt, seine Vorlagen, Kunden-Briefs und Style-Guides als Kontext-Files greifbar zu haben — der hat in einem halben Jahr einen Mitarbeiter, der nie schläft, nie nachfragt und alles gelesen hat.
Wer das nicht macht, prompt-tippt sich noch eine Weile die Finger wund.
Wie du dein KI-Setup baust, damit Opus 4.7 wirklich für dich arbeitet — wir bauen das gerade Schritt für Schritt durch in der ContentWerk Community. Komm rein, schau zu, klau Templates.
---