SEO

Sichtbarkeit in ChatGPT: So rankst du besser im LLM

Sven Giese / 9. Mai 2025

Cartoonhaftes Bild einer Zitrone, die ein JSON-File mit einer Lupe begutachtet. - SMART LEMON
  • Home
  • Blog
  • Sichtbarkeit in ChatGPT: So rankst du besser im LLM

Du willst verstehen, warum bestimmte Seiten in ChatGPT-Antworten auftauchen – und deine nicht? Dann solltest du dir das JSON ansehen, das hinter jeder Chat-Antwort steckt. Denn genau dort verrät dir das System, welche Quellen es berücksichtigt, wo dein Content fehlt und wie du gezielt ansetzen kannst. Wir zeigen dir Schritt für Schritt, wie du das JSON-Format ausliest, richtig interpretierst und daraus konkrete Maßnahmen zur LLM Optimierung ableitest. So erhöhst du gezielt die Chance, künftig in ChatGPT zu ranken.

TL;DR – das Wichtigste in Kürze

  • Über die DevTools im Browser lässt sich das vollständige JSON zu einem Chat abrufen – eine Voraussetzung, um die Quellenanalyse und Optimierung überhaupt starten zu können.
  • Einzelne Felder zeigen, welche Inhalte ChatGPT als Haupt- und Nebenquellen einstuft – eine Basis für gezielte LLM Optimierung.
  • Wer im JSON nicht als Quelle auftaucht, kann gezielt Themen nachbesetzen und so Sichtbarkeit innerhalb der KI-Antworten aufbauen
  • Andere Angaben helfen dabei, Crawling-Probleme, fehlerhafte Canonicals oder JavaScript-Sperren zu erkennen und strukturelle Sichtbarkeitsprobleme zu beheben.
  • Regelmäßige JSON-Analysen helfen, um Sichtbarkeit, Domains usw. in ChatGPT zu messen.

Einleitende Bemerkung: Rendering-Verhalten von OpenAI

OpenAI nutzt genau drei Crawler (ChatGPT-User, OAI-SearchBot und GPTBot), die jedoch kein JavaScript rendern können. Das heißt: Alles, was nicht als statisches HTML im Quellcode liegt, bleibt daher für die KI unsichtbar. Als Unterstützung ziehen sich die OpenAI-Bots den Suchindex von Bing heran. Sprich: Achte darauf, dass du auch dort indexiert bist (mehr dazu findest du in unserem SEO-Newsletter #22. Dementsprechend gilt es zu prüfen, ob die eigene Website/URL dort indexiert ist und den OpenAI-Bots in der robots.txt (idealerweise mit Verweis auf die XML-Sitemap) der Zugriff gestattet wird. Mit Blick auf Bing sollte die Nutzung IndexNow-Pings das Ganze beschleunigen. Interessante Beobachtung: Falls vorhanden, ignorieren die Bots llms.txt, da diese Datei primär für Agent-Use-Cases gedacht ist.

Roh-JSON direkt aus ChatGPT exportieren (Chrome/Edge DevTools)

  1. ChatGPT in Chrome-Browser öffnen und neuen Chat mit Prompt zur Live-Suche starten.
  2. Chat-ID kopieren – das ist die lange abschließende Zeichenfolge (=Chat-ID) direkt hinter https://chat.openai.com/…/ in der Adresszeile.
  3. DevTools öffnen (F12) und auf Inspect gehen.
  4. Network-Tab auswählen.
  5. Oben Fetch/XHR aktivieren, damit nur API-Calls auftauchen.
  6. Die kopierte Chat-ID in das Filterfeld eingeben.
  7. Den Chat refreshen (Strg + R). Jetzt erscheint ein Request, dessen Name exakt deine Chat-ID trägt.
  8. Den Request anklicken und im Tab Response das vollständige JSON ansehen. Tipp: Das JSON in einen Editor o.Ä. kopieren, um es einfacher auswerten zu können. 
Screenshot des Network-Tabs in den Chrome DevTools - SMART LEMON

Wichtige Felder im ChatGPT-JSON-File und ihre Bedeutung

  • search_results: Alle URLs, die ChatGPT geprüft hat
  • sources_footnotes: Die zitierten Hauptquellen
  • supporting_websites/safe_urls: Weitere berücksichtigte Seiten
  • blocked_urls: URLs, die ChatGPT nicht abrufen konnte oder darf

Damit hast du eine echte Goldgrube: Du erkennst sofort, welche Dokumente die KI nutzt, wo Content-Lücken klaffen und welche Seiten deine klassische PR bislang ignoriert hat.

Screenshot aus den Chrome Developer Tools: JSON-Daten aus einer ChatGPT-Antwort - SMART LEMON

Strategische Hebel aus dem Chat-JSON: So nutzt du diese Informationen

Damit siehst du exakt, welche Dokumente ChatGPT nutzt, wo Lücken klaffen und welche Seiten klassische PR-Bemühungen bislang verpasst haben. Wie kannst du diese Informationen konkret weiterverarbeiten?

  • Content-Gaps schließen: Vergleiche die Felder search_results und sources_footnotes mit deinen eigenen URLs sowie SERP-Rankings. Jede thematische Lücke, bei der ChatGPT Konkurrenzquellen nennt (du aber nicht vorkommst), verdient einen frischen, serverseitig gerenderten Artikel oder eine Erweiterung deines bestehenden Contents. So baust du gezielt Themenautorität auf. Passend dazu auch unser Beitrag: Warum ChatGPT & Co nicht zur Keyword-Recherche taugen.  
  • Neue Link-& PR-Ziele finden: Analysiere die Domains in supporting_websites nach Häufigkeit – Tools wie Peec AI erledigen das in Serie. Diese „Backup-Quellen“ sind häufig fernab klassischer Medienlisten und damit perfekte Outreach-Kandidaten für hochwertige, thematisch relevante Backlinks.
  • Crawl-Blocker entfernen: blocked_urls verraten dir, wo OpenAI (und meist auch Bing) an JS-Sperren, IP-Blocks oder fehlerhaften Canonicals scheitert. Technische Barrieren abbauen, Redirect-Ketten sauber setzen – und die Bots finden deine Inhalte ohne Reibungsverlust. Siehe hierzu auch unseren großen LLM-SEO-Guide.
  • Halluzinierte URLs nutzen: Wenn ChatGPT wiederholt eine nicht existente URL anruft, lege die Seite an oder leite per 301 auf relevanten Content. Ergänze eine kurze „Warum du hier gelandet bist“-Copy – das verwandelt toten Traffic in echte Leads und signalisiert Trust.
  • Prompt-KPIs aufbauen: Fahr deine Kern-Prompts regelmäßig ab, zieh jedes Mal das JSON und schreib die Daten in ein Sheet oder eine Datenbank. Tracke Kennzahlen wie Häufigkeit deiner Domain, Zitat-Rate oder Rotation der Quellen. So siehst du schwarz auf weiß, welche Optimierungen die KI-Antworten wirklich beeinflussen.
  • Holistische Attribute bedienen: Lass ChatGPT offenlegen: „Welche Kriterien bewertest du bei [X]?“. Ergänze genau diese Attribute in Produkt- oder Ratgeberseiten und prüfe im JSON, ob die KI sie wahrnimmt. Je vollständiger dein Content die Erwartungsliste abdeckt, desto öfter wirst du als Quelle zitiert.

Der Blick für Details im JSON oder: Was die weiteren Felder bedeuten und wie du sie nutzt

Beim Auslesen des Chat-JSON tauchen neben den bereits besprochenen Hauptfeldern weitere Parameter auf, die auf den ersten Blick kryptisch wirken, sich aber hervorragend für Feintuning-Analysen eignen:
  • Felder title, url, snippet, pub_date, attribution: Klassische SERP-Informationen – Achtung: ChatGPT hängt häufig das Tracking-Parameter utm_source=chatgpt.com an deine URLs.
  • Feld supporting_websites: Zusätzliche Quellen, die die Aussage deines Dokuments stützen.
  • Feld attribution_segments: Interne IDs, die ChatGPT nutzt, um Textstellen im Antwort-Bodies mit Quellen zu verknüpfen.
  • Feld refs (z. B. {turn_index: 0, ref_type: „search“, ref_index: 5}): Verweist auf die Position des Dokuments innerhalb des Arrays search_results.
  • Felder matched_text, start_idx, end_idx: Marker für die Fußnotensymbole (Unicode-Glyphen wie , ), inklusive Text-Offset im Antwort-String.
  • Feld type: „grouped_webpages“: ChatGPT fasst mehrere URLs mit identischem Thema zu einer Gruppe zusammen.
  • Feld type: „hidden“: Quellen, die aus Policy-Gründen nicht angezeigt werden, aber intern gewertet sind.
  • Felder hue, style, error, status: Rendering-Metadaten – meist für Debugging relevant.
Screenshot aus den Chrome Developer Tools: JSON-Daten aus einer ChatGPT-Antwort - SMART LEMON

Warum diese Punkte aus SEO-Sicht wichtig sind (…)

Durch die Kombination aus refs → search_results → matched_text kannst du lückenlos nachvollziehen, an welcher Stelle des generierten ChatGPT-Antworttextes deine Seite platziert wird und wie oft sie zitiert oder „nur“ stützend herangezogen wird. Das ist wertvolles Feedback, um Überschriften, H-Tags oder semantische Auszeichnungen exakt dort nachzuschärfen, wo ChatGPT noch alternative Quellen bevorzugt.

(…) und wie du diesen Ansatz weiter denken kannst

Drehen wir den Spieß einfach um und bauen uns ein einfaches Python-Skript, das supporting_websites und attribution_segments aller Prompts in eine Tabelle schreibt.
				
					"Help me create a python script that extracts *supporting_websites* and *attribution_segments* (citations) from a batch of ChatGPT JSON response files, writes a tidy CSV table and (optionally) plots the frequency of your domain versus the rest."
				
			

Mit diesem Skript lässt sich anschließend:

  1. Häufigkeit deiner Domain vs. Konkurrenz plotten.
  2. Themen identifizieren, bei denen du nur als Supporting Source erscheinst.
  3. Genau an diesen Stellen vertiefen, interne Verlinkung stärken und gezielt Backlinks akquirieren.

Ergebnis: Schrittweise vom „Unterstützer“ zum hauptzitierten Experten werden.

Sven Giese

Sven ist ein echtes SMART LEMON Urgestein. Er ist seit 2012 bei uns und war der erste Mitarbeiter der Agentur. Als Head of SEO leitet er das SEO-Team und verantwortet in diesem Bereich das Tagesgeschäft. Außerdem bildet er Kolleg:innen in Sachen Suchmaschinenoptimierung aus. Den Großeltern kann man das so erklären: Sven macht was mit Computern. Und mit Nachdenken 😉

SMART LEMON Newsletter

Nichts mehr verpassen! Erhalten Sie aktuelle Infos rund um die Themen SEO, SEA, Web & Social Media.

menu-2