SEO

Generative Engine Optimization (GEO): Strategien, KPIs & Maßnahmen für KI-Sichtbarkeit

Sven Giese / 5. Februar 2026

Cartoon mit Lupe schaut auf einen Laptop. In einer Sprechblase steht "Heute eins, morgen vielleicht Platz 3?" - SMART LEMON
  • Home
  • Blog
  • Generative Engine Optimization (GEO): Strategien, KPIs & Maßnahmen für KI-Sichtbarkeit

Generative Engine Optimization (GEO) ist die Optimierung von Inhalten für KI-Antworten statt für klassische Suchrankings. Am 27. Januar 2026 erschien eine neue Studie von SparkToro und Gumshoe.ai, die deutlich zeigte, dass Antworten von LLMs und KI-Systemen nicht konsistent sind.

 Fast zwei Jahrzehnte lang haben wir Online-Marketer und SEOs in einer deterministischen Welt gelebt: Du hast Input A geliefert (Keyword und Backlinks) und Output B bekommen (ein Ranking). Mit dem Aufstieg von Large Language Models (LLMs) wie ChatGPT, Claude und Google Gemini ist diese Gewissheit kollabiert.

Wir optimieren auf Sichtbarkeit in Antwortmaschinen (GEO, teils auch als AEO für Answer Engine Optimization bezeichnet). Und diese Maschinen würfeln. Willkommen in der neuen Realität der digitalen Suche im Jahr 2026.

Wichtig dabei: Klassisches SEO ist nicht tot. Es bleibt das Fundament, damit Inhalte überhaupt gefunden, verstanden und als Quelle genutzt werden können. Neu sind die Oberfläche, die Mechaniken und die Messlogik. Und neu ist, dass du dafür eigenständige GEO-Strategien benötigst.

Diesen Inhalt mit KI-Tools zusammenfassen

ChatGPTPerplexityClaude

TL;DR: Das Wichtigste zu GEO in Kürze

  • KI-Empfehlungen sind hochgradig inkonsistent: Laut SparkToro liefern ChatGPT und Google AI bei identischen Prompts in weniger als 1 von 100 Fällen dieselbe Markenliste.
  • Klassisches SEO bleibt das Fundament der KI-Sichtbarkeit: Wer in Google nicht rankt, wird auch in KI-Antworten seltener zitiert. Rankingverluste ziehen im Schnitt –22,5 % weniger KI-Zitierungen nach sich.
  • Die relevanten GEO-KPIs sind Visibility Percentage, Share of Model, Citation Rate, Detection Rate und Sentiment Score. Alle sind modellspezifisch zu erheben, nicht aggregiert.

Was ist Generative Engine Optimization? Definition, Abgrenzung und Einordnung 2026

Generative Engine Optimization (GEO) ist die Optimierung von Inhalten und digitalen Signalen mit dem Ziel, von KI-Systemen wie ChatGPT, Google AI Overviews und Perplexity als zitierfähige Quelle erkannt und empfohlen zu werden. GEO erweitert klassisches SEO um eine neue Dimension: Während SEO auf Rankingpositionen in Suchergebnissen zielt, optimiert GEO auf die Häufigkeit und Qualität von Markennennungen in KI-generierten Antworten.

Der zentrale Unterschied zur klassischen SEO liegt im Mechanismus: Eine Suchmaschine listet Ergebnisse nach Relevanz. Ein KI-Modell generiert eine Antwort und nennt dabei Marken, die es auf Basis seiner Trainingsdaten und Live-Retrieval-Daten für relevant hält. Es handelt sich also um eine aktive Empfehlungshandlung, nicht um eine passive Positionierung.

Wie konsistent sind KI-Empfehlungen wirklich? Erkenntnisse der SparkToro-Studie 2026

Stell dir vor, du gehst in eine Bibliothek und fragst nach einem Buch über CRM-Software. Der Bibliothekar gibt dir einen Titel. Du gehst kurz raus, kommst eine Minute später wieder rein, stellst exakt dieselbe Frage. Der Bibliothekar schwört Stein und Bein, dass er das erste Buch noch nie gesehen hat, und empfiehlt dir etwas gänzlich anderes. 

Diese Inkonsistenz ist kein Bug in KI-Systemen. Sie ist das Ergebnis der Architektur. Die SparkToro-Studie (600 Freiwillige, fast 3000 Testdurchläufe) machte das Ausmaß erstmals messbar:

  • Weniger als 1 % Konsistenz: Die Wahrscheinlichkeit, dass ChatGPT oder Google bei 100 identischen Anfragen exakt dieselbe Markenliste zurückgibt, liegt bei unter 1 zu 100.
  • Volatile Reihenfolge: Selbst wenn ähnliche Marken erscheinen, variiert ihre Reihenfolge fast immer. Dieselbe Reihenfolge zweimal zu erhalten, ist seltener als 1 in 1.000 Fällen.
  • Variable Listenlänge: Einmal nennt die KI drei Produkte, im nächsten Durchlauf zehn.

Diese Daten zeigen: Ein klassischer SEO-Report, der behauptet, man stehe auf Platz 1 bei ChatGPT, ist statistisch wertlos. Er ist eine Momentaufnahme, die sich im nächsten Augenblick ändert.

Ranking vs. Sichtbarkeit: Das „City of Hope“-Beispiel

Das City-of-Hope-Beispiel zeigt, warum Ranking-Positionen in KI-Antworten kein belastbarer Messwert sind. Bei der Anfrage nach Krebsbehandlungszentren erschien das Krankenhaus City of Hope in 97 % der Antworten (69 von 71 Durchläufen). Eine extrem hohe Sichtbarkeit. Aber: City of Hope war nur in 25 dieser 69 Fälle die erstgenannte Empfehlung. In den anderen Fällen rutschte es auf Platz 2, 3 oder tiefer.

Die einzige robuste Metrik ist die Häufigkeit des Erscheinens über eine große Stichprobe hinweg. Nicht die Position.

Sektorale Varianz: In welchen Branchen variieren LLM-Ergebnisse am stärksten?

Die Studie zeigte auch, dass die Inkonsistenz nicht überall gleich ist. Sie hängt stark von der „Entropie“ des jeweiligen Sektors ab:

  • Niedrige Entropie (hohe Konsistenz): In Bereichen mit faktisch begrenzten Antworten (z. B. „Volvo-Händler in Los Angeles“) ist die KI stabiler. Sie kann weniger halluzinieren, ohne faktisch falsch zu werden.
  • Hohe Entropie (großes Chaos): In kreativen oder subjektiven Feldern explodiert die Varianz. Bei Fragen nach „neuen Science-Fiction-Romanen“ oder „Branding-Agenturen“ agieren die Modelle wie Zufallsgeneratoren. Da es tausende „richtige“ Antworten gibt, würfelt das Modell bei jedem Durchlauf neu.

Warum LLMs bei jeder Anfrage andere Ergebnisse liefern

LLMs sind keine Datenbanken. Sie sind Wahrscheinlichkeitsmaschinen. Im Kern berechnet ein LLM bei jeder Antwort die Wahrscheinlichkeit des nächsten Worts (Tokens). Es wählt dabei nicht immer den wahrscheinlichsten Kandidaten. Der Temperatur-Parameter steuert den Zufallsfaktor. Da Chatbots wie ChatGPT menschlich wirken sollen, ist eine gewisse Varianz systemseitig eingebaut.

Wenn du also fragst: „Empfiehl mir eine CRM-Software“, berechnet das Modell Wahrscheinlichkeiten für Salesforce, HubSpot etc. Aber es wählt nicht immer stur den wahrscheinlichsten Kandidaten. Hier kommen Parameter wie die LLM-Temperatur ins Spiel: Ein Wert (oft zwischen 0 und 1), der den Zufallsfaktor steuert. Eine hohe Temperatur sorgt für „Kreativität“. Da Chatbots wie ChatGPT menschlich wirken sollen, ist eine gewisse Varianz systemseitig eingebaut. Das Modell berechnet die Wahrscheinlichkeit bei jedem Wort und Wortbestandteil neu. Wenn „Salesforce“ im ersten Satz genannt wurde, ändert sich die Wahrscheinlichkeitsverteilung für das nächste Wort. Diese Kaskade führt zu den chaotischen Listen, die wir beobachten.

Foundational Knowledge vs. RAG

LLMs trennen ihr Wissen in zwei Quellen: Foundational Model Knowledge und RAG. Ein weiterer Grund für die Inkonsistenz liegt in dieser Trennung. Das Foundational Model Knowledge basiert auf dem Training (CommonCrawl, Wikipedia). Marken wie Coca-Cola sind hier fest verankert und werden konsistenter genannt. Daneben nutzen aktuelle KI-Plattformen RAG (Retrieval-Augmented Generation): Bei aktuellen Fragen sucht die KI live im Internet und füttert die Ergebnisse in das Modell.

GEO-KPIs: Die fünf Kennzahlen für KI-Sichtbarkeit

Mit dem Aufstieg generativer KI-Systeme verlieren klassische SEO-KPIs ihre Aussagekraft. Fünf Kennzahlen haben sich als Standard etabliert. Eine ausführliche Übersicht aller GEO-KPIs mit Formeln und Erhebungsmethodik findest du hier: GEO-KPIs: Die fünf Kennzahlen für KI-Sichtbarkeit.

Alle fünf KPIs messen, was KI-Modelle in ihren Antworten mit deiner Marke tun. 

Darunter liegt eine strukturelle Ebene, die bestimmt, ob das Modell deine Domain überhaupt kennt: die Harmonic Centrality (HC). Sie misst, wie zentral deine Domain im Web-Graph vernetzt ist und damit, wie häufig Common Crawls Crawler sie archiviert. Da 64 % der analysierten großen Sprachmodelle auf Common-Crawl-Daten trainiert wurden, beeinflusst HC direkt, wie präsent deine Inhalte im Trainingskorpus sind. HC ist kein KI-Output-Signal, sondern eine Infrastrukturmetrik: Sie schafft die Voraussetzung dafür, dass Detection Rate, Visibility und alle weiteren KPIs überhaupt etwas zu messen haben. –

  • Detection Rate ist die technische Grundvoraussetzung des gesamten Sets: Sie prüft, ob das Modell deine Marke auf direkte Nachfrage überhaupt korrekt identifiziert. Eine Detection Rate von null macht jeden anderen KPI-Wert schwer interpretierbar. So könnte das Modell beim Nennen deines Markennamens eine andere Entität meinen.
  • Citation Rate geht einen Schritt weiter und fragt, in wie vielen dieser Antworten deine Marke als klickbarer Link oder Fußnote ausgegeben wird. Sie ist der entscheidende Faktor für tatsächlichen Traffic aus KI-Antworten.
  • Visibility Percentage misst, in wie viel Prozent der Prompts deine Marke überhaupt auftaucht, unabhängig von Position oder Häufigkeit. Sie ist die Voraussetzung für alle anderen KPIs: Wer nicht weiß, ob er sichtbar ist, kann weder SoM noch Sentiment sinnvoll interpretieren.
  • Share of Model setzt deine Nennungen ins Verhältnis zur Gesamtzahl aller Markennennungen im Cluster und zeigt deine relative Wettbewerbsposition. Er beantwortet nicht nur, ob du sichtbar bist, sondern auch, wie stark du im Vergleich zur Konkurrenz stehst.
  • Sentiment Score bewertet, ob die KI deine Marke positiv empfiehlt, neutral erwähnt oder kritisch einordnet. Auch dieser KPI setzt eine messbare Präsenz voraus. Er ist die qualitative Ergänzung zur quantitativen Visibility.

Neben solchen Netzwerkmetriken spielen aber auch semantische Signale wie Entitäten und ihre Gewichtung eine Rolle. Wie sich diese über Googles Natural Language API analysieren lassen, zeigen wir im Beitrag „Entitäten SEO: Google Natural Language API, Salience & Entity-Gaps“.

Content-Strategie für GEO: So wirst du zur zitierten Quelle für LLMs und AI Overviews

Die Content-Strategie entscheidet im GEO darüber, ob KI-Systeme Inhalte nur erfassen oder tatsächlich als Quelle heranziehen. Technik sorgt dafür, dass eine Seite indexierbar und maschinenlesbar ist. Content sorgt dafür, dass einzelne Passagen als belastbare Antwortbausteine taugen. Das ist relevant, weil Google AI Overviews und AI Mode unterstützende Links zu Websites einblenden und dabei teils mehrere verwandte Suchanfragen parallel ausführen. Sichtbarkeit entsteht also nicht nur über das Gesamtdokument, sondern oft über die Qualität einzelner Abschnitte.

Snippable Content: Inhalte modular strukturieren

KI-Systeme und RAG-Workflows arbeiten nicht mit einer Seite als unteilbarem Block, sondern mit kleineren Informationseinheiten. D. h., sie zerlegen Texte in kleine, verdauliche Informationshappen (Chunks). Eine monolithische Textwüste erschwert deshalb die Zuordnung von Fakten zu Kontexten. Microsoft empfiehlt im RAG-Umfeld, Inhalte in sinnvolle Abschnitte zu zerlegen, Dokumenthierarchien zu erhalten und Strukturinformationen wie Überschriften, Absätze und Tabellen gezielt mitzunehmen. Genau deshalb funktionieren klare H1-H2-H3-Hierarchien, kurze Absätze, Listen und Tabellen in der Praxis oft besser als lange Fließtexte ohne erkennbare Gliederung.

LLM Readability Optimization: Inhalte für KI-Systeme zitierfähig machen

Im GEO-Kontext lässt sich das als LLM Readability Optimization beschreiben: Inhalte werden so aufgebaut, dass ein Modell sie leicht erfassen, sauber einordnen und als Quelle verwenden kann. Gemeint ist damit mehr als gute Lesbarkeit für Menschen. Entscheidend ist, wie klar, strukturiert und semantisch eindeutig ein Text für die maschinelle Verarbeitung vorliegt. Dazu gehören sprachliche Klarheit, eine saubere Überschriftenlogik, fokussierte Absätze, ein klarer Intent-Match, eine sichtbare Informationshierarchie und eine hohe Informationsdichte pro Satz. Der Kern ist einfach: Jeder Absatz sollte für sich verständlich, thematisch sauber abgegrenzt und im Idealfall direkt zitierfähig sein.

Diese Logik passt auch zur Forschung über Positions- und Kontextverarbeitung in LLMs. Google Research beschreibt den sogenannten „lost in the middle“-Effekt: Modelle tun sich oft schwerer damit, relevante Informationen in der Mitte langer Kontexte zuverlässig zu nutzen. Für redaktionelle Inhalte heißt das nicht, dass alles in den ersten Satz gepresst werden muss. Es heißt aber sehr wohl, dass zentrale Aussagen sichtbar, früh und strukturell klar platziert werden sollten.

Strukturierte Daten und Schema.org: Wichtige Basissignale für KI-Sichtbarkeit

Strukturierte Daten sind im Jahr 2026 keine nette Ergänzung mehr, sondern ein wichtiger Baustein für KI-Sichtbarkeit. Sie fungieren als Übersetzer zwischen HTML, Suchsystemen und maschinenlesbaren Fakten. Vereinfacht läuft der Prozess so ab: 

  1. Indexer liest JSON-LD, also Angaben zu Autor, Preis, Organisation, Veröffentlichungsdatum und Thema eines Artikels.
  2. Das KI-System kann daraus klare Fakten ableiten: Wer hat den Inhalt veröffentlicht, wer ist verantwortlich und worum geht es auf der Seite? 
  3. LLM kann diesen Kontext später nutzen, um eine Quelle sauber einzuordnen und Informationen einer Marke, Person oder URL korrekt zuzuweisen. 

Ohne Schema müsste es diese Zusammenhänge aus verstreuten Seitenelementen, Navigation, Fließtext und Layout ableiten. Das kann funktionieren, ist aber deutlich fehleranfälliger. Wichtig ist deshalb, dass die Angaben im Schema exakt mit dem sichtbaren Inhalt übereinstimmen. Widersprüche bei Autor, Organisation, Datum, Produktdaten oder Seitenkontext schwächen die Verlässlichkeit der Quelle. Strukturierte Daten garantieren keine Nennung in KI-Antworten, sie verbessern aber die maschinenlesbare Klarheit und damit eine zentrale Grundlage für GEO.

Tipp: Besonders relevant für GEO sind dabei strukturierte Daten rund um Organisation, Person, Artikel, Produkt und Breadcrumbs, weil sie zentrale Entitäten und ihre Beziehungen auf der Website explizit abbilden.

Direct Answers: Inhalte so formulieren, dass KI-Systeme sie zitieren

44,2 % aller KI-Zitierungen stammen aus den ersten 30 % eines Textes. Wer seine wichtigste Aussage erst in Absatz 12 platziert, reduziert die Wahrscheinlichkeit einer Zitierung um den Faktor 2,5 gegenüber der Einleitung. Analysen zeigen: Die wichtigste Regel für KI-Zitierbarkeit ist das Prinzip der umgekehrten Pyramide auf Absatzebene. Die direkte Antwort auf eine Frage muss im ersten Satz des Abschnitts stehen. Kein „Es kommt darauf an“, keine langen Einleitungen.

  • Schlecht: Wenn man sich die Entwicklung der Preise ansieht, kann man feststellen, dass …
  • Gut: Der Preis für das Modell X beträgt 299 €. Dies entspricht einem Anstieg von … 

Für die redaktionelle Praxis lassen sich daraus drei einfache Regeln ableiten. 

  • Regel 1: W-Fragen als Anker. Echte W-Fragen als Zwischenüberschriften nutzen, weil sie Suchintention und Abschnittslogik direkt zusammenführen.
  • Regel 2: Vermeidung von „Weichmachern“. Wörter wie „vielleicht“, „könnte“ oder „manchmal“ reduzieren die Extraktionswahrscheinlichkeit. KIs bevorzugen definitive Aussagen, die als Fakten behandelt werden können.
  • Regel 3: Kurz halten. Eine starre Grenze von 80 Wörtern ist kein Naturgesetz, aber als Heuristik sinnvoll, solange der Abschnitt einen Gedanken sauber abschließt und nicht mehrere Themen vermischt.

Sonderfall Marke: LM Readability Optimization und Brand Context Optimization 

Für Marken reicht es allerdings nicht, nur zitierfähige Inhalte zu veröffentlichen. KI-gestützte Suchsysteme liefern längst nicht mehr nur Antworten auf Faktenfragen, sondern helfen auch bei Vergleichen, Einordnungen und Entscheidungsprozessen. 

Google beschreibt seinen AI Mode ausdrücklich als Hilfe für komplexe Vergleiche und weiterführende Exploration. Wer in diesem Umfeld sichtbar sein will, benötigt beides: Inhalte, die als Quelle taugen, und einen Markenkontext, der über mehrere Touchpoints hinweg konsistent aufgebaut ist. Erst das Zusammenspiel aus zitierfähigem Content und klarer Markenverankerung schafft echte GEO-Sichtbarkeit.

LLM Readability Optimization und Brand Context Optimization verfolgen im GEO zwei unterschiedliche Ziele. 

  • LLM Readability Optimization verbessert die Wahrscheinlichkeit, dass ein konkreter Inhalt als Quelle zitiert oder verlinkt wird. Der Fokus liegt auf einzelnen Passagen, also auf der Frage: Kann ein Modell diesen Abschnitt leicht extrahieren, verstehen und als Beleg nutzen? 
  • Brand Context Optimization setzt an einer anderen Stelle an. Hier geht es darum, dass eine Marke überhaupt als relevante Entität erkannt, korrekt eingeordnet und in passenden Antwortkontexten namentlich erwähnt oder empfohlen wird.

Anders gesagt: LLM Readability erhöht die Zitierfähigkeit einzelner Inhalte. Brand Context Optimization erhöht die Chance, dass die Marke selbst in KI-Antworten vorkommt. Das eine kann Traffic und Quellenlinks bringen. Das andere stärkt Markenpräsenz, Wiedererkennung und semantische Verankerung, auch dann, wenn nicht direkt auf die eigene Seite verlinkt wird.

GEO-Maßnahmen 2026: Was Marken jetzt konkret tun sollten

Prompt Decoding: Intent statt Keywords

In KI-Diensten suchen Nutzer nicht mehr nach „Laufschuhe kaufen“. Sie chatten komplex. Der Ansatz des Prompt Decoding besagt: Optimiere auf die Absicht (Intent), nicht auf den exakten Wortlaut. Wenn die KI versteht, dass es um „breite Füße und Laufen“ geht, muss deine Marke als logische Konsequenz erscheinen. Egal, wie der Nutzer fragt.

Die „English Trap“ vermeiden: Warum deutsche Marken englische Signale benötigen

Die meisten LLMs denken auf Englisch. Ihr latenter Raum ist englisch geprägt. Wenn ein Nutzer auf Deutsch fragt, übersetzt das Modell die Anfrage intern oft ins Englische, sucht in englischen Quellen und übersetzt das Ergebnis zurück. Wer keine englischen, maschinenlesbaren Informationen bereitstellt, existiert für die KI schlicht nicht im relevanten Suchraum. Die Lösung: Auch lokale deutsche Marken benötigen englischsprachige Signale, zum Beispiel eine englische Grounding Page. Deutsch bleibt Pflicht für Nutzer und lokale Kontexte. Das Ziel ist ein zusätzlicher Layer, kein Ersatz. 

Grounding Pages: Eine zentrale Faktenseite für KI-Systeme

KI-Modelle haben ein Problem mit Ambiguität. Eine Website voller Marketing-Floskeln verwirrt die Maschine. Eine dedizierte Grounding Page (z. B. im Verzeichnis /facts/) liefert Fakten in reinster Form und erklärt sich selbst. Das Ergebnis: weniger Interpretationsspielraum, mehr maschinelles Vertrauen. Mehr zu dem Thema findest du auch in unserem Artikel KI-Sichtbarkeit steigern: GEO-Maßnahmen im Praxistest
Screenshot der Grounding Page für das SEO-Team von SMART LEMON

Fazit: So gelingt Generative Engine Optimization in der Praxis

Wir erinnern uns an die Bibliothek vom Anfang. Der Bibliothekar wurde gefeuert. An seiner Stelle steht jetzt ein hochintelligenter, aber leicht halluzinierender persönlicher Einkäufer. Er rennt nicht mehr zum Regal. Er schreibt dir das Buch neu, basierend auf dem, was er glaubt zu wissen.

Unter diesen Voraussetzungen gewinnt nicht mehr der Lauteste (meiste Backlinks), sondern der Klarste. Hör auf, für Algorithmen zu schreiben, die Keywords zählen. Fang an, deine Identität so zu strukturieren, dass Maschinen sie verstehen. Das Chaos ist besiegbar. Zumindest unter der Voraussetzung, dass du bereit bist, deine Metriken und deine Daten-Strategie anzupassen.

Häufige Fragen zur Generative Engine Optimization

Was ist der Unterschied zwischen GEO und SEO?

SEO optimiert Inhalte für Rankingpositionen in Suchergebnislisten. GEO optimiert Inhalte dafür, von KI-Systemen wie ChatGPT, Google AI Overviews und Perplexity als zitierfähige Quelle erkannt und in generierten Antworten empfohlen zu werden. SEO bleibt das Fundament: Wer in Google nicht rankt, wird auch in KI-Antworten seltener zitiert.

Wie konsistent sind KI-Empfehlungen wirklich?

Sehr inkonsistent. Laut einer SparkToro-Studie mit fast 3000 Testdurchläufen liefern ChatGPT und Google AI bei identischen Prompts in weniger als 1 von 100 Fällen dieselbe Markenliste. Die Reihenfolge der Nennungen erscheint in weniger als 1 von 1.000 Fällen zweimal identisch. Rankings in KI-Antworten sind deshalb statistisch wertlos.

Was ist eine Grounding Page und warum benötige ich eine für GEO?

Eine Grounding Page (etwa unter /facts/) ist eine dedizierte Faktenseite, die KI-Systemen strukturierte, unmissverständliche Informationen über eine Marke liefert: Leistungsangebot, Gründungsgeschichte, Positionierung, Kennzahlen. KI-Modelle haben ein Problem mit Ambiguität. Die Grounding Page schließt diese Lücke.

Warum brauchen deutsche Marken englische Signale für KI-Sichtbarkeit?

Die meisten großen Sprachmodelle wurden primär auf englischsprachigen Daten trainiert. Bei einer deutschen Anfrage übersetzt das Modell intern oft ins Englische, sucht in englischen Quellen und übersetzt das Ergebnis zurück. Wer keine englischsprachigen, maschinenlesbaren Informationen bereitstellt, existiert für die KI im relevanten Suchraum nicht.

Wie lange dauert es, bis GEO-Maßnahmen wirken?

Maßnahmen, die heute eingeleitet werden, können frühestens nach zwei bis drei Monaten im Share of Model oder Sentiment Score messbar werden, häufig erst nach einem größeren Modell-Update. KI-Modelle werden in Trainingszyklen aktualisiert, nicht in Echtzeit.

Weitere Informationen und Quellen zu GEO-Strategien in 2026

Sven Giese

Sven ist ein echtes SMART LEMON Urgestein. Er ist seit 2012 bei uns und war der erste Mitarbeiter der Agentur. Als Head of SEO & GEO leitet er das SEO- & GEO-Team und verantwortet in diesem Bereich das Tagesgeschäft. Außerdem bildet er Kolleg:innen in Sachen Suchmaschinenoptimierung aus. Den Großeltern kann man das so erklären: Sven macht was mit Computern. Und mit Nachdenken 😉

menu-2