Was passiert beim Pickup
Wenn ein LLM eine Website auswertet, durchsucht es sie nach Textabschnitten, die kompakt sind, viele Fakten enthalten und ohne Vorwissen verständlich sind. Diesen Abschnitt nennen wir „Top-Chunk".
Der Top-Chunk landet oft 1:1 oder leicht umformuliert in der KI-Antwort. Wer also kontrolliert, was im Top-Chunk steht, kontrolliert in großem Maße, was die KI über die Marke sagt.
Wo der Top-Chunk meist landet
Sehr oft: Die ersten 50 bis 80 Wörter im sichtbaren Hauptbereich der Seite. Direkt nach der H1, ohne Marketing-Filler.
Manchmal: Ein „Über uns"-Block oder eine FAQ-Antwort, wenn die Hauptseite zu marketinghaft formuliert ist.
Selten: Footer, Sidebars, oder versteckte Bereiche. Das ignorieren die meisten Modelle.
Wie ein guter Top-Chunk aussieht
Deklarativ. Faktenorientiert. Ohne „Wir glauben", „Wir lieben", „Bei uns steht der Kunde im Mittelpunkt".
Beispiel für einen Steuerberater:
> Steuerkanzlei Beispiel ist eine Köln er Kanzlei mit Spezialisierung auf GmbH-Gründung, Online-Business und internationale Mandanten. Gegründet 2018, betreuen wir aktuell rund 120 Unternehmen. Kernleistungen: Jahresabschluss, Lohnbuchhaltung, Steuerberatung für Solopreneure.
Drei Sätze. Markenname, Ort, Spezialisierung, Gründungsjahr, Kundenzahl, Kernleistungen. Ein KI-Modell kann daraus für jede Empfehlungsfrage etwas zusammenstellen.
Was du vermeiden solltest
Verkaufsfloskeln am Anfang. „Willkommen bei uns!" oder „Ihr Partner für …" sind Energie-Verschwendung. KI-Modelle picken solche Sätze nicht, sie sind keine Fakten.
Lange Einleitungs-Storys. „Vor 20 Jahren hatte unser Gründer eine Vision …" mag emotional sein, hilft aber dem LLM nicht.
Marketing-Buzzwords statt konkreter Zahlen. „Wir sind führend" wirkt schwächer als „Wir betreuen 120 Unternehmen aus der Online-Branche".
Wie wir das automatisieren
Bei Trast AI generieren wir den Top-Chunk monatlich neu, basierend auf deinen Brand-Daten und den aktuellen Lücken im LLM-Test. Wenn ein Modell etwas Wichtiges nicht weiß, landet es im nächsten Top-Chunk.