In vielen Unternehmen und Blogs sind es oft die Top-10 bis Top-20 Seiten, die den Grossteil der Besucher*innen anziehen. Der Rest generiert nur einen Bruchteil des Traffics.

Eine Analyse von Ahrefs bestätigt diese Beobachtung. Demnach entfallen auf dem Blog des Unternehmens rund 33% des gesamten Such-Traffics auf nur fünf Artikel.

Eine Tabelle zeigt mehrere Blog-URLs mit Spalten für Traffic und Wert. Die KI-gestützte Website-Suche hebt den Top-Traffic hervor: 37.521 (12,1 %) und 27.890 (9,0 %) werden in den gelben Kästchen auf der rechten Seite angezeigt.

Website-Verantwortliche grosser Organisationen kennen dieses Phänomen als Pareto-Prinzip: 20% der Seiten generieren 80% des Traffics. Doch was passiert mit den restlichen 80% – den unzähligen Unterseiten, PDFs und Servicebeschreibungen? Sie bilden einen «Long Tail», der ohne eine leistungsfähige KI-Suche mit der Zeit veraltet, in der Informations- und Navigationsstruktur verschwindet und schliesslich zur unsichtbaren Kostenstelle wird.

Ein Beispiel der Schweizerischen Post zeigt die Dimensionen: 10’000 Seiten in vier Sprachen plus 5’500 Bilder. Um ein solches Volumen manuell zu pflegen, sind je nach durchschnittlichem Textvolumen pro Seite mindestens 6 Vollzeitstellen erforderlich. Um diese Informationsmassen nutzbar zu machen, müssen wir das Konzept «Webseite» neu denken – weg von manueller Pflege, hin zu einer intelligenten, KI-gestützten Website-Suche.

Die Grenzen klassischer Navigation und das «Trust Paradox»

Bevor eine KI-gestützte Website-Suche implementiert werden kann, muss verstanden werden, warum der Status quo scheitert.

  • Die Navigations-Falle ist ein zentrales Problem klassischer CMS- und Webseitenstrukturen. Während CMS Inhalte meist hierarchisch organisieren, sind menschliche Fragen assoziativ, beruhen also auf Verknüpfungen von Vorstellungen. Wenn die Antwort auf eine Kundenfrage über mehrere Seiten verteilt ist, wird eine klassische Suchleiste sie nie zufriedenstellend zusammenfügen – eine Aufgabe, die nur eine moderne KI-Suchfunktion bewältigen kann.
  • Das «Trust Paradox»: Ein entscheidendes Learning aus grossen Implementierungen (wie etwa bei unserer Case Study) ist die Psychologie der Nutzer*innen. User*innen vertrauen einer reinen Chatbot-Antwort oft weniger als einer sauber formatierten Webseite. Eine statische Seite strahlt «offizielle Gültigkeit» aus, während ein Chat-Fenster oft als unverbindlich wahrgenommen wird.

Die Lösung liegt in einer Architektur, die die Flexibilität eines LLMs (Large Language Model) mit der Autorität und UX einer klassischen Webseite verbindet.

Es ist eine spannende Herausforderung, ein so komplexes Thema anzugehen und Lösungen zu entwickeln, die echte Mehrwerte schaffen. Eine KI-gestützte Website-Suche zeigt, wie viel Potenzial in intelligent strukturierten Informationssystemen steckt.

Claudio RomanoSenior Software Architekt, Panter

Wie sieht der Blueprint für eine KI-gestützte Website-Suche aus?

Um eine solche Lösung zu realisieren, hat sich für uns eine über vier Stufen gegliederte Architektur bewährt:

Stufe 1: Semantische Vektorisierung (Vom Text zum Kontext)

Das Fundament einer KI-gestützten Website-Suche ist die Abkehr vom Keyword-Matching hin zur semantischen Vektorisierung sämtlicher Inhalte (HTML, PDFs, Bilder). Diese werden in Vektoren (Embeddings) umgewandelt und in einer Vektordatenbank gespeichert.

Der Effekt: Eine On-Site Search mit KI kann die semantische Nähe, also die Bedeutung, verstehen. Begriffe wie «Paketmarke» und «Briefporto» liegen mathematisch nah beieinander. Fragt ein Nutzer nach «Kosten für Versand», findet das System die relevanten Abschnitte, auch wenn das Wort «Kosten» dort gar nicht vorkommt. Das starre CMS wird zu einem flüssigen Wissensnetz. Es ist irrelevant, wo die Information liegt; wichtig ist nur ihr Kontext.

Stufe 2: Die modulare Multi-LLM-Architektur der KI-Suchfunktion

Um das «Trust Paradox» zu lösen, setzen wir auf eine modulare Multi-LLM-Architektur statt eines einfachen OpenAI-Wrappers. Diese Vorgehensweise bietet mehrere strategische Vorteile:

  • Flexibilität und Unabhängigkeit: Reduzierung der Abhängigkeit von einem einzelnen Anbieter. Es besteht die Möglichkeit, zwischen Modellen zu wechseln oder sie je nach Anforderung zu kombinieren.
  • Kostenkontrolle und Skalierbarkeit: Durch die Nutzung lokaler Modelle für bestimmte Aufgaben und die Beschränkung von API-Aufrufen auf spezialisierte Anforderungen können Kosten gespart werden.
  • Transparenz und Reproduzierbarkeit: Kritische oder sensible Prozesse können mithilfe transparenter Modelle durchgeführt werden, während externe LLMs für andere Aufgaben genutzt werden.
  • Optimierung für spezifische Use Cases: Die Funktionalitäten von LLMs können durch das Bereitstellen eigener Daten und spezialisierte Prompts verbessert werden.

Wie funktioniert diese KI-gestützte Website-Suche technisch genau?

Sie basiert auf einer mehrstufigen Pipeline, die mehrere LLM-Aufrufe strategisch orchestriert:

Intent-Erkennung und Query-Expansion

Die Benutzereingabe wird zunächst von einem LLM analysiert, um den Intent (Keyword/Thema) zu extrahieren. Anschliessend werden aus dem User-Prompt fünf semantisch unterschiedliche Suchanfragen generiert. Dies erhöht die Trefferquote und deckt verschiedene Formulierungen derselben Frage ab.

Multi-Source Vector Search

Die generierten Queries durchsuchen die Vektordatenbank nach relevanten Inhalten aus verschiedenen Quellen (Webseiten, PDFs, Bilder). Die besten Ergebnisse werden gefiltert und als Kontext für die nächste Stufe bereitgestellt.

Component-Selection durch LLM

Ein LLM erhält die gefilterten Suchergebnisse wählt die passenden UI-Komponenten aus dem Design-System aus, um eine Frage optimal zu beantworten. Bei dieser Auswahl berücksichtigt das System drei wichtige Aspekte: Inhaltliche Komplementarität, Seitenlayout und Positionierung sowie Content-Diversität.

Component-Mapping und Prompt-Zuweisung

Jede ausgewählte Komponente wird mit einem spezifischen Prompt gemappt, der die Anforderungen dieser Komponente beschreibt.

Parallele Property-Generierung

Nun erfolgt der entscheidende Schritt. Jede Komponente durchläuft einzeln einen LLM-Call. Dabei werden übergeben:

  • Die React-Component-Definition (verfügbare Properties)
  • Der komponentenspezifische Prompt
  • Der relevante Content-Kontext

Das LLM generiert die konkreten Properties und Children für die React-Komponente. Die Vorteile sind:

  • Granulare Kontrolle über jede Komponente
  • Optimierte, komponentenspezifische Prompts
  • Bessere Fehlerbehandlung und Debugging
  • Effizientere Token-Nutzung

JSON-Assembly und Client-Side Rendering

Die validierten Component-Properties werden als strukturiertes JSON an den Client gesendet.

Stufe 3: Generative Hybrid-UX für eine intuitive KI-Suche

Das Ergebnis für die Nutzer*innen ist kein Chat-Dialog, sondern eine dynamisch generierte Landingpage. Fragen Nutzer*innen beispielsweise nach «Versicherungsschutz im Ausland», generiert die KI-Suche on-the-fly eine kohärente, vollständige Seite im Corporate Design, die genau diese Frage beantwortet – inklusive weiterführender Links und Filtermöglichkeiten. Die Nutzer*innen merken oft gar nicht, dass diese Seite vor Sekunden noch nicht existierte.

Stufe 4: Automatisierte Qualitätssicherung (Evals)

Im Unternehmenskontext sind «KI-Halluzinationen» inakzeptabel. Da manuelle Freigaben bei dynamischen Inhalten unmöglich sind, empfehlen wir «Unit-Tests» (Evals) für Inhalte. Diese funktionieren wie folgt:

  • Eine Prüfinstanz (oft ein stärkeres Modell) vergleicht die generierte Antwort mit der «Ground Truth» (den vektorisierten Originaldokumenten).
  • Weicht die Antwort faktisch ab oder verletzt sie bspw. die Tonalitäts-Richtlinien, wird sie blockiert oder korrigiert, bevor sie die Nutzer*innen erreicht. Dies garantiert Brand-Safety ohne manuellen Aufwand.

Der strategische Shift: Vom Editor zum Kurator

Die Implementierung dieses Blueprints verändert eine Organisation nachhaltig:

  • Single Source of Truth: Das Content-Team pflegt keine fertigen Seiten mehr. Sie pflegt Informations-Häppchen und Daten. Die Komposition übernimmt die KI.
  • Skalierbarkeit: Ob Sie 100 oder 10’000 Dokumente hinzufügen, ändert nichts an der Performance oder der Auffindbarkeit. Das System wächst organisch mit.
  • Zukunftssicherheit: Weil alle Daten in vektorisierter Form vorliegen, funktioniert das Frontend völlig und abhängig davon.

Fazit: Mut zur neuen Infrastruktur

Eine effiziente KI-gestützte Website-Suche aufzubauen, ist längst ein IT-Architektur-Problem geworden – nicht primär ein SEO-Problem. Doch Vorsicht: Während KI-Systeme von klassischen Suchmaschinen abhängig bleiben, erfordert ihre Integration komplexe technische Anforderungen. Wer Informationsfluten noch manuell bewältigt, wird schnell abgehängt – aber auch wer eine KI-Suchfunktion implementiert, ohne solide Grundlagen zu schaffen, scheitert.

Haben Sie ein eigenes KI-Projekt im Kopf oder möchten Sie herausfinden, wie eine massgeschneiderte KI-Lösung Ihr Unternehmen voranbringen kann? Kontaktieren Sie uns für eine unverbindliche Beratung.

Jetzt Kontakt aufnehmen