Transparent & Reproduzierbar

So messen wir AI Visibility

Jeder Score, den wir anzeigen, basiert auf echten KI-Modell-Antworten, nicht auf Schätzungen. So funktioniert unser Scoring - keine Black Boxes.

Systemarchitektur

50.000+ Prompts
200+ Kategorien
4 KI-Modelle
Parallele Abfragen
NLP-Analyse
Entity-Extraktion
AI Score
Skala 0-100
Datenquellen

4 Modelle. Echtzeit-Abdeckung.

100%
Abdeckung
ChatGPTGPT-4o
42%
ClaudeClaude 3.5
24%
GeminiGemini 2.0
22%
PerplexitySonar Pro
12%
ChatGPT
GPT-4o
42%
Abfrageanteil
Claude
Claude 3.5
24%
Abfrageanteil
Gemini
Gemini 2.0
22%
Abfrageanteil
Perplexity
Sonar Pro
12%
Abfrageanteil
Pipeline

Vom Prompt zum Score in 4 Schritten

01

Prompt-Generierung

Wir pflegen eine Bibliothek von über 50.000 Prompts in mehr als 200 Kategorien, die wöchentlich aktualisiert wird, um reale Suchmuster der Nutzer abzubilden.

~8.000 neue Prompts/Woche
02

Multi-Modell-Abfrage

Jeder Prompt wird gleichzeitig an alle 4 KI-Modelle über ihre aktuellen APIs gesendet. Die Temperatur ist für Reproduzierbarkeit auf 0 gesetzt.

Temperatur: 0.0
03

Antwort-Parsing

Eine proprietäre NLP-Pipeline extrahiert Markenerwähnungen, Kontext, Position, Sentiment und Empfehlungssignale aus jeder Antwort.

< 200 ms pro Antwort
04

Score-Berechnung

Ein gewichteter Scoring-Algorithmus kombiniert alle 5 Komponenten zu einem einzigen AI Visibility Score von 0-100, normalisiert innerhalb der Kategorie.

Aktualisierung alle 24 Std.
Scoring-Framework

5 Komponenten. 1 Score.

Der AI Visibility Score (0-100) ist ein gewichteter Gesamtwert aus fünf unabhängigen Metriken, die jeweils eine eigene Dimension der Markenpräsenz in KI-generierten Antworten messen.

Gewichtungsverteilung

30%
25%
20%
15%
10%
Erwähnungshäufigkeit
Empfehlungsstärke
Sentiment Score
Share of Voice
Prompt-Abdeckung
30%
Erwähnungshäufigkeit

Wie oft die Marke in KI-generierten Antworten für relevante Anfragen erscheint

MF = (brand_mentions / total_responses) × 100
25%
Empfehlungsstärke

Ob die KI die Marke als erste Wahl, Alternative oder beiläufige Erwähnung positioniert

RS = Σ(position_weight × mention_context) / n
20%
Sentiment Score

NLP-Analyse, wie positiv die KI die Marke beschreibt

SS = (positive_signals − negative_signals) / total_signals
15%
Share of Voice

Markenerwähnungen im Vergleich zu Wettbewerbern in derselben Kategorie

SoV = brand_mentions / Σ(all_competitor_mentions) × 100
10%
Prompt-Abdeckung

Breite der Anfragetypen, die Markenerwähnungen über Kategorien hinweg auslösen

PC = unique_triggering_prompts / total_tracked_prompts × 100
Finale Score-Berechnung
AI Score = 0.30×MF + 0.25×RS + 0.20×SS + 0.15×SoV + 0.10×PC

Scores werden innerhalb jeder Branchenkategorie auf 0-100 normalisiert, um einen fairen markenübergreifenden Vergleich zu ermöglichen.

Validierung

Statistisch fundiert

Wir validieren unsere Methodik gegen menschliche Expertenbewertungen und statistische Benchmarks, um Genauigkeit und Zuverlässigkeit sicherzustellen.

0,94
Inter-Rater-Reliabilität

Übereinstimmung zwischen unserem automatisierten Scoring und menschlicher Expertenbewertung (Cohens κ)

±1,2
Test-Retest-Stabilität

Durchschnittliche Score-Varianz bei erneuter Ausführung derselben Prompts innerhalb von 24 Stunden

0,87
Cross-Modell-Korrelation

Pearson-Korrelation zwischen Marken-Visibility-Scores über verschiedene KI-Modelle hinweg

200+
Kategorie-Abdeckung

Branchenkategorien mit statistisch signifikanten Stichprobengrößen (n > 500 Prompts)

Reproduzierbarkeitsgarantie

Alle KI-Modell-Abfragen verwenden Temperatur 0.0 und deterministische API-Einstellungen. Jeder Datenpunkt ist mit Zeitstempel versehen und gespeichert. Enterprise-Kunden können Rohdaten der Antworten für jeden Score anfordern, um unsere Berechnungen unabhängig zu überprüfen. Wir setzen auf Vertrauen durch Transparenz.

Sehen Sie die Methodik in Aktion

Geben Sie Ihre Marke ein und erhalten Sie einen echten AI Visibility Score, der mit der hier beschriebenen Methodik berechnet wurde.