AI Commerce Readiness im Stresstest: Was der Shopify-Scan über die Infrastruktur deutscher Top-Shops tatsächlich verrät
Shopify hat im April 2026 ein öffentliches Tool für AI Commerce Readiness ausgerollt. Wir haben es auf einen unserer eigenen K-Beauty-Shops und auf drei der größten deutschen Handelsplattformen angewendet. Die Zahlen sind nur die halbe Geschichte. Die strukturellen Befunde darunter sind die andere Hälfte — und die wiegt deutlich mehr.
Ein Shopify-Tool als ehrlicher Stresstest
Shopify hat im April 2026 den AI Commerce Readiness Scanner veröffentlicht. Das Tool prüft öffentlich zugängliche Signale einer Shop-Domain gegen ein Raster aus drei Hauptkategorien: Agent Discovery (können AI-Agenten den Shop überhaupt finden und betreten?), Product Intelligence (können sie den Katalog lesen und verstehen?), Transaction Readiness (können sie einen Kauf anbahnen?). Dazu kommen Store Quality und Operational Readiness als nicht-scoring-relevante Hygienefaktoren.
Dass dieses Tool von Shopify selbst kommt, ist methodisch nicht neutral. Es testet unter anderem Shopify-typische URL-Konventionen wie /policies/shipping-policy oder /pages/about. Non-Shopify-Stores, die andere URL-Strukturen nutzen, fallen dort systematisch durch. Das ist ein offener Bias, und er gehört vor jede Ergebnisdarstellung.
Gleichzeitig adressiert das Tool reale Standards, die unabhängig vom Hoster existieren: Schema.org-Markup, robots.txt-Policies, das aufkommende Universal Commerce Protocol (UCP), llms.txt, Open Graph, Sitemap-Discoverability. Das heißt: Hinter dem Score-Mechanismus steht ein echter Raster aus Signalen, die heute darüber entscheiden, ob ein Shop für ein Sprachmodell sichtbar ist oder nicht.
Ein Tool als Signal, nicht als Audit. Mit dieser Einordnung lassen sich die Ergebnisse sauber lesen. Das Tool ist öffentlich zugänglich unter commerce-readiness.shopify.io.
Die Scan-Ergebnisse im direkten Vergleich
Am 24. April 2026, innerhalb derselben Scan-Sitzung, haben wir vier Shops nacheinander durch den Shopify-Scanner laufen lassen:
- koreanische-kosmetik-shop.de: 90/100 — „AI-Ready”
- douglas.de: 57/100 — „Almost Ready”
- otto.de: 41/100 — „Getting There”
- amazon.de: 24/100 — „At Risk”
Bei den drei großen Plattformen markierte das Tool jeweils ausdrücklich: „Limited scan coverage — results may not reflect your full store.” Nur acht Seiten konnte der Scanner jeweils crawlen, keine Produktseiten wurden erkannt. Bei koreanische-kosmetik-shop.de wurden 14 Seiten gescannt, 27 Schema-Blöcke identifiziert, drei Policy-Seiten erfasst. Der Grund für die Diskrepanz ist strukturell nachvollziehbar: Große Plattformen setzen aggressive Bot-Detection-Systeme ein, die automatisierte Scanner routinemäßig abweisen.
Das bedeutet: Die absoluten Scores der drei Big Players sind methodisch verzerrt — ein Teil ihrer niedrigen Punktzahl kommt daher, dass der Scanner gar nicht vollständig crawlen konnte, nicht daraus, dass Inhalte fehlen. Direkt-Vergleiche auf Score-Ebene sind daher nur eingeschränkt belastbar.
Aber genau deshalb wird es interessant, was trotz dieser methodischen Einschränkung übrig bleibt.
Befund 1: Die bewusste oder ererbte Unsichtbarkeit
Der Scanner prüft unter der Kategorie „AI Bot Access”, welche AI-Crawler die robots.txt einer Domain zulässt oder blockiert. Getestet werden vierzehn bekannte Crawler — darunter die der wichtigsten generativen Sprachmodelle: GPTBot, ChatGPT-User, OAI-SearchBot (OpenAI), ClaudeBot, anthropic-ai, ClaudeWeb (Anthropic), PerplexityBot (Perplexity), Google-Extended (Google Gemini), Bytespider (ByteDance) und weitere.
Die Ergebnisse:
- koreanische-kosmetik-shop.de: lässt alle 14 AI-Crawler zu.
- douglas.de: lässt alle 14 AI-Crawler zu.
- otto.de: lässt alle 14 AI-Crawler zu.
- amazon.de: blockiert 9 der 14 Crawler über die robots.txt. Namentlich: GPTBot, ChatGPT-User, OAI-SearchBot, ClaudeBot, CCBot, Google-Extended, Bytespider, Meta-ExternalFetcher, PerplexityBot.
Das ist kein Scanner-Artefakt. Wer amazon.de/robots.txt im Browser öffnet, sieht die Disallow-Direktiven für diese User-Agents direkt im Quellcode. Ob Amazon diese Entscheidung aus Trainingsschutz, Inhaltskontrolle, Wettbewerbsüberlegungen oder technischen Gründen getroffen hat, lässt sich von außen nicht belastbar sagen. Für all diese Motivationen gibt es plausible Gründe.
Die Konsequenz bleibt unabhängig von der Motivation: In einer Welt, in der Verbraucher Produktempfehlungen zunehmend in ChatGPT, Perplexity und vergleichbaren Oberflächen einholen, bekommen die Crawler dieser Systeme von amazon.de per robots.txt das Signal: nicht abrufen. Seriöse Crawler halten sich an diese Anweisung. Was in diesen Systemen nicht indexiert wurde, wird auch nicht empfohlen. Der größte deutsche Marktplatz hat an dieser Kreuzung eine Richtung eingeschlagen, die die eigene Sichtbarkeit in Teilen der generativen KI-Landschaft einschränkt.
Befund 2: Die digitale Visitenkarte für Agenten
Das Universal Commerce Protocol (UCP) ist ein von Shopify vorangetriebenes, aufkommendes Interoperabilitätsformat, das es AI-Agenten erlaubt, an einer definierten URL (/.well-known/ucp) in standardisierter Form zu erfahren: Welcher Händler ist das? Welche Kapazitäten bietet er? An welchen Endpoints kann ein Agent mit ihm interagieren? Das Tool prüft, ob eine Domain einen funktionierenden UCP-Endpoint bereitstellt.
Die Ergebnisse im selben Scan:
- koreanische-kosmetik-shop.de: Valid UCP endpoint with merchant info, capabilities, and endpoints.
- douglas.de: No public UCP discovery endpoint detected.
- otto.de:
/.well-known/ucpreturned HTTP 406, response is not valid JSON. - amazon.de: No public UCP discovery endpoint detected.
UCP ist früh. Der Standard wird heute noch nicht von allen Agenten genutzt, und er ist noch nicht branchenweit ratifiziert. Aber die Richtung ist eindeutig: Standardis