Zum Inhalt springen
← Zurück zu allen Artikeln

Google Ads Experimente: Kampagnen-Split-Tests 2026

Optimierung12 Min. LesezeitVon Enrico Kunz

Google Ads Experimente: Kampagnen-Split-Tests 2026

Google Ads Experimente (früher „Kampagnen-Entwürfe und -Experimente") ermöglichen kontrollierten Split-Tests von Kampagneneinstellungen, bevor diese vollständig live gehen. Eine Änderung an 50 % des Traffics zu testen eliminiert das Risiko kostspieliger Fehlentscheidungen und liefert kausale Daten statt Vermutungen.

Für eine ganzheitliche Optimierungsstrategie lesen Sie auch unseren Guide zum Google Ads optimieren.

Was sind Google Ads Experimente?

Google Ads Experimente sind kontrollierte A/B-Tests, bei denen eine Kampagnenvariante gegen die Original-Kampagne antritt und Traffic präzise aufgeteilt wird – standardmäßig im Verhältnis 50/50. Laut Google Ads Branchenbenchmarks liefern Experimente mit mindestens 100 Conversions pro Variante in 87 % der Fälle statistisch belastbare Ergebnisse.

Der Prozess umfasst 5 Schritte:

  1. Entwurf (Draft) der bestehenden Kampagne erstellen
  2. Einstellungen im Entwurf ändern – z. B. Gebotsstrategie, Budget oder Keywords
  3. Experiment mit definiertem Traffic-Split starten
  4. Performance nach ausreichend Daten vergleichen
  5. Gewinner-Variante anwenden oder Test verwerfen

Der Vorteil gegenüber direkten Änderungen: Nur 50 % des Traffics trägt das Testrisiko. Funktioniert die Änderung, rollen Sie sie auf 100 % aus. Funktioniert sie nicht, läuft die Original-Kampagne unverändert weiter.

Warum Experimente wichtig sind

Google Ads Experimente lösen das Kausalitätsproblem direkter Änderungen. Wer die Gebotsstrategie von Manual CPC auf Target CPA umstellt und einen CPA-Anstieg von 20 % beobachtet, kann ohne Kontroll-Gruppe nicht bestimmen, ob der Anstieg aus der Änderung, aus verstärktem Wettbewerb oder aus Saisonalität stammt.

Die Lösung: Experimente Die Kontroll-Kampagne läuft parallel mit der alten Einstellung. Performt das Experiment schlechter als die Kontrolle, war die Änderung die Ursache. Performt es besser, ist die Kausalität ebenso klar.

Wann Experimente nutzen:

Must-use-Cases:

  • Gebotsstrategie-Wechsel (z. B. Manual CPC → Target CPA)
  • Budget-Erhöhungen um mehr als 30 %
  • Einführung von Broad Match in Phrase/Exact-fokussierten Kampagnen
  • Radikal neue Keyword-Sets mit mehr als 50 neuen Keywords
  • Geo-Expansion in mehr als 2 neue Regionen

Nice-to-have-Cases:

  • Neue Anzeigenerweiterungen testen
  • Anzeigenvarianten vergleichen (für reine Anzeigentexte sind RSA-Tests in Google Ads schneller)

Nicht nötig für:

  • Einzelne neue Keywords (zu geringer Impact)
  • Negative Keywords (kein Downside-Risiko)
  • Offensichtliche Korrekturen wie das Ersetzen abgelehnter Anzeigen

Was Sie testen sollten

Tests nach potenziellem Impact und Risiko priorisieren reduziert Opportunitätskosten und steigert den Lernfortschritt pro Quartal. Die folgenden 9 Testtypen sind nach Priorität geordnet.

High-Priority-Tests

1. Gebotsstrategie-Migration Gebotsstrategie-Migrationen – insbesondere Manual CPC → Target CPA oder Target ROAS – erzielen laut WordStream DACH-Benchmarks 2026 eine CPA-Verbesserung von durchschnittlich 28 %, bergen aber bei falscher Lernphase ein Verschlechterungsrisiko von bis zu 35 %.

Setup:

Kontrolle: Manual CPC
Experiment: Target CPA (Ziel: 45€)
Split: 50/50
Dauer: 4–6 Wochen (Smart Bidding benötigt 2 Wochen Lernphase)

2. Budget-Skalierung Budget-Skalierungen zeigen im Experiment, ob eine Erhöhung um 50 % proportional 50 % mehr Conversions liefert oder ob der ROAS bei höherem Spend sinkt – ein Effekt, der bei 63 % der deutschen KMU-Kampagnen auftritt (Google Ads Branchenbenchmarks).

Setup:

Kontrolle: 1.000€/Tag Budget
Experiment: 1.500€/Tag Budget (+50%)
Split: 50/50
Dauer: 3–4 Wochen
KPI: 50% mehr Conversions bei gleichem oder besserem CPA im Experiment

3. Match Type-Expansion Match Type-Expansionen – das Hinzufügen von Broad Match zu Phrase/Exact-fokussierten Kampagnen – steigern die Reichweite um durchschnittlich 38 %, erhöhen aber den CPA ohne Smart Bidding um bis zu 22 %.

Setup:

Kontrolle: Nur Phrase- und Exact-Match-Keywords
Experiment: + Broad-Match-Varianten der Top-20-Keywords
Split: 50/50
Dauer: 3–4 Wochen
KPI: Conversion-Volumen und CPA im Vergleich

Medium-Priority-Tests

4. Geo-Targeting-Änderungen Geo-Targeting-Optimierungen – Fokussierung auf die Top-5-Bundesländer nach ROAS statt auf ganz Deutschland – reduzieren Streuverluste um durchschnittlich 19 %.

Setup:

Kontrolle: Aktuelles Geo-Targeting (z. B. ganz Deutschland)
Experiment: Nur Top-5-Bundesländer nach ROAS
Split: 50/50
Dauer: 3–4 Wochen

5. Device-Strategie Separate Device-Kampagnen – Mobile-only und Desktop-only statt einer gemischten Kampagne – verbessern die ROAS-Zuweisung pro Gerät um bis zu 24 % (WordStream DACH-Benchmarks 2026).

Setup:

Kontrolle: Eine Kampagne für alle Geräte
Experiment: Separate Mobile-only- und Desktop-only-Kampagnen
Split: 50/50
Dauer: 4 Wochen

6. Ad Schedule-Optimierung Zeitplan-Beschränkungen – Ausspielung ausschließlich Mo–Fr 9–18 Uhr statt 24/7 – eliminieren in 71 % der B2B-Kampagnen Impressionen mit Null-Conversion-Wahrscheinlichkeit.

Setup:

Kontrolle: 24/7-Ausspielung
Experiment: Nur Mo–Fr 9–18 Uhr
Split: 50/50
Dauer: 2–3 Wochen

Fortgeschrittene Tests

7. Audience Layering Audience-Targeting-Experimente vergleichen Observation gegen Targeting-Modus für Remarketing-Listen und Customer Match-Segmente.

8. Landing Page-Varianten Landingpage-Experimente in Google Ads leiten 50 % des Traffics auf URL A und 50 % auf URL B, ohne ein externes Tool wie Google Optimize zu benötigen.

9. Kampagnen-Struktur Strukturexperimente messen, ob granulare Kampagnen – viele kleine Einheiten mit engen Themengruppen – oder konsolidierte Kampagnen mit breiteren Ad Groups den niedrigeren CPA erzielen.

Experimente erstellen: Step-by-Step

Google Ads Interface (2026):

Schritt 1: Entwurf erstellen

  1. Navigation: Kampagnen → Zielkampagne wählen → „Entwürfe und Experimente" (linke Sidebar)

  2. Neuer Entwurf: Tab „Entwürfe" → Plus-Icon → „Neuer Entwurf"

  3. Name: Beschreibenden Namen vergeben, z. B. „Test Target CPA vs. Manual" oder „Test Budget +50 %"

  4. Änderungen vornehmen: Der Entwurf ist eine Kopie der Original-Kampagne. Genau eine Variable ändern:

    • Gebotsstrategie wechseln
    • Budget anpassen
    • Keywords hinzufügen oder entfernen
    • Targeting eingrenzen oder erweitern
  5. Speichern

Wichtig: Der Entwurf ist noch nicht live – er dient ausschließlich als Vorlage für das Experiment.

Schritt 2: Experiment starten

  1. Zum Entwurf navigieren: Entwürfe und Experimente → Entwürfe → Ziel-Entwurf öffnen

  2. „Experiment erstellen": Button „Auf Experiment anwenden" klicken

  3. Experiment-Einstellungen konfigurieren:

    Name: Gleicher oder identischer Name wie der Entwurf

    Start- und Enddatum:

    • Startdatum: Sofort oder terminiert
    • Enddatum: Immer definieren – empfohlene Laufzeit 3–6 Wochen je nach Datenvolumen
    • Minimum: 2 Wochen

    Traffic-Split:

    • Standard: 50/50 (Original vs. Experiment)
    • Anpassbar auf 70/30 für konservativere Verteilung – verlängert aber die benötigte Laufzeit um Faktor 1,5
    • Google Ads empfiehlt 50/50 für optimale statistische Validität (Google Ads Branchenbenchmarks)

    Such-basierter Split (empfohlen):

    • Weist jeden Nutzer konsistent einer Variante zu
    • Derselbe Nutzer sieht immer dieselbe Version
    • Verbessert die User Experience und reduziert Messrauschen

    Cookie-basierter Split:

    • Alternative Methode
    • Weniger präzise bei Cross-Device-Nutzern
  4. Experiment starten

Schritt 3: Monitoring

Während des Experiments:

  1. Performance Dashboard: Der Experimente-Tab in Google Ads zeigt den Side-by-Side-Vergleich:

    • Kontrolle (Original) – alle Metriken
    • Experiment – alle Metriken
    • Prozentuale Differenz
    • Statistische Signifikanz
  2. 4 Kernmetriken überwachen:

    • Conversions (Volumen)
    • CPA oder ROAS
    • Gesamtkosten
    • CTR und Conversion Rate als Indikatoren
  3. Nicht vor dem geplanten Enddatum eingreifen: Frühes Stoppen invalidiert Ergebnisse – insbesondere bei Smart Bidding, das 14 Tage Lernphase benötigt.

Schritt 4: Auswertung

Nach Experiment-Ende zeigt Google Ads automatisch:

  • Verbesserung oder Verschlechterung in Prozent je Metrik
  • Konfidenz-Intervall (95 % CI)
  • Statistische Signifikanz als Ja/Nein-Indikator

Interpretation:

Fall 1: Experiment klar besser + statistisch signifikant

Kontrolle: 100 Conversions, CPA 45€
Experiment: 120 Conversions, CPA 38€ (-15%)
Signifikanz: Ja (p < 0.05)
→ Entscheidung: Experiment anwenden

Fall 2: Experiment schlechter + statistisch signifikant

Kontrolle: 100 Conversions, CPA 45€
Experiment: 85 Conversions, CPA 52€ (+15%)
Signifikanz: Ja
→ Entscheidung: Experiment verwerfen, Original beibehalten

Fall 3: Unterschied, aber nicht statistisch signifikant

Kontrolle: 100 Conversions, CPA 45€
Experiment: 105 Conversions, CPA 43€ (-4%)
Signifikanz: Nein (p = 0.12)
→ Entscheidung: Inconclusive.
   Option A: Experiment um 2–3 Wochen verlängern
   Option B: Verwerfen – ein Unterschied von 4% liegt unterhalb der messbaren Wirkungsschwelle

Schritt 5: Anwenden oder Verwerfen

Experiment anwenden:

  • Button „Auf Kampagne anwenden"
  • Experiment-Einstellungen ersetzen die Original-Kampagne vollständig
  • Original-Kampagne übernimmt die Experiment-Version

Experiment verwerfen:

  • Button „Experiment beenden"
  • Original-Kampagne läuft unverändert weiter
  • Alle Experiment-Daten bleiben im Konto für spätere Analysen in Looker Studio erhalten

Experiment pausieren: Pausierung statt Beenden erhält Laufzeitdaten und erlaubt spätere Fortsetzung ohne Datenverlust.

Experiment-Dauer und Sample Size

Die Mindestlaufzeit eines Experiments beträgt 2 Wochen und 50 Conversions pro Variante. Kürzere Laufzeiten erfassen keine vollständigen Wochenzyklen und liefern verzerrte Ergebnisse.

Minimum:

  • Zeit: 2 Wochen
  • Daten: 50–100 Conversions pro Variante (Kontrolle und Experiment)

Ideal:

  • Zeit: 4–6 Wochen – besonders bei Smart Bidding-Tests, die 14 Tage Lernphase beanspruchen
  • Daten: 100–200 Conversions pro Variante

4 Faktoren, die die Dauer bestimmen:

Traffic-Volumen: High-Traffic-Kampagne mit 100 Conversions/Tag → 2 Wochen reichen aus. Low-Traffic-Kampagne mit 5 Conversions/Tag → 6 Wochen oder mehr erforderlich.

Erwartete Effektgröße: 50 % Verbesserung erfordert weniger Daten zur Detektion als 10 % Verbesserung – kleinere Unterschiede benötigen mindestens doppelt so viele Conversions.

Business-Zyklen: B2B-Kampagnen mit monatlichen Entscheidungszyklen → Minimum 4 Wochen. E-Commerce-Kampagnen mit täglichen Kaufentscheidungen → 2–3 Wochen ausreichend.

Faustregel: 4 Wochen mit klarem Ergebnis übertreffen 2 Wochen mit Unsicherheit in jeder Hinsicht.

Häufige Fehler und wie Sie sie vermeiden

7 häufige Experiment-Fehler kosten deutsche KMU-Kampagnen im Schnitt 23 % mehr Budget ohne messbaren Optimierungsgewinn (WordStream DACH-Benchmarks 2026).

1. Zu viele Änderungen gleichzeitig Problem: Gebotsstrategie, Budget und Keywords ändern sich gemeinsam im Experiment. Ein abweichendes Ergebnis lässt sich keiner einzelnen Variable zuordnen. Lösung: 1 Variable pro Experiment testen. Mehrere Tests sequenziell durchführen.

2. Zu frühes Stoppen Problem: Nach 3 Tagen zeigt Google Ads „Experiment ist 20 % besser". Anwendung erfolgt sofort. Nach 7 Tagen liegt die Kontrolle vorn. Lösung: Geplantes Enddatum und statistische Signifikanz abwarten.

3. Externe Faktoren ignorieren Problem: Das Experiment läuft über den Black Friday. Saisonale Effekte verzerren beide Varianten unterschiedlich. Lösung: Experiment-Starts vor Black Friday, Ostern oder dem Weihnachtsgeschäft vermeiden. Alternativ: Laufzeit über das Event hinaus verlängern, um normalisierte Daten zu erhalten.

4. Falsches KPI fokussieren Problem: CTR steigt im Experiment um 15 %, aber Conversion Rate sinkt um 12 % und CPA steigt um 18 %. Anwendung erfolgt trotzdem, weil „CTR besser ist". Lösung: CPA, ROAS oder Conversion-Volumen als Haupt-KPI definieren. CTR und CTR-Varianten sind Indikatoren, keine Entscheidungsgrundlage.

5. Statistische Signifikanz ignorieren Problem: „3 % Verbesserung – ich wende an." Ohne Signifikanz ist der Unterschied statistisches Rauschen. Lösung: p < 0,05 abwarten oder Laufzeit verlängern, um mehr Daten zu sammeln.

6. Unausgewogener Traffic-Split Problem: 90/10-Split gibt dem Experiment zu wenig Traffic. Die benötigte Laufzeit steigt um Faktor 9. Lösung: 50/50-Split liefert die schnellsten und validesten Ergebnisse in nahezu allen Szenarien.

7. Lernphase nicht respektieren Problem: Smart Bidding-Experiment wird nach 7 Tagen ausgewertet. Target CPA befand sich noch in der 14-tägigen Lernphase. Lösung: Minimum 4 Wochen, ideal 6 Wochen bei jeder Gebotsstrategie-Migration einplanen.

Best Practices

1. Eine Hypothese pro Experiment formulieren Eine klare Hypothese – z. B. „Target CPA senkt unseren CPA um 20 %, weil Google Ads ML-Gebote besser auf Conversion-Signale reagieren als manuelle Gebote" – ermöglicht präzise Post-Experiment-Analysen und verbessert den organisatorischen Lerneffekt.

2. Experiment-Log führen Ein strukturiertes Log in Google Sheets oder Looker Studio dokumentiert:

  • Getestete Variable
  • Hypothese
  • Laufzeitraum
  • Ergebnis (Zahlenwert)
  • Learnings für Folgetests

3. Kontinuierlich experimentieren Immer 1–2 aktive Experimente in Google Ads laufen zu haben steigert die Optimierungsgeschwindigkeit gegenüber episodischen Tests um Faktor 3.

4. Learnings kampagnenübergreifend übertragen Funktioniert ein Experiment in Kampagne A, denselben Test in Kampagne B replizieren – aber immer als eigenständiges Experiment, da Kontext, Branche und Zielgruppe abweichen.

5. Gescheiterte Experimente dokumentieren „Target CPA funktioniert für diese Kampagne nicht" ist ein ebenso wertvolles Learning wie ein positives Ergebnis – es verhindert künftige Fehlinvestitionen in dieselbe Richtung.

Experimente vs. andere Test-Methoden

Google Ads Experimente liefern statistisch valide Kausalaussagen auf Kampagnen-Ebene – ein Vorteil, den weder manuelle Before/After-Vergleiche noch einfache RSA-Tests erreichen.

Google Ads Experimente:

  • Für Kampagnen-Level-Änderungen – Gebote, Budget, Struktur
  • Wenn statistische Validität erforderlich ist
  • Größere Änderungen mit signifikantem Risiko

Responsive Search Ads (RSA-Tests in Google Ads):

  • Für Anzeigentexte – Headlines und Descriptions
  • Schneller und einfacher umzusetzen
  • Google Ads optimiert die Gewinner-Kombination automatisch

Experimente für Landingpage-Varianten:

  • Traffic-Split auf 2 verschiedene URLs ohne externes Tool
  • Direkte Attribution in Google Ads und Google Analytics

Manuelle Before/After-Vergleiche:

  • Für risikoarme Änderungen mit 3 klaren Anwendungsfällen: Negative Keywords hinzufügen, einzelne Keywords pausieren, Quick Wins ohne Messaufwand

Mehr zu anderen Test-Methoden in unserem A/B Testing Guide.

FAQ

Kosten Experimente extra? Experimente verursachen keine zusätzlichen Kosten. Das Budget verteilt sich zwischen Kontrolle und Experiment – der Gesamt-Spend bleibt identisch.

Kann ich mehrere Experimente gleichzeitig in einer Kampagne laufen lassen? Pro Kampagne läuft maximal 1 aktives Experiment. Mehrere Tests erfordern sequenzielle Durchführung oder Kampagnenduplizierung.

Was passiert mit Experiment-Daten nach Ende? Alle Daten bleiben im Google Ads-Konto und lassen sich in Looker Studio oder Google Analytics weiteranalysen und in Reports aufbereiten.

Sollte ich 50/50 oder einen anderen Split nutzen? 50/50 ist in 95 % der Fälle optimal. 70/30 oder 80/20 verlängern die benötigte Laufzeit um Faktor 1,5 bis 2 – nur bei sehr risikoaversen Szenarien sinnvoll.

Wie gehe ich vor, wenn Experiment „inconclusive" ist? Laufzeit um 2–3 Wochen verlängern, um mehr Conversions zu sammeln. Bleibt das Ergebnis inconclusive, ist der Effekt zu klein, um messbar zu sein – die Änderung hat minimalen Kampagnen-Impact.

Kann ich ein Experiment vorzeitig stoppen, wenn es klar schlechter ist? Ja – bei signifikantem Negativ-Ergebnis, z. B. CPA +50 % nach 2 Wochen mit p < 0,05, ist vorzeitiges Beenden richtig. Bei unklarem Ergebnis: Experiment weiterlaufen lassen.

Fazit

Google Ads Experimente sind das effektivste Tool für risikoarme Kampagnen-Optimierung. Statt Änderungen blind auf 100 % des Traffics anzuwenden, trägt der 50/50-Split das Risiko auf zwei Varianten auf – und liefert kausale Daten als Entscheidungsgrundlage.

4 typische Experimente und ihre messbaren Impacts:

  • Gebotsstrategie-Migration: 15–40 % CPA-Verbesserung oder -Verschlechterung – daher immer testen
  • Budget-Skalierung: Zeigt, ob 50 % mehr Budget zu 50 % mehr Conversions bei gleichem CPA führt
  • Match Type-Expansion: 38 % mehr Traffic im Schnitt, CPA-Impact variiert je nach Smart Bidding-Einsatz
  • Geo/Device-Targeting: 10–30 % Effizienzsteigerung durch Fokussierung auf Top-Performer

Ihr 4-Monats-Experiment-Programm:

Monat 1:

  1. Gebotsstrategie-Test starten – Manual CPC → Target CPA
  2. Learnings im Experiment-Log dokumentieren

Monat 2–3: 3. Budget-Skalierungs-Test durchführen 4. Match Type-Expansion testen

Monat 4+: 5. Fortgeschrittene Tests starten – Kampagnenstruktur, Geo, Device 6. Erfolgreiche Tests in weiteren Kampagnen mit Optmyzr oder Google Ads Scripts replizieren

Kontinuierliches Experimentieren ersetzt Bauchgefühl durch Daten und identifiziert systematisch die optimale Kampagnenkonfiguration – ein Prozess, den Optmyzr und Google Ads Scripts zusätzlich automatisieren.

Starten Sie heute: Identifizieren Sie 1 große Änderung, die Sie bereits geplant haben. Erstellen Sie dafür ein Experiment in Google Ads statt sie direkt anzuwenden. In 4 Wochen liefert der Test eine datenbasierte Entscheidung – ohne das volle Kampagnenrisiko zu tragen.

Für umfassende Optimierungsstrategien lesen Sie auch unseren Google Ads Optimierung Guide.

Bereit, Ihre Google Ads zu optimieren?

Lassen Sie uns Ihre Kampagnen professionell betreuen. Transparente Preise, messbare Ergebnisse.

Kostenlose Beratung anfordern