Eine Modul-Umfrage aufsetzen (mit Fragen-Beispielen)

Das beste Feedback, das du je von einem Käufer bekommst, kommt nicht aus einer Instagram-DM. Auch nicht aus einem 1:1 nach dem Kurs. Es kommt aus der Umfrage, die der Käufer direkt nach Abschluss eines Moduls ausfüllt — wenn der Content noch frisch ist und die Eindrücke konkret sind.

Hier etwas, das viele Creator nicht wissen: der Unterschied zwischen einem Creator mit 15 % Completion-Rate und einem mit 65 % liegt nicht an der Content-Qualität. Er liegt daran, dass der zweite immer weiß, wo die Käufer stecken bleiben, weil er Umfragen sammelt und anpasst.

In diesem Leitfaden zeige ich dir, wie du in audienced eine Umfrage nach einem Modul aufsetzt, welche Fragen sich lohnen und wie du die Ergebnisse in konkrete Verbesserungen überführst.

Unterschied zwischen Umfrage und Quiz

In audienced sind das zwei separate Lektionstypen.

  • Quiz — Wissensabfrage, hat richtige und falsche Antworten, Score, Bestehens-Schwelle.
  • Umfrage — Meinungsabfrage, ohne richtige Antworten, ohne Score, optimal für Feedback.

Die Umfrage ist per Definition unbewertet. Der Käufer füllt aus, du siehst die Antworten, niemand ist als "falsch" markiert. Deshalb antworten Menschen ehrlicher.

Warum pro Modul und nicht pro Kurs

Viele Creator machen den Fehler, eine Umfrage ans Kursende zu setzen. Probleme:

  • Der Käufer ist schon aus dem Flow, die Motivation zum Antworten fällt.
  • Die Erinnerung an Modul 1 ist nach 4 Wochen verblasst.
  • Du kannst nicht mehr live nachjustieren — die Umfrage kommt erst nach Kursende.

Eine Umfrage nach jedem Modul (oder jedem zweiten):

  • Der Käufer ist noch warm, antwortet ehrlicher.
  • Die Erinnerung ist frisch.
  • Du erkennst Muster früh und reparierst Lektionen in laufenden Modulen, bevor der Kurs endet.

Schritt 1: Umfrage als letzte Lektion im Modul

Im Kurs-Editor das Modul öffnen, in dem du die Umfrage willst. Lektion hinzufügen → Typ Umfrage wählen.

Einstellungen:

  • Titel: "Feedback: Modul 1 — Instagram-Basics".
  • Beschreibung: "Bevor wir zum nächsten Modul gehen, gib mir eine Minute deiner Zeit. Deine Antworten formen direkt die nächsten Module."
  • Pflichtfeld: ja oder nein. Bei ja kommt der Nutzer nicht zu Modul 2, bis er ausgefüllt hat. Empfohlen für die Haupt-Feedback-Umfrage, nicht jedes Modul.
  • Anonymität: optional, ob Antworten an den Nutzer gebunden oder anonym sind.

Schritt 2: Fragen hinzufügen

audienced-Umfragen unterstützen dieselben Typen wie Quizzes, nur ohne richtige Antworten:

  • Einfachauswahl.
  • Mehrfachauswahl.
  • Likert-Skala (1–5, 1–10).
  • Offene Antwort.
  • NPS (Net Promoter Score) — 0–10 mit automatischer Segmentierung.

Mein empfohlenes 5-Fragen-Standard-Template pro Modul

F1: Likert 1–5

Wie klar waren die Konzepte in diesem Modul? 1 = sehr unklar, 5 = komplett klar

F2: Likert 1–5

Wie nützlich findest du das Gelernte? 1 = nicht nützlich, 5 = extrem nützlich

F3: Einfachauswahl

Welche Lektion war für dich am wertvollsten? [Liste der Modullektionen]

F4: Einfachauswahl

Welche Lektion war unklar oder hat nicht funktioniert? [Liste der Modullektionen + "Alle waren klar"]

F5: Offene Antwort

Was würdest du in diesem Modul ergänzen oder ändern?

Fünf Fragen, 90 Sekunden zum Ausfüllen, Schlüssel-Infos auf dem Tisch.

NPS-Frage — jedes dritte Modul

Nach jedem dritten Modul (oder mittendrin oder am Kursende) ergänze:

Wie wahrscheinlich würdest du diesen Kurs einer Freundin mit ähnlichen Bedürfnissen empfehlen? 0 (nie) — 10 (garantiert)

NPS-Ergebnis:

  • 9–10 = Promoter (empfehlen aktiv).
  • 7–8 = Passive (zufrieden, aber empfehlen nicht aktiv).
  • 0–6 = Detraktoren (unzufrieden, potenziell negative Word-of-Mouth).

NPS = % Promoter − % Detraktoren. Für Online-Kurse:

  • Unter 30 — braucht große Verbesserungen.
  • 30–50 — durchschnittlich.
  • Über 50 — exzellent.
  • Über 70 — elitär.

Schritt 3: Ergebnisse im Admin ansehen

Unter Kurse → dein Kurs → Umfragen siehst du pro Umfrage:

  • Anzahl der Antworten.
  • Durchschnittsscore für Likert-Fragen.
  • Verteilung für Einfachauswahl (Pie-Chart).
  • Liste der offenen Antworten.
  • NPS-Berechnung.

Beispiel, wie ich mit Lauras (Zadnja dieta) Ergebnissen arbeite:

Modul-3-Umfrage zeigt eine Durchschnitts-Nützlichkeit von 3,2/5, andere Module 4,5+. Die offenen Antworten sagen immer wieder: "Video-Lektion 3.2 ist zu schnell, zu viele Infos."

Action: Laura nimmt eine längere Ersatzvideo-Lektion für 3.2 auf, in zwei Teile geteilt. Im nächsten Monat springt die Durchschnitts-Nützlichkeit von Modul 3 auf 4,4.

Ohne Umfrage hätte sie das nicht gewusst. Keiner schreibt das in DM, weil sie im Flow weitergesprungen sind.

Was du mit NPS-Segmenten machst

Promoter (NPS 9–10)

  • Testimonial-Anfrage per Mail: "Danke für die 9/10. Würdest du 2 Sätze für unsere Seite schreiben?"
  • Affiliate-Einladung: "Dein Netzwerk würde das schätzen. 30 % Provision für Empfehlungen."
  • Upsell: "Nächster Schritt ist [Premium-Programm]. Promoter kriegen 20 % Rabatt."

Passive (NPS 7–8)

  • Frage, warum keine 10: "Danke. Was müsste anders sein, damit du 10 gibst?"
  • Wenn du Muster siehst, handele.

Detraktoren (NPS 0–6)

  • Sofort persönliche DM oder Mail: "Das war offenbar nicht, was du erwartet hast. Kann ich 10 Minuten mit dir haben, um zu verstehen?"
  • Nicht überreden. Zuhören und entweder den Content fixen oder Refund anbieten. Beides baut Reputation.

Der audienced-Filter Nutzer nach NPS-Score erlaubt Segmentierung mit einem Klick.

Fehler beim Erstellen von Umfragen

Zu viele Fragen

Eine 15-Fragen-Umfrage hat 20 % Completion-Rate. Eine 5-Fragen-Umfrage 85 %. Weniger ist mehr.

Geschlossene Fragen ohne "Sonstiges"

Immer "Sonstiges: ________" anbieten. Dort verstecken sich die wertvollsten Insights.

Suggestivfragen

"Wie sehr liebst du diese unglaubliche Lektion?" → voreingenommen. "Wie nützlich war sie?" → neutral.

Nicht jede Umfrage ist sinnvoll

Nach jedem Modul ist zu viel. Nach jedem zweiten Modul (oder nach wichtigen Kursphasen) ist Sweet Spot.

Du machst nichts mit den Ergebnissen

Sammeln ohne Aktion ist Zeitverschwendung. Feste Routine: einmal monatlich 30 Minuten Auswertung, 1–2 konkrete Verbesserungen wählen.

Häufige Fragen

Wie viele Leute füllen eine Umfrage wirklich aus?

Mit gutem Copy und Pflichtflag: 70–85 %. Ohne Pflicht: 30–50 %. Eine Post-Kurs-Umfrage ohne Incentive: 15–25 %.

Sollte ich Incentive fürs Ausfüllen geben?

Kannst du (Rabatt aufs nächste Produkt, exklusiver Bonus-Content), riskierst aber "all 5s"-Antworten ohne Substanz. Empfehlung: nein — kommuniziere klar, wie die Ergebnisse den Kurs formen.

Wie lang sollte die Umfrage sein?

60–120 Sekunden zum Ausfüllen. 5–7 Fragen.

Umfrage auch bei Gratis-Kursen (Freebie)?

Ja. Eine der wertvollsten Insight-Quellen für dein bezahltes Hauptprodukt.

Gibt es vordefinierte Umfrage-Templates?

Ja. In der Template-Bibliothek haben wir 5 erprobte Templates: Modul-Feedback, Kurs-Abschluss, NPS, Onboarding-Check, Pre-Launch-Umfrage.

Kann ich Umfragen pro Käufergruppe ansehen?

Ja. Im Admin filterst du nach Anmeldedatum, bezahltem Plan, Challenge-Kohorte. Nützlich beim Vergleich verschiedener Kurs-Versionen.

Was mit qualitativen Antworten — muss ich alle lesen?

Nein. Lies die ersten 20 per Hand, um Muster zu erkennen. Bei höheren Zahlen hilft dir KI — in audienced gibt es das AI-Summary-Feature, das 1.000 Antworten in 10 Kernthemen verdichtet.

Fazit

Eine Modul-Umfrage ist keine Admin-Funktion. Sie ist der direkteste Kanal vom Kopf des Käufers in deine Entscheidungen.

Creator, die wachsen, bauen Kurse nicht nach Bauchgefühl. Sie bringen Version 1 raus, sammeln Umfragen, bessern nach. Version 2 ist besser. Version 3 dominiert. Ohne Umfrage bleibst du bei Version 1 stecken.

Wenn dein aktueller Kurs keine einzige Modul-Umfrage hat, schlag ich dir vor: füg diese Woche eine hinzu. 20 Minuten Arbeit, unvergleichbarer Effekt.

Teste audienced 14 Tage kostenlos