BLOG
March 30th 2026

Herberts Welt #21

Herberts Welt #21

Wir präsentieren Ausgabe No. 21 der Mafo.de-Kolumne "Herberts Welt"! 

Unser CEO Herbert Höckel spricht über ein wachsendes Datenqualitätsproblem durch KI-Bots, synthetische Panels und AI-assisted Fraud. Seine Lösungen dafür: Bessere Respondent Experience, ganzheitliches Qualitätsmanagement und mehr „Care-Arbeit“ entlang des gesamten Survey-Lifecycles. Respekt, Sorgfalt und echte Teilnehmende also statt bloßer Simulation. Viel Spaß beim Lesen! 

Herberts Welt #21

Care-Arbeit statt synthetischer Bequemlichkeit: Datenqualität von Online-Umfragen im Spannungsfeld zwischen KI, Bots und Respondenten.

Gefühlt noch gar nicht so lange her hatten wir in Online-Umfragen ein klares Feindbild: Speeder, Straightliner und bewusste Betrüger. Doch heute ist das alles wesentlich schicker verpackt. Jetzt reden wir über KI-Bots, AI-assisted Fraud und über - als vermeintliche Rettung - synthetische Panels. Also künstliche Probanden als Antwort auf falsche (oder falsch-spielende) Teilnehmer. Ganz ehrlich: Auf so was muss auch erst einmal kommen.

Das eigentliche Problem ist jedoch real und ziemlich groß. 2025 veröffentlichte ein Team von Marktforschern aus Indien eine internationale Befragung unter 117 Marktforschenden aus 18 Ländern. Das ernüchternde Ergebnis: 60% berichteten von Datenqualitätsproblemen, 83% arbeiteten ohne Data Quality Score Modell und nur etwa die Hälfte nutzte überhaupt Sample Management Tools zur Betrugserkennung. Zudem vernachlässigte ein erheblicher Teil Basics wie Trap Questions, Logic Checks oder das Prüfen von Speeding und Ausreißern. 

Die Autoren brachten das folgendermaßen auf den Punkt: „This highlights a critical gap in the industry and underscores the urgent need for improved data quality standards and methodologies.“ Oder auf Deutsch: Wir haben ein Qualitätsproblem statt eine Qualitätskultur. 

Alter Bias – jetzt aber frisch poliert. 
Nun kommen synthetische Panels ins Spiel. Die Versuchung ist verständlich. Die Feldzeit ist knapp, das Budget unter Druck und die Quoten schwer erreichbar. Also lässt man sich fehlende Befragte modellieren. Klingt modern und irgendwie auch wissenschaftlich, ist aber brandgefährlich. Denn künstliche Respondenten erzeugen bekanntermaßen keine neue Wirklichkeit. Stattdessen reproduzieren sie dieselben Verteilungen und Korrelationen, die früher bereits erhoben wurden. Wer also mit einer kleinen oder verzerrten Stichprobe startet, kommt durch synthetische Ergänzungen der Wahrheit vermutlich kaum näher, sondern zementiert womöglich schon vorher verfälschte Ergebnisse. 

Das ist kein Fortschritt. Das ist alter Bias - nur jetzt mit frisch polierter Oberfläche. Steven Millman schrieb 2025 auf Quirk’s, dass KI generierte Imputationen noch keine sauber belastbaren Fehlermargen liefern. Statistische Tests werden damit schnell zur Scheingenauigkeit. 

Auch die succeet - gerade erst vorbei - spiegelte größtenteils die gleiche Einsicht wider: Wirklich alle Marktforschungsprozesse lassen sich mehr oder weniger weg-technisieren. Nur der Mensch in der Mitte nicht. Der wird bleiben müssen, ob wir wollen oder nicht.

Wir wollen Forschung über Menschen, keine simulierte Plausibilität.
Besonders problematisch sind synthetisierte Daten dort, wo Forschung ihren größten Wert entfaltet: Bei neuen Erkenntnissen! Ob zu neuen Produkten, neuen Spannungen im Markt, neuen kulturellen Codes oder neuen Widersprüchen im Konsum-Verhalten. Genau dort stoßen synthetische Teilnehmer an ihre Grenzen. Denn sie können nur aus der Vergangenheit ableiten. Sie kennen Muster, aber keine Überraschung oder Umwege. Sie erkennen Korrelation, aber kein echtes Erleben und keine kausalen Zusammenhänge. Sie simulieren Plausibilität, aber keine Gegenwart und schon gar keine Zukunft. Und Hand aufs Herz: Wer in der Marktforschung nur das bestätigt haben will, was ohnehin schon in alten Daten steckt, kann es auch gleich sein lassen. Oder verlässt sich eben blind auf ChatGPT & Co. Viel Spaß dabei! 

Frage: Entscheiden wir uns trotz aller KI-Versuchungen dafür, der Wirtschaft und Gesellschaft weiterhin echte Erkenntnisse zu liefern? Das hoffe ich doch! Meine eigene Überzeugung dabei: Marktforschung ohne echte Menschen ist keine Marktforschung. Sie ist Modellrechnung. Vielleicht nützlich, vielleicht schnell und vielleicht sogar hübsch anzuschauen, aber eben keine Forschung über Menschen, sondern "Annahmen" über Menschen.

Blackboxing statt transparenter Forschung.
Mein geschätzter Kollege Dirk Engel formulierte erst vor ein paar Tagen sehr richtig in seiner eigenen Kolumne auf Marktforschung.de: KI-Systeme „erkennen Muster und liefern schnelle, plausible Antworten. Doch der Weg dorthin bleibt verborgen, was KI-Kritiker als „Blackboxing“ bezeichnen.“

Genau dort liegt der Punkt. Das Forschungsobjekt Mensch bleibt also das Zentrum unseres Fachs, nicht der Bot, nicht das Dashboard und auch nicht das statistisch hochgetunte Kunstprodukt. Wer die Aufgabe von aufwändig zu erhebenden Daten mit synthetischen Respondenten lösen will - egal wie präzise die Personas auch gezeichnet sein mögen - löst kein Qualitätsproblem, sondern verschiebt es nur auf eine andere Ebene. Was also tun?

Erstens: Respondent Experience und Care-Arbeit endlich als Qualitätsstrategie begreifen.
Care-Arbeit - laut Wikipedia ein Begriff zwischen "caring about", also sich emotional sorgen, und "taking care of", also aktive Führsorge und Verantwortlichkeit für Menschen. Klingt wie DAS Rezept für uns Marktforscher!

Allerdings sprechen wir in unserer Branche gern über Datenqualität, als ginge es nur um Technik. Tut es nicht. Es geht auch um Höflichkeit, Respekt, Barrierefreiheit, Fairness, vernünftige Länge und klare Kommunikation. Auch um transparente Incentives und um die Möglichkeit, eine Befragung jederzeit verlassen zu können, ohne sich durch den digitalen Busch kämpfen zu müssen. 

Die Insights Association bringt es im „Participant Bill of Rights“ auf den Punkt: Schlechte Teilnehmererfahrungen schaden der Datenqualität im gleichen Ausmaß wie vorsätzlicher Betrug. Begegnen wir den Teilnehmern jedoch mit Respekt, schenken diese uns ihr Vertrauen und damit bessere Daten, höhere Completion Rates und alle zusammen eine engagiertere Community. Es gilt: Wer Menschen wie Verschleißmaterial behandelt, darf sich über Verschleiß in den Daten nicht wundern. 

Zweitens: Qualität braucht es vor, während und nach dem Interview.
Die Zeit isolierter Einzelmaßnahmen ist vorbei. Ein Captcha hier, ein Attention Check dort und dann ein Stoßgebet Richtung Tabellenband reicht nicht mehr. Der Markt zeigt längst, wohin die Reise geht: Anbieter kombinieren heute Pre-Survey Fraud Prevention mit In-Survey Fraud Detection, Response Scoring, Verhaltensanalysen, Open-End Prüfungen, Timing Mustern und Dubletten Erkennung. Die Übernahme von ReDem durch Rep Data im Februar 2026 ist genau deshalb interessant. Nicht wegen eines neuerlichen Mergers, sondern wegen des Signals dahinter: Qualität ganzheitlich entlang des GESAMTEN Survey Lifecycles zu denken und nicht nur als Ausputzer am Ende des Feldes. 

Drittens: Menschen verdienen bessere Rekrutierung statt sie (künstlich) zu ersetzen.
Die Zukunft liegt nicht im Ersetzen des Forschungsobjekts. Sie liegt in seiner besseren Erreichbarkeit. Wer für seine Kunden schwer zugängliche Zielgruppen braucht, muss mehr Zeit, Personal und Geld in Panelpflege, Recontact Strategien, Profiling Qualität, Community Aufbau und sauber designte Befragungen investieren. Ja, bei letzterem kann KI helfen. Bei der Fragebogenprüfung und Logikcheck, oder bei der Analyse offener Antworten. Auch für Simulationen und frühe Hypothesentests wird sie mehr und mehr zum nützlichen Werkzeug. 

Doch zwischen nützlichem Werkzeug und synthetischen Panels als Ersatz für echte Befragte liegt ein gewaltiger Unterschied. Den sollten und dürfen wir bitte nicht aus Bequemlichkeit verwischen. 

Ein Appell für echte Menschen statt künstlicher "Gewissheit"!
Die sicherlich anstrengende Wahrheit lautet: Nicht synthetische Panels sind die Lösung, sondern mehr Aufmerksamkeit und damit Respekt für die Teilnehmenden mittels sorgfältiger, methodisch sauberer Disziplin. Die Menschen bleiben also im Fokus, so altmodisch das klingt.

 Am Ende wollen wir doch hoffentlich nicht wissen, was ein Algorithmus für wahrscheinlich hält. Wir wollen vielmehr wissen, was Menschen denken, fühlen, hoffen, ablehnen und warum sie oft etwas ganz Anderes tun als sie vorher gesagt haben. Stichwort: Ambiguitätstoleranz. Nicht nur das macht Marktforschung spannend, faszinierend aber auch herausfordernd zugleich. Und genau deshalb bleibt der Mensch unser wichtigster Datenträger. Zum Glück! 


Quellen:

https://researchworld.com/articles/case-study-navigating-through-data-quality-challenges-in-market-research

https://www.insightsassociation.org/Resources/Data-Quality-Standards/Participant-Bill-of-Rights

https://www.quirks.com/articles/exploring-the-challenges-and-potential-of-synthetic-data-and-survey-participants

https://repdata.com/blog/rep-data-acquires-redem-to-deliver-end-to-end-survey-data-quality/



Herbert Höckel

Herbert Höckel is a managing partner here at moweb research GmbH. He has been a market researcher for more than 25 years. In 2004 he founded moweb GmbH, which he is still the owner today. moweb from Düsseldorf operates internationally and is one of the first German market research institutes specializing in digital processes.

You are welcome to purchase his book "Customer Centricity Mindset ® - Really Understand Customers, Master Disruption Successfully" here.

Your success, our goal!