Quali-Forschung meets Social Data Science– und das Alles im Q Insight Cinema auf der #RR16

Im November finden in Berlin 2 Esomar Veranstaltungen statt: Die Global Qualitative 2016 und die Big Data World. Zeitlich eng beieinander, aber doch voneinander abgegrenzt. An beiden Konferenzen sind wir von Q vor Ort. Bei der Quali Konferenz stellt Kerstin Klär eine ethnografisches Gen Z Studie vor und bei der Big Data Konferenz ist Oliver Tabino als Digital Agent vor Ort.

Quali-Forschung und Big Data oder Data Science? Passt das zusammen? Für uns bei Q schon. Sogar sehr gut. Für uns sind das keine voneinander getrennten methodischen Forschungswelten. Wir denken nicht in Kategorien wie Qual vs. Quant. Oder Social Media vs. Qual. Oder Data Science vs. Qual? Wir denken darüber nach, wie wir Fragen und Herausforderungen unserer Auftraggeber lösen können. Gerade im Bereich der Social Media Ad Hoc Forschung stellen wir immer wieder fest, wie wichtig auch ein qualitatives Verständnis für die Analyse und Interpretation ist. Der Social Media Forscher wird zum Qual-Forscher und der Qual-Forscher zum Data Scientist. Das ist kein Widerspruch, sondern in unseren Augen ein unbedingtes Muss und Mehrwert für unsere Auftraggeber.

Und wenn wir an die Aufbereitung von Ergebnissen denken, dann macht das isolierte Denken in methodischen Kategorien erst recht keinen Sinn. Wir müssen eine Geschichte erzählen. Eine Geschichte aus Daten, Insights, Beobachtungen, Ableitungen, Interpretationen, Empfehlungen und Ideen oder Innovationen.

kino

Deswegen bringen wir das Q Insight Cinema auf die Research & Results. Lassen Sie sich auf dem Stand 211 von uns inspirieren. Und deswegen bieten wir auch 2 Workshops an. Qual und Social Data Science. Weil wir es können und wollen.

Verblüffend anders: Der Generation Z auf der Spur! Eine ethnographische Studie zeigt, wer sie sind und was sie wollen.

Mittwoch, 26.10.2016, 09.45-10.30 Uhr, Raum 2

Der Q Webanalyzer – mehr als ein Web-Monitoring. Online Bubbles, Netzwerke und Ad-hoc-Forschung im Web.

Donnerstag, 27.10.2016, 13.30-14.15 Uhr, Raum 4

Zahlreiche, weitere Infos zur weltgrößten Marktforschungsmesse finden Sie hier auf der Seite von Research & Results.

Advertisements

Visualisierung für Marktforscher. Eindrücke von einer Fachtagung des BVM am 26. September 2016 in Berlin.

Autor: Thomas Perry

Kürzlich hatte ich das Vergnügen, auf einer Fachtagung des BVM neben anderen Beitragenden zum Thema „Visualisierung von Daten: Bessere Analysen, schnellere Entscheidungen“ vortragen zu dürfen.

Für mich war das ein anregender Tag, weil er einen interessanten Einblick bot, wie das Thema Datenvisualisierung in der Marktforschung interpretiert wird. Natürlich ist eine solche Fachtagung kein repräsentatives Abbild der Visualisierungsbemühungen in der Marktforschungsbranche. Man bekam dennoch einiges davon mit, worauf sich die Branche in dieser Frage konzentriert. Einige meiner Eindrücke will ich hier gerne teilen.

Zunächst: Der Titel versprach insofern zu viel, als es kaum um schnellere Entscheidungen ging. Vorträge und abschließende Diskussion zeigten vor allem, dass Visualisierung die Analyse und die Vermittlung von Daten und ihren Inhalten verbessern kann. Das hilft ohne Zweifel den erfahrenen wie den weniger erfahrenen Datennutzern. Aber das Entscheiden steht auf einem ganz anderen Blatt. Denn schnell wurde klar, dass bessere Visualisierung nicht im Mindesten davon befreit, Daten richtig zu interpretieren, in ihrem Kontext zu verstehen und in ihrer Bedeutung für Entscheidungen gut abzuwägen. Zudem merkte man immer wieder, dass Visualisierung auch Inszenierung bedeutet, die die Gefahr der Manipulation bzw. bewussten oder unbewussten Irreführung einschließt. Entscheider müssen also mit Visualisierungen kritisch und bewusst umgehen. Das braucht Zeit.

Ein anderer Wert der Visualisierung von Daten, ihre didaktischen Möglichkeiten, war kein Schwerpunkt der Fachtagung und ist vermutlich auch keiner in der Marktforschung. Auch die Idee, dass wir mit neuen Formen der Visualisierung ganz neue Arten der Analyse und damit neue Insights schaffen können, stand nicht im Mittelpunkt. Dieser Aspekt war zwar der Schwerpunkt meines Beitrags zur Visualisierung in der Netzwerkanalyse, klang sonst aber nur gelegentlich in Beiträgen der nicht in der Marktforschung beheimateten Redner an. Die anderen drei Beiträge mit direktem Bezug zur Visualisierung in der Marktforschung beschäftigten sich vor allem damit, wie man aus den Daten der quantitativen Marktforschung schnell und effizient grafischen Output erzeugt und gleichzeitig Nutzern Zugang zu den Daten und ihren Inhalten verschafft. Mein Eindruck: Vor allem für größere und quantitativ ausgerichtete Institute, die sehr viele Daten an viele Nutzer distribuieren und darstellen müssen, ist Visualisierung ganz wesentlich auch ein Stichwort für Effizienzanstrengung und Kostensenkung.

Aber auch das ist offenbar kein Kinderspiel. Bernd Nägele von TNS etwa wies darauf hin, dass manche Kunden Portale bzw. Anwendungen möchten, in denen die Daten umfangreicher Befragungen (z.B. in mehreren Ländern, mit mehreren Erhebungswellen) für viele Nutzer interaktiv und gestaltbar zugänglich sind. Sehr gut nachvollziehbar ließ er anklingen, dass auf Seiten der Kunden zuweilen das Verständnis für die Komplexität einer solchen Aufgabe fehle. Mancher lebe in der Illusion, dass sowas doch „auf Knopfdruck gehen müsse“, andere unterschätzten den Aufwand, den eine solche Aufgabe und die Klärung der dabei auftauchenden Fragen verlangen. Beispielsweise müsse entwickelt und abgestimmt werden, welche Analysen möglich sein müssen, was wie dargestellt werden muss, wer welche Zugriffsrechte haben soll oder wie man die Zielnutzer dazu bringe, die Möglichkeiten tatsächlich zu nutzen. Auch Benedikt Köhler von Data Lion ließ erkennen, dass man eine solche Aufgabe nicht unterschätzen darf. Als einen von mehreren Gründen nannte er die Komplexität von Befragungsdaten, die erhebliche Anforderungen an die Datenaufbereitung und die Software stellen. Ein Teilnehmer warf in der späteren Diskussion schließlich die Frage auf, wie man als Marktforscher die Deutungshoheit behalte, wenn der Zugang zu den Daten im Rahmen solcher Projekte „demokratisiert“ werde. Alleine dieser Hinweis zeigte, dass sich in diesem Thema nicht nur technische und kreative Fragen bündeln, sondern auch hierarchische und solche, die die Rolle und Position der Marktforscher im Unternehmen betreffen.

Deutlich wurde anhand der Vorträge, dass solche Vorhaben komplexe IT-Projekte sind, die sorgfältige Vorbereitung und Planung, eine sehr kundige Umsetzung und Programmierung sowie eine intensive Zusammenarbeit zwischen Provider und Kunden verlangen. Anders ausgedrückt: Sie kosten richtig Zeit und Geld. Von daher stellt sich natürlich auch immer wieder die Frage, wann und unter welchen Umständen sich das lohnt.

bild1

In der Summe blieb für mich der Eindruck, dass die effiziente Generierung grafischen Outputs aus Befragungsdaten den Schwerpunkt in Sachen Visualisierung in der Marktforschung setzt. Das ist nicht verwunderlich. Die Anstrengungen orientieren sich eben am unmittelbaren Bedarf im Alltag. Allerdings wurde in der Schlussdiskussion auch deutlich, dass das seine Tücken haben könnte. Denn während die Marktforschung vor allem visualisieren will, was sie sowieso schon macht, schießen rund um sie herum neue Datenquellen, Methoden und Visualisierungsideen aus dem Boden, sowohl für analytische wie didaktische Zwecke. Nach meiner Erfahrung gibt es hier einen enormen Pool an höchst interessanten Anregungen, auch und gerade für Marktforscher. Vielleicht wäre das eine andere Fachtagung wert?

Wenn Sie wissen wollen, wie wir Netzwerkanalysen im Web und außerhalb des Webs machen und visualisieren, besuchen sie uns am Stand 211 auf der Messe Research & Results 2016 vom 26.-27.10. in München. Oder kommen Sie dort zu zu unserem Workshop „Der Q Webanalyzer – mehr als ein Web-Monitoring. Online Bubbles, Netzwerke und Ad-hoc-Forschung im Web“ am Donnerstag, 27.10.2016, 13.30-14.15 Uhr, Raum 4.