Von Big Data und Thick Data

Von Big Data und Thick Data – die Potentiale ethnologischer Forschung für Big Data Analysen

von Katharina v. Sohlern

Die Big Data Welle

Die Big Data Welle

Ob im Bereich der Gesundheitsversorgung, der Politik oder im Marketing, Big Data verspricht unser Leben effizienter, individualisierter und organisierter zu machen. Aber was ist es genau, das die „Massendaten“ in Unternehmen, Institutionen und unseren Leben verändern?

Zunächst einmal bezeichnet dieser Begriff Datenmengen, die entweder zu groß, zu komplex, sich zu schnell ändern oder zu schwach strukturiert sind, um sie mit herkömmlichen Methoden der Datenverarbeitung zu verwerten. Es handelt sich hierbei um eine Frage des Maßstabs: die Menge der Daten, die von Beginn der Menschheitsgeschichte an generiert worden sind entspricht der Menge der Daten, die heute im Zeitraum von zwei Tagen, durch z.B. unsere Aktivitäten in sozialen Netzwerken wie Facebook und auf Online-Versandplattformen wie Amazon, entstehen.

Durch ihre schiere Masse erlauben Big Data-Analysen im zweiten Schritt eine Veränderung des Prozesses der Erkenntnisgewinnung. War dieser bisher von dem Paradigma der Kausalität, also der Ansatz von Ursache und Wirkung, geprägt, tritt nun die Korrelation in den Vordergrund. Der Gedanke bei Big Data-Analysen ist, durch Korrelationen neue Beziehungen zu finden, die man anschließend auf kausale Zusammenhänge untersuchen kann. Durch die Erhebung von so vielen Daten wie möglich, die potentiell mit einem Vorkommnis verbunden sein könnten, wird auch die Zahl der zu findenden kausalen Zusammenhänge erhöht. So erhofft man sich, auf Wege und Möglichkeiten zu stoßen, an die vorher noch nie jemand gedacht hat und, im letzten Schritt, Ereignisse und sogar menschliches Verhalten vorhersagen zu können.

Soviel zur Theorie – bei einem Blick in die Praxis werden schnell Probleme evident: Der Wunsch der Vorhersagbarkeit von Ereignissen und Verhalten führte in den letzten Jahren zu einer Glorifizierung von Big Data. Das Mehr an quantitativen Daten könne zu mehr Wissen, besserer Vorhersagbarkeit, schnellere Innovation und ultimativ zu einer besseren Gesellschaft führen, so die Annahme. Dieser „Big Data Utopianism“, wie ihn die Soziologin Tricia Wang in ihrem Talk auf der re:publica 2015 bezeichnet, ist in ihren Augen eine der gefährlichsten Annahmen von Unternehmen und Organisationen im Moment. Problematisch wird es dann, wenn im Rausch der Datenmassen Korrelationen gefunden, die Kausalitäten jedoch außer Acht gelassen werden. Hierdurch kann gefährliches Halbwissen plötzlich zu objektiven und gesicherten Erkenntnissen werden, die im schlimmsten Fall wiederum auf die Gesellschaft Einfluss nehmen.

Ein weiteres Problem von einseitig quantitativer Datenerhebung und der Überbetonung von Big Data, ist der Verlust des Kontextes. Die Auswertung quantitativer Daten erlaubt eine Aussage über einen bestimmten, vorher definierten Bereich. So kann beispielsweise eine Korrelation zwischen Kaufentscheidungen ermittelt werden, um dem Kunden darauf basierende Kaufvorschläge zu machen. Warum der Kunde sich überhaupt für das Produkt entschieden hat, ist damit allerdings nicht beantwortet. Genau dieses Wissen jedoch, kann der entscheidende Ausgangspunkt für Innovationen sein.

Um sich ein vollständiges Bild zu machen, ist es daher unerlässlich quantitative Daten mit qualitativen Daten zu kombinieren. Diese ermöglichen Aussagen über die Gefühle, Geschichten und Bedeutungswelten der Menschen. Der Ansatz der qualitativen, ethnologischen Forschung geht dabei genau umgekehrt vor: in kleinen Samples werden Daten mit einer großen Tiefe und Komplexität ermittelt. Der Fokus liegt auf den subjektiven Bedeutungswelten, die oft widersprüchlich und damit schwer quantifizierbar sind. In Anlehnung an das Konzept der „dichten Beschreibung“ des Ethnologen Clifford Geertz, spricht Tricia Wang diesbezüglich auch von Thick Data.

Während Big Data eine große Menge einer bestimmten Art von Information zu einem bestimmten Thema sammelt, beschreibt Thick Data die Vorstellungen, Bedürfnisse und Gewohnheiten einiger Weniger um dieses Thema herum. Dabei wird Thick Data ausgehend von der menschlichen Erfahrungswelt generiert, wohingegen sich Big Data auf maschinelle Lernverfahren und statistische Methoden verlässt. Thick Data zeigt den sozialen Kontext zwischen den Verbindungen von Datenpunkten auf und schafft dadurch häufig überraschende Erkenntnisse, spannende Kausalitäten und neue Verbindungen.

Die Kombination von Big Data und Thick Data birgt große Potentiale für Unternehmen und Institutionen mit einem nutzerzentrierten Ansatz. Dies konnten wir in unserer eigenen Beratungspraxis immer wieder bestätigen. Ein schönes Beispiel ist unser Projekt zur Entwicklung von mobilen Containern zur medizinischen Erstuntersuchung für geflüchtete Menschen. Durch die Kombination aus Technologie und der qualitativen Ermittlung der individuellen Bedürfnisse geflüchteter Menschen, wurde ein ganzheitliches Konzept geschaffen, dass einen nachhaltigen Einfluss auf das Leben und die Arbeit aller Beteiligten hat.

Damit Unternehmen und Institutionen das volle Potential von Big Data nutzen können, brauchen sie Thick Data. Qualitative und quantitative Daten ergänzen sich, da sie verschiedene Arten der Einsicht mit unterschiedlichen Maßstäben und Tiefe generieren. Um Big Data analysieren zu können, müssen die Daten standardisiert, in ihrer Komplexität reduziert und geordnet werden. So gehen der Kontext, die Bedeutung und die Geschichte verloren. Thick Data erzählt die Geschichten hinter den Daten und gibt ihnen so ihren Kontext zurück.