Von Ralf Keuper
Sprechen Daten für sich, wie neutral sind Algorithmen, reichen Korrelationen aus, um zu validen Schlussfolgerungen zu gelangen? Diese Fragen sowie weitere greift Thomas Bächle in seinem Buch Digitales Wissen, Daten und Überwachung auf.
In den letzten Jahren konnte der Eindruck entstehen, als bräuchten wir nur die Menge der auswertbaren Daten erhöhen, um daraus ein vollständiges Bild der Realität zu erhalten. Der Glaube hält sich bis heute. Ein Mehr an Daten ist jedoch nicht zwangsläufig mit einer besseren Entscheidungsqualität verbunden, worauf u.a. das Phänomen des Overfitting hinweist. Auch sind Daten nicht neutral; sie können es gar nicht sein, da in ihre Interpretation Annahmen einfließen, die von der Kultur, den eigesetzten Methoden und Technologien, dem Sprachgebrauch wie überhaupt dem jeweiligen Zeitgeist abhängig sind. Gleiches gilt für Algorithmen. Das jedoch hält die verschiedenen Protagonisten nicht davon ab, mit immer neuen Versprechen vor das Publikum zu treten, wenngleich die Mathematik den Bemühungen fundamentale Grenzen setzt:
Es gibt Problemstellungen und Aufgaben, die ganz grundsätzlich nicht als mathematisches Problem übersetzbar, nicht computerisierbar und deshalb auch nicht für eine künstliche Intelligenz lösbar sind. Die Annahme intelligenter, intentional agierender autonomer Algorithmen widerspricht ihrer mathematischen Logik prinzipiell. Es ist deshalb viel sinnvoller, Algorithmen – und insbesondere ihre ideologische Überhöhung zu Superintelligenzen – als Teil und Ausdruck sozialer Praktiken zu bewerten. Eine solche Überhöhung ist weit mehr in kulturellen Projektionen und verbreiteten Formen der Anthropomorophisierung (“neuronale Netze”) begründet als in den mathematischen Eigenschaften des Algorithmus. Dieser wird zum Mythos überhöht.
Zur Medialität des Wissens bzw. zur Prägekraft des Mediums:
Wissen lässt sich .. nie außerhalb seiner performativen Konstruktion denken. Medialität strukturiert die Möglichkeiten der Erkenntnis und vereinheitlich ihre Repräsentation. Sie ist dabei aber selbst nicht Teil des durch und in den Medien (zu denen auch die Sprache zählt) gewonnen Wissens. Jede Wahrnehmung und jedes Wissen folgt damit seiner spezifischen Medialität, die im Erkenntnisprozess jedoch verborgen bleiben muss. …
Die durch Medien hervorgebrachte Bedeutung kann nie ein reines Objekt des Wissens sein, sondern wird stets durch jemanden erfahren, dabei mitkonstruiert und erst durch das Medium sichtbar. …
Zusammenfassend lässt sich festhalten, dass Medien weder neutrale Überträger von Bedeutung sind (Medien als Träger der Information) noch jede Wahrnehmung, jedes Wissen, jede Bedeutung determinieren (Medium als Botschaft). Der dargestellte Zusammenhang von Medialität und Wissen zeigt vielmehr, dass ein Medium eben keine Bedeutungen sichtbar macht, die ohne das Medium schon vorhanden wären. Diese entstehen – in sozialen Prozessen (der Wahrnehmung oder Kommunikation) – erst mit dem Medium, so dass Medien nie als isolierbare Objekte betrachtet werden können.
Über die Analogie Gehirn – Computer:
Eine völlige Überwindung der Grenze des Denkens und Wahrnehmens und ihre Externalisierung in Medientechnologien sind folglich weder medientechnisch möglich noch medienästhetisch erwünscht. Zugleich ist der Zusammenhang zwischen Kognition und Technik keine Problemstellung, die sich erst mit den digitalen Technologien ergibt, sondern hat eine lange Entwicklungsgeschichte. Während also außer Frage steht, dass es einen Zusammenhang zwischen Denken und medialer Umwelt gibt, kann dieser keineswegs mit einseitig deterministischen Annahmen untermauert oder gar mit einer funktional-informationsbasierten Verwandschaft von Gehirn und Computer oder gar der Möglichkeit des wechselseitigen Anschlusses begründet werden. Jedes Interface hat Grenzen. Die sich unseren Gehirnen bietenden Medienumgebungen sind vor allem audiovisuell. Eine virtuelle Welt ist in erster Linie eine visuelle Welt. Körperlich-materielle Präsenz, ein leibliches Wahrnehmen, Fühlen und Spüren, bleibt hingegen ein Nicht-Darstellbares.
Daten = Wirklichkeit?
Daten existieren nur als Konsequenz einer klassifikatorischen Positionierung. Um Farben als Phänomene zu erfassen, müssen zunächst Farbwerte definiert werden, und es muss festgelegt werden, wie sie sich im Farbspektrum von anderen Farbwerten abgrenzen. Gleiches gilt für soziale Gruppen oder die Vermessung von Subjekten. Der klassifikatorischen Anlage des interpretatorischen Fundaments der Daten wohn damit stets ein politisches Moment inne, eine Codifizierung von Macht.
Mehr Daten = höhere Qualität?
Ein Mehr an Daten ist nicht gleichzusetzen mit einer höheren Qualität dieser Daten. Big Data entbindet keinesfalls von der Notwendigkeit einer sorgfältigen Methodenreflexion, einer nachvollziehbaren Systematisierung der erhobenen Daten und einer Standardisierung des Untersuchungsdesigns- den traditionellen Gütemaßstäben für eine quantitativ orientierte empirische Sozialforschung. Beispielsweise verführt die leichte Verfügbarkeit von Daten in sozialen Netzwerken dazu, eine Vielzahl von Datenmustern zu untersuchen. Trotz einer Sensibilität “für die begrenzte Aussagekraft dieser Daten” konzentrieren sich die Forschung und “der öffentliche Diskurs tendenziell auf die schiere Anzahl” der ausgewerteten Daten (Boyd/Crawford 2013, 199)
Korrelation vs. Kausalität / Zerrbild “Datenreichtum”
.. sind korrelative Einsichten wirklich neutral und frei vom mitunder tendenziösen Charakter kausaler Vorannahmen? Sprechen Datenmuster für sich selbst? Mit Sicherheit nicht, denn auch diese Abstraktion basiert auf einer Konstruktionsleistung. Daten bewegen sich immer in einem Zusammenhang erklärender Rahmung und sind damit prinzipiell geprägt durch Vorannahmen, die häufig eine subtile Kausalität in sich tragen. Nicht nur kausale Wirkungszusammenhänge, sondern auch korrelative Aussagen verknüpfen (mindestens) zwei Variablen miteinander und setzen diese zueinander in Beziehung. Variablen sind dabei nie neutral, sondern stets konstruierbare Kategorien, in denen die Postulierung (pseudo-)kausaler Zusammenhänge bereits angelegt sein kann. In diesem Sinne wiederholt sich in der Bewertung von Big Data der Schulenstreit zwischen quantiativen und qualitativen Verfahren wissenschaftlicher Forschung. Während quantitative Verfahren tendenziell von der Möglichkeit einer Messbarkeit sozialer Realtiät ausgehen und nach einer statistisch begründeten Objektivität streben, weisen qualitative Verfahren ausdrücklich auf den subjektiven Beitrag bei der Konstruktion von Wissen hin.