Algorithmen im Alltag

Ein neuer Sammelband bietet interessante Thesen und empirische Zugänge zum Thema Algorithmuskulturen

Der Sammelband Algorithmuskulturen. Die rechnerische Konstruktion der Wirklichkeit widmet sich einem Thema, um das heute kaum noch eine sozialwissenschaftliche Disziplin einen Bogen machen kann: der Frage, wie Algorithmen, die auf ‚dem Papier‘ nichts anderes als eine eindeutige Abfolge symboltransformierender, formaler Operationen darstellen, in der Praxis immer mehr zu Mitgeneratoren unserer sozialen Wirklichkeit werden. Eine der zentralen Schwierigkeiten bei der sozialwissenschaftlichen Behandlung dieses Phänomens besteht darin, dass formale Prozeduren in sozialer Hinsicht hochgradig unterdeterminiert sind: Wie sich konkrete soziale Zusammenhänge gestalten, die um eine formale Prozedur herum organisiert oder von ihr durchdrungen sind, lässt sich nur begrenzt aus den Eigenschaften der formalen Prozedur ableiten. Aus den Operationen der Algorithmen allein ist daher nicht viel darüber zu lernen, auf welche Weise sie sozial wirksam werden. Das ist für die Soziologie zwar kein neues Problem. Die Aussage trifft analog ebenso auf kodifiziertes Recht zu und beschäftigt die Rechtssoziologie, die immer wieder auf die Interpretations- und Performanzbedürftigkeit kodierter Rechtsnormen aufmerksam macht, bis heute.[1] Der hohe Grad der Abstraktion von Algorithmen paart sich jedoch mit einer Besonderheit: Anders als kodierte Rechtsnormen werden Algorithmen auf eigentümliche Weise selbst tätig. Es wirkt, als würden sie sich dem Interpretations- und Performanzzwang durch ihre automatische Ausführung als Computercode entziehen. Denn der Computer interpretiert den Algorithmus, so dass aus einer formalen Anleitung quasi automatisch der konkrete Vollzug einer Regel wird.

Von eben dieser an Searle geschulten Ansicht verabschiedet sich der vorliegende Band, mit der schlichten Begründung, sie sei fruchtlos. Die paradigmatische Einsicht, deren Fruchtbarkeit dagegen zu zeigen versucht wird, „besteht darin, dass Algorithmuskulturen plural, kommensurabel und sinnstiftend performativ sind“ (S. 18).

Der Band behandelt demnach nicht Algorithmen als formale Mechanismen, sondern Algorithmen, wie man sie im Alltag antrifft; Algorithmen in all ihrer Konkretion als gedeutete, in sozialen Zusammenhängen wirksame technische Artefakte, an denen ständig ‚rumgeschustert‘ wird, die eine dynamische Verwendungsgeschichte und eine stets neu zu verhandelnde Zukunft haben: Algorithmen als Kultur. Der Band nähert sich diesem Programm durch eine Reihe von ‚Probebohrungen‘, die durch eine lose Orientierung an den klassischen Paradigmen der STS-Forschung zusammengehalten werden. Je nach Theoriepräferenz werden Algorithmen dabei mehr als Aktanten (also eher im Rahmen einer ANT) oder mehr als technische Agenten (also eher im Rahmen einer pragmatistischen Techniktheorie) behandelt. Technisch implementierte Algorithmen behandelt der Band folglich nicht einfach als technische Gegenstände wie Werkzeuge oder menschenoperierte Maschinen, die wie alle Gegenstände, die Kultur perpetuieren, „geronnene Sozialstruktur“[2] sind. Vielmehr werden sie paradigmatisch als dynamische Instanzen aufgefasst, die in einem Netzwerk von Menschen, Gegenständen und algorithmischen Prozeduren durch „interaktive Situationsautonomie“ (Valentin Rauer, S. 198) gekennzeichnet sind.

Aus theoriebeobachtender Perspektive ist dabei positiv zu notieren, dass der Band sich an verschiedenen Theoriekreuzungen versucht, die bisher als unüblich gelten dürften. So kombiniert etwa Lucas D. Introna (S. 41–74, „Die algorithmische Choreographie des beeindruckbaren Subjekts“) eine an Foucault geschulte Gouvernementalitätstheorie mit einer an Latour ausgerichteten Techniktheorie, um die Geschichte der digitalen Werbeindustrie in ihren Versuchen, ein „beeindruckbares“ (S. 42), ‚zum-Kauf-bereites‘ Subjekt zu erzeugen, in den Blick zu nehmen. Theoretisch innovativ ist auch Joseph Kletts ethnographische Studie „>Ver-rückt< durch einen Algorithmus“ (S. 151–171). Sie behandelt die Entwicklung und Veränderung von Hörerbeziehungen durch „Immersive Audio“ (S. 152). Letzteres bezeichnet eine Form der technischen Wiedergabe aufgenommener Klänge, die die Klangproduktion an die Veränderungen der räumlichen Position ihrer Hörer_innen algorithmisch rückkoppelt (etwa: Der/die Hörer_in dreht sich um und geht ein paar Schritte. Die Stimmen, die ‚vor‘ ihm/ihr waren, entfernen sich dann ‚hinter‘ ihm/ihr.). Klett wendet nun in seinem Text die theoretischen Register der jungen Sound Studies, die den meisten Soziolog_innen wohl eher fremd sein dürften, auf die klassische Frage der STS an: Wie gehen kontingente, an normativen und ästhetischen Maßstäben orientierte Gesichtspunkte in die Entwicklung technischer Artefakte ein? Klett versucht zu zeigen, dass die Konstruktion von „Immersive Audio“ auf eine Rekonfiguration der Beziehungen zwischen denen, die etwas hören, und denjenigen, die sie dabei beobachten, abzielt. Der neue, versenkende Klang führt demnach nichts weniger im Schilde als eine Reorganisation des öffentlichen Raumes.

Disziplinär etwas stärker im Rahmen einer pragmatistischen Techniktheorie verortet, aber ebenso dicht und innovativ sind Valentin Rauers rechtssoziologische Fallanalysen der Akteursfiktionen in rechtlichen Diskursen, die sich um den Einsatz militärischer Drohnen spannen. Rauer rekonstruiert in einem ersten Schritt am Beispiel von Funkregeln, dass Algorithmen – hier im Sinne eines Satzes von Interaktionsregeln verstanden – eine notwendige Bedingung zur Herstellung von „intersituativen“[3] Handlungszusammenhängen sind. Damit sind Handlungszusammenhänge gemeint, in denen sich die miteinander Interagierenden nicht in ein und derselben Situation befinden. In einem zweiten Schritt analysiert Rauer sodann, wie sich ebendiese „intersituativen“ Handlungszusammenhänge verändern, wenn technische Agenten darin als mit „interaktive[r] Situationsautonomie“ (S. 198) ausgestattete „Handlungsbevollmächtigte“[4] auftreten. Eine Konsequenz, die Rauer dabei ausmacht, ist „dass algorithmisch vernetzte Praktiken und Mobilisierungen zu diffusen Akteursgrenzen führen, die neue Fragen nach kollektiver Verantwortung und normativer Teilhabe aufwerfen“ (S. 191). Rechtlich steht in algorithmischen Kulturen demnach infrage, wer überhaupt im Rahmen des Einsatzes „interaktivautonome[r] Maschinen“ (S. 209) handelt.

Eine zweite paradigmatische Einsicht, die die Texte des Bandes verbindet, lautet, dass Algorithmuskulturen unter anderem auch Kulturen von Algorithmen für Algorithmen sind. Sie bewaffnet die Texte mit einem Maßstab – ob dieser stichhaltig zu begründen ist, sei hier eingeklammert – für die Kritik algorithmischer Kulturen: den Grad ihrer Selbstreferenzialität. Die pathologischen Effekte menschenentkoppelter Formen algorithmischer ‚Sozialität‘ spielen in den Texten folglich immer wieder eine zentrale Rolle. Shintaro Miyazaki (S. 173–187) etwa analysiert am Beispiel des AT&T-Crashs des Jahres 1990,[5] weshalb die Interaktionen von Algorithmen systematisch „verteilte Dysfunktionalität[en]“ (S. 178) erzeugen, die schwer vorhersehbar sind. Die Analyse geht dabei über die nicht ganz neue Einsicht hinaus, dass Technikfolgenabschätzungen in komplexen soziotechnischen Systemen schwierig sind. Miyazaki versucht mittels einer historischen Analyse zu zeigen, wie Konkurrenzgebote neoliberaler Provenienz systematisch in die Konstruktion algorithmischer Ökosysteme eingegangen sind, die die pathologischen Potenziale digitaler Technologien verstärken. Die algorithmischen Ökosysteme von heute sind gefährlicher, als sie sein müssten, weil sie häufig nicht als Systeme der Kooperation, sondern als Systeme des Wettkampfs zwischen algorithmischen Agenten konzipiert wurden, was Flash-Crashs – also lediglich minutenlang dauernde, aber starke Kurseinbrüche an den Finanzmärkten – und dergleichen belegen (S. 182 f.).

Oliver Leistert (S. 215–234) wiederum nähert sich der Beobachtung, dass Algorithmuskulturen mitunter auch Kulturen von Algorithmen für Algorithmen sind, aus einer anderen Richtung. Er fragt, welche Rolle Social Bots – also Programme, die autonom mit den Nutzern sozialer Medien interagieren – im Gestrick der Geschäftsmodelle datenkapitalistischer Unternehmen spielen. Dabei widmet er sich besonders der Rolle von Social Bots als Mittel der „Datenpiraterie“ (S. 229). Leistert diagnostiziert in diesem Rahmen, dass es Social Bots gerade deshalb gelingt, aus sozialen Netzwerken wertvolle Daten zu extrahieren, weil sie ausnutzen, dass soziale Netzwerke die Unterscheidung zwischen menschlichen und algorithmischen Agenten systematisch erschweren. In diesem Umstand sieht er einen Ausbeutungsmechanismus, den er als „algorithmische Entfremdung“ (S. 229) beschreibt, der paradigmatisch für die Extraktion von Mehrwert aus menschlicher Arbeit im „digitalen Kapitalismus“[6] sei.

Eine dritte Klammer des Bandes bildet die klassische planungssoziologische Beobachtung, dass der Einsatz von Technik oft mit einer Verkehrung von Zwecken und Mitteln einhergeht und insofern eine Art Politik darstellt.[7] Technik, so sehr sie auch legitimatorisch als Lösung praktischer Probleme angepriesen wird, zieht in der Praxis nicht selten neue praktische Probleme nach sich, die dann − oft naiv − durch (noch) mehr Technik gelöst werden sollen. Algorithmen sind hiervon nicht ausgenommen, wie der Text „#trendingistrending – Wenn Algorithmen zur Kultur werden“ (S. 75–106) von Tarleton Gillespie mustergültig zeigt. Gillespie geht jedoch noch einen Schritt weiter und identifiziert in der Verkehrung von Zwecken und Mitteln genau den Mechanismus, durch den Algorithmen zu Kultur werden: Trendingalgorithmen erzeugen aus den Daten sozialer Medien Einschätzungen darüber, welche Themen gerade Konjunktur haben. Sie sind also zunächst einmal technische Lösungen für das Problem, dass soziale Medien zu viel „Lärm“ produzieren: Was von alledem ist gerade wichtig – und zwar in dem Sinne, dass es gerade immer mehr Menschen wichtig wird? Aber gerade indem Trendingalgorithmen dieses Problem ‚lösen‘, werden sie selbst zum Gegenstand von Kontroversen und Manipulationsversuchen. Sie führen Aufmerksamkeit eng, was in der Folge situative Öffentlichkeiten und Gegenöffentlichkeiten erzeugt. Sie gruppieren Interessen und forcieren den Einsatz von noch mehr Technik, um ‚unter Kontrolle‘ gebracht zu werden. Dass dieser kulturgenerierende Mechanismus der Verkehrung von Zwecken und Mitteln nicht immer in eine letztlich technokratisch dominierte Kulturpolitik mündet, zeigt der Beitrag „Die Online-Stimmen von Verbrauchern in Form bringen: Algorithmischer Apparat oder Bewertungskultur?“ (S. 107–129) von Jean-Samuel Beuscart und Kevin Mellet. Anhand einer Analyse der Restaurantbewertungsplattform „LaFourchette“ zeigen sie, wie sich im Rahmen der sozialen Einhegungen von Bewertungsalgorithmen eine mitunter eigensinnige bürgerliche Bewertungskultur etabliert, die ohne im strengen Sinn eine Gemeinschaft zu konstituieren, doch eine Gruppierung erzeugt, die ein öffentliches Gut – in diesem Fall ein verlässliches System der Restaurantbewertung – verteidigt und reproduziert. Offen lässt der Beitrag freilich, welches die notwendigen technischen und nicht-technischen Voraussetzungen einer solchen liberaldemokratischen Einhegung algorithmischer Kulturen sind.

Insgesamt ist festzuhalten, dass die unterschiedlichen ‚Probebohrungen‘ des Bandes vielfältige und anregende Schneisen in die digitale Transformation der Kultur moderner Gegenwartsgesellschaften schlagen, die auch für Leser_innen mit anderen als technik- oder kultursoziologischen Interessen anregend und relevant sein dürften.

Nach so viel Lob muss jedoch auch der Finger in eine Wunde gelegt werden: Was mich während der Lektüre immer wieder irritiert hat, sind die wiederkehrenden Rekurse auf Argumentationstechniken, die Jean Bricmont und Alan Sokal unter dem Titel „eleganter Unsinn“ versammelt haben: Die vage, unpräzise oder effekthascherische Darstellung statistischer, mathematischer, informatischer oder ingenieurswissenschaftlicher Verfahren ist, in unterschiedlichen Graden, ein wiederkehrendes Übel der Beiträge des Bandes.[8] Oft scheinen die betreffenden Einlassungen, zumindest soweit ich das beurteilen kann, schlicht rhetorischer Zierrat zu sein – und sind demnach so harmlos oder schädlich wie schlechter Stil eben ist. In mindestens einem Fall jedoch ist der Rekurs auf eleganten Unsinn aus meiner Sicht unentschuldbar: Im Text „Den Algorithmus dekonstruieren: Vier Typen digitaler Informationsberechnung“ von Dominique Cardon (S. 131–150) findet sich – und dies ist nur ein Beispiel von mehreren – folgende Aussage: „Die von Soziologen und Statistikern in den 1970er Jahren eingeführten Datenanalysetechniken, insbesondere Faktorenanalysen der Hauptkomponenten, versuchten, verschiedene manifeste Variablen auf eine zweidimensionale Fläche zu projizieren“ (S. 145). Das Ziel von Faktorenanalysen ist zwar tatsächlich die Reduktion einer größeren Anzahl (beobachteter) manifester Variablen auf eine kleinere Anzahl latenter (nicht-beobachteter) Variablen, die auch als Faktoren bezeichnet werden. Das gehört zum Zweitsemesterwissen in den meisten sozialwissenschaftlichen Disziplinen. Zum Zweitsemesterwissen gehört aber auch, dass diese Reduktion nicht notwendigerweise in zwei Dimensionen münden muss, auch wenn das aus darstellungstechnischen Gründen manchmal angestrebt wird. Darüber hinaus ist historisch einzuwenden, dass bei Weitem nicht die Mehrheit der in den 1970er-Jahren populär gewordenen statistischen Verfahren mit Dimensionsreduktion befasst war.

Derlei Präzisierungen mögen nun kleinlich wirken. Das wären sie auch, wenn der Mangel an Präzision einfach nur rhetorischen Zierrat betreffen würde. Aber so liegt der Fall hier nicht, denn der elegante Unsinn kontaminiert das unterliegende Argument: Die zitierte Passage stammt aus einem Abschnitt, der zeigen soll, wie in den 1970er-Jahren ökonometrische Modelle, die angeblich vor allem auf linearen Regressionen und Faktoranalysen fußten (S. 144 f.), zunehmend ältere sozialstatistische Methoden verdrängten, die vor allem auf der Hochrechnung kategorial kodierter Stichprobendaten auf eine Grundgesamtheit beruhten. Derart sachlich wie auch historisch unpräzise Darstellungen – lineare Regressionsverfahren etwa wurden in der Sozialstatistik schon zu Beginn des 20. Jahrhunderts verwendet und können unter anderem dazu genutzt werden, Hochrechnungen auf Grundgesamtheiten anzustellen – sind nicht akzeptabel, weil sie als Belege für die größeren Thesen des Textes auftreten. Im betrachteten Fall sollen die kritisierten Ausführungen belegen, dass es in sich stark ausdifferenzierenden Gesellschaften zu einer „Krise Kategorischer Repräsentation“ (S. 144) kommt, die durch moderne Datenanalyse- und Massendatenkollektionsmethoden mithervorgerufen wird, weil sie die Möglichkeiten vervielfältigt, aus Daten soziale Kategorien zu machen (ebd.). Das ist eine durchweg plausible und interessante Vermutung. Sie jedoch derart zu präsentieren, wirkt sich der gut gemeinten Intention zum Trotz negativ aus, weil es dann so scheint, als folge die ganze These lediglich aus der vagen Hermeneutik halbverdauter Statistiklektionen.

Die sich nun stellende Frage lautet: Was soll der elegante Unsinn? Welche soziale Funktion erfüllt er, wenn er so schmerzhaft als rhetorische Technik versagt? Ich will hier eine Deutung wagen: Es handelt sich um ein Ritual einer sich findenden Forscher_innengemeinschaft. Der elegante Unsinn erfüllt vergemeinschaftende Zwecke. Er stellt eine Form konspirativer Lizensierung dar, durch die man sich als Forscher_innengemeinschaft konstituiert. Das Problem, das ich hier sehe, ist daher nicht der technische Dilettantismus der Autor_innen dieses Bandes – der hier im Übrigen den Autor_innen auch nicht unterstellt werden soll –, sondern der soziologische Dilettantismus, den die Gemeinschaft in Spe denjenigen unterstellt, die sie als ihr Außen definiert, wenn sie sich derart frech zuzwinkert. Das Außen sind dabei nicht zuletzt die technischen Disziplinen angewandter Mathematik. Schon die paradigmatischen Prämissen, die den ganzen Band zusammenhalten, fordern jedoch ausdrücklich, dass die technischen Details ernst und genau genommen werden. Es ist ja gerade das Zusammenspiel der Details der technischen Implementierung von Algorithmen und die extreme Sensibilität der polymorphen, soziotechnischen Anschlussinteraktionen auf eben diese Details, das dazu führt, dass ein aus formaler Sicht vollkommen wertfreies Verfahren – sagen wir ein Sortieralgorithmus – plötzlich etwas vollkommen Unerwünschtes – sagen wir Rassendiskriminierung – verstärkt. Die praktische Bedeutsamkeit technischer Details ist daher keinesfalls zu vernachlässigen, um Algorithmuskulturen zu verstehen – und zu kritisieren. Dem Außen zu unterstellen, dass es die methodischen Konsequenzen der soziologischen Prämissen der ‚Ingroup‘ nicht durchschauen und einklagen wird, ist kurzsichtig. Die technischen Disziplinen, allen voran die Informatik, sind nicht derart soziologiefeindlich oder gar weltfremd, wie ihnen der Band mitunter explizit unterstellt. Hier nur eine Kostprobe davon: „Computerwissenschaftler können Abweichungen einzig menschlichen Routinen zurechnen, und schließen somit von vornherein die Möglichkeit aus, dass nicht jede Wiederholung identisch ist. […] Wir würden sogar so weit gehen zu behaupten, dass der computerwissenschaftliche Diskurs algorithmische Praktiken konzeptuell ausschließt, und damit auch jegliche algorithmische Abweichung vom Script.“ (S. 24).

Das Außen so stark zu unterschätzen, ist gefährlich, besonders wenn dieses Außen auf dem Vormarsch ist. Denn die technischen Wissenschaften sind in der Hierarchie der Disziplinen zu stark aufgestellt, um nicht gereizt zu reagieren, wenn sie Nonsens über ihr Kerngeschäft zu lesen bekommen. Die Gefahr besteht dann darin, dass sie sich noch stärker den positivistischen Strömungen der Sozialwissenschaften zuwenden, denen sie schon rein methodisch näher stehen und mit denen ihnen daher die Kommunikation ohnehin schon leichter fällt. Lange Rede, kurzer Sinn: Eleganter Unsinn ruiniert den Ruf und disqualifiziert als Kommunikationsadresse. Damit wird der kultursoziologischen Erforschung algorithmischer Kulturen nachhaltig geschadet, was besonders schmerzlich ist, wenn die Thesen interessant und die empirischen Zugänge fruchtbar sind, was der vorliegende Band aus meiner Sicht hervorragend belegt.

Fußnoten

[1] Heinz Bude / Michael Dellwing, Die improvisierte Welt. Es ist, was es ist, in: Stanley Fish, Das Recht möchte formal sein. Essays, hrsg. v. Heinz Bude u. Michael Dellwing, Berlin 2011, S. 7–31.

[2] Sebastian Remer, Soziale Strukturen und Informationstechnologie. Die organisatorische Bedeutung von ,Service Oriented Architectures', Darmstadt 2008.

[3] Stefan Hirschauer, Intersituativität. Teleinteraktionen und Koaktivitäten jenseits von Mikro und Makro, in: Zeitschrift für Soziologie, Sonderheft Interaktion–Organisation–Gesellschaft revisited. Anwendungen, Erweiterungen, Alternativen, Stuttgart 2014, S. 109–133.

[4] Werner Rammert, Technik als verteilte Aktion. Wie technisches Wirken als Agentur in hybriden Aktionszusammenhängen gedeutet werden kann, Berlin 2002.

[5] Durch eine Reihe von im Schneeballsystem auftretenden Softwarefehlern waren über einen Zeitraum von 9 Stunden die Schaltzentralen des AT&T-Telefonsystems betriebsunfähig. In der Folge konnten ca. 70 Mio. Ferngespräche innerhalb der USA nicht vermittelt werden. Vgl. dazu u. a. Bruce Sterling, The Hacker Crackdown, 1992.

[6] Philipp Staab, Falsche Versprechen. Wachstum im digitalen Kapitalismus, Hamburg 2016.

[7] Lucius Burckhardt, Der kleinstmögliche Eingriff. Oder die Rückführung der Planung auf das Planbare, Berlin 2013.

[8] Alan D. Sokal / Jean Bricmont, Eleganter Unsinn. Wie die Denker der Postmoderne die Wissenschaften mißbrauchen, München 1999.

Dieser Beitrag wurde redaktionell betreut von Stephanie Kappacher.