Grazer Splitter II: Freitag

Bericht vom ÖGS-Kongress 2017

Prolog (Graz, 8:45 Uhr)

Es war Feiertag. Die Stadt lag wie verlassen unter einer grauen Wolkendecke und die Glocken läuteten zum Gang in die Kirche. Der Weg führte allerdings nicht zur Huldigung der heiligen Maria, sondern zum weitgehend entvölkerten Gebäude der Rechts- und Sozialwissenschaftlichen Fakultäten der Universität Graz, in dem einzig die Teilnehmer_innen des ÖGS-Kongresses die Gänge mit Leben füllten. Auch die werktags fleißig an der Modernisierung der Universitätsbibliothek arbeitenden Baumaschinen verschonten die Besucher_innen vom akustischen Kontrapunkt zu geistigen Höchstleistungen – ein höchst angenehmer Umstand, der aber wohl nur den leid- und lärmgeplagten Grazer Soziolog_innen aufgefallen sein dürfte. Nachdem der morgendliche Trubel der Registrierung für all jene, die auf die Teilnahme an der Eröffnung und den anschließenden launigen Empfang verzichtet hatten, überstanden war, nahm der Tag mit ersten inhaltlichen Sessions seinen Lauf. (Thomas Klebel)

 

 

Morgens um 8:45 Uhr ist die Welt auch in Graz noch in Ordnung: Das altehrwürdige Hauptgebäude der Universität, ein nicht nur bei Soziolog_innen beliebtes Fotomotiv.

 

Fünfmal ins eigene Knie geschossen

Ein spannendes Panel wünsche er uns nicht, so GERHARD FRÖHLICH (Linz), heutiger Moderator und aktueller Sprecher der Sektion Kulturtheorie und Kulturforschung, handle es sich hierbei schließlich um eine Foltermetapher. Das Motto „Bourdieu und die/in der Szientometrie“ wird an diesem grau-kalten Freitagmorgen anhand dreier Einzelvorträge zeitweilig humorvoll und mit einer satten Portion Hintergrundwissen aufgearbeitet und löst zusammengenommen ein, was der Titel verspricht. Der Seminarraum ist spärlich besetzt, Vortragende und Teilnehmer_innen scheinen sich überwiegend bekannt zu sein.

BOIKE REHBEIN (Humboldt-Universität zu Berlin), unter anderem Bourdieu-Schüler und gemeinsam mit Gerhard Fröhlich kritischer Bourdieu-Kenner, stellt mit seinem Vortrag „Bourdieus Etablierung als Klassiker im deutschsprachigen Raum“ eine viergliedrige These auf, warum Bourdieu, in der Erbschaft von Marx, Weber und Durkheim (Simmel wird bedauerlicherweise wieder einmal unter den Teppich gekehrt) zu eben einem solchen Klassiker der Soziologie avancierte. Vier Zutaten für eine erfolgreiche Klassiker-Konstitution entlarvt Rehbein bei Bourdieu: (1) seine Anschlussfähigkeit, (2) die Übersetzung seiner Werke ins Deutsche, (3) die Entstehung von Sekundärliteratur sowie (4) das Auftreten von Jüngern. Rehbein geleitet die Zuhörer_innen durch eine kernig zusammengefasste Karriere-Retrospektive: Nachdem Bourdieus Karriereverlauf auch in Frankreich in den 1950ern und 1960ern eher schleppend verlaufen sei, habe er durch die Thematisierung der Reproduktion von Herrschaftsverhältnissen im Zuge der 68er-Bewegung den Durchbruch in der Bildungssoziologie erlangt. Zeitpunkt und Themenwahl wären entscheidend gewesen. Dies habe jedoch, so Rehbein, eine vorläufige Verfestigung in dieser Subdisziplin in den 1970ern nach sich gezogen. Kurz nach dem Erscheinen von La Distinction (Die feinen Unterschiede) im Jahr 1979 erhielt Bourdieu seinen ersten Lehrstuhl, wodurch er sich in Frankreich nachhaltig etabliert habe. Übersetzungen und die Verwendung von Begriffen wie dem der „Lebensstile“ hätten Bourdieu sodann den Zugang zum deutschsprachigen Raum eröffnet. Rehbein erkennt in Bourdieu aber auch eine Kontrastfolie, etwa als dieser an dem in Deutschland auf Ablehnung stoßenden Klassenbegriff festhielt. Einen wichtigen Schub habe die deutsche Bourdieu-Rezeption sodann durch Debatten zwischen Habermas und Bourdieu erfahren, die nicht zuletzt aufgrund der Vermittlung von Axel Honneth zustande gekommen wären. Schließlich hätten sich die ersten ,Jünger‘ um den ,Meister‘ formiert, wobei Rehbein als Steigerungsform eines ,echten‘ Jüngers unter anderen Franz Schultheis identifiziert. Sekundärliteratur wie Pierre Bourdieu zur Einführung und verschiedene Sammelbände hätten nachhaltig auf die Klassiker-Konstitution eingewirkt. Aufpassen müsse man aber, so Rehbein, „dass man nicht selber Täter ist und nicht Opfer“. Denn mit Blick auf das mit Fröhlich gemeinsam verfasste Bourdieu Handbuch konstatiert Rehbein, dass dieses schließlich „Verwaltungsmasse“ sei, die leichthin zerfledert werden könne. Resümierend bringt er auf den Punkt: Ein Klassiker brauche nicht nur Substanz, er müsse auch den Mainstream unterstützen.

Zu Beginn der anschließend in ausgesprochen angenehmer Atmosphäre stattfindenden Diskussion stellt Fröhlich mit einem Augenzwinkern die provozierende Frage in den Raum: „Welche Leute haben Professuren inne, ohne Parasiten zu sein“? Ein Zuhörer möchte das Wort „Jünger“ doch gerne kritisch hinterfragt wissen, Rehbein kontert, der Begriff wäre absichtlich gewählt und verhältnisbezogen zu verstehen – und verweist in diesem Zusammenhang auf Paulus. Ohne konkrete Namen zu nennen geben Rehbein und Fröhlich zu verstehen, welche Community-Mitglieder sich im Lichte von Bourdieu selbst erhöhen – wobei sie einräumen, dass dies nicht unbedingt schlecht sein müsse. Für die Schlusspointe der Diskussion sorgen beide schließlich mit ihrem Wunsch, ihrerseits nicht als Jünger wahrgenommen zu werden. Merke: Jünger sind immer die anderen.

Nicht einmal, sondern gleich fünfmal, so TERJE-TÜÜR-FRÖHLICH (Linz) habe sie sich laut ihrem Mann Gerhard Fröhlich mit der Wahl, diesen Doppelnamen zu führen, ins eigene Knie geschossen. Wie das mit „Wissenschaft als Karriere-Job“ und Bourdieus Co-Autor Darbel zusammenhängt, erläutert Tüür-Fröhlich in ihrem anregenden Vortrag „Pierre Bourdieu: Mutations, Mutilations, Missings of His Name in SSCI-Records“. Einleitend formuliert sie eine These, die man im weiteren Verlauf des Kongresses in unterschiedlichen Varianten und Kontexten noch des Öfteren hören sollte: Es ginge nicht mehr vorrangig darum, was publiziert, sondern darum, wo publiziert werde. Zahlen regierten, die Community arbeite automatisiert, planwirtschaftliche Zustände feierten fröhliche Urstände in der Wissenschaft. Aus monetären Gründen zog Tüür-Fröhlich für ihre Untersuchung mit der Grundannahme einer Mainstream-Szientometrie für Wissensbilanzen (Kennzahl 3.B.I) den Index SSCI heran. Welche Rolle der Name, respektive der Anfangsbuchstabe, in der Bibliometrie spielt, ist weitgehend bekannt. Tüür-Fröhlich, sich selbst als Referenzbeispiel heranzeihend, zeigt auf, wie schwierig sich das Mitwirken im internationalen Wissenschaftsbetrieb mit einem solchen Doppelnamen gestaltet. Ihr Mann habe mit dem Knieschuss-Verweis bildhaft auf die Problematik hingewiesen: schwierige Aussprache, eine enorm fehleranfällige Schreibweise durch das Doppel-Ü, insbesondere im englischsprachigen Raum, zwei verbundene Namen und der erste Buchstabe im Alphabet weit hinten stehend.

Obwohl Fehler in Datenbanken laut Tüür-Fröhlich evident seien, negierten Datenbankbetreiber häufig ihre Verantwortung hierfür. 80% der Zeit aber, so zeige es sich in der Praxis, gingen für die Bearbeitung von Daten drauf. Gravierend ist nach Tüür-Fröhlich der Umstand, dass keinerlei Transparenz über die aufgenommenen Daten herrsche. Anhand der Indexierung von Bourdieus Homo academicus schickt Tüür-Fröhlich die Zuhörer_innen sodann auf folgende, hier nur kurz umrissene Reise nach der Methode „Schneeball & Ping-Pong“: Bei 129 Bourdieu Einträgen im Web of Science fänden sich in vielfältigen Variationen Namenstausch und Verwechslungen. Darbel, Bourdieus Co-Autor, nehme an mancher Stelle Bourdieus Platz ein, und zwar auch bei Werken, an denen er gar nicht mitgewirkt habe. Bourdieu verliere dadurch unterm Strich neun ihm zustehende Zitationen. Wie konkret sich dieser Umstand ergibt, bleibt unklar. Tüür-Fröhlich wähnt in Angaben wie „ibd.“ oder „ders.“ gewichtiges Fehlerpotential. Für Bourdieus Namen listet sie 85 Mutationen und Phantome auf. Außerdem habe sie endogene Fehler in Datenbanken geortet, die in der Literatur bislang nicht zur Besprechung gebracht worden seien. Würden von Datenbankbetreibern Fehlerraten um die 2-9% zugegeben, hätte ihre Fallstudie Quoten von 93-99% ergeben. Von 493 untersuchten Artikeln wären lediglich fünf fehlerlos gewesen. Verlierer_innen dieses Spiels seien nicht nur Wissenschaftler_innen, sondern auch Disziplinen, Journale und Universitäten, bei Letzteren sei nur an die allbekannten und so oft genannten Rankings zu denken.

Ein Zuhörer fragt nach, ob die Verteilung der Fehler als gleichmäßig angenommen werden könne, oder ob sich Fehler überdurchschnittlich oft bei Nicht-Naturwissenschaftler_innen und Nicht-Englischsprachigen nachweisen ließen, wodurch sich für die Universitätspolitik entsprechende Konsequenzen ergäben. Tüür-Fröhlich bestätigt sowohl Disziplinenunterschiede als auch den englischen Bias. Ob diese Erkenntnisse in die Szientometrie bereits eingegangen seien, muss Tüür-Fröhlich verneinen. Rehbein vermutet noch weitaus schwerwiegendere Einschnitte: Denn der etablierte Mainstream mache mit diesem System Karriere. Alternativen? Bisher keine in Sicht.

Nachdem Tüür-Fröhlich ihren Mann am PC eingeschult hat, zerpflückt Letzterer zunächst (1) Bourdieus Ausspruch von einer „Gesamtheit gleichgesinnter Wettbewerber“, um sodann der Frage nachzugehen, ob Bourdieu selber Beiträge zum Thema Szientometrie hinterlassen hat. Und tatsächlich: Bourdieu habe den gerade noch von Tüür-Fröhlich kritisierten SSCI-Index für einen guten Indikator gehalten, den man – also er: Bourdieu – gar noch verbessern könne. Kein Wunder, erklärt Fröhlich, wäre Bourdieu doch höchst erfolgreich hierin gewesen. Auch das „reine“ Wissenschaftskapital (2) wird von Fröhlich hinterfragt: Kann es diese Art von Kapital überhaupt in Reinform geben? Stünden Wissenschaftler_innen mit Zeitschriften in Verbindung – so wie Bourdieu –dann steigere das die Chance, zitiert zu werden, ganz erheblich. Das gleiche Phänomen, so Fröhlich, lasse sich auch bei Gutachter_innenpositionen bei Forschungsfonds oder Mitgliedschaften in Vorständen beobachten. Bezeichnen lasse sich diese Praktik als klassisches „Anfüttern“. Fröhlichs These lautet sodann: Produktivität (Publikationen) und Impact (Anzahl Zitationen) sind Indikatoren für institutionelle Macht, für ökonomisches und soziales Kapital. Und alles sei manipulierbar. Frauen seien institutionell auch insofern benachteiligt, als sie deutlich weniger ,Sklav_innen‘, sprich: Mitarbeiter_innen an der Hand hätten. Autor_innenschaften wirkten wiederum als bestens beeinflussbare Belohnungssysteme – Stichwort Subautor_innen oder Ehrenautor_innen. Das von Rehbein, Tüür-Fröhlich und Fröhlich gezeichnete Bild verdunkelt sich zusehends. Bourdieu, kommt Fröhlich am Ende auf das Hauptthema zurück, müsse selbst als „eine Art Großunternehmer“ verstanden werden, auch wenn ihm das vermutlich wenig geschmeckt hätte. Der Vortrag endet, wie es kommen musste: mit der Einblendung des Matthäus-Effekts und dem abermaligen Verweis auf den multiplen Knieschuss von Tüür-Fröhlich. Autsch! (Karin Scaria-Braunstein)

Wir haben da mal was vorbereitet – Warum Algorithmen anfällig für Rassismus sind, keinen Sinn für Zynismus haben und uns trotzdem wunschlos glücklich machen

Das dritte Panel der Sektion „Technik- und Wissenschaftssoziologie“ firmierte unter dem Titel „Big/Smart Data und Algorithmen“ und gewährte interessante Einblicke in sehr unterschiedliche Forschungsarbeiten. Den Auftakt machte EVA MARIA NYCKEL (TU München), die zu „Logistik(en) der Wahrscheinlichkeit“ referierte und aus einer von ihr zusammen mit ihrem Kollegen NIKOLAUS PÖCHHACKER (TU München) vorangetriebenen wissenschaftssoziologischen Untersuchung der Folgen eines Amazon-Patents berichtete. Das betreffende Patent behandelt das Anticipatory Shipping und könnte möglicherweise geeignet sein, die Logistik des weltweit größten Versandhändlers zu revolutionieren. Im Kern geht es darum, die Produktwünsche und Kaufhandlungen der Amazon-Kund_innen zu antizipieren und Pakete noch vor dem tatsächlichen Kaufvorgang zu verschicken, sofern die prognostizierte Kaufwahrscheinlichkeit mehrerer Kund_innen in einer Region hoch genug ist. Wenn sich schließlich eine Person tatsächlich zu jener Kaufentscheidung durchringt, von welcher schlaue Algorithmen schon länger gewusst haben, dass sie fallen wird, muss nur noch die genaue Zieladresse aufgeklebt werden und schon freut sich wenig später ein verblüffter Mensch über eine unverschämt prompte Lieferung in einer Versandgeschwindigkeit, wie sie kein (kleinerer) Wettbewerber auf dem Online-Versender-Markt bieten kann. Der Algorithmus kennt unsere Konsumpräferenzen also mindestens so gut wie wir und ahnt unsere nächsten Käufe voraus. Falls wir dennoch aus irgendeinem Grund eine als wahrscheinlich errechnete Konsumentscheidung verschlafen sollten, erinnert uns der gute alte Recommender-Algorithmus netterweise an das heißbegehrte Produkt. Für die ganz zögerlichen Kund_innen wird schließlich ein Rabatt für eben jenes Produkt gewährt, das wir wollen müssten beziehungsweise gefälligst zu wollen haben und dass sich ja ohnehin schon im Amazon-Zustellfahrzeug auf dem Weg zu uns befindet. Parallel zur Suche des Pakets nach einem Abnehmer beziehungsweise einer Abnehmerin finden im Hintergrund der digitalen Rechenwelt permanente Kalkulationen statt, ob weitere Discounts gewährt werden sollen oder ob nicht doch eine Rücksendung in die Zentrale die günstigere Variante darstellt. Die gelungene Präsentation zeigte zudem auf, wie in Folge dieser probabilistischen Logik Märkte gezielt erzeugt werden und offenbarte so den dynamischen, performativen Charakter moderner, transnationaler und digitaler Märkte. Angelehnt an das Grundthema des Vortrags ließe sich behaupten, dass der verstärkte Einsatz von Anticipatory Shipping in Zukunft wohl „sehr wahrscheinlich“ ist, obschon der tatsächliche Nachweis dafür kaum zu erbringen ist (Stichwort: Blackbox). Bleibt nur noch zu fragen, wie lange sich entscheidungsfaule Zeit- und Selbstoptimierer überhaupt noch mit der lästigen „Kaufentscheidung“ als solcher herumplagen müssen und wann die ersten Produkt-Abos („Amazon-Life-Package“) angeboten werden, die uns monatlich und rabattiert mit einem Warenkorb all jener Dinge versorgen, die wir uns voraussichtlich (offen und/oder heimlich?) wünschen werden. (Diese Idee werde ich mir übrigens mit relativ hoher Wahrscheinlichkeit patentieren lassen.)

Im zweiten Vortrag berichteten WOLFGANG ASCHAUER und ALEXANDER SEYMER (beide Salzburg) von ihren Erfahrungen im Zuge der Beteiligung an einem FFG-Projekt namens „Kiras“. Bei der Vorstellung der komplexen Projektkonstellation wurde einerseits deutlich, dass die Soziologie – in diesem Fall zusammen mit den Kommunikationswissenschaften – eher eine Randposition einnahm (ja, auch budgetär), von der aus andererseits aber eine gewichtige korrigierende Kraft ausgehen konnte, galt es doch dem Big-Data-Hype und der Machine-Learning-Euphorie eine empirisch-analytische Stimme der Vernunft und Mäßigung entgegenzusetzen. Ziel des interdisziplinären Projekts war die Erstellung eines sogenannten „Weblyzards“, eines Softwaretools, das sich durch Zeitungsartikel und die dazugehörigen Kommentare und durch Social-Media-Posts durcharbeiten sollte („Datencrawler“), um eine tagesaktuelle Einstufung der Sicherheitswahrnehmung der (internetnutzenden) Bevölkerung zu treffen. Als problematisch erwies sich dabei nicht nur, dass die veröffentlichte mit der öffentlichen Meinung gleichgesetzt wurde; ein sehr konkretes Problem zeigte sich auch bei der Zuteilung der Online-Kommentare zu einem der „Sentiments“ positiv, negativ, zynisch oder irrelevant. Verglichen mit altbewährtem inhaltsanalytischen Vorgehen stufte der Weblyzard sehr viel mehr Kommentare als positiv ein. Der Grund dafür: der Algorithmus tut sich schwer, Zynismus zu erkennen. Doch all die menschenfreundlichen Algorithmen, AI’s, neuronalen Netze und Mech‘s, die das moderne Leben ja so sehr erleichtert und den Menschen nur ganz wenige Arbeitsplätze wegnehmen (= positiv!), haben keinen Grund zur Verbitterung, kommen sie doch, wie der nächste Vortrag zeigen sollte, in einem Punkt den Vertreter_innen der Gattung Homo sapiens schon sehr nahe, nämlich in der Verbreitung von Rassismus und Diskriminierung.

Konkret diskutierte THILO HAGENDORFF (Tübingen) Zusammenhänge von „Maschinenlernen und Diskriminierung“ und präsentierte vielfältige Formen der Einschreibung von Wertannahmen in Technik. Die Auswahl der Beispiele reichte von Körperscannern, die nach Normalkörperschema vorgehen und keine Prothesen erkennen, über Microsofts selbstlernenden Chat-Bot „Tay“, der bereits nach wenigen Tagen vom Netz genommen werden musste, weil er im Zuge des in der Kommunikation mit den Nutzer_innen in Gang gesetzten Lernprozesses zum digitalen Neonazi mutiert war, bis hin zu einem Schönheitswettbewerb, der von einer künstlichen Intelligenz entschieden worden war, die in ihrer Auswahl von immerhin 40 Sieger_innen keine dunkelhäutigen und fast keine asiatisch aussehenden Personen berücksichtigt hatte. Aber auch in anderen, mit Blick auf die gravierenden sozialen Konsequenzen erheblich wichtigeren Bereichen mangelt es nicht entsprechenden Beispielen: Zur Entlastung der überfüllten US-Gefängnisse wird etwa die Software COMPAS eingesetzt, die die Rückfallwahrscheinlichkeit von Straftäter_innen berechnet. COMPAS stuft Dunkelhäutige dabei systematisch schlechter ein. Ein anderer Algorithmus sorgt dafür, dass Frauen seltener Werbung für hochbezahlte Jobs angezeigt bekommen als Männer. Die Einsicht, welche die von Hagendorff präsentierten Beispiele vermittelten, ist eindeutig: Maschinenlernen ist nicht neutral, da es auf bestehenden sprachlich vermittelten Deutungs- und Wertungsmustern aufbaut und dadurch auch Diskriminierungen perpetuiert. Dem Einwand, dass wir Menschen es doch nicht anders machten, kann man entgegenhalten, dass die vorgestellten Beispiele nicht zuletzt deshalb so problematisch sind, weil man künstlichen Intelligenzen häufig ein höheres, wenn nicht absolutes Maß an Objektivität und Neutralität zuschreibt, nach dem Motto: „Da ist Mathe drinnen, das wird schon stimmen.“ Abgesehen davon tun sich auch in ethischer Hinsicht erhebliche Probleme auf, wenn Formen der Diskriminierung auf AIs auslagert und damit der indivduell zurechenbaren Verantwortung entzieht.

Komplettiert wurde das spannende Panel durch CHRISTIAN FRITZ-HOFFMANN (Oldenburg) und seinen Vortrag über die Konsequenzen der Digitalisierung bei der Wundversorgung. Das selbst in diesem doch recht speziellen Partikularbereich des Gesundheitssystems gravierende Digitalisierungsfolgen herausgearbeitet werden können (zum Beispiel intelligente Verbände und neue, vernetzte Versorgungskonzepte), lässt nicht nur darauf schließen wie mannigfaltig und umfassend damit verbundene gesellschaftliche Veränderungen in einer ungeahnten Zahl von Bereichen sind, sondern auch, dass diese Bereiche auf eine soziologische Analyse warten.
Zusammenfassend kann man festhalten: Technik- und Wissenschaftssoziolog_innen müssen sich in ihrem Feld vermehrt der Herausforderung stellen, ausgehend von einer fundierten theoretischen und/oder einer empirisch-analytischen Position gleichzeitig Grenzen aufzuzeigen und kritisch zu sein, ohne sich ganz aus dem Spiel zu nehmen. Außerdem helfen künstliche Intelligenzen Amazon dabei, seine Marktmacht zu behaupten und sie wirken immer tiefer auch in die kleinsten organisatorischen und privaten Sphären. Deshalb ist es umso wichtiger, zu wissen, dass AI‘s schon einmal negativ diskriminieren und auch rassistisch sind – ganz so wie ihre menschlichen Vorbilder – und dass sie mit Zynismus nicht wirklich klarkommen –auch das ein Umstand, der sie mit so einigen Exemplaren ihrer intelligenten Schöpfer verbindet. Da wohl nur die Wenigsten Algorithmen so gut verstehen, um an deren Entnazifizierung derselben mitzuarbeiten, kann man nur bescheiden bleiben und empfehlen: Seien Sie Ihrem Smartphone wenigstens ein gutes Vorbild – es wird von Ihnen lernen.

Um mit einer positiven Note zu enden, nochmal die Take-away-Message für all jene, die – genauso wie ich – noch immer nicht wissen, was sie ihren Liebsten zu Weihnachten schenken sollen: kein Grund zur Sorge, die Pakete sind schon auf dem Weg zu Ihnen! (Markus Schweighart)

Menschen, Viren, Simulationen

Simulationen standen dieses Jahr in der Sektion „Soziologische Methoden und Forschungsdesigns“ hoch im Kurs, gab es doch eigens einen Call for Papers zum Thema „Simulation sozialer Systeme“. Der erste Beitrag des Panels von PETRA MARTINA BAUMANN (Graz), der von realistischen Szenarien für Monte-Carlo-Simulationen in der Soziologie handelte, hatte freilich mit sozialen Systemen herzlich wenig zu tun, sondern ausschließlich mit der Frage, wie statistische Modelle auf die Verletzung ihrer Prämissen reagieren. Diese Fragestellung ist für die Methodenforschung insofern relevant, als doch immer wieder lineare Regressionsmodelle durch die Forschungslandschaft geistern, ihrer Würde durch die Verwendung einer ordinalen Variable mit gerade drei Ausprägungen als zu untersuchende Variable beraubt. Eine Monte-Carlo-Simulation kann darüber Aufschluss geben, unter welchen Bedingungen Ergebnisse eines solchen Modells überhaupt noch zu gebrauchen sind. Insofern bot der Vortrag also einen recht guten, wenn auch nicht ungetrübten Einstieg in die Thematik, war er doch mitunter geeignet, den Eindruck entstehen zu lassen, dass eine Verletzung von Prämissen keine große Sache sei. In der Diskussion wurde das Bild dann jedoch dahingehend zurechtgerückt, dass mit Verzerrungen durch inadäquate Modelle eher doch nicht zu spaßen sei.

Der zweite Vortrag von JOACHIM GERICH (Linz) trug den sperrigen Titel „Nutzung von Simulationsstudien zur Entwicklung einer Analysestrategie am Beispiel der Präsentismusforschung.“ Wer sich durch das sprachliche Ungetüm vom Besuch des Panels hatte abhalten lassen, verpasste einen Vortrag, der mit einer klugen Verquickung von statistischen Methoden und empirisch informierter Theoriebildung aufwartete. Abgesehen von den methodischen Fragen ging es um ein weitverbreitetes und keineswegs nur Gesundheitssoziolog_innen bekanntes Phänomen, nämlich den Präsentismus, in der von Gerich verwendeten Definition das „Verhalten, trotz gesundheitlicher Einschränkungen, die einen Krankenstand rechtfertigen würden, zur Arbeit zu gehen“. Bisherige Forschungen zu der Thematik waren zu dem Ergebnis gekommen, dass Faktoren, die für Präsentismus verantwortlich gemacht werden, auch mit Absentismus, also dem Fernbleiben im Krankheitsfalle, zusammenhängen. Von den aus der Forschung abgeleiteten Mutmaßungen zur Erklärung dieses vorgeblichen Paradoxons hielt Gerich nicht viel. Um zu einem besseren Verständnis des Phänomens zu gelangen, schritt er daher zur Simulation. Dabei konnte er schlüssig zeigen, warum bisherige Forschungen keine stichhaltigen Erklärungen liefern konnten. Die Anzahl der Tage mit Präsentismus ist schlussendlich von (mindestens) zwei Gruppen von Faktoren abhängig: Einerseits von Faktoren der Vulnerabilität, also der Wahrscheinlichkeit überhaupt krank zu werden, und andererseits von Faktoren, die direkt auf den Entscheidungsprozess zur Klärung der Frage „Krank zur Arbeit kommen oder zu Hause bleiben?“ Einfluss nehmen. Letztgenannte Faktoren zu identifizieren waren bisherige Vorgehensweisen allerdings nicht in der Lage, da sie diese mit den erstgenannten vermischten. Durch eine aus der Simulation abgeleitete veränderte Operationalisierung der Häufigkeit von Präsentismus konnte Gerich diese Unzulänglichkeit beheben und eindeutige Interpretationen der Ergebnisse anhand von realen Daten demonstrieren. Ein in jeder Hinsicht sehr inspirierender Vortrag, der einen die lästige Erkältung, die einen seit zwei Tagen im Griff hatte, für eine halbe Stunde vergessen ließ.

Zum Abschluss des Panels steuerten MARTIN WEICHBOLD (Salzburg) und DIMITRI PRANDNER (Linz) einen Vortrag über „Das persönliche Interview als soziale Situation verstehen: Interviewereffekte in Repräsentativstudien“ bei. Wer dabei an eine sinnverstehende Untersuchung der Interview-Situation mittels qualitativer Methoden gedacht hatte, lag falsch – auch hier wurde mit statistischen Modellen hantiert. Konkret ging es um Daten aus dem Sozialen Survey Österreich 2016 und deren Genese. Die Vorstellung, quantitative Methoden seien objektiv und würden klaren Regeln folgend zu unzweifelhaft korrekten Ergebnissen führen, sieht sich schon länger mit ernstzunehmenden Einwänden konfrontiert. Aktuell könnte man etwa auf die Arbeiten von Andrew Gelman und Eric Loken zum „Garden of Forking Paths“ oder paradigmatisch auf Jacob Cohens „The Earth is Round (p < 0.05)“ verweisen. Im Vortrag ging es nun weniger um die Konstruktion der Ergebnisse im Prozess der Analyse, als vielmehr um Korrelationen zwischen demografischen Merkmalen der Interviewer_innen und der Interviewten, also um Probleme des Samplings: Demnach befragten ältere Interviewer_innen häufiger ältere Personen, und auch bei der Bildung fanden sich Tendenzen zu sozialer Homophilie. Wenn man bedenkt, dass die Auswahl der Teilnehmer_innen angeblich zufällig erfolgte, ein durchaus beunruhigendes Ergebnis. Weichbold und Prandner warfen anschließend einen genaueren Blick auf die Frage, ob Charakteristika der Interviewer_innen auch auf inhaltliche Fragen einen Einfluss hatten. Hier konnten sie zwar Zusammenhänge erkennen, doch waren diese nicht außerordentlich groß. Passend dazu meinte denn auch ein Zuhörer, er sei gleichzeitig beunruhigt und beruhigt. Beunruhigt darüber, dass die Ziehung der Stichprobe offenbar nicht immer ganz nach Lehrbuch verlaufe, dann aber insofern auch wieder beruhigt, weil die Verzerrung der Ergebnisse nicht übermäßig groß zu sein schien. Die Veranstaltung schloss mit dem Wunsch nach mehr Aufmerksamkeit für das Thema, ein Aufruf, der auch im Sinne einer verstärkt qualitativen Auseinandersetzung mit quantitativen Befragungssituationen vollumfänglich unterstützt werden sollte. (Thomas Klebel)

„Ich möchte Teil einer Jugendbewegung sein“

Manchem Tagungsteilnehmenden im Alter zwischen 35 und 40 mag dieser Tocotronic-Song noch in den Ohren klingen. Das Paradoxon, Teil einer Bewegung sein zu wollen und gleichzeitig Vergemeinschaftungswünschen grundsätzlich skeptisch gegenüberzustehen, kam mir im Zusammenhang mit dem 2. Panel der Sektion „Soziologische Theorie“ in den Sinn, das sich vorgenommen hatte, „Zu den Wurzeln der Praxistheorie“ vorzustoßen. Schließlich markiert die Rede von der Praxistheorie eine Reihe verschiedener Ansätze als familienähnliche Elemente einer Theoriebewegung. Meine Mitwirkung als Vortragender in diesem Panel sowie als Autor von Beiträgen in eindeutig praxistheoretisch etikettierten Publikationen legt eine gewisse Zugehörigkeit nahe. Wenn ich im Folgenden ein paar Schlaglichter auf das Panel werfe, tue ich dies, bei all meiner Ambivalenz was Mitgliedschaften anbelangt, jedenfalls nicht als Zaungast.

Nach der kurzen Einleitung von ANDREA PLODER (Siegen), die das Panel im Rahmen der Sektion „Soziologische Theorie“ zusammengesellt hat, warf zunächst HILMAR SCHÄFER (Frankfurt/Oder) einen Blick auf „Die verzweigten Wurzeln der Praxistheorie“. Im Mittelpunkt seiner Ausführungen standen dabei Überlegungen Wittgensteins, Bourdieus und Foucaults, deren Wurzeln der Vortrag in die Wissensgebiete der Philosophie, Sprachwissenschaft, Geschichte und Ethnologie verfolgte. Neben der Verdeutlichung des Einflusses von Wittgensteins Überlegungen für das praxeologische Denken Bourdieus und Foucaults wartete der Vortrag auch mit Unerwartetem auf: Wittgenstein, so Schäfer, könne man auch als Ethnologen mit Interesse an der Beschreibung konkreter Praktiken lesen.

Anschließend verfolgte FRITHJOF NUNGESSER (Graz) das Anliegen, einen verspäteten Dialog zwischen „Praxistheorie und Pragmatismus“ in Gang zu setzen. Ausgangspunkt war die Beobachtung, dass sich die beiden Denkrichtungen viel näher seien, als dies üblicherweise angenommen werde. Der Vortrag verwies in diesem Zusammenhang zum einen auf die einseitige soziologische Aneignung pragmatistischer Autoren (insbesondere George Herbert Mead) im Zuge der Formierung des symbolischen Interaktionismus, zum anderen brachte er am Beispiel Bourdieus unterschiedliche Konjunkturen in der Rezeption des Pragmatismus ins Spiel. Während der Pragmatismus im Frühwerk Bourdieus praktisch keine Spuren hinterlassen habe, würden sich in späteren Arbeiten dezidiert pragmatistische Positionen finden, wenn freilich auch nur äußerst selektiv. Gehe man den Spuren nach, so Nungesser, dann könne man auf dem Weg einer tiefergehenden Auseinandersetzung mit Praxistheorie und Pragmatismus verfeinerte soziologische Verständnisse von Sozialisation sowie von Macht und Herrschaft erschließen.

Potenzialen widmete sich auch der Vortrag von STEFAN LAUBE (TU Dresden), der Nähen und Distanzen der Soziologie Erving Goffmans zur Praxistheorie auslotete. Während der Vortrag Gemeinsamkeiten in Bezug auf die Etablierung einer Alternative zur Betrachtung des Sozialen als entweder hervorgebracht durch individuelles Handeln oder andererseits durch soziale Strukturen ausmachte, zeichnete er ein anderes Bild, was den Status von Dingen und Körpern anbelangt: Die Materialitäten des Sozialen interessierten Goffman vor allem als Träger der zeichenhaften Hervorbringung der Darstellung sozialer Praktiken; die handelnde Mitwirkung von materiellen Dingen an der Hervorbringung von Darstellungen hingegen tauche bei Goffman nur am Rande auf. Vor diesem Hintergrund plädierte der Vortrag für gezielte interobjektive Fusionen der Theorie Goffmans.

In der lebhaften Diskussion manifestierten sich dann vor allem zwei Vorbehalte: Zum einen wurden Zweifel an der Originalität der Praxistheorie angemeldet. In der Kürze der Zeit konnten zumindest einige Vorbehalte ausgeräumt werden, etwa, indem verdeutlicht wurde, dass der Praxisbegriff der Praxistheorie kein Substitut für den Verhaltensbegriff darstellt. Zum anderen wurde kritisch auf die Tendenz der praxistheoretischen Debatte zur übermäßigen Betonung von Gemeinsamkeiten zwischen verschiedenen praxistheoretischen Ansätzen hingewiesen. Ein berechtigter Hinweis, denn auch Teile einer gemeinsamen Bewegung sind in der Regel nicht frei von Differenzen und Spannungen – was übrigens auch schon Tocotronic wussten. (Stefan Laube)