Jenaer Splitter III: Mittwoch

Bericht von der Abschlusskonferenz der DFG-Kollegforscher*innengruppe "Postwachstumsgesellschaften" und der 2. Regionalkonferenz der Deutschen Gesellschaft für Soziologie in Jena

The Real Battleground

Die Zukunft war früher auch besser

Wie geil ist das denn? Deichkind als Bezugstheorie

Wind of Change

Atmosphärisches

We Agree to Disagree

Nachdenken über Klassen unter erschwerten Bedingungen

*****

 

The Real Battleground

Das Interesse an der Veranstaltung im Hörsaal 2 war groß an diesem Morgen, sehr zur Freude des von Silke van Dyk (Jena) freundlich vorgestellten Referenten, der freimütig bekannte, kein Freund morgendlicher Vorlesungen zu sein („I really hate 9 o‘clock lectures“). Gekommen war das Publikum, um Nick Srnicek (London) in Augenschein zu nehmen, der kurzfristig als Keynote Speaker für den verhinderten Massimo De Angelis (London) eingesprungen war. Mit dem jungen kanadischen Wissenschaftler, der derzeit als Lecturer in Digital Economy am King’s Collge in London arbeitet, war den Verantwortlichen ein Glücksgriff gelungen, brauchte Srnicek doch nicht lange, um den Ausfall des ursprünglich gesetzten Redners Vergessen zu machen. Von vielen der Vorträge, die man bis zu diesem Zeitpunkt bereits gehört hatte (und in den kommenden Tagen noch hören sollte), unterschied sich Srniceks Auftritt schon durch die eloquente Art seines Vortrags, die sinnvoll und ansprechend gestaltete Form der PowerPoint-Präsentation sowie das perfekte Zeitmanagement. Vor allem aber zeichnete er sich dadurch aus, dass er etwas Kluges zu sagen hatte.

Was Srnicek in der folgenden Dreiviertelstunde unter dem Titel „The Political Economy of Artificial Intelligence“ präsentierte, waren Überlegungen aus seinem laufenden Forschungsprojekt, mit dem er an seine Arbeit Plattform-Kapitalismus anschließt.[1] Darin hatte er sich mit der Organisationsform der digitalen Plattformen auseinandergesetzt, die als Intermediäre verschiedene Gruppen – Nutzer*innen, Werbekund*innen, Appentwickler*innen und Contentproduzent*innen – miteinander verbinden und darum herum ihr Geschäftsmodell aufbauen. Sein besonderes Interesse an den digitalen Plattformen hatte dabei deren Tendenz, genauer: deren Strategien zur Ausbildung von Monopolen gegolten, namentlich der gezielten Erzeugung von Netzwerkeffekten („You get drawn in, even if you would rather not be drawn in“), dem exzessiven Sammeln von Daten sowie der planmäßigen Hervorbringung und Ausnutzung von Pfadabhängigkeiten, die alle auf unterschiedliche Art und Weise dazu beitragen, die jeweilige Plattform und ihre Dienste für eine stetig wachsende Schar von Nutzer*innen und Kund*innen unentbehrlich zu machen. Obwohl die Geschäftspraktiken aller Internetgiganten wie Amazon, Google oder Facebook sich an diesem Modell orientieren, sind sie sich lange Zeit nicht in die Quere gekommen, da sie schwerpunktmäßig in unterschiedlichen Marktsegmenten („E-Commerce, Search Engine, Social Media“) aktiv gewesen sind. Dies ändere sich jedoch rapide mit der wachsenden ökonomischen Bedeutung Künstlicher Intelligenz (AI). Seither, so Srnicek, drängten die Big Player in den gleichen Markt – mit besorgniserregenden Folgen für uns als Verbraucher*innen und als Bürger*innen.

Der Grund dafür, dass die führenden Internetkonzerne jetzt verstärkt in das gleiche Marktsegment drängten und danach trachteten, AI-First Companies zu werden, ist nach Srnicek ebenso simpel wie einleuchtend: AI sei eine überall einsetzbare „all-purpose technology“, mit der sich nahezu jede Branche und jeder Geschäftszweig revolutionieren lasse und die deshalb extrem hohe Gewinne verspreche. Nicht anders als im Zuge des Aufbaus der digitalen Plattformen gehe es auch jetzt in erster Linie um die Restrukturierung und Aneignung von Märkten. Wer den Markt kontrolliere, kontrolliere auch die Gewinne. Problematisch an dieser Entwicklung sei nun nicht, so Srnicek, dass diese besorgniserregende Entwicklung nicht diskutiert werde, sondern dass die betreffende Diskussion falsch geführt werde und die wirklichen Gefahren außer Acht lasse. Spätestens jetzt war man nicht mehr nur interessiert, sondern neugierig.

Gegenwärtig, so Srniceks Befund, konzentriere sich ein Großteil der Diskussion um AI und Machine Learning (ML) auf die Aspekte der Sammlung und Aufbereitung großer Datenmengen, auf die beide Technologien zur ‚Fütterung‘ und Optimierung von Algorithmen angewiesen sind.[2] Die Sammlung und Aufbereitung von Daten seien zwar durchaus wichtig, würden mit Blick auf die Frage der Marktführerschaft beziehungsweise der Marktbeherrschung in den kommenden Jahren aber weiter an Bedeutung verlieren. Zum einen, weil immer mehr Unternehmen dazu übergingen, selbst Daten ihrer Kund*innen zu extrahieren, und zum anderen, weil immer mehr Daten im Netz frei verfügbar seien. Vor allem aber ließen sich immer mehr Daten, die es zur Programmierung und Entwicklung von AI- und ML-Anwendungen brauche, bereits heutzutage synthetisch im Rahmen von Simulationen herstellen und müssten nicht mehr aufwendig erhoben werden.

Das eigentliche Schlachtfeld („the real battleground“), auf dem sich der längst eröffnete Kampf um die Kontrolle der ökonomischen Nutzung von AI und ML entscheide, seien die Bereiche der Modellentwicklung („model building“) sowie der Bereitstellung und Wartung respektive Überwachung („deployment and monitoring“) entsprechender Anwendungen und Dienste. Während es bei der Entwicklung und dem Training funktionsfähiger AI- und ML-Anwendungen auf hohe Prozessorleistungen ankomme, brauche es für die Bereitstellung und Wartung respektive Überwachung entsprechender Dienste enorme Speicherkapazitäten. Die Kosten für die Anschaffung und Unterhaltung der betreffenden Geräte seien aber so gigantisch, dass bereits jetzt nur noch einige wenige besonders finanzkräftige Internetfirmen – Srnicek schätzte deren Zahl auf ungefähr acht – in der Lage seien, sich in dem knallharten Verdrängungswettbewerb zu behaupten. Denjenigen, denen dies gelingt, winkten exorbitante Gewinne. Zum Beleg verwies Srnicek auf Amazon, das den Großteil seiner Einnahmen schon heute nicht mit dem Warenhandel im Internet, sondern mit der Bereitstellung von Cloud Computing Services durch sein Tochterunternehmen Amazon Web Services erwirtschafte („Amazon’s money tree“).

Da sich die Verfügung über die erforderlichen Prozessor- und Speicherkapazitäten aber nur dann in Wettbewerbsvorteile und schließlich auch in Gewinne ummünzen ließen, wenn die vorhandenen Ressourcen effizient genutzt werden, sei zwischen den Giganten der Branche ein weiterer Kampf entbrannt, nämlich der Kampf um die besten Köpfe. Dabei verfolgten Google, Amazon, Microsoft & Co. nach Srnicek eine ausgeklügelte Doppelstrategie. Einerseits versuchten sie geeignete Mitarbeiter*innen durch den massiven Einsatz von Geld zu gewinnen, wobei sie längst nicht mehr nur Einzelpersonen umwerben, sondern ganze Firmen aufkaufen oder, wie jüngst geschehen, ein komplettes Department einer Universität übernehmen würden. Andererseits zielten sie darauf ab, kreative Tüftler durch die kostenlose Bereitstellung von Open Source Frameworks ausfindig zu machen und frühzeitig an sich zu binden.

Damit war Srnicek an dem Punkt seiner Ausführungen angelangt, an dem das von ihm entworfene beunruhigende Zukunftsszenario deutliche Konturen annahm: Die handfeste Gefahr, die uns demnach mit dem weiteren Fortschreiten des digitalen Kapitalismus droht, ist die einer Welt, in der die Nutzung von AI und ML zunehmend alternativlos wird, die Verfügung über die entsprechenden technischen Ressourcen und das Wissen zur Entwicklung und Implementierung von Anwendungen aber von einigen wenigen Firmen kontrolliert wird, die sich sowohl die Nutzung ihrer Infrastrukturen als auch ihr Knowhow teuer bezahlen lassen und eine marktbeherrschende Stellung einnehmen. Wie entschlossen der Kampf um die Aufteilung des neuen Marktes seitens der Tech-Giganten geführt werde, lasse sich nicht zuletzt daran erkennen, dass inzwischen sowohl Apple und Amazon als auch Facebook und Microsoft Allianzen gebildet haben, um mit dem überlegenen Konkurrenten Google mithalten zu können.

Dass sich die politische Dimension der Problematik aber nicht nur auf die Frage der Marktmacht beschränkt, machte Srnicek am Ende seines Vortrags deutlich, als er die Frage stellte, was passiere, wenn nicht nur Unternehmen in Abhängigkeit von den Diensten der AI- und ML-Oligopolisten gerieten, sondern staatliche Einrichtungen, wie etwa das Gesundheitssystem oder die Energieversorgung, die hochsensible gesellschaftliche Bereiche betreffen. Wie lasse sich verhindern, dass es dazu komme? Wie kriegen wir die selbstherrlich agierenden Konzerne rechtlich gezähmt? Und welche Möglichkeiten haben wir, dem Angebot der privaten Firmen öffentlich finanzierte und demokratisch kontrollierte Alternativen entgegenzusetzen? Das, so Srnicek, seien die entscheidenden Fragen, von deren Beantwortung weit mehr als nur die Zukunft des digitalen Kapitalismus abhänge. Nach diesem Vortrag hatte man wenig Grund, daran zu zweifeln. (Karsten Malowitz)

*****

 

Die Zukunft war früher auch besser

Bei dem Forum „Finanzmärkte: Stolpersteine auf dem Weg zu Postwachstumsgesellschaften?“ sind die ersten Stolpersteine nicht finanzieller Natur: fehlende Adapter, fehlende Kabel und feste Sitzbänke, welche die Referent*innen dazu zwingen, sich ins Publikum einzureihen und dem Ganzen so die Atmosphäre einer Projektstunde im Fach „Wirtschaftskunde“ verleihen. Dazu kommt die unheilige Trias aus offenem Fenster, nasser Straße und Busverkehr, die den Raum mit einem konstanten niederfrequenten Dröhnen erfüllt. Langsam trudeln die Referent*innen ein, die die vielleicht schwierigste von allen Hürden genommen haben: den hinterletzten Raum im Jenaer Universitätshauptgebäude zu finden, in dem die Veranstaltung untergebracht ist. Studierende verirren sich kaum hierher, forschend bleibt das Feld unter sich.

Nach dem etwas holprigen Beginn widmet man sich der Arbeit. Andreas Langenohl (Gießen) erläutert die These, zu deren Diskussion sich die Gruppe zusammengefunden hat: Vorstöße in Richtung einer Postwachstumsökonomie würden durch gegenwärtige Finanzmarktlogiken ausgebremst, mögliche Alternativen von vornherein verhindert. Angelehnt an die Landnahme-These Rosa Luxemburgs umschreibt Langenohl das fragliche Phänomen mit dem Begriff der „Zukunftsnahme“. Zukünftige Entwicklungen würden durch die Finanzmärkte – sprich: die Praxis der Kreditvergabe – gewissermaßen vorweggenommen und in die Gegenwart „eingespeist“. Das verhindere naturgemäß Devianz, also die Verfolgung alternativer Zukünfte. Man habe sich daher eine Reihe von Fragen gestellt: Wie können Postwachstumsprojekte in diesem Umfeld wirksam werden? Welche Effekte haben Finanzinstrumente wie Green Bonds? Welche institutionellen Initiativen können Finanzdynamiken in Richtung Postwachstum bewegen? Und welche Temporalitätskonzeptionen sind notwendig, um Postwachstum als Projekt in Angriff zu nehmen?

Lisa Knoll (Hamburg) stellt in ihrem Vortrag zu „Risikopraktiken im Sparkassen- und Versicherungssektor“ gleich zu Beginn klar: Die Sparkassen sind nicht der Feind! Ausgangspunkt ihrer Forschung ist einer der Konflikte, die sich an der Neuordnung der Regulierungs- und Aufsichtspraktiken nach der Finanzkrise 2008 entzündet hat. Dabei stehen sich der Sparkassenverband auf der einen Seite und politische Schwergewichte wie Finanzminister Olaf Scholz und die Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) gegenüber. Letztere prangerten gelassen, aber bestimmt die „Opfer-Mentalität“ der Banken an und mahnten sie, sich dem neuen Geschäftsumfeld anzupassen (das „gefälligst“ denkt man sich dazu), ihre Strukturen umzubauen, sich zu „verschlanken“ und sich auf eine langanhaltende Kombination aus Niedrigzinsen und hohem Regulierungsgrad einzustellen. Sparkassen und Versicherungen betonten demgegenüber den besonderen Charakter ihres Geschäftsmodells. So unterscheide sich der Sektor von der klassischen Hochfinanz vor allem durch seine Regionalität und die Orientierung an langfristigen Finanzprodukten. Emblematisch verkörpert findet sich dieses Modell in der Werbefigur „Günther Schild“, einer überlebensgroßen sympathisch-verrunzelten Schildkröte aus Bronze, die 2008 auf dem Frankfurter Börsenplatz neben die beiden allegorischen Figuren von Bulle und Bär platziert wurde. In der die Aktion begleitenden Kampagne ließ die Bundesfinanzagentur Günther Schild sagen: „Man spricht deshalb vom ‚schnellen Geld‘, weil es schnell wieder weg ist“ und warb mit dem Hinweis, die Lieblingsbeschäftigungen der Schildkröte seien „Essen, Schlafen, Geld verdienen“, für den Kauf von Staatsanleihen. Derartige festverzinste Papiere mit langer Laufzeit waren über viele Jahre hinweg auch bei den Sparkassen stark nachgefragt. Der Markt für Staatsanleihen stehe jedoch aus bekannten Gründen seit längerem unter Druck. Der eine Teil, etwa deutsche Papiere, werfe – wenn überhaupt –, geradezu mickrige Renditen ab, bei dem anderen betreibe die EZB durch ihre massiven Anleihekäufe Marktverzerrung auf Kosten der Anleger. Zu allem Überfluss sehe sich die Branche nun mit neuen Regulierungsvorgaben konfrontiert: Banken seien dazu verpflichtet, jede einzelne Position in ihrer Bilanz mit einer individuellen Risikoeinschätzung zu versehen. Die alte Idee der Eigenkapitaldeckung sei damit passé. Stattdessen steige und falle die Solvency Capital Requirement (SCR) eines Instituts mit jeder Bewegung auf der Bilanz einer Bank. Jede Risiko(neu)bewertung schlage damit sofort auf den Eigenkapitalbedarf durch und zwinge die Banken dazu, Positionen, die sie früher behalten hätten, nun sofort in den Markt abzustoßen. Für die Branche bedeute das zweierlei: Zum einen müsse sie ihrem Versorgungsauftrag in den Regionen nachkommen und gleichzeitig in einem Negativzinsumfeld ihre Kund*innen zufriedenstellen, sprich: zumindest Werterhalt bieten. Zum anderen stehe sie unter wachsendem Zentralisierungsdruck. Immer mehr Institute würden die komplexe finanzmathematische Infrastruktur, mit der sie auf dem nationalen und globalen Finanzmarkt agieren müssten, gar nicht mehr verstehen. Kämen sie den Anforderungen jedoch nicht nach, würden sie mit signifikant höheren Eigenkapitalquoten abgestraft. Das Fazit, das Knoll am Ende ihres Vortrags zieht, ist düster. Infolge der neuen Regulierungen sähen sich Sparkassen und Versicherungen zunehmend mit der Notwendigkeit konfrontiert, zu diversifizieren, also am weltweiten Finanzmarkt teilzunehmen, wodurch sich das systemische Risiko für sie vergrößere. Profiteure dieser Entwicklung seien vor allem global agierende Vermögensverwaltungsgesellschaften, die über die nötigen Ressourcen verfügten und mit spezialisierten Produkten noch relativ hohe Margen erzielen könnten. Sie entwickelten sich damit zu Kapitalmanagern der Banken, die ihre Portfolios zunehmend an jene outsourcen würden. Nicht weniger als das Ende der Versicherungsidee stehe an. Jeder stemme nun sein eigenes Risiko. Oder bildlich gesprochen: Günther Schild ist tot. Jetzt wird sein Panzer ausgekocht.

Vom Standpunkt der größtmöglichen Distanz und Abstraktion nähert sich Manuel Schulz (Jena) seinem Gegenstand. In seinem sprachlich äußerst präzisen, angenehm zu folgenden und beeindruckend klaren Vortrag zeichnet er nach, wie moderne Finanzmärkte als „temporalstrukturelle Ketten einer selbstverschuldeten Unmündigkeit“ wirken. Um verständlich zu machen, was sich hinter der sperrigen Formulierung verbirgt, greift er auf eine These aus Reinhart Kosellecks Buch Vergangene Zukunft zurück, der zufolge sich moderne Gesellschaften durch eine gewandelte kollektive Zeitwahrnehmung auszeichneten (nicht umsonst spreche man von der „Neuzeit“). Sie entwickelten eine selbstreflexive Perspektive, die es ihnen ermögliche, aus geschichtlichen Abläufen herauszutreten. Oder, um es mit Kosellecks berühmter Kurzformel zu sagen: „Erfahrungsraum und Erwartungshorizont treten auseinander“. Was man von der Zukunft zu erwarten hat, sei nicht mehr durch frühere Erfahrungen verbürgt und lasse sich nicht mehr aus diesen ableiten. Mit dieser teleologischen Offenheit betrete auch die Idee der Selbststeuerung von Gesellschaft die Bühne. Und mit ihr die Verantwortung zur Steuerung. Den Rest der Geschichte kenne man: Industrialisierung, Revolution, Spätkapitalismus, Fridays for Future. Finanzmärkte spielten bei dieser „Bewirtschaftung von Zukünften“ als „Mittel für den Transport von Zahlungsfähigkeit“ (so die volkswirtschaftliche Lehrmeinung) eine zentrale Rolle. Wer gerade nicht liquide sei, könne sich Liquidität beschaffen, auch wenn das koste – nämlich zukünftiges Geld. Man verkaufe seine in der Zukunft erwarteten Einnahmen beziehungsweise Profite und bekomme dafür einen geringeren Betrag schon heute. Soweit die Logik. Die Bezifferung von Zukunft habe jedoch zur Folge, so Schulz, dass die erwarteten Zukunftsszenarien dann auch eintreten müssen. Sobald dies nicht der Fall sei, wie in Krisen meist üblich, und fest eingeplante Einnahmen ausbleiben, stünden Macht- und Verteilungskonflikte an. Finanzialisierung – und wie man allerorten hört, nimmt diese beständig zu – führe somit zu einer „finanzökonomischen Pränataldiagnostik“, so Schulz. Spätmoderne Gesellschaften konstruierten im Medium der Finanzökonomie unreflektiert ihre eigene Zukunft und sähen sich anschließend gezwungen, diese zu realisieren sowie Abweichungen möglichst zu verhindern. Techniken, die geschichtlich nur im Kontext eines radikalen Kontingenzbewusstseins entstehen konnten, würden auf diesem Weg teleologische Schließungen produzieren. Wir bräuchten, so das Fazit, eine zweite Aufklärung, die es uns ermögliche, diese temporalstrukturellen Ketten einer (abermals) selbstverschuldeten Unmündigkeit abzustreifen.

Ob seine offensichtlich nah an der Dialektik der Aufklärung gebaute These denn dieses Näherverhältnis einhalten könne, wird der Referent von Andreas Langenohl gefragt. Schließlich hätten die Finanzmärkte im Unterschied zur Aufklärung niemals ein Emanzipationsversprechen abgegeben. Der Angesprochene verweist lapidar auf die Zukunft. Die Finanzmärkte natürlich nicht; in seinem Projekt beabsichtige er jedoch eine „Kritik der Quantifizierung“ zu formulieren. Man darf gespannt sein auf den nächsten Theorieentwurf aus Jena. (Philipp Tolios)

*****

Wie geil ist das denn? Deichkind als Bezugstheorie

„Autos machen Dreck,
Umwelt geht kaputt
Doch 'ne fette neue Karre is'
Leider geil.“

Zwar nicht mit dieser, aber einer anderen, ebenfalls sehr passenden Passage des mitreißenden Deichkind-Songs eröffnete das Wiener Organisationsteam, bestehend aus Karoline Kalke, Michael Deflorian und einer durchorganisierten, bisweilen streng wirkenden Moderatorin beziehungsweise Kommentatorin Margaret Haderer, das Panel mit dem Titel „Gutes Leben, geiles Leben. Zur Attraktivität und Dialektik (nicht-)nachhaltiger Lebensweisen“. Auf diesen womöglich etwas unseriös anmutenden Einstieg folgte das dann doch überraschend seriöse Anliegen der Vortragenden: Sie wollten gängige Nachhaltigkeitsnarrative kritisch hinterfragen. Denn wenn man sich etwa mit Stephan Lessenichs Externalisierungsgesellschaft und dem Konzept der Imperialen Lebensweise von Ulrich Brand und Markus Wissen auseinandersetze, falle auf, dass den genannten Konzepten zwar die zentrale Rolle des Konsums gemein sei, sie dessen affektiver Dimension jedoch keine Bedeutung beimessen würden. Das gelte es zu ändern, schließlich ermögliche Konsum nicht nur Distinktionsgewinne, sondern könne ebenso „dionysische“ Gefühlszustände auslösen, etwa wenn man aus reinem Vergnügen in der schon von Deichkind erwähnten fetten Karre aufs Gaspedal tritt und sich im Rausch der Geschwindigkeit spielend leicht über die Grenzen des eigenen Körpers hinwegsetzt. Der Tatsache, dass das Subjekt zwischen dem Wunsch nach einer nachhaltigen, guten Lebensweise und dem Reiz eines nicht-nachhaltigen, aber geilen Lebens stehe, müsse Rechnung getragen werden, beispielsweise indem man das Geile in Teilen in das Konzept des guten Lebens „hinüberrette“. Während früher, so Kalke und Deflorian, das gute und geile Leben noch zusammen fielen, trennten sich diese Konzepte mit dem Auftreten der ersten Umweltbewegungen gegen Ende der 1960er-Jahre. Seitdem gestalte sich das geile Leben zunehmend konflikthaft: Schließlich werde immer offensichtlicher, dass bestimmte Verhaltensweisen zu Lasten der Umwelt gehen. Und trotzdem ist der Konsum tropischer Früchte, die eigentlich unnötige, aber so vergnügliche Shoppingtour oder der hart erarbeitete, zweiwöchige Karibikurlaub inklusive Langstreckenflug ganz einfach: leider geil. Vor diesem Hintergrund will das Forschungsteam der Frage nachgehen, inwiefern das spezifische Lebensgefühl der imperialen Lebensweise den sozial-ökologischen Wandel behindert und was eine Lebensweise affektiv beinhalten muss, um für möglichst viele Menschen attraktiv zu sein.

Ganz in diesem Sinne eröffnete Verena Kraß (Berlin) ihre Ausführungen zu „den Grenzen der liberalen politisch-philosophischen Tradition hinsichtlich der Gestaltung eines lebenswerten Anthropozäns“ mit der Feststellung, dass gesellschaftlich geprägt und bedingt sei was als geil wahrgenommen wird. Daraus folge die schlichte, aber zentrale Erkenntnis, dass Veränderungen dieser Wahrnehmungen grundsätzlich möglich seien. Jedoch hätte die liberale Logik mit ihrem Wertneutralitätsgebot, das unter anderem eine Trennung von Öffentlichem und Privatem forciere, einen „illusorischen Resonanzraum“ erzeugt, in dem dionysische Gefühlszustände eng mit privaten Konsumentscheidungen verknüpft und quasi auf solche reduziert würden. Im Liberalismus kann das Subjekt also kaum anders Erfahrungen von eigener Gestaltungsmacht und Authentizität machen als durch Konsum, was vor dem Hintergrund einer zentral mit dem Konsumverhalten in Verbindung stehenden Zerstörung der Umwelt denkbar schlecht ist. In der Konsequenz müssten liberale Maxime angegriffen und ausgehebelt werden, um einen Wandel zu ermöglichen. Als denkbaren Gegenentwurf schlug Kraß das dieser Tage in Jena häufiger ins Spiel gebrachte südamerikanische Konzept des „buen vivir“ vor, dass das gute Leben nicht nur für den Menschen, sondern auch für die Natur propagiert. Margaret Haderer ließ während ihrer anschließenden kurzen Kommentierung fallen, dass – apropos Wertehierarchie – lesen ja bekanntlich auch besser sei, als Chips essend vor dem Fernseher zu sitzen und erntete dafür wenig zurückhaltendes Gelächter.

Vollends in Fahrt kam das Publikum beim anschließenden Vortrag von Franziska Meinherz (Lausanne) zum Thema Pendeln. Die Soziologin hatte rund 20 Interviews mit Pendler*innen in Basel und Genf geführt, um deren Beweggründe bei der Ausgestaltung ihrer Alltagsmobilität zu erforschen. Ihre salopp formulierte Arbeitshypothese, die trotz des jovialen Tons ein wenig old fashioned daherkam, sorgte insbesondere aufgrund der Wortwahl für Heiterkeit im Hörsaal:

(Foto: Stephanie Kappacher)

 

Der Nutzung des eigenen Autos und die daraus folgende nicht-nachhaltige Ökobilanz, ordnete sie einem Leben zu, das als „geil“ empfunden würde, insbesondere, weil man zeitlich flexibel sei und zusätzlich auch noch ungestört laut Musik hören oder (selbstverständlich via Headset) telefonieren könne. Demgegenüber ordnete sie die Nutzung nachhaltiger Vehikel wie (Elektro-)Velos oder dem öffentlichen Nahverkehr einem, von ihr so treffend bezeichneten, „guten Scheißleben“ [sic!] zu. Diese Begriffswahl gründete vor allem auf der Annahme, dass trotz des Wissens um die positive Ökobilanz des eigenen Handelns in der alltäglichen Wahrnehmung eher negative Aspekte wie Zeitgebundenheit ins Gewicht fielen. Die Ergebnisse zeichneten dann jedoch ein deutlich heterogeneres Bild: Während einige der Befragten die Arbeitshypothese bestätigten, betrachteten insbesondere die Velo-Nutzer*innen die für den Arbeitsweg aufgewendete Zeit überwiegend als Freizeit, die sie aktiv mit sportlicher Ertüchtigung gestalten konnten – und fanden’s teilweise gut, teilweise sogar geil. Demgegenüber empfanden diejenigen, die den Weg zur Arbeitsstätte mit dem Auto zurücklegten, ihre tägliche Fahrt als großen Stressfaktor, beispielsweise weil sie regelmäßig einen nicht unbeträchtlichen Teil ihrer Zeit in Staus verbringen müssten. Insbesondere befragte Mütter, die gern den öffentlichen Nahverkehr nutzen würden, gaben an, das Auto nehmen zu müssen, weil die vielfältigen, teilweise spontan erforderlichen Wege ihres Alltags es gar nicht anders zuließen. Meinherz bemerkte abschließend, dass die Ergebnisse darüber hinaus den Schluss nahelegten, dass nicht Werte, sondern vielmehr Emotionen bei der Entscheidung über die Ausgestaltung der Alltagsmobilität ausschlaggebend seien. Mehrfach wurde von Personen, die den öffentlichen Nahverkehr nutzten, geäußert, dass sie, so sie es sich denn leisten könnten, viel lieber mit einem eigenen Auto unterwegs wären; die Ökobilanz war ihnen dabei relativ schnuppe.

Auf die im Anschluss gestellte Frage, welche konkreten Schlüsse aus ihrer Untersuchung für die Verkehrspolitik gezogen werden könnten, entgegnete Meinherz lächelnd, dass sich – vor allem in Anbetracht der sich zur Autonutzung gezwungen sehenden Mütter – Fragen stellen würden, die weit über verkehrspolitische Aspekte hinaus reichen, etwa bezüglich der Schaffung neuer Infrastrukturen zur Verkürzung der täglich zu absolvierenden Wege. Wer wollte da widersprechen?

Am Ende verließ der Großteil der Anwesenden offensichtlich gut gelaunt den Hörsaal: Dieses Kongresspanel hatte dem Publikum zwar nicht unbedingt geile, aber doch gute Unterhaltung geboten. Und mit hoher Wahrscheinlichkeit war ich nicht die Einzige, die das Wort „geil“ in einem Zeitraum von zweieinhalb Stunden noch nie so oft gehört hatte wie an diesem Mittwochvormittag. (Stephanie Kappacher)

*****

 

Wind of Change

Das Panel der Arbeitsgemeinschaft Soziologiegeschichte – die auf diesem Regionalkongress in den Stand der DGS-Sektionen erhoben werden will – war überschrieben mit „1989 – Soziologiegeschichte einer Wendezeit“. Darunter wurden verschiedene fachhistorische Zugriffe subsumiert: Katharina Lenski sprach über die Entstehung und Entwicklung der Soziologie in der DDR, die keine unabhängige Fachwissenschaft darstellte, sondern politisch gelenkt und instrumentalisiert wurde. Auch im Vortrag von Karl-Siegbert Rehberg ging es um die Soziologie in der DDR und ihre Abwicklung im Zuge des institutionellen Umbaus infolge der Wende. Rehbergs „Formel für den Gesamtvorgang“ war die „Überlagerung durch die westdeutsche Soziologie“, durch die die DDR-Soziologie rechtlich, institutionell und personell marginalisiert wurde. In Tanja Paulitz’ Vortrag spielte die deutsche Teilung hingegen keine tragende Rolle: Sie veranschaulichte mithilfe einer bunten, sich beständig ausdifferenzierenden Grafik, wie der Begriff „Gender“ Ende der 1980er-Jahre seine transatlantische Reise antrat, mit Judith Butlers „Gender Trouble“ Anfang der 1990er-Jahre Eingang in die Frauen- und Geschlechterforschung fand und dort die sogenannte Sex-Gender-Debatte auslöste. Der Vortrag von Angelika Schwarz konzentrierte sich auf „die Kategorie des Emotionalen“, die seit den frühen 1990er-Jahren in Form der Emotionssoziologie (wieder) vermehrt rezipiert wird. Schwarz interessierte sich für die Frage, welche Gefühle wann diskursfähig wurden.

Auf den dichten, aber dementsprechend auch sehr informativen Vortrag von Stephan Moebius soll an dieser Stelle genauer eingegangen werden. Moebius erklärte direkt zu Beginn, dass er unter ‚Wendezeit‘ keinesfalls eine Kehrtwende, sondern vielmehr – ganz nach der Definition des Dudens – eine „einschneidende Veränderung, [einen] Wandel in der Richtung eines Geschehens oder einer Entwicklung“ versteht. Der Vortrag beschäftigte sich dann hauptsächlich mit der Entwicklung der bundesdeutschen Soziologie, die die Ereignisse von 1989 nicht vorhergesehen hatte. Die Überraschung beziehungsweise der Schock über die mangelnde Prognosefähigkeit der Soziologie wirkte sich maßgeblich auf die inhaltliche Ausrichtung des Faches aus. Bereits vor 1989 fand mit der Herausbildung von unterschiedlichen theoretischen Positionen und empirischen Forschungsfeldern eine Pluralisierung statt, Moebius nennt hier beispielhaft die Entwicklung der Frauen- und Geschlechterforschung und die Renaissance der Kultursoziologie. In und nach der Wendezeit verstärkte sich dieser Trend durch die Abkehr von Großtheorien zugunsten der Ausdifferenzierung von speziellen Theorien und Bindestrichsoziologien. Zusätzlich dazu standen die diversen -turns und -studies „quer zum soziologischen Feld und sorgen für dessen Anregung“. Die soziologischen Unter- und Teildisziplinen wurden und werden bis heute mit theoretischen Versatzstücken aus anderen Geistes- und Sozialwissenschaften angereichert und auch untereinander unermüdlich kombiniert. Anstatt tragfähige und umfassende Gesellschaftstheorien zu formulieren, werden laufend neue Zeitdiagnosen produziert, die sich jedoch nur auf einen (meist sehr begrenzten) Teil der anvisierten Gesellschaft beziehen lassen.

Zum Abschluss seines Vortrags brach der Referent dann noch eine Lanze für die Vielschichtigkeit der multiparadigmatischen Disziplin, was als klare Abgrenzung zur von der Akademie für Soziologie geforderten disziplinären Einheit zu verstehen war. Die Heterogenität des Faches ist schließlich seinem Gegenstand – der Gesellschaft – geschuldet. So korreliert beispielsweise die Vermehrung der normativen Positionen in der Soziologie mit der normativen Pluralisierung der Gesellschaft. Damit war Moebius nach dem Ritt durch die bundesdeutsche Soziologiegeschichte dann auch bei den aktuellen Debatten und Grabenkämpfen angelangt. Eine entscheidende Frage stellte er allerdings nicht, sie musste aus dem Publikum eingeworfen werden: Wie wichtig war und ist die Soziologie für eine Gesellschaft, damals in der deutungsumkämpften Wendezeit und heute in der normativ pluralisierten Gegenwart? Welchen Stellenwert kann sie haben, welche Positionen will sie einnehmen? Solche Selbstreflexionen müssen der Ertrag einer derart intensiv betriebenen Nabelschau sein – andernfalls bleibt sie reiner Selbstzweck.

Schon vor Beginn der Veranstaltung kam es zu Verzögerungen durch technische Probleme. Die Moderatorin Nicole Holzhausen nutzte die Zeit, um ein ausgeklügeltes System vorzustellen, mit dem sie die Vortragenden rechtzeitig und dezent darauf hinweisen wollte, dass sich ihre jeweilige Redezeit dem Ende zuneigt. Bei fünf Vorträgen in zweieinhalb Stunden schien das ein sinnvolles Vorgehen zu sein. Und obwohl sich Holzhausen auch in den an jeden Vortrag anschließenden Diskussionen redlich Mühe gab, die Redebeiträge des Publikums zu bündeln und die Antworten der Referent_innen zu begrenzen, hatten zum offiziellen Ende des Panels um 13 Uhr erst vier von fünf Vorträgen stattgefunden. Zwar konnte auch die letzte Referentin ihren Beitrag noch präsentieren, sie musste sich jedoch mit einem deutlich dezimierten Publikum zufrieden geben. Das ist für die Zuhörerschaft wie für die Vortragenden gleichermaßen schade und da ein (noch) rigoroseres Zeitmanagement wohl kaum umsetzbar gewesen wäre, hätte hier eine vorausschauendere Planung mit weniger Vorträgen Not getan. (Wibke Liebhart)

*****

 

(Auch im altehrwürdigen Jenenser Universitätshauptgebäude fanden Veranstaltungen statt. Foto: Stephanie Kappacher)

 

Atmosphärisches

Schon beim Betreten des vor mehr als hundert Jahren eröffneten und in den Grundrissen des niedergelegten Großherzoglichen Schlosses errichteten Jenenser Universitätshauptgebäudes ist man von einem ehrwürdigen Ambiente umgeben: Gotische Deckenbögen, kühle Steinböden und vom Zahn der Zeit gezeichnete Wandtafeln zum Gedenken an (verhältnismäßig) geschichtsträchtige Ereignisse wie etwa die Verleihung der philosophischen Doktorwürde an Karl Marx im April 1841 oder Georg Wilhelm Friedrich Hegels Vorlesungen von 1801 bis 1806 sorgen für ein besonderes Flair.

(Empfangshalle des Universitätshauptgebäudes, Foto: Stephanie Kappacher)

 

An diesem Mittwochnachmittag kommt auch noch Klaviermusik hinzu, die sich aufs Angenehmste mit den optischen Reizen des erhabenen Bauwerks vereint. Den süßen Klängen folgend gelangt man zu dem Hörsaal, an dessen Eingang eine sichtlich gut gelaunte Anita Engels (Hamburg) die Eintreffenden begrüßt: „Wir machen ein bisschen akustische Werbung“, sagt sie, und verweist lächelnd auf ihren am Klavier sitzenden Kollegen Stefan Aykut (ebenfalls Hamburg), der mit seinem Spiel für Wohlfühlatmosphäre sorgt.

(Wo gibt's denn sowas: ein Hörsaal mit Klavier! Stefan Aykut entlockt dem Instrument süße Klänge. Foto: Stephanie Kappacher)

 

Um die Atmosphäre wird es in den folgenden zweieinhalb Stunden quasi in Dauerschleife gehen, steht das hier stattfindende Panel doch unter dem Titel „›Carbon pricing‹ als Motor der Dekarbonisierung der Gesellschaft. Eine Idee im Theorie- und Praxistext“ und verhandelt damit Aspekte rund um die den Klimawandel gewaltig befördernden CO2-Emmissionen und den Versuch ihrer Eindämmung durch Bepreisung. Eine großflächige Eindämmung der CO2-Emmissionen ist schließlich dringend notwendig, wenn die bereits 2015 im Rahmen der Pariser Klimaschutzkonferenz (COP21) verabschiedeten Ziele des von 195 Ländern unterzeichneten allgemeinen und rechtsverbindlichen Klimaschutzübereinkommens noch erreicht werden sollen, allen voran eine Erderwärmung von nicht mehr als 1,5° C.

Das Vorgehen, mittels Bepreisung eine Reduzierung des CO2-Ausstoßes zu erwirken, bezeichnete Engels in ihrer Einführung zum Thema zunächst als „elegante Idee“. Spätestens seit diesem Sommer werde in der unter anderem durch die Aktivitäten der Fridays for Future-Bewegung befeuerten Debatte nicht mehr die Frage verhandelt, ob von diesem Instrument Gebrauch gemacht werden sollte, sondern nur noch, wie hoch man den Preis ansetzen und wie man eine gerechte Verteilung der damit anfallenden Kosten erreichen könne. Das kürzlich von der Bundesregierung verabschiedete und berechtigterweise stark in der Kritik stehende Klimapaket stelle in diesem Zusammenhang einen Anachronismus dar. Engels kritisierte zunächst den erkennbar fehlenden politischen Willen dazu, das Instrument der CO2-Bepreisung wirkungsvoll einzusetzen, schließlich sei die Höhe des CO2-Preises eine politisch zu treffende Entscheidung. Das aktuelle Klimapaket sehe bis 2021 einen Festpreis für CO2-Zertifikate in Höhe von EUR 10 und bis 2025 eine Steigerung auf EUR 35 vor. Andere Empfehlungen, wie etwa die des deutschen Ökonomen Ottmar Edenhofer, der einen Einstiegspreis von EUR 50 und bis 2030 eine Steigerung auf EUR 130 empfehle, lägen da deutlich höher.

Darüber hinaus, so bemängelte Engels, gebe es keine Abstimmung bezüglich der verschiedenen eingesetzten Maßnahmen und ihrer Umsetzung, was immer wieder Probleme und kontraproduktive Effekte verursache. Beispielsweise, so führte die Hamburger Soziologin aus, sehe das Klimapaket eine Erhöhung der generellen Pendlerpauschale vor, was unsinnigerweise in erster Linie diejenigen entlaste, die den Weg zwischen Wohnung und Arbeitsstätte mit dem Auto zurücklegen.

Als dritten Punkt hob Engels hervor, dass die öffentliche Debatte über eine sozialverträgliche Verteilung der Kosten bislang nicht ausreichend geführt worden sei und der aktuell geführte Diskurs ein passives Demokratieverständnis impliziere. Stattdessen müssten breite Partizipationsmöglichkeiten für eine aktive gesellschaftliche Trägerschaft zur Verfügung stehen, um eine „selbsttragende Dynamik“ in Gang setzen.

Anschließend machte sich ein hochengagierter Felix Ekardt (Leipzig/Berlin und Rostock: ja, stimmt so) nach einem kurzen Loblied auf seine eigenen Arbeiten und vielfältigen Tätigkeiten daran, ökonomische Klimaschutzinstrumente gegen ihre Freunde und Kritiker zu verteidigen. Schließlich, so der Jurist, Philosoph und Soziologe, der 2018 eine Klage beim Bundesverfassungsgericht gegen die Bundesregierung auf Einhaltung der im Pariser Abkommen formulierten Klimaziele eingereicht hat, würden beide Seiten zum Teil von denselben, aber eben unzutreffenden Grundannahmen ausgehen. Ein besseres Verständnis ökonomischer Klimaschutzinstrumente sei aber dringend vonnöten, um ihr Image aufzuwerten. Da wäre etwa die falsche Annahme, es handle sich um rein technikbasierte Instrumente. Auch wenn Art. 2 Abs. 1 des Pariser Abkommens eine solche Lesart nahelege und der Einsatz von Technik unter anderem durch eine Effizienzsteigerung von Produktionsverfahren zu einer effektiven Reduzierung des CO2-Ausstoßes beitragen könne, verweigerten sich einige Probleme schlicht einer technischen Lösung, beispielsweise die Erzeugung tierischer Nahrungsmittel. Des Weiteren gelte es, Rebound-Effekten und möglichen technischen Defekten Rechnung zu tragen. Vor diesem Hintergrund, so Ekardt, seien Suffizienz und Verhaltensänderungen ebenso gefragt. Abgesehen davon lasse sich Klimaschutz in bestimmten Bereichen auch über ökonomische Anreize steuern und böten dabei sogar größere Gestaltungsspielräume bei der Umsetzung etwaiger Maßnahmen als dies etwa bei ordnungsrechtlichen Regelungen der Fall sei, bei denen diverse einzelne Sachverhalte zur Erreichung eines Zieles formuliert werden müssten, von deren Umsetzung und Einhaltung einmal ganz abgesehen.

Apropos „Ziel“. Diesem Begriff kam in Ekardts Argumentation eine Schlüsselrolle zu, denn: „Ohne feste Zielsetzung ist jedes eingesetzte Mittel hohl.“ So lautete nach eigener Aussage der wichtigste Satz, den der vielbeschäftigte Nachhaltigkeitsforscher an diesem Nachmittag verlauten lassen würde. Schließlich seien geografisch und sachlich möglichst breit ansetzende, insbesondere aber mit einer absoluten wie rechtsverbindlichen Zielsetzung arbeitende Instrumente am ehesten geeignet, dem Klimawandel entgegenzuwirken.

In seinem Fazit mahnte Ekardt, der sich mittlerweile in Rage geredet hatte, eine notwendige Verhaltensänderung aller an. Schließlich würden Politiker*innen die unser Konsumverhalten erfassenden Statistiken und Erhebungen sehr genau studieren. Straßendemonstrationen und lautstark geäußerte Lippenbekenntnisse müssten dringend von entsprechenden Verhaltensänderungen wie einem (weitgehenden) Verzicht auf Flugreisen oder Fleischkonsum flankiert werden. Anderenfalls liege der Schluss nahe, die Bürger*innen wünschten sich insgeheim doch nur eine symbolische Politik und, so Ekardt: „Genau die haben wir ja auch bekommen!“ – keine ganz neue, aber dennoch zutreffende Erkenntnis.

Katrin Großmann (Erfurt) befasste sich in ihrem Vortrag mit Energiearmut und der Frage nach der Bedeutsamkeit einer gerechten CO2-Steuer. Anhand einer empirischen Studie zeigte sie auf, dass von Armut bedrohte oder betroffene deutsche Haushalte mit einem monatlichen Nettoeinkommen von unter EUR 900 im Schnitt 9 Prozent ihres Geldes für Energiekosten aufbringen müssten, während deutlich wohlhabendere Haushalte (mit monatlich mehr als EUR 5000 Nettoeinkommen) mit 5 Prozent einen geringeren Anteil ihres Einkommens für die Energieversorgung zahlen würden. Eine für alle Haushalte gleich ausfallende CO2-Steuer werde diese Ungleichheit weiter verschärfen. Vor diesem Hintergrund plädierte Großmann für Maßnahmen wie etwa eine „Klimaprämie“ zur Entlastung schlechter gestellter Haushalte.

Der bekennende „Nicht-Experte“ und sich selbst im Feld der CO2-Emissionen als Autodidakt bezeichnende Stephan Lessenich (München) eröffnete seinen Vortrag mit der Frage, ob Preise tatsächlich die ökologische Wahrheit über die Umweltkosten unserer Handlungen bemessen könnten. Nein, lautete die simple Antwort, mit der Lessenich den Anwesenden die „Preisillusion“ nehmen wollte. Schließlich seien sowohl der im Klimapaket der Bundesregierung bezifferte als auch der von anderen, darüber deutlich hinausgehenden ökonomischen Schätzungen angegebene CO2-Preis gleich in mehrfacher Hinsicht viel zu niedrig angesetzt: In räumlicher Hinsicht etwa berücksichtige der Preis keine der im Ausland für die Produktion von Gütern für den deutschen Markt entstehenden Emissionen. In zeitlicher Hinsicht fehle die historische Perspektive, man müsse sich doch nur vor Augen führen, dass bis etwa 1900 ausschließlich Westeuropa und die USA CO2 emittiert und damit die Atmosphäre belastet hätten. Und außerdem müsse man sich der Grenzen einer solchen Bepreisung bewusst werden. Denn wo, fragte Lessenich, enden eigentlich die Schadenskosten von CO2-Emmissionen? Bei Sturmschäden oder Atemwegserkrankungen? Bei Ozeanversauerung oder Hitzetoten? Die unbequeme Wahrheit laute: Das Ausmaß der tatsächlichen Schäden lässt sich faktisch gar nicht bemessen. Für einen Moment herrschten Ruhe und Ratlosigkeit im Raum. Was nun?

Lessenichs Fazit: Trotz der beschriebenen Preisillusion sowie einer systematischen Überschätzung des Instruments und einer „grandiosen Unterschätzung“ der Kosten sei kein CO2-Preis auch keine Lösung. Das System müsse jedoch dringend korrigiert und der Preis deutlich erhöht werden. Denn trotz der Tatsache, dass die Bepreisung kein Ersatz für eine umfassende sozial-ökologische Transformation darstelle, sei sie doch „ein unabdingbares Einstiegsprojekt“ auf dem Weg zu einer umfassenden gesellschaftlichen Veränderung.

(Wirkte auf den ersten Blick atmosphärisch freundlich, ging aber phasenweise auch heiß her: die Diskussion mit Anita Engels, Felix Ekardt, Katrin Großmann & Stephan Lessenich, von links nach rechts. Foto: Stephanie Kappacher)

 

Die darauf folgende Diskussion war atmosphärisch in Teilen ebenso bedrückend wie die Konfrontation mit der Tatsache, dass kaum effiziente wie effektive Mittel zur drastischen Reduzierung von CO2-Emissionen existieren. Gleichwohl wurde die Debatte angeregt und insbesondere von Ekardt auch so wort- und gestenreich geführt, dass der für gewöhnlich auch nicht auf den Mund gefallene Lessenich sich zu der Frage genötigt sah: „Gibt es hier auch eine Moderation?!“ Inhaltlich wurde einmal mehr deutlich, wie schwierig es sein wird, ökologische Nachhaltigkeit und soziale Gerechtigkeit miteinander in Einklang zu bringen. Denn dass selbst die von Armut bedrohten oder betroffenen deutschen Haushalte in globaler Perspektive immer noch zu den Privilegierten gehören, darin waren sich sogar Ekardt und Lessenich einig. Insbesondere das Schlusswort des Münchener Soziologen dürfte vielen im Ohr geblieben sein: „Es wird Kämpfe geben!“ Das meine er nicht angstbesetzt, sondern als soziologische Diagnostik, seien die zu beobachtenden Konflikte um den CO2-Preis doch lediglich ein Vorgeschmack auf die in Anbetracht zukünftiger Entwicklungen zu erwartenden gesellschaftlichen Auseinandersetzungen. Lessenich rief dazu auf, deren hohe Wahrscheinlichkeit wie auch die damit verbundenen Ängste als Treiber zur Forcierung der notwendigen Debatten über die Umgestaltung unserer Gesellschaft zu nutzen. Auch wenn Lessenich es nicht erwähnte, wurde man unweigerlich an die von Hartmut Rosa im Rahmen der Auftaktveranstaltung formulierten Worte erinnert: Wandel by Design oder Wandel by Desaster? Am Ende verließ man den Hörsaal mit einem mulmigen Gefühl im Bauch. Und während man am verwaisten Klavier vorbei und durch die stille Eingangshalle ging, wurde einem bewusst, wie schnell es vorbei sein kann, mit der schönen Atmosphäre. (Stephanie Kappacher)

*****

 

We Agree to Disagree

Die Metapher der zerstrittenen Familie, die den Kontakt entweder gänzlich abgebrochen hat oder es – trotz aller Differenzen – immerhin noch schafft, am gleichen Tisch zu sitzen, hat in der deutschen Soziologie zur Zeit Hochkonjunktur. Und völlig unabhängig davon, wie man das bewerten will, kam man auch während des Panels mit dem Titel „Welche Soziologie benötigt eine Gesellschaft im Umbruch?“ nicht umhin, sich an ebendieses Bild erinnert zu fühlen.

Doch beginnen wir von vorn: Zu Beginn der Veranstaltung stellt Harmut Rosa (Jena) dem Publikum Hartmut Esser (Mannheim) vor, den Vater der „Mannheimer Schule“, einem Zweig der Familie, der das Jenaer Soziolog*innentreffen größtenteils boykottiert. In seinem Vortrag holt der Autor des sechsbändigen Werkes „Soziologie. Spezielle Grundlagen“ weit aus, möchte er doch nicht weniger präsentieren als „die typische soziologische Methode“. Unter der versteht Esser natürlich die Situationslogik, auf die man sich doch über die verschiedenen Lager der gespaltetenen Fachdisziplin hinweg verständigen könne. Sie analysiere soziale Tatbestände – oder „Probleme“, wie Esser präzisiert – im Hinblick auf ihre kleinsten Einheiten, nämlich einzelne Situationen. Deren Verbindung, der Übergang einer Situation in eine andere, sei das Erklärungsbedürftige und dabei keineswegs trivial. Streben müsse man indes nach der einfachsten Erklärung, die – wer hätte es gedacht – aus der Kombination von Kausalgesetzen und deren Randbedingungen bestünde.

Kaum hat er diese streng an der Naturwissenschaft orientierten Prämissen festgezurrt, beginnt Esser damit, seinem größtenteils nicht aus Sozialphysiker*innen bestehendem Publikum Zugeständnisse zu machen. Die wenigsten Kausalgesetze, meint er, seien auf mehrere Ereignisverkettungen anwendbar, meist müsse man für neue Situationen neue Gesetze finden. Häufig müsse man veränderte Randbedingungen benennen oder exogene Ereignisse berücksichtigen. Ohnehin habe die Soziologie mit zwei grundsätzlichen Problemen zu kämpfen: erstens, dass es eben keine Fundamentalgesetze gebe, man also an allen Ecken und Enden auf „Unvollständigkeiten“ stoße und Kontingenzen, Anomalien und Lücken zu berücksichtigen hätte. Zudem müsse man sich mit den Problemen einer doppelten Hermeneutik herumschlagen. Die Untersuchungsobjekte der Soziologie seien eben gleichzeitig interpretierende Subjekte, die postulierte Kausalitäten rezipieren und ihr Handeln an diesen ausrichten. Dennoch müsse das Ziel sein, subjektiven Sinn, gemäß des Weber’schen Diktums, „deutend zu verstehen und dadurch in seinem Ablauf und seinen Wirkungen ursächlich zu erklären“. Und auch die Coleman‘sche Badewanne sei ein unverzichtbares Werkzeug für die empirische Gesellschaftswissenschaft, da sie garantiere, dass sowohl individualistische als auch strukturalistische Fehlschlüsse vermieden werden, wenn man nur akkurat arbeite.

(Der Feuermelder auf dem Gang zu unseren Jenenser Hotelzimmern führte den Redaktionsmitgliedern bei jedem Passieren sinnbildlich die Frage vor Augen: Würde Hartmut Esser ob des Zustands der deutschen Soziologie wieder Alarm schlagen? Foto: Stephanie Kappacher) 

 

Esser weiß um die Macht der Multimedialität. Für sein erstes Beispiel, die Anwendung der Situationslogik auf die sogenannte „Flüchtlingskrise“ von 2015, greift er auf das verstörende Bildmaterial zurück, das in jenen Tagen aufgenommen wurde. Sein zweites Beispiel, seine Interpretation des Forschungsprogramms des Postwachstumskollegs, fasst er mit Hilfe des „ARD-ZDF-RTL-Modells“. Von seinen Powerpoint-Folien leuchten einem unterdessen Textboxen entgegen, die mit massivem Einsatz der Warnfarben Gelb und Rot, aber auch Neonpink gestaltet wurden. In der Biologie heißt diese Strategie „Mimikry“ und dient dem Überleben in gefährlicher Umwelt. Nach einiger Zeit verschwinden die Textboxen. Nun tauchen die Namen Karl Marx, Max Weber, Alfred Schütz, Jürgen Habermas und eine Reihe anderer toter weißer Männer auf. Alles angebliche Vertreter der Situationslogik und gleichzeitig Säulenheilige der verstehenden, der sinnsuchenden Soziologie. „Mimesis“ möchte man meinen, das Verschmelzen mit der Umgebung. Ebenfalls ein strategischer Schutzmechanismus, der sich evolutionär bewährt hat.

Doch der befürchtete Angriff bleibt vorerst aus. Denn Nicole Burzan (Dortmund), als erste dazu auserkoren, ihren Vorredner zu kommentieren, streicht gleich zu Beginn die Segel. Sie fühle sich an äußerst unangenehme Situationen in mündlichen Prüfungen erinnert, habe außerdem kein Paper zur Vorablektüre zur Verfügung gestellt bekommen und sei daher nicht gut vorbereitet. Burzan verhält sich in dieser Situation so, wie auch schlaue Studierende sich verhalten würden. Sie versucht durch geistreiche Rückfragen Zeit zu gewinnen. Worum gehe es Hartmut Esser denn eigentlich? Ziele er auf die Schärfung des Begriffsapparats der Soziologie? Oder wolle er eine stärkere empirische Unterfütterung der Forschung? Sei Überprüfbarkeit das A und O? Wolle er die Soziologie professionalisieren? Aber professionalisiert sei sie doch schon! Oder sei er einfach grundsätzlich der Ansicht, seine Einheitsmethode sei das Nonplusultra? Nachdem so einige Minuten herumgebracht sind, kommt die Ungleichheitsforscherin zu ihrem Fazit: Eine multiperspektivische Soziologie sei ein hohes Gut, eine Hierarchisierung soziologischer Zugänge hingegen grundsätzlich abzulehnen. Zum einen sei sie gegen eine Paradigmenherrschaft, zum anderen könne man im Nachhinein ohnehin fast alles in eine Coleman‘sche Badewanne kippen. Als Forschungsprogramm sei die Situationslogik jedoch gleichzeitig „zu viel“ – weil forschungspraktisch überfordernd – und „zu wenig“ – weil nicht klar sei, was eine Situation letztlich eingrenze, wie man mit Situationsdynamiken umzugehen habe und so weiter. Damit versetzt Burzan dem Hauptredner den wohl am besten sitzenden Haken von so einigen, die an diesem Abend ausgeteilt wurden: Es gehe nicht um das abstrakte Modell sozialwissenschaftlicher Forschung, sondern um den Stellenwert, den verschiedene soziologische Zugriffe in der Forschungspraxis zugeschrieben bekommen. Was drohe, sei nicht die Negation hermeneutischer Zugriffe, sondern ihre Degradierung zu Hilfswissenschaften.

Hans-Peter Müller (Berlin) – in derselben misslichen Lage wie seine Vorrednerin – versucht es mit einer Polemik. Er beabsichtige, „eine positive Kritik des Esserismus“ zu formulieren. Dabei handle es sich um „eine ausgeklügelte Argumentationsstrategie, die darauf abziele, alle auch die noch so abgefahrenen Theorieentwürfe dem eigenen Paradigma einzuverleiben“. Hartmut Esser träume den Traum einer Einheit der Wissenschaften (Dieser aus dem Off: „Ja, das tue ich!“). Ein Blick in die Geschichte der Soziologie zeige jedoch, dass diese sich eben nicht als Einheitswissenschaft konstituieren konnte. Entsprechende Ansätze, etwa die „physique social“ August Comtes oder das Programm Durkheims, soziale Tatsachen „comme des choses“ zu studieren, seien gescheitert. Der Pluriperspektivismus und Relativismus sei dem Fach eben eingeschrieben, denn „man sieht damit mehr“. Die Soziologie sei eine genuin fragmentarische Wissenschaft, weshalb sie sich auch gerade in Krisenzeiten gegenüber den klassischen Beratungswissenschaften wie der Ökonomie oder den Rechtswissenschaften bewährt habe. Jedenfalls – und da war er ganz Essers Meinung – stünden Probleme, nicht Methoden oder Theorien im Zentrum des Fachs.

Wiederholt muss sich Esser an diesem Abend dagegen zur Wehr setzen, als Repräsentant des renitentesten Familienzweigs angesehen zu werden. Er sei doch gekommen, um in Dialog zu treten und es liege ihm am Herzen, sich über gemeinsame Standards zu verständigen. Über die Einladung habe er sich sehr gefreut, beteuerte er, aber ständig würden ihm unlautere Motive unterstellt. In seinem Abschlussstatement gesteht er leicht resigniert, dass er sich von dem Abend mehr erwartet hatte. Man nimmt ihm das ab. Wer wäre nicht enttäuscht, wenn er auf die Vorstellung der „typischen soziologischen Methode“ vor einem Saal von Soziolog*innen – einer Methode, die mit der wohlmeinenden Absicht auftritt, die Familie wieder zusammen zu bringen und die Wissenschaftswelt als Ganze besser zu machen – nur zu hören bekäme: „Schön und gut. Mach dein Ding. Wir machen unseres. Wir bleiben in Kontakt“. (Philipp Tolios)

*****

 

Nachdenken über Klassen unter erschwerten Bedingungen 

„Klasse als Schicksal?“ – diese Frage lockte am Mittwochabend zahlreiche interessierte Zuhörerinnen und Zuhörer in den Hörsaal 1. Dort herrschte zunächst eine für Vortragsveranstaltungen unübliche Dunkelheit, die zugleich faktisch und sinnbildlich für die zentrale Herausforderung des Abends stehen sollte: Bevor über die Rolle der Gesellschaft als Strukturierungsprinzip individueller Lebenschancen diskutiert werden konnte, galt es zunächst, die Technik in den Griff zu bekommen.

Doch nicht nur die zweite, auch die erste Natur forderte an diesem Abend ihren Tribut: Aufgrund eines Infekts musste Rahel Jaeggi ihre Teilnahme an der Veranstaltung absagen und Andreas Reckwitz das Podium allein besetzen. In die Rolle des Alleinunterhalters gezwungen, zeigte sich dieser unbeeindruckt von den widrigen Umständen und stellte dem trotz der miserablen Akustik geduldig lauschenden Publikum seinen Entwurf einer Klassenanalyse der Gegenwart vor.

Die Grundelemente dieser Analyse der spätmodernen Klassengesellschaft sind aus seinem Buch Die "Gesellschaft der Singularitäten" bekannt. Bereits dort hatte er argumentiert, dass es seit den 1970er-Jahren zu einer Refiguration der Sozialstruktur kommt, die sich als Überführung der „nivellierten Mittelstandsgesellschaft“ in eine neue Klassengesellschaft beschreiben lässt. War jene durch den Fahrstuhleffekt bestimmt, so funktioniere die neue Klassengesellschaft nach dem Paternosterprinzip, statt einer kollektiven Wohlstandssteigerung geht es also für die einen nach oben, während die anderen beständig abwärts fahren. Reckwitz ergänzte die Darstellung dieser Transformation mit einem „Drei-Plus-Eins-Modell“. Drei-Plus-Eins bezeichne den Umstand, dass zur sozialstrukturell bereits bekannten Dreiteilung der Gesellschaft in Ober-, Mittel- und Unterschicht eine Aufspaltung der Mitte in eine alte und eine neue Mittelschicht hinzugekommen sei.

Analytisch lag dem Vortrag ein dreidimensionales Klassenverständnis zugrunde: Kulturell sei Klasse als eine Form der Lebensführung oder – in den Worten der abwesenden Koreferentin – als eine Lebensform zu begreifen. Ökonomisch zeichne sich jede Klasse durch eine bestimmte Ressourcenausstattung aus. Politisch sind die aus der Ressourcenausstattung resultierenden Machtpositionen ausschlaggebend. Im Anschluss an Pierre Bourdieu arbeitete Reckwitz in seinem Vortrag die veränderte Kapitalzusammensetzung der Klassen als zentrales Merkmal der Refiguration der Klassengesellschaft in der Spätmoderne heraus. Besonders deutlich werde diese Neuordnung, so der Referent, an der neuen Mittelklasse und der prekären Unterklasse, denn sie stellen die Gewinner und Verlierer der gesellschaftlichen Transformationsprozesse in der zweiten Hälfte des 20. Jahrhunderts dar. Als Klasse der Akademiker und Wissensarbeiter habe die neue Mittelklasse von der Postindustrialisierung der Gesellschaft, der Bildungsexpansion und den postmaterialistischen Wertewandel profitiert. Im Vergleich zur alten Mittelklasse zeichne sie sich durch ein hohes Maß an kulturellem Kapital und durch das Streben nach Selbstverwirklichung aus. Sie verdankt ihren Aufstieg der gesellschaftlichen Transformation im letzten Drittel des 20. Jahrhunderts und das schlägt sich in ihren Einstellungen nieder: Die neue Mittelklasse gibt sich kosmopolitisch und weltoffen. Die prekäre Unterklasse, die als Dienstleistungsproletariat das Erbe der alten Arbeiterklasse antritt, sehe sich hingegen mit den Schattenseiten der ökonomischen Transformation konfrontiert und ihr geringes ökonomisches und kulturelles Kapital mache sie zu den Verlierern der jüngsten Transformation. Statt nach Selbstverwirklichung zu streben, stelle sich das Leben für sie als Kampf dar, in dem sie sich durch ein muddling through zu behaupten suchen. Resultat sei ein Leben im „Modus der Kurzfristigkeit“ und ein fatalistisches Geschichtsbild, in dem die Zukunft zunehmend unverfügbar erscheine.

Die alte Mittelklasse nehme eine eigentümliche Binnenposition zwischen der neuen Mittelklasse und der prekären Unterklasse ein: Während sie ökonomisch weiterhin relativ gut abgesichert sei, sei sie kulturell in die Defensive geraten. Ihr an Status und Pflichterfüllung orientiertes Wertesystem erscheine vor dem Hintergrund des Selbstverwirklichungsanspruchs der neuen Mittelklasse und den Anforderungen eines transformierten Kapitalismus veraltet. Diese Erfahrung einer relativen Deprivation schlage sich in einer konservativen Einstellung nieder, der vor allem an Ordnungserhalt gelegen sei.

Aus Zeitgründen ließ Reckwitz in seinem Panorama der spätmodernen Klassengesellschaft die Oberklasse ausgespart. Stattdessen wagte er zum Abschluss einen Blick aus der Gegenwart in die Zukunft und entwarf drei möglichen Zukunftsszenarien: Im ersten Szenario komme es im Zuge eines weiteren Bedeutungsverlusts der alten Mittelklasse zu einer Verschärfung des Dualismus zwischen neuer Mittelklasse und prekärer Unterschicht. Im zweiten Szenario gebe es eine allgemeine Prekarisierung, die auch die neue Mittelklasse erfasse. Im dritten Szenario finde hingegen eine Angleichung nach oben statt, in der es zu einer Stabilisierung der alten Mittelklasse und einer Entprekarisierung der Unterklasse komme. Leider verzichtete Reckwitz auf eine Erörterung der gesellschaftlichen Bedingungen der Möglichkeit und Unmöglichkeit des Eintretens der verschiedenen Szenarien und beendete seinen Vortrag mit diesem Ausblick in eine offene Zukunft.

Der Rest des Veranstaltungsabends war dann erneut von technischen Problemen geprägt. Kaputte Mikrophone führten dazu, dass der Moderator und die anwesenden Hilfskräfte beständig zwischen Podium und Publikum hin- und herlaufen mussten. Trotz dieser unfreiwilligen Sporteinlage gingen Teile der anschließenden Diskussion in einem Rauschen unter. Das war umso tragischer, als die sowohl wohlwollenden als auch kritischen Nachfragen zentrale Aspekte von Reckwitz’ Klassenanalyse berührten: Sie zielten unter anderen auf die Reichweite der Analyse und ihre empirische Grundlage sowie auf die Vernachlässigung eines produktionsorientierten Klassenbegriffs und die damit einhergehende Ausblendung von Ausbeutungsverhältnissen ab. So wird die Diskussion an anderer Stelle – und unter hoffentlich besseren Bedingungen – fortzuführen sein. (Alexandra Schauer)

Fußnoten

[1] Nick Srnicek, Plattform-Kapitalismus, übers. von Ursel Schäfer, Hamburg 2018. Für eine Besprechung der englischen Ausgabe vgl. Philipp Staab, Aufstieg und Ende der Plattform, in: Soziopolis, 17. 8. 2017.

[2] Vgl. Hal Varian, Artificial Intelligence, Economics, and Industrial Organization, Cambridge, MA (NBER Working Paper Series Nr. w24839); Jason Furman / Robert Seamans, AI and the Economy, Cambridge, MA (NBER Working Paper Series Nr. w24689); Ajay Agrawal / Joshua Gans / Avi Goldfarb, Prediction Machines. The Simple Economics of Artificial Intelligence, Boston, MA 2018.

Dieser Beitrag wurde redaktionell betreut von Stephanie Kappacher, Wibke Liebhart, Karsten Malowitz, Hannah Schmidt-Ott und Philipp Tolios.