Grundbegriffe Macht Herrschaft in Grundbegriffe der Soziologie
- Macht - Autorität - Herrschaft
- Markt
- Mechanismen, soziale
- Medien
- Minderheiten
- Methoden der empirischen Sozialforschung
- Migration
- Milieu, soziales
- Mobilität, soziale
- Morphologie, soziale
Macht - Autorität - Herrschaft
Macht, Herrschaft und Autorität bezeichnen jeweils komplexe soziale Beziehungsgeflechte, die einerseits eigenständige Phänomenbereiche konstituieren, andererseits aber auch miteinander verwoben sind. Sie sind soziale Tatsachen, die vielfältigen Deutungsmustern zugänglich sind. Nicht zuletzt deshalb ist ihr semantischer Gehalt bis heute umstritten.
Dies kann beispielhaft an der Macht gezeigt werden: Verweisen die einen auf konstruktive Aspekte der Macht für Verständigung oder soziales Handeln, sehen andere in ihr etwas Böses oder gar Dämonisches; assoziieren die einen mit Macht eher Freiheit, so andere Zwang; ist für die einen Macht eher an gemeinsames Handeln gebunden, so rücken andere sie in die Nähe von Kampf und Konflikt; sind für die einen Macht und Gewalt Gegensatzpaare, die unterschiedlicher nicht sein könnten, so stellt für andere Gewalt eine besondere Form von Macht dar; wird auf der einen Seite Macht an Recht gebunden, so erscheint sie auf der anderen Seite als Willkür.
Aber auch um die Herrschaft steht es nicht viel besser: Benutzen die einen Herrschaft als einen Oberbegriff zu Macht, so betrachten andere sie lediglich als einen Spezialfall derselben und ordnen sie dieser unter; bedeutet Herrschaft für die einen Unterdrückung, so erfüllt sie für andere wichtige Ordnungsfunktionen; glauben die einen, Herrschaft abschaffen zu können, so halten andere sie für eine Universalie menschlicher Gesellschaften; evoziert der Gedanke an Herrschaft für die einen eher Furcht und Schrecken, so für andere Gedanken an eine grundlegende Form menschlicher Vergesellschaftung, die mit besonderer Legitimität ausgestattet ist.
Und für die Autorität gilt: Sie ist einerseits überall vorfindbar, aber andererseits widerspricht sie unseren Gleichheitsidealen; verbinden die einen Autorität mit fragloser Anerkennung, so vermengen andere Autorität mit Autoritarismus; verbindet sich Macht einerseits mit Autorität, so verfügt doch andererseits längst nicht jeder Machthaber über Autorität; sehen einige in charismatischer Herrschaft eine be-
sondere Form der Autorität, so stellen andere sie gegenüber den Herrschaftsformen moderner Gesellschaften deutlich zurück; schließlich kann Autorität offensichtlich ganz unterschiedlich zu Macht und Herrschaft in Beziehung gesetzt werden.
Wie kommen solch disparate und widersprüchliche Kennzeichnungen zustande? Zum einen entspringen sie aus unterschiedlichen theoretischen Traditionen innerhalb der Sozialwissenschaften; zum anderen haben sie mit grundlegenden ideologischen Positionen und Menschenbildern zu tun, die den Blick auf Macht, Herrschaft und Autorität präformieren. Nicht zuletzt dürften solche Einschätzungen auch aus der Lebenswelt der Individuen und ihren unterschiedlichen Erfahrungen mit den genannten Phänomenen resultieren. Bevor jedoch diese unterschiedlichen Bezüge und die damit einhergehenden Deutungsmuster inhaltlich differenziert werden, sollen zuvor wenigstens grundlegende Aspekte der drei Begriffe vorgestellt werden.
Als Ausgangspunkt kann dazu auf die klassischen Definitionen von Max Weber zurückgegriffen werden, der die genannten Phänomene grundlegend mit der sozialen Ungleichheit, mit der Ausbildung von Klassen und Schichten oder auch sozialer Ränge, auf jeden Fall mit gesellschaftlichen Hierarchien und entsprechenden Über- und Unterordnungsverhältnissen in Beziehung setzt und damit die unterschiedlichen Formen und Möglichkeiten der Durchsetzung von Interessen und die Beeinflussung von Handlungen verbindet. Nach Weber bedeutet Macht „jede Chance, innerhalb einer sozialen Beziehung den eigenen Willen auch gegen Widerstreben durchzusetzen, gleichviel worauf diese Chance beruht." Zwei Aspekte sind an dieser Definition bemerkenswert: Zum einen rückt Weber seinen allgemeinen Machtbegriff in die Nähe von sozialen Kämpfen und Konflikten; zum anderen spezifiziert er die Grundlage der Chance der Willensdurchsetzung nicht näher, sondern spricht davon, dass alle erdenklichen Qualitäten eines Menschen und verschiedenartige Konstellationen ihn in diese Lage versetzen können. Damit bleibt der Machtbegriff zunächst „soziologisch amorph". Im Gegensatz dazu definierte Weber Herrschaft als „die Chance, für einen Befehl bestimmten Inhalts bei angebbaren Personen Gehorsam zu finden." Dadurch, dass Machtausübung und Einflussnahme allein nicht ausreichen, um Herrschaft zu konstituieren, und Herrschaft immer an Legitimität zurückgebunden wird, geht Weber davon aus, dass Herrschaft einen stärkeren Institutionalisierungsgrad als Macht besitzt. Herrschaft beruht auf verschiedenen „Motiven der Fügsamkeit", wenigstens einem „Minimum an Gehorchenwollen" - und damit der Anerkenntnis von Autorität. Fließen bei Weber Herrschaft und Autorität fast zusammen, so scheint es sinnvoller, Autorität mit Sofsky und Paris als „anerkannte, geachtete Macht, die zugleich bewundert und gefürchtet wird ", zunächst als eigenständige Kategorie zu fassen. Autorität beruht dabei auf beanspruchter und anerkannter Kompetenz und Überlegenheit einer Person, die in der Regel mit einem Amt, einer Sache oder einer Funktion verbunden ist. Autorität kann also in Machtbeziehungen oder Herrschaftsverhältnissen auf verschiedenen Ebenen zum Tragen kommen.
Für alle drei Begriffe ist aber ihr Prozess- und Figurationscharakter konstitutiv: Macht, Herrschaft und Autorität kann man nicht für sich allein haben, sondern sie sind immer nur in Verbindung mit anderen Menschen denkbar, weil alle drei Begriffe ein soziales Verhältnis bezeichnen. Deshalb sind Macht, Herrschaft und Autorität auch keine rein statischen oder über längere Zeiträume stillstellbaren Zustände, sondern dynamische Phänomene, in denen sich die Relationen zwischen einzelnen Personen, Gruppen oder Institutionen auf Grund der asymmetrischen und wechselseitigen Beziehungen verändern.
Das kommt besonders deutlich bei Machtverhältnissen zum Ausdruck. Zur Erfassung dieses vielschichtigen Grundphänomens menschlicher Gesellschaften ist zunächst daran zu erinnern, dass Macht ganz kategorial darauf zurückzuführen ist, was ein Mensch ,vermag' und wie er dieses Vermögen zum Einsatz bringen kann. Popitz hat deshalb vier Grundtypen der Macht (Aktionsmacht als Verletzungsmacht, instrumentelle Macht als Unterwerfungsmacht, autoritative Macht als verhaltenssteuernde Macht und datensetzende Macht als objektivierte Macht technischen Handelns) unterschieden, daraus konstitutive Handlungsmöglichkeiten der Menschen abgeleitet und darauf hingewiesen, wie und warum diese Machttypen im Einzelnen wirksam sind und wie es zu Prozessen der Machtbildung kommt.
Daneben lassen sich unterschiedliche Dimensionen der Macht differenzieren. Sinnvoll ist die Unterscheidung in Machtquellen, Machtmittel, die Formen der Machtausübung und die Wirkungsmechanismen von Macht. Alle Macht beruht zunächst auf grundlegenden Machtquellen. Diese können entweder in körperlicher Überlegenheit, in der Persönlichkeit (Charisma oder Autorität) eines Menschen, in der Verfügung über Ressourcen oder in Organisationen bestehen. Diese Machtquellen eröffnen den Zugang zu den eigentlichen Machtmitteln. Solche konkreten Medien der Machtausübung können z. B. sein Kapital (im Bourdieuschen Sinne), Körperschaften und Organisationen, Amts-, Funktions- oder Sachautorität, die mit spezifischen Sanktionsmöglichkeiten ausgestattet sind, oder Informationen. Sie stellen die Trümpfe in Machtspielen dar, mit ihnen werden Konflikte ausgefochten, kann Widerstand geleistet oder gebrochen werden. Die Art der Machtquellen und der je spezifische Einsatz von Machtmitteln strukturieren dann die konkreten Formen der Machtausübung. Letztere reichen auf einem Spektrum von eher diskreten Formen wie Einfluss, Überzeugung oder Motivation über das Ausspielen von persönlicher und sachbezogener Autorität und der Anwendung von Kontrolle und Zwang bis hin zum Einsatz von Gewalt. Formen der Machtausübung können also eher kommunikativ oder eher brachial ausfallen. Mit ihnen korrespondieren in der Regel typische Wirkungsmechanismen von Macht. Hier wäre z. B. die
Androhung von Strafen oder anderweitigen negativen Sanktionen (repressive Macht), aber auch positive, auf Wohlverhalten abzielende Sanktionen zu nennen (kompensatorische Macht), und nicht zuletzt auch Manipulation zu erwähnen, deren Wirkung über die Konditionierung von Situationen und Menschen erzielt wird. Je nach Kombination dieser Aspekte variieren Reichweite, Geltungsbereich und Wirkungsintensität der Macht.
Diese Differenzierungen weisen über die Webersche Definition von Macht insofern hinaus, als sie nicht nur das Handeln zur Überwindung von Widerstand als Machtaktion begreifen, sondern auch die Gründe für die Möglichkeit zur Machtausübung spezifizieren. Lukes hat rein auf der Handlungsebene angesiedelte Machtkonzeptionen als eindimensional gekennzeichnet, weil sie etwa eine zweite Ebene der Machtausübung - sog. non-decisions - außer Acht lassen. Dabei geht es um die Beeinflussung der Rahmenbedingungen für die Machtausübung etwa über die Manipulation oder die Kontrolle der Spielregeln. Aber auch eine zweidimensionale Fassung von Macht bleibt immer noch an die intentionale Willensdurchsetzung von Individuen gekoppelt. Nach Lukes gilt es deshalb auch noch eine dritte Dimension zu berücksichtigen: Diese besteht z. B. in einem impliziten gesellschaftlichen oder gruppenförmigen Konsensus, dass bestimmte Dinge gar nicht verhandelbar sind, sondern als gegeben akzeptiert werden müssen. Noch vor der Ebene der Abstimmung der Spielregeln und weit vor dem eigentlichen Handeln sind also bereits bestimmte Aspekte festgeschrieben - unzweifelhaft ein Machtphänomen.
Theorien der Macht thematisieren Macht letztlich auf einem Kontinuum zwischen konkreten Optionen sozialen Handelns (Weber) und der Allgegenwart von Macht, die kapillarisch alle Poren der Gesellschaft und alle sozialen Beziehungen durchdringt (Foucault). Dies führt zurück zur Autorität, denn Autorität ist immer dort im Spiel, wo es Macht gibt. Bisher war lediglich von verschiedenen Typen der Autorität die Rede, ohne dass diese selbst thematisiert worden wäre. Autorität gehört deshalb in den Kontext von Macht und Herrschaft, weil sie auf die Einflussmöglichkeit einer Person, einer Gruppe oder Institution auf andere Personen auf Grund von spezifischen Kompetenzen oder allgemeiner Überlegenheit abhebt. Damit unterscheidet sie sich zwar einerseits von Macht und Herrschaft, ist aber andererseits ein essentieller Bestandteil beider Phänomene.
In Anlehnung an Sofsky und Paris lassen sich die wichtigsten Merkmale von Autorität wie folgt umreißen:
Autorität wird grundsätzlich zugeschrieben, da jemand nur Autorität hat bzw. ist, wenn andere ihm diese zuerkennen.
Autorität beruht auf Anerkennung, da man nur Autorität wird bzw. ist, sofern andere einen als solche anerkennen.
Die Anerkennung der Autorität erfolgt mittels repräsentativer Werte und bezieht sich grundsätzlich auf die gesamte Person, die Persönlichkeit.
Zuschreibungen von Autorität erfolgen immer personengebunden; höchste Autoritäten sind z. B. charismatische Führer.
Autoritätsbeziehungen sind ungleiche Beziehungen, da Autorität in der Regel „von unten", d. h. von machtschwächeren Gruppen, zugeschrieben wird.
Zugleich spiegeln sie ein reziprokes Geschehen wider, das von Ehrfurcht und Achtung erweisenden Selbstinszenierungen der Unterlegenen und Unabhängigkeit, Urteils- und Entscheidungsfähigkeit sowie Führung der Autorität geprägt ist.
Autorität erfüllt wichtige Ordnungsfunktionen für die Gesellschaft und schafft Ordnung durch Unterordnung.
Autoritäten können damit im Prinzip auf den Einsatz und den Gebrauch autoritärer Machtmittel verzichten.
Autorität verweist zugleich auf den Autoritätsanspruch einer Person oder Gruppe und auf die Folgebereitschaft anderer. Das Gehorchenwollen gründet hier auf einem spezifischen Legitimitätsverständnis, das sich wiederum auf Tradition oder Glauben berufen und sich entweder in formeller oder informeller Autorität manifestieren kann.
Autorität ist aber nicht nur ein wichtiges Element von Machtbeziehungen, sondern weist - wenn man an die Webersche Definition denkt - durchaus auch Ähnlichkeiten mit Herrschaft auf. Fasst man Herrschaft als ein institutionalisiertes Dauerverhältnis der Machtausübung einer übergeordneten gegenüber einer untergeordneten Gruppe, dann kommt keine Herrschaft ohne ein Mindestmaß an Anerkennung und Gehorsam - also Legitimität - aus. Herrschaft ist dabei ein Aspekt der sozialen Welt, der in sehr unterschiedlichen Formen in Erscheinung tritt. Hier sind nicht nur übergreifende Herrschaftsverhältnisse wie Staaten oder Organisationen, die Weber Herrschaftsverbände nennt, gemeint, sondern auch klein- teiligere Herrschaftsverhältnisse bis hin zu Familien-Beziehungen angesprochen.
Herrschaft als institutionalisierte Form der Macht ist idealtypisch gekennzeichnet durch eine zunehmende Entpersonalisierung der Macht (diese wird auf bestimmte Positionen oder Funktionen übertragen), durch ihre zunehmende Formalisierung (die Machtausübung löst sich von persönlicher Willkür und orientiert sich an festen Regeln und Verfahren), und schließlich durch die Integration von Macht in übergreifende Ordnungsgefüge, wo sie ihre legitime institutionelle Verortung und Verfestigung erfährt.
Popitz hat den Institutionalisierungsprozess von Herrschaft in fünf Schritten als eine Stufenfolge beschrieben: Auf der untersten Stufe kommt es zu einer sporadischen Machtausübung von Akteuren, die auf Grund fehlender Machtmittel und prekärer Formen der Machtausübung auf den Einzelfall begrenzt bleibt. Die zweite Stufe auf dem Weg zur Institutionalisierung besteht in der Normierung von Verhaltensweisen und der machtförmigen Durchsetzung von Verhaltensregelmäßigkeiten. Auf einer dritten Stufe kommt es etwa durch Schließungsprozesse zu einer Verdichtung normierender Machtfunktionen und zu überpersönlichen Machtstellungen, die mit Sanktionsgewalt ausgestattet sind. Auf der vierten Stufe bilden sich schließlich Positionsgefüge der Herrschaft um zentrale Machtgruppen der Gesellschaft herum, die in anonymisierten Herrschaftsapparaten gipfeln, in denen die Herrschenden selbst austauschbar werden. Auf der letzten Stufe kommt es dann zur Etablierung staatlicher Herrschaft. Sie ist auf Grund ihrer Besonderheiten - territoriale Gebietsherrschaft: und zentralisierte Herrschaftsinstanz zu sein, mit dem Steuermonopol über eigene Machtmittel zu verfügen, die Verfügung über das Gewaltmonopol als Sanktionsinstrument zu haben, und bestimmte Ordnungsfunktionen auszuüben - zugleich eine hohe Form der Institutionalisierung von Macht.
Weber hat in seiner Herrschaftssoziologie gezeigt, dass jede auf Dauer gestellte Herrschaft mit einem bestimmten Glauben an ihre Rechtmäßigkeit einhergehen muss. Denn nur mittels Legitimität lässt sich Gehorsamsbereitschaft: erreichen, Herrschaft mit hierarchischen Über- und Unterordnungsstrukturen stabilisieren und deren spezifische Maßnahmen rechtfertigen. Anhand des Legitimitätskriteriums hat Weber drei „reine Typen legitimer Herrschaft" entworfen, die auf unterschiedlichen Begründungen ihrer Legitimität aufruhen: Die traditionale Herrschaft mit ihren Sonderformen der patriarchalischen, patrimonialen und ständischen Herrschaft beruht auf der „Heiligkeit überkommener Ordnungen und Herrengewalten". Zu ihrer Legitimierung reicht noch der Verweis auf die eigene Geschichte und die Tatsache, dass es immer schon so war, seitens eines traditionellen Herrschers. Die charismatische Herrschaft beruft sich auf die außeralltäglichen Eigenschaften und Qualitäten einer Person und der durch sie geschaffenen Ordnung. Die Legitimität beruht hier auf der Folgsamkeit verbürgenden Autorität und dem Charisma einer Persönlichkeit. Propheten, Kriegshelden oder Führer sind in diesem Kontext natürliche Herrschertypen, die aber in besonderem Maße unter dem Zwang der Reproduktion ihrer Autorität stehen. An diesem Typus der Herrschaft lässt sich zeigen, dass Autorität und Charisma einem allfälligen Zerfallsprozess ausgesetzt sind, der entweder schleichend für einen Autoritätsverlust sorgt, weil z. B. der Autoritätsbedarf schwindet oder diverse Methoden der Diskriminierung die Autorität des Herrschers unterminieren, oder relativ abrupt einen Sturz der Autorität herbeiführen kann. Charismatische Herrschaft ist damit die risikoreichste Art der Legitimation von Herrschaft. Ganz anders bei der legalen Herrschaft mit ihrem modernen Verwaltungsstab und ihrer gesatzten Verfassung: Hier beruht die Herrschaft auf dem Glauben an die Legalität einer regelgerecht geschaffenen Ordnung und das Anweisungsrecht der zur Herrschaft Berufenen, die der Rationalität und Verlässlichkeit von Verfahren selbst unterliegen. Bürokratie und Behörden sind idealerweise mit Amtsdisziplin und Funktionsautorität ausgestattet und an abstrakte Normen und Fachqualifikationen gebunden. Rein technisch ist die legale Herrschaft als bürokratische Verwaltung für Weber die rationalste Herrschaftsform.
Jenseits der Idealtypen stellen die tatsächlichen Herrschaftsordnungen jedoch häufig Mischformen dieser Idealtypen dar oder sie entsprechen gar nicht dem Legitimitätskriterium. Je nachdem, auf welcher Ebene man ansetzt, lassen sich politisch-staatliche Herrschaftsordnungen zwischen Demokratie, Oligarchie, Aristokratie und den verschiedenen Typen von autoritärer Herrschaft und Diktatur verorten, Herrschaftsverhältnisse in gesellschaftliche Subsysteme (z. B. Regierung, Verwaltung, Organisationen) im Bereich der Politik, der Wirtschaft oder der Kultur differenzieren oder auch Herrschaft in kleinteiligeren Einheiten ausmachen. Man wird dabei auf sehr unterschiedliche Begründungen und Legitimationen von Herrschaft stoßen, bis hin zur offenen Gewaltherrschaft.
Anfangs wurde die Frage aufgeworfen, wie unterschiedliche, manchmal auch diametral entgegen gesetzte Einschätzungen von Macht, Herrschaft und Autorität zustande kommen. In Bezug auf die Macht gibt es vielfältige Theorien, mit denen sowohl die eine wie die andere Position ,belegt' werden könnte. Ausschlaggebend scheinen neben wissenschaftstheoretischen Kontroversen und unterschiedlichen Erkenntnisabsichten häufig politische Bewertungen oder Erfahrungen der Lebenswelt zu sein. So findet man eine skeptische Bewertung von Macht oder gar deren Dämonisierung in der Regel bei machtschwachen Gruppen, die Machtausübung eher hierarchisieren und auf ihre negativen Effekte hinweisen. Umgekehrt haben aber auch wirkliche Machthaber ein gebrochenes Verhältnis zur Macht, insofern sie häufig ihre eigene Machtlosigkeit betonen; bestenfalls hätten sie begrenzten Einfluss. Hier scheint die Beurteilung der Macht von einer Sichtweise auf die Macht abzuhängen, die diese einmal als Übermächtigung, einmal als Ermächtigung versteht.
In Bezug auf die Herrschaftsproblematik lassen sich die Differenzen des wissenschaftlichen Umgangs mit Herrschaft gut an den theoretischen Paradigmen der Soziologie verdeutlichen. Individualistisch orientierte Theorien oder rationale Akteursmodelle, die vom Menschen als einem egoistischen Nutzenmaximierer ausgehen, sehen in der Herrschaft mit ihren stabilen Formen der Über- und Unterordnung einen nützlichen und allseits vorteilhaften Ordnungs- und Koordinationsmechanismus, mit dessen Hilfe das Handeln vieler Einzelner koordiniert werden kann. Gehorsam und Anerkennung der Herrschaft werden hier mit individuellen Vorteilsüberlegungen begründet. In vielen Gesellschaftstheorien bzw. Sozialtheorien gilt Herrschaft dagegen als eine allgemeine soziale Regelungs- und Beziehungsform, deren Vor- und Nachteile sich in konkreten Analysen unterhalb des abstrakten
Herrschaftsbegriffs erweisen müssen. Hier ist das Angebot an Theorien außerordentlich breit - es reicht von Weber über Parsons, Dahrendorf, Elias, Giddens und Bourdieu bis hin zu Foucault - und das Spektrum der Untersuchungsgegenstände kaum noch überschaubar, so dass stärker herrschaftskritische neben herrschaftsaffirmativen Bezugnahmen existieren. Schließlich gibt es eine Reihe von kritischen und marxistisch orientierten Theorien, die Herrschaft als einen Macht- oder Konfliktregelungsmechanismus auffassen und darauf hinweisen, dass Herrschaft mehr oder weniger stabile Formen hierarchischer Ordnung hervorbringt, die keinesfalls für alle gleichermaßen vorteilhaft sind. Sie verweisen bei ihrer Kritik an Herrschaft auf Abhängigkeits- und Ausbeutungsverhältnisse, betonen den Zwangscharakter von Herrschaft und die anzutreffende Willkür der Machtausübung, erinnern an Gewaltherrschaften und wollen Herrschaft insgesamt minimieren, weil sie einer demokratischen Konstitution der Gesellschaft ein Stück weit entgegensteht. Der Legitimierbarkeit von Herrschaft stehen sie grundsätzlich skeptisch gegenüber.
Wie immer man nun auch Macht, Herrschaft und Autorität bewertet, in der Soziologie müssen sie als soziale Tatbestände gelten und als solche werden sie den Menschen noch lange erhalten bleiben.
Markt
Märkte werden in der Soziologie als sozial geregelte, strukturierte Orte definiert, an denen Güter und Leistungen getauscht werden. Marktbeziehungen werden als eine besondere Form von Tauschbeziehungen verstanden. „Der Tausch kann sich auf alles erstrecken, was sich in irgendeiner Art in die Verfügung eines anderen ,übertragen' lässt und wofür ein Partner Entgelt zu geben bereit ist" (Weber, 1985: 37). Mit Max Weber wird dann von einem Markt gesprochen, wenn mehrere Anbieter oder Nachfrager, um Tauschchancen konkurrieren. Erst wenn auf mindestens einer Seite - Anbieter oder Nachfrager - um Tauschchancen „gekämpft" wird, wird von Markt gesprochen. Der Markt kennt daher den Wettbewerb zwischen mehreren Anbietern (bzw. Nachfragern) und er kennt den Preiskampf zwischen Anbietern und Nachfragern.
Im Unterschied zur Standardökonomie, die mit dem Konzept des vollkommenen Wettbewerbs ein allgemeines, von konkreten sozial-historischen Kontexten abstrahierendes Modell des Marktes verwendet, geht die Soziologie von der sozialen Konstitution konkreter Märkte (Massengütermärkte für Weizen, Finanzmärkte, Messen, Börsen usw.) aus und will die gesellschaftlichen Folgen von Märken und einer zunehmenden Marktkoordination bzw. Marktvermitteltheit sozialer Beziehungen analysieren.
Ausgangspunkt des modernen sozialwissenschaftlichen Denkens über Märkte ist das Werk von Adam Smith (1723-1790). Dort wird der Markt als ein vorteilhafter Abstimmungsmechanismus rationaler Individuen entdeckt, der es den Menschen erlaubt, die Vorzüge von Arbeitsteilung und Spezialisierung zu realisieren, ohne Moral und Selbstlosigkeit voraussetzen zu müssen. „Dagegen ist der Mensch immer auf Hilfe angewiesen, wobei er jedoch kaum erwarten kann, daß er sie allein durch das Wohlwollen der Mitmenschen erhalten wird. Er wird sein Ziel wahrscheinlich viel eher erreichen, wenn er deren Eigenliebe zu seinen Gunsten zu nutzen versteht, indem er ihnen zeigt, daß es in ihrem Interesse liegt, das für ihn zu tun, was er von ihnen wünscht" (Smith, 1978: 17). Adam Smith hat freilich auch darauf hingewiesen, dass die Marktkoordination immer auch durch einen Staat gerahmt werden sollte, wenn öffentliche Güter, Arbeiterbildung und die Nachregelung ungewollter Effekte des Marktes wichtig werden. Im Anschluss an Smith wird der Markt in der ökonomischen Theorie als universell vorteilhafte Koordinationsform aufgegriffen. Dafür wesentlich sind drei Mechanismen, die dem Markt zugesprochen werden: a) die Motivation zu Tauschhandlungen, b) die Vorteile aus Arbeitsteilung und Spezialisierung und c) die Koordinationswirkung von Wettbewerbspreisen.
Innerhalb der Soziologie wird hingegen vor allem die Grundidee von Max Weber (1864-1920) - und anderen Sozialanthropologen und Wirtschaftshistorikern wie etwa Karl Polanyi - aufgegriffen, wonach Tauschbeziehungen in unterschiedliche Vorstellungswelten und Sozialstrukturen eingebunden sind und Märkte daher sehr verschieden aussehen und funktionieren können (vgl. Aspers, 2011). Max Weber definiert Wirtschaften allgemein als ein Handeln, das auf die Bereitstellung begehrter Nutzleistungen ausgerichtet ist. In verschiedenen Gesellschaften bilden sich dazu unterschiedliche Institutionen aus, die sich aufgrund der erreichten Berechenbarkeit und Planbarkeit (Rationalität) erheblich unterscheiden (Weber, 1985: 35). Die Institutionen des modernen, rationalen kapitalistischen Wirtschaftens: Massenmärkte, private Wirtschaftsbetriebe und der kapitalistische Geist, bewirken ein Höchstmaß an formaler Rationalität in der Bereitstellung nachgefragter Güter. Nach Weber können sich dann private Wirtschaftsbetriebe beim Kampf um Tauschchancen an Marktpreisen orientieren und die rationalen Verfahren der Buchführung verwenden. Damit wird die Produktion, die Verteilung und der Konsum von traditionalen, wertorientierten und emotionalen Handlungsweisen weitgehend ,befreit' (Weber, 1985: 383).
Während sich die ökonomische Theorie im 20. Jahrhundert als eine Theorie der Marktkoordination auf Basis einer subjektiven Nutzentheorie entwickelt hat, wurde der Markt - wie Wirtschaften allgemein - in der Soziologie lange Zeit gar nicht mehr betrachtet. Das änderte sich mit der neuen Wirtschaftssoziologie und den neuen Institutionentheorien in den 1980er Jahren (Maurer, 2008). Im Anschluss daran entstanden soziologische Marktkonzepte und empirische Studien, in denen die soziale Konstitution, die soziale Einbettung und die Vielfalt sozialer Marktformen erforscht werden. In vielen netzwerktheoretischen Studien werden seither die Merkmale sozialer Beziehungen daraufhin analysiert, wie sie das Handeln auf Märkten beeinflussen. Vor allem die unsicherheitsreduzierenden Wirkungen sozialer Beziehungsnetzwerke stehen dabei im Vordergrund. Mark Granovetter wirkte dabei stilbildend, indem er die Effekte starker und schwacher Beziehungen in Form von verbesserter Information, Vertrauensbildung oder Kontrolle untersucht hat (Granovetter, 2000). In umfassenden Markt-, Branchen- und regionalen Studien werden heute längst auch die Effekte spezifischer Beziehungsnetzwerke sowie auch der institutionellen Einbettung auf die Innovations- und Wettbewerbsfähigkeit von Wirtschaftsakteuren und -systemen analysiert. Bekannt geworden sind vor allem die Netzwerkstudien aus dem Silicon Valley, welche aus der spezifischen Vernetzung von Universität, Wirtschaftsbetrieben, Kapitalgebern und Beratern (Banken, Rechtsanwaltskanzleien usw.) die Entstehung von Start-ups und die hohe Flexibilität dieser Wirtschaftsregion erklären. In anderen Studien werden die Effekte der institutionellen Einbettung von Märkten in formale und informale Regeln und Ordnungen thematisiert und damit relative Erfolge erklärt. Auch stehen in neueren Ansätzen soziale Aushandlungsprozesse im Mittelpunkt,
welche überhaupt erst zur Entstehung von Märkten führen, indem etwa der Wert von Gegenständen definiert und quantifiziert wird, Gegenstände überhaupt zur Ware werden (Liebe, Leben usw.) und bislang unveräußerliche einmalige Werke wie Kunst oder Heilsgewissheit vermarktet und Akteure als Tauschpartner gesetzt werden (vgl. Maurer & Mikl-Horke, 2015, Kap. 5).
Neben vielen wirtschaftssoziologischen Marktanalysen sind in den letzten Jahren auch vermehrt normative und kritische Marktstudien vorgelegt worden. Diese thematisieren die Bedrohung oder Zerstörung der moralisch-normativen Grundlagen des sozialen Zusammenlebens (Verlust an normativer Integration, moralischer Werte, zunehmende Tauschwertorientierung) und betonen davon ausgehend die Notwendigkeit einer normativen Fundierung der Wirtschaft. War zu Beginn des 20. Jahrhunderts die große Frage, ob ein marktwirtschaftlicher Kapitalismus oder ein planwirtschaftlicher Sozialismus die bessere Wirtschafts- und Gesellschaftsform sei, stehen zu Beginn des 21. Jahrhunderts alternative Wirtschaftsformen (self governance, Allmendewirtschaft, commons), die sozial-ideelle Einhegungen der Marktwirtschaft und Reformen der beiden großen Institutionen: Markt und Unternehmenshierarchie, im Mittelpunkt (Herzog & Honneth, 2014).
Mechanismen, soziale
Soziale Mechanismen sind ein Erklärungskonzept in den Sozialwissenschaften und bezeichnen prinzipiell regelhafte und damit kausal wirksame Prozesse, aus denen soziale Phänomene hervorgehen. Mechanismenbasierte Erklärungen verweisen typischerweise auf Verkettungen sozialer Handlungen von einzelnen Individuen oder sozialen Gruppen, durch welche das zu erklärende soziale Phänomen „produ- ziert" wird. Wesentliches Ziel mechanismenbasierter Erklärungen ist die möglichst feinkörnige, d. h. analytisch-präzise Erklärung sozialer Phänomene. Damit ist gemeint, die einzelnen Zwischenschritte aufzudecken, warum und auf welche Weise aus bestimmten sozialen Anfangsbedingungen bestimmte soziale Ereignisse folgen.
Ein bereits von Robert Merton (1910-2003) eingeführtes Beispiel ist die selbsterfüllende Prophezeiung (Merton, 1948): Ein Gerücht über die Zahlungsunfähigkeit einer Bank kann dazu führen, dass zunächst einzelne, schließlich immer mehr Kunden ihre Konten auflösen, was den tatsächlichen Zusammenbruch der Bank bewirken kann. Entscheidend ist, dass nicht die anfängliche (In)Solvenz der Bank zum Bankrott geführt hat, sondern die Überzeugungen (beliefs) der Akteure. Neben Überzeugungen können soziale Mechanismen auch auf Wünschen (desires) basieren: Bei der dissonanzgesteuerten Präferenzformation gleichen Individuen ihre jeweiligen Wünsche an die Wünsche eines oder mehrerer Gegenüber an (z. B. nicht nachhaltige Markenbekleidung statt Fair-Trade-Bekleidung unbekannter Hersteller), weil es sonst zu psychologisch kostspieliger kognitiver Dissonanz kommen würde. Und auch die Opportunitätsstruktur kann bspw. durch Preisänderungen bei sonst gleichen Akteurswünschen und -überzeugungen für verändertes soziales Handeln verantwortlich sein (Hedström, 2005, Kap. 3). Eine Möglichkeit der feinkörnigen Erklärung sozialer Phänomene ist, Wünsche, Überzeugungen oder Opportunitäten von Akteuren als kausal wirksame analytische Einheiten herauszuarbeiten, die entweder jeweils einzeln oder auch gemeinsam (zur Verkettung sozialer Mechanismen siehe Gambetta, 1998) das soziale Phänomen produzieren.
Mechanismenbasierte Erklärungen wurden Mitte der 1990er-Jahre als Reaktion auf zwei methodologische Probleme entwickelt (vgl. Hedström, 2005): Zum einen dominierte in der erklärenden Soziologie das von Hempel und Oppenheim entwickelte deduktiv-nomologische Erklärungsmodell (DN-Modell), welches das zu erklärende soziale Phänomen aus allgemeinen Gesetzen abzuleiten versucht. Diese dürfen in den Sozialwissenschaften zwar grundsätzlich statistisch oder probabilistisch sein (z. B. „Je höher das elterliche Bildungsniveau, desto wahrscheinlicher der Gymnasialübergang nach der Grundschule" statt „Immer dann, wenn..."). Dennoch schützt das DN-Modell zunächst nicht vor Fehlschlüssen wie „Alle Menschen, die die Antibaby-Pille nehmen, werden nicht schwanger. Paul nimmt die Antibaby-Pille. Ergo: Paul wird nicht schwanger". Da das DN-Modell ohne Kenntnis der zu Grunde liegenden kausalen Mechanismen nicht immun gegen irrelevante Gesetze ist (wie im Fall der Antibaby-Pille für Männer), stellt es wohl kein hinreichendes Erklärungsmodell dar. Zum anderen wurde speziell an Studien auf Basis quantitativer Analysen kritisiert, dass sie dazu neigen, statistisch signifikante Ergebnisse (z. B. Regressionskoeffizienten) vorschnell als kausale Effekte zu deuten, ohne die sozialen Prozesse, welche die signifikanten Effekte hervorgebracht haben, erklären zu können. So sagt uns beispielsweise eine statistisch signifikante (negative) Beziehung zwischen sozialem Hintergrund einerseits und Gesundheit andererseits zwar, dass sozial Schwächere tendenziell eine schlechtere Gesundheit aufweisen, nicht aber, warum dies der Fall ist und auf welche Weise der Effekt zu Stande kommt. Die Antwort auf derartige Warum- und Wie-Fragen kann auch nicht in den allgemeinen Gesetzen des DN-Modells gefunden werden, da sie das den Gesetzen zu Grunde liegende Kausalverhältnis ja stets schon voraussetzen.
Wie, in Abgrenzung zum DN-Modell, mechanismenbasierte Erklärungen konzipiert sind, illustriert am anschaulichsten Jon Elster (1989) mit folgender Metapher: „A mechanism explains by opening up the black box and showing the cogs and wheels of the internal machinery". Für die quantitative Sozialforschung heißt das, dass signifikante Korrelations- oder Regressionskoeffizienten zunächst eine unverständliche black box darstellen. Diese kann geöffnet werden, indem die Annahmen über das zu Grunde liegende Handeln von Akteuren als Kausalketten rekonstruiert werden. Für den o. g. Herkunftseffekt auf die individuelle Gesundheit müsste z. B. untersucht werden, ob dieser eher auf schlechtere Ernährungs- und Lebensgewohnheiten oder eher auf schlechtere medizinische Versorgung (etwa von Kassen- im Vergleich zu Privatpatienten) von sozial Benachteiligten zurückzuführen ist. Bei schlechteren Ernährungsgewohnheiten könnte wiederum gefragt werden, ob es Wissensunterschiede zwischen sozialen Schichten hinsichtlich gesunder Ernährung gibt (beliefs), ob bei gleichem Informationsstand Sozialisationseffekte verantwortlich für verschiedene Ernährungspräferenzen sind (desires), oder ob Fast Food einfach billiger als Obst und Gemüse ist (Restriktion durch Opportunitätsstruktur).
Ferner sollen mechanismenbasierte Erklärungen in Abgrenzung zum Gesetzesbegriff des DN-Modells eher Theorien mittlerer Reichweite darstellen. Diese unterscheiden sich sowohl von Großtheorien auf Makroebene wie Strukturfunktionalismus oder Marxismus als auch von sparsam-abstrakten Mikrotheorien wie dem neoklassischen homo oeconomicus, welche mit wenigen Annahmen versuchen, möglichst viele soziale Phänomene vorherzusagen. Stattdessen sollen realistische Erklärungen aufgestellt werden, die sich nur auf bestimmte soziale Phänomene (z. B. Bildungsübergänge; Gesundheit im Lebensverlauf; Wahlverhalten; ...) oder raum-zeitliche Kontexte (z. B. Westdeutschland nach 1990) beschränken, diese aber möglichst analytisch-präzise und eben nicht sparsam erklären.
Während sich auf Elsters black box-Metapher wohl alle Vertreter mechanismenbasierter Erklärungen einigen können, unterscheiden sich die konkreten Definitionen sozialer Mechanismen erheblich voneinander (vgl. die Übersicht bei Hedström & Ylikoski, 2010). Dennoch bewegen sich die meisten mechanismenbasierten Erklärungen in der Tradition des methodologischen und strukturellen Individualismus, die soziale Phänomene als aggregiertes Ergebnis individueller Handlungen und Interaktionen erklären (z. B. Armutsquoten in Stadtvierteln, Lernklima in Schulen etc.). Darüber hinaus wurde vorgeschlagen, zwischen situational, action formation und transformational mechanisms zu unterscheiden (vgl. ebenfalls Hedström & Ylikoski, 2010), wonach der Mechanismenbegriff grundsätzlich anschlussfähig an das von James Coleman (1926-1995) und Hartmut Esser geläufige „Grundmodell" sozialwissenschaftlicher Erklärungen ist. Entlang von Situations-, Selektions- und Aggregationslogik können dann dem «Grundmodell» entsprechende soziale Mechanismen rekonstruiert werden. Hinsichtlich der Selektionslogik (action formation mechanism) werden zwar oftmals rationale Handlungstheorien verwendet, jedoch wären symbolisch-interaktionistische Ansätze gleichermaßen möglich. Hinsichtlich der Aggregationslogik hat sich mit der Analytischen Soziologie in den letzten Jahren ein Forschungsprogramm entwickelt, dass sich mittels agentenbasierter Simulationsmodelle den lange vernachlässigten transformational mechanisms (Diffusionsprozesse; Schwellenwertmodelle; etc.) widmet.
Die größte gegenwärtige Herausforderung des Mechanismenansatzes ist, das Konzept für die Erklärung konkreter sozialwissenschaftlicher Fragestellungen stärker nutzbar zu machen. So wurde kritisiert, dass die Diskussion über soziale Mechanismen oftmals entweder methodologisch-abstrakt bleibt (Greshoff, 2015) oder über „Pseudo-Mechanismen" (nicht weiter spezifizierten Labels wie z. B. ,Machtmechanismus') bzw. „Ad-hoc Mechanismen" (Beschreibungen, Interpretationen, Storytelling, z. B. „Identitätsverschiebung") nicht hinauskommt (Kalter & Kroneberg, 2014). Mittelfristiges Ziel des Forschungsprogramms mechanismenbasierter Erklärungen sollte somit sein, ein Inventar sozialer Mechanismen zu erarbeiten, das jeweils um Zusatzannahmen ergänzt ein breiteres Set sozialer Phänomene erklären kann. So kann der Mechanismus der relativen Risikoaversion gleichermaßen erklären, warum Menschen Versicherungen abschließen und warum Bildungsentscheidungen vom sozialen Hintergrund abhängen (die meisten Individuen bevorzugen kleinere sichere Erträge gegenüber größeren unsicheren Erträgen). Oder der Mechanismus der Reduktion bzw. Vermeidung kognitiver Dissonanz kann sowohl erklären, warum Individuen oftmals ihre Wünsche an die Wünsche ihrer Bezugsgruppe angleichen, als auch, warum sie seltener Medien nutzen, die ihren Einstellungen widersprechen (kognitive Dissonanz ist „psychisch kostspielig"). Wünschenswert wäre also eine Art „Bestandskatalog" der elementarsten sozialen Mechanismen und ihrer Anwendungsmöglichkeiten in verschiedenen sozialwissenschaftlichen Teildisziplinen wie Bildungssoziologie, Demographie, politischer Kommunikationsforschung etc.
Medien
Medien weisen begriffsgeschichtlich einen komplexen Bedeutungshorizont auf (vgl. Hoffmann, 2002), sind aber erst einmal in allgemeiner Hinsicht als Vermittlungstechniken und -instanzen zu verstehen. Der Anthropologie zufolge entstehen aus erstem Werkzeuggebrauch und dessen Pflege und Verbesserung (zur Bearbeitung und Veränderung der widerständigen Natur) immer weitere Techniken und Technologien, die für die psychophysische Gestalt des Menschen Ergänzung, Verstärkung und Entlastung (nicht selten aber auch Belastung) bedeuten (vgl. Leroi-Gourhan, 1980; Gehlen, 2003: 6f.). McLuhan (1968) schließt daran an und qualifiziert jede neue Technik- und Medienerfindung als Ausweitung oder Selbstamputation des Körpers und seiner Sinnestätigkeit. Von Medien im engeren Sinne lässt sich - in Differenz zum Werkzeugbegriff - genauer erst dann sprechen, wenn sie unser Sosein, unsere Bewusstseinsstrukturen und unsere Möglichkeiten und Formen der „Ausdrücklichkeit" verändern und uns letztlich zu „Servomechanismen" ihrer selbst machen. Aus technik- und kulturwissenschaftlicher Perspektive wiederum leisten Medien respektive die so genannten „Aufschreibesysteme", die Fixierung, Übertragung, Archivierung und weitere Verarbeitung von Informationen (vgl. Kittler, 1995; 2002). Auch hier wurde zunehmend die „Neutralität" von Medien und Nachrichtentechnik aufgegeben zu Gunsten der Einsicht, dass sie unser Denken, Wissen und Handeln unhintergehbar beeinflussen und mit prägen. Alle medienwissenschaftlichen und kultur- wie mediensoziologischen Diskurse neueren Datums sind sich demzufolge einig, dass jegliche moderne Welt-, Sozial- und Selbsterfahrung medienbasiert und medienbedingt ist.
Während die Soziologie in ihrer Frühphase dem Untersuchungsbereich und Begriff der Medien kaum Beachtung geschenkt hat, schließt sie in den 1960er Jahren vermehrt an die technik- und informationstheoretische Beschreibung an und fokussiert sich (kritisch) auf Funktion und Prozesse der Massenmedien (Presse, Radio, Fernsehen) sowie - von jenen stimuliert und unterstützt - auf die Genese und politische Gegenmacht der Sphäre der modernen Öffentlichkeit (vgl. Lippmann, 1922; Habermas, 1990; Luhmann, 1996). Entscheidend wird die Einsicht, dass Massenmedien durch technische Mittel konkrete Interaktionen zwischen Personen substituieren und ausschließen und ihre selektiv relevanten Informationen an eine Vielzahl unbekannter Adressen und Rezipienten verbreiten (vgl. Maletzke, 1963: 76f.; Luhmann, 1996: 10f.).
Jenseits einer Engführung auf technische Massenmedien legt Talcott Parsons eine erste allgemeine soziologische Medientheorie vor, die dem Modell der Sprache und des Geldes abgelesen ist und auf theorieinterne Fragen der sozialen Motivation und der gesellschaftlichen (Struktur-)Ordnung reagiert (vgl. Parsons, 1980; Künzler, 1989). Er präsentiert fünf allgemeine Eigenschaften, die Medien generell besitzen (respektive besitzen müssen, wenn sie aus analytischer Perspektive Medien sein sollen): (1) Symbolisierung, (2) Institutionalisierung, (3) spezifische Sinnbedeutung und Wirkungsweise, (4) Zirkulationsfähigkeit, (5) kein Nullsummen-Charakter (vgl. Parsons, 1980: 230f.).
Im Anschluss an Parsons formuliert Niklas Luhmann eine erweiterte allgemeine soziologische Medientheorie, welche seine Gesellschafts- und Kommunikationstheorie verschaltet und auf konstitutive „Unwahrscheinlichkeiten" abstellt. Medien sind jetzt all jene gesellschaftlichen Errungenschaften, die Unwahrscheinlichkeit in Wahrscheinlichkeit überführen (vgl. Luhmann, 1984: 220) und damit Erwartungen (bzw. Erwartungserwartungen), kommunikative Akzeptanz, gezielte soziale Anschlussoperationen und letzthin gesellschaftliche Ordnung stabilisieren. Analytisch sind zu unterscheiden (Luhmann, 1984: 220ff.): Verstehensmedien (Sprache), Verbreitungsmedien (Presse, Funk, Fernsehen etc.) und Erfolgs- bzw. symbolisch generalisierte Kommunikationsmedien (Geld, Macht, Recht, Liebe, Wahrheit etc.).
In Reaktion auf Luhmanns Beschreibung und ergänzende medienwissenschaftliche Erkenntnisse hat sich in der (Medien-)Soziologie folgender Definitionsvorschlag herausgebildet, der erstens Medien- und Gesellschaftstheorie zusammenbringt und zweitens funktionalistisch-evolutionär ausgerichtet ist: „Medien sind gesellschaftliche Einrichtungen und Technologien, die etwas entweder materiell oder symbolisch vermitteln und dabei eine besondere Problemlösungsfunktion übernehmen." (Zie- mann, 2012: 17) Mit der jeweils erreichten medialen Lösung entstehen allerdings stets neue Probleme, an die weitere, andere (Test-)Lösungen anschließen und zur Steigerung wie Ausweitung kommunikativer Möglichkeiten beitragen und damit
auch das Verhältnis von Gesellschaft und Medienkultur umformen und verändern (vgl. Ziemann, 2011).
Bezüglich der konstitutiven Interdependenz zwischen Medien, Gesellschaft, Kultur und Bewusstsein hat sich auf mikrologischem Niveau die neue Begrifflichkeit der „Medialisierung" - alles Handeln ist von Medien begleitet und durchdrungen - durchgesetzt (vgl. Wenzel, 2001; Saxer, 2012); und auf makrologischem Niveau hat sich dafür die Semantik der „Mediengesellschaft" - alle Vergesellschaftungsbereiche werden von der Logik des Systems der Massenmedien bzw. Medienindustrie begleitet und überformt - etabliert (vgl. Ziemann, 2011: 205ff.; Saxer, 2012).
Minderheiten
Die Unterscheidung zwischen einer Mehrheitsbevölkerung und unterschiedlichen Minderheiten (religiöse, politische, sexuelle, ethnische u. a.) ist gesellschaftlich gängig und einflussreich. Soziologisches Grundmerkmal von Minderheiten ist jedoch nicht nur das Zahlenverhältnis zwischen Mehrheit und Minderheiten, sondern erstens die Annahme, dass eine Minderheit Merkmale aufweist, die sie von dem unterscheidet, was als typische Normen, Werte, Muster der Lebensführung usw. der Mehrheit gilt. Zweitens ist das Verhältnis von Mehrheit und Minderheit soziologisch als ein Machtverhältnis zu betrachten. Deshalb ist zwischen privilegierten und benachteiligten Minderheiten zu unterscheiden. Minderheitenangehörige sind dann gezwungen, sich mit der mehrheitsgesellschaftlichen Zuweisung einer „auferlegten Identität" (Alfred Schütz) sowie der Behauptung auseinander zu setzen, dass sie anders seien als die „normalen" Gesellschaftsmitglieder.
Minderheiten sind vielfach Feindbildern, Vorurteilen und Praktiken der Diskriminierungen seitens der Mehrheit ausgesetzt. Dies verbindet sich wiederkehrend mit Formen der sozialen Benachteiligung in bzw. Ausgrenzung durch Organisationen sowie mit sozialräumlicher Abgrenzung. Angehörige von Minderheiten reagieren auf die Erfahrung der Benachteiligung, Ausgrenzung und Diskriminierung regelmäßig entweder mit einem Rückzug auf die Lebenszusammenhänge und Identifikationsangebote der jeweiligen Minderheit, oder aber durch verstärkte Bemühungen der Anpassung an die Mehrheit (Assimilation). Welche Merkmale einer Minderheit zugeschrieben werden und als bedeutsam gelten, hängt von den Strukturen, Werten und Normen der jeweiligen Gesellschaft sowie der Art und Weise ihrer Durchsetzung ab. Bereits Max Weber (1864-1920) wies in seiner Kritik des zeitgenössischen Rassismus darauf hin, dass objektiv geringe Unterschiede zwischen Mehrheit und Minderheit weitreichende Folgen haben können, während in anderen Fällen bedeutsame Unterschiede folgenlos bleiben. Damit erweist es sich als obsolet, die Ursachen von Vorurteilen und Diskriminierungen in den Eigenschaften von Minderheiten selbst zu suchen.
Georg Simmel (1858-1928) argumentiert in seinem „Exkurs über den Fremden", dass Minderheiten soziologisch immer nur in Relation zur Mehrheit zu verstehen sind. Gegenstand der Soziologie sind demnach Mehrheit-Minderheiten-Be- ziehungen. Er formuliert: „Der Fremde ist ein Element der Gruppe selbst, nicht anders als die Armen und die mannigfaltigen ,inneren Feinde'„. So betrachtet sind Minderheiten also Gruppen in Bezug auf eine Mehrheit, die ihnen diese Position zuweist und sich dadurch selbst als dominante Gruppe bestimmt. Da sich der Minderheitenbegriff nach dieser weiten Definition kaum von den Begriffen wie Randgruppen und Außenseiter abgrenzen lässt, wird er häufig eingegrenzt und nur auf solche Gruppen bezogen, die nach nationaler Herkunft sowie religiösen und kulturellen Merkmalen von der Bevölkerungsmehrheit in einem Nationalstaat unterschieden werden oder für sich selbst eine solche Unterscheidung beanspruchen. D. h.: Zwischen Prozessen der Fremdzuschreibung von kollektiven Merkmalen und Identitäten einerseits und der Beanspruchung von ethnischen, religiösen usw. Be- sonderheiten durch Minderheiten andererseits ist zu unterscheiden, auch wenn beide Seiten gewöhnlich aufeinander bezogen sind und sich wechselseitig beeinflussen.
Gegenstand empirischer Untersuchungen wurde die Situation von Minderheiten zuerst in der amerikanischen Soziologie der sog. Chicago School der 1920er und 1930er Jahre (Ernest Burgess, Robert E. Park, Thomas Znaniecki). Dort wurde das Problem eingewanderter Minderheiten und ihrer ethnischen und rassistischen Diskriminierung als eines der vorrangigen sozialen Probleme der Einwanderungsgesellschaft der USA begriffen. Zentrales Thema war dabei weniger die Situation und das Verhalten der Minderheiten als vielmehr die Beziehung zwischen Majorität und Minderheit. Robert Ezra Park (1864-1944) formulierte das Konzept des Einwanderers als „Marginal Man", der sich im Grenzbereich unterschiedlicher Zugehörigkeiten und Kulturen befindet. Grundlegend für die Chicago-Schule ist eine stadtsoziologische Perspektive in Verbindung mit Methoden der qualitativen Sozialforschung. Die von Norbert Elias (1897-1990) in Zusammenarbeit mit John L. Scotson vorgelegte Studie ,Etablierte und Außenseiter' nimmt ebenfalls eine stadt- und gemeindesoziologische Perspektive ein. Dort wird das Verhältnis von ansässiger Mehrheit und zugewanderter Minderheit in paradigmatischer Weise als eine durch Machtverhältnisse und Konflikte um anstrebenswerte Positionen gekennzeichnete Figuration bestimmt.
Seit diesen klassischen Arbeiten hat sich eine umfangreiche soziologische Forschung zur Situation migrantischer Minderheiten entwickelt. Ausgangspunkt hierfür ist in Deutschland die Arbeitsmigration seit den 1960er Jahren, die vor allem als Anwerbung gering qualifizierter Arbeitskräfte erfolgt ist, denen der Erwerb der deutschen Staatsbürgerschaft und damit politische und rechtliche Gleichstellung zunächst verweigert wurde. Erst zum Beginn des 21. Jahrhunderts ist eine politische Anerkennung Deutschlands als Einwanderungsgesellschaft erfolgt. Soziologische Forschung untersucht die Ursachen und Folgen der gleichwohl anhaltenden gesellschaftlichen Benachteiligung bestimmter Teilgruppen der eingewanderten Minderheiten. Von zentraler Bedeutung hierfür sind Theorien und Forschungskonzepte, die Formen der strukturellen, institutionell und direkten Diskriminierung in den Blick nehmen. Ein zentrales Ergebnis der einschlägigen Forschung besteht in der Widerlegung der verbreiteten Annahme, dass soziale Benachteiligungen von Minderheiten eine Folge kultureller Unterschiede seien.
Nicht nur Migranten finden sich vielfach in der Position einer benachteiligten Minderheit vor, sondern auch andere gesellschaftliche Teilgruppen, wie die seit Jahrhunderten in Deutschland lebenden Sinti. Der Begriff der Randgruppen ist gegenwärtig kaum mehr gebräuchlich. Er wurde als Bezeichnung für sehr heterogene Bevölkerungsgruppen verwendet, die sozialen Vorurteilen und Stigmatisierungen ausgesetzt sind und aus den sozialen Verkehrskreisen der Mehrheit ausgegrenzt
werden. Auf bestimmte Minderheiten, die als Randgruppen bezeichnet wurden - z. B. psychisch Kranke, Körperbehinderte, Prostituierte, Drogenabhängige, Sektenangehörige, Vorbestrafte, Obdachlose und Nichtsesshafte - richten sich Strategien der sozialen Kontrolle. Die historischen und gegenwärtigen Strategien reichen dabei von Überwachung und Kontrolle und ggf. die Kriminalisierung durch staatliche Institutionen wie die Polizei, über die für Sozialstaat und Soziale Arbeit typischen Mischformen von Hilfe und Disziplinierung bis hin zur Isolierung in Ghettos, Asylen und totalen Institutionen. Damit sind Sachverhalte angesprochen, die in unterschiedlichen Teildisziplinen der Soziologie, insbesondere in der Soziologie sozialer Probleme untersucht werden.
Methoden der empirischen Sozialforschung
Soziologie bzw. allgemeiner Sozialwissenschaften sind in ihrem Kern empirische Wissenschaften. D. h. die Entwicklung von Hypothesen und Theorien und ihre Konfrontation mit den realen Fakten, deren Resultat die vorläufige Bestätigung oder vorläufige Zurückweisung der theoretischen Überlegungen zur Folge hat, ist ein ganz zentraler Bestandteil der erfahrungswissenschaftlichen Vorgehensweise. Das methodologische Fundament dieses Postulates wird in der Wissenschaftstheorie seit A. Comte vertreten und ist zugleich in wichtigen Teilen sehr deutlich differenziert und modifiziert worden. Im letzten Jahrhundert haben vor allem zwei Denktraditionen, der Logische Empirismus (Carnap, 1974) und der Kritische Rationalismus, die eine Vielzahl von Gemeinsamkeiten aufweisen, die Weiterentwicklung bestimmt. Der Logische Empirismus hielt an der Idee der Verifikation fest. Die Prüfung wissenschaftlicher Theorien soll zu Ergebnissen führen, die auch zukünftig Geltung haben. Aber auch wenn die die empirischen Sachverhalte beschreibenden Aussagen bestätigten bzw. in wissenschaftlichen Untersuchungen replizierbar sind, rechtfertigt keine (immer endliche) Menge an konsistenten Beobachtungssätzen eine raum-zeitliche Verallgemeinerung. Wenn aber der dazu notwendige (gehaltserweiternde) Schluss von gegenwärtigen Resultaten der Theorieprüfungen auf zukünftige nicht möglich ist, kann die Verifikation (also der Nachweis der Wahrheit) von Theorien keine brauchbare methodologische Regel darstellen. Auf dieses Problem hat vor allem K. R. Popper (1976) hingewiesen. Das Fehlen einer brauchbaren Induktionslogik schwächt die Überzeugungskraft des Logischen Empirismus und seine forschungspraktische Relevanz nachhaltig. Diese kritischen Hinweise belasten nicht nur den Logischen Empirismus, sondern natürlich auch und noch mehr die (alte) positivistische Wissenschaftslehre. Dem Glauben an die Möglichkeit einer Verifikation wird der Boden entzogen. Schon dadurch bricht die moderne erfahrungswissenschaftliche Methodologie eindeutig mit dem Positivismus.
Die zweite zentrale Überzeugung des Positivismus ist in der scheinbar untrüglichen, zweifelsfreien Beweiskraft der empirischen Fakten zu sehen. Der Kritische Rationalismus hat auch diese Annahme nachhaltig in Frage gestellt (Chalmers, 1986). Die direkt oder indirekt beobachteten Fakten sind selbst als theoriegeleitete bzw. interpretierte empirische Zustände und/oder Prozesse zu betrachten. Diese Sicht der Dinge hat gravierende Konsequenzen für das Konzept der Falsifikation. Wenn Fakten, genauer: die sie beschreibenden Beobachtungssätze (Basissätze), keine fraglose Gültigkeit besitzen, und sich Widersprüche zwischen der Theorie und den Basissätzen ergeben, kann eine Theorie nicht eindeutig falsifiziert werden. Da die empirische Basis selbst theoriegeleitet ist bzw. mess- und wahrnehmungstheoretische Implikationen aufweist, die ihrerseits nicht verifiziert werden können, entfällt (auch) eine sichere Falsifikationsgrundlage. Die ,richtige', ,wahre' Abbildung von empirischen Fakten als Testkriterium für Hypothesen und Theorien erscheint vor diesem Hintergrund als unmöglich, sie bleibt aber zugleich eine bedeutsame regulative Idee des wissenschaftlichen Bemühens.
In dieser Situation ist die (vorläufige) Akzeptanz von Theorien immer auch ein Entscheidungsproblem. Irrtümer sind möglich, sichere Falsifikation und Verifikation sind nicht möglich. Stattdessen geht es um die (immer vorläufige) Bestätigung von theoretischen Aussagen (Lakatos, 1974). Diese ist letztlich in die kritische Diskussion der scientific community eingebettet.
Ein zentrales Kriterium für die vorläufige Akzeptanz von Hypothesen und Theorien liegt in der methodischen Qualität der entsprechenden Untersuchungen bzw. in der methodischen Stärke des Hypothesentests. Damit ist die zentrale Aufgabe der empirischen Sozialforschung im Wissenschaftsprozess umrissen. Sie entwickelt sozialwissenschaftliche Methoden, leitet zu ihrer forschungspraktischen Umsetzung an und strebt dabei nach möglichst zuverlässigen und validen empirischen Aussagen.
Die Erfassung empirischer Fakten und ihre Konfrontation mit den theoretischen Aussagen wird gängiger Weise als ein Forschungsprozess betrachtet, der eine Reihe von Arbeitsschritten und eine spezifische Abfolge dieser Schritte impliziert (Schnell, Hill & Esser, 2013; Diekmann, 2010). Die einzelnen Arbeitsschritte sind aber keineswegs unabhängig voneinander, sondern haben starken Verweisungscharakter und sind interdependent. Insbesondere muss der Forschungsprozess auch als ein Entscheidungsprozess betrachtet werden. Die zentralen Arbeitsschritte sind: Theoriebildung, Forschungsdesign, Operationalisierung und Messung, Auswahlverfahren, Datenaufbereitung und Datenanalyse.
Theoriebildung: Von oft unterschätzter Bedeutung ist eine möglichst klare Vorstellung von den Fakten oder Prozessen, die untersucht werden sollen. Jeder denkbare sozialwissenschaftliche Forschungsgegenstand erlaubt verschiedene Perspektiven, weist vielfältige Dimensionen auf und ist differenten Konstruktionen und Interpretationen zugänglich. Seine Komplexität ist begrifflich aufzuarbeiten und erzwingt klare Abgrenzungen und damit Entscheidungen hinsichtlich der Konturierung der Forschungsfrage. Diese Festlegungen wirken sich massiv auf alle folgenden Forschungsschritte aus. Es wird - vor dem Hintergrund der vorhandenen Forschungsressourcen - nicht nur festgelegt was exakt untersucht wird, sondern implizit auch was nicht erforscht wird. Je nach Eigenheiten des interessierenden Phänomens wählt man einen allgemeinen theoretischen Zugang - etwa lern-, handlungs- oder entscheidungstheoretischer Art. Innerhalb dieses Konzeptes sind dann Hypothesen zu entwickeln, die einen erklärenden Charakter und zugleich einen Realitätsbezug aufweisen, der einen empirischen Zugang erlaubt. Gelegentlich erscheint keiner der bekannten theoretischen Ansätze auf den zu erklärenden Forschungsgegenstand anwendbar, und somit sind auch keine Hypothesen ableitbar. In solchen Fällen ist eine explorative Phase unumgänglich. Je nach Forschungsstand ist die Konkretisierung des Problems innerhalb von Voruntersuchungen sinnvoll. Das Fehlen eines angemessen erscheinenden Theorierahmens und konkreter
Hypothesen macht eine theoretische Exploration notwendig. Für diesen Arbeitsschritt der Hypothesengenerierung gibt es keine standardisierten Verfahren oder Limitationen. In diesem Entdeckungskontext wird auf unterschiedlichste Quellen zurückgegriffen: Alltagserfahrungen, Analogienschlüsse, Spekulation, Phantasie u. a. Entscheidend für die nächsten Forschungsschritte sind klare begriffliche Abgrenzungen und explizite Hypothesen, deren empirischer Test avisiert wird.
Forschungsdesign: Das Design einer Untersuchung kennzeichnet die Anordnung der Messungen hinsichtlich der Zeitpunkte und der Anzahl über die in der Untersuchung teilnehmenden Personen (bzw. Objekte). Die klassische wissenschaftliche Untersuchungsform ist ohne Zweifel das Experiment (Saris, 1991). Es sieht in seiner Minimalform eine Experimental- und eine Kontrollgruppe vor. Die Zuordnung der Untersuchungseinheiten zu den Gruppen erfolgt über einen Zufallsprozess (Randomisierung). Zu einem ersten Zeitpunkt erfolgt in beiden Gruppen die Messung der Ausprägung der abhängigen Variable (Wirkung). Danach werden die Untersuchungseinheiten der Experimentalgruppe dem Stimulus (Ursache) ausgesetzt. Man spricht auch vom Treatment, Treatmentfaktor oder der unabhängigen Variable. Hat der Stimulus die hypothetisch vermutete Auswirkung, dann müssen bei der zweiten Messung der abhängigen Variablen signifikante Unterschiede zwischen den beiden Gruppen nachweisbar sein, während bei der ersten Messung keine signifikanten Differenzen zwischen den Gruppen feststellbar sind. Da idealerweise beide Gruppen bis auf die Setzung des Stimulus gleich behandelt werden und die Gruppenzuordnung nach einer Randomisierung erfolgt, sind die Veränderungen (mit bestimmbarer Wahrscheinlichkeit) auf das Treatment zurückzuführen. Die skizzierte Versuchsanordnung entspricht einem (einfachen) Experiment. Dieses basale Design kann in vielfältiger Weise verfeinert, differenziert und erweitert werden. Sogenannte mehrfaktorielle Versuchspläne integrieren mehrere unabhängige Variablen, wodurch der Einfluss der verschiedenen Faktoren abgeschätzt werden kann. Experimentelle Designs sind im Vergleich zu anderen Forschungsstrategien eher robust, aber keineswegs frei von Störeffekten, die ihre Aussagekraft einschränken. Die interne und externe Validität von Experimenten ist kritisch zu diskutieren bzw. zu untersuchen.
Elaborierte experimentelle Designs stellen die beste Untersuchungsstrategie dar, können aber in der Forschungspraxis häufig nicht angewandt werden. Insbesondere sind Experimente in der Soziologie (leider) sehr selten anzutreffen. Die Ursache dafür liegt in der aus ethischen bzw. praktischen Gründen nicht durchführbaren experimentellen ,Behandlung' der Untersuchungsgruppe. Stimuli - wie Arbeitslosigkeit, Ehescheidung, ethnische Zugehörigkeit - können nicht zu experimentellen Zwecken gezielt eingesetzt werden. Zur Untersuchung entsprechender Effekte wird das sogenannte Survey-Design (Umfragedesign, Ex-post-facto-Design) ein- gesetzt. Dabei wird der Stimulus nicht kontrolliert vom Forscher gesetzt, sondern entsprechende Faktoren und Prozesse treten (unkontrolliert) in der Alltagswelt auf. Ex post lassen sich dann u. U. verschiedene Gruppen bilden (Verheiratete vs. Geschiedene, Arbeitslose vs. Erwerbstätige), die dann verglichen werden um die Effekte der genannten Ereignisse bzw. Zustände zu erfassen und zu quantifizieren. Alle interessierenden Informationen hinsichtlich der abhängigen und unabhängigen Variablen werden in einem Datenerhebungsprozess erfasst (Querschnittsuntersuchung). Bei dieser Untersuchungsstrategie treten jedoch nicht triviale methodische Probleme auf. Insbesondere können die u. U. beobachteten Gruppenunterschiede nicht mit Sicherheit auf die unabhängige Variable zurückgeführt werden, da diese mit anderen Variablen (z. B. Bildung, Einkommen) konfundiert ist. Zusätzlich sind Survey-Designs in ihrer einfachen Form nur sehr eingeschränkt in der Lage, die kausale Abfolge von Effekten zu analysieren. Die methodische Güte lässt sich dadurch verbessern, dass man mehrere Messzeitpunkte in das Design integriert. Entsprechende Längsschnittuntersuchungen können die Aussagekraft von Survey-Designs deutlich steigern. Unter ,Längsschnittuntersuchungen' werden in der Praxis der empirischen Sozialforschung sehr verschiedene Strategien subsumiert. Panelstudien, die die Ausprägungen der gleichen Variablen an den gleichen Personen zu verschiedenen Zeitpunkten erfassen, bilden eine Gruppe von Längsschnittstudien. Mit ihrer Hilfe lassen sich intraindividuelle und gesellschaftliche Veränderungen erfassen.
Bei sogenannten Trendstudien wechseln die untersuchten Personen in jeder Erhebungswelle. Mit Daten aus Trendstudien lassen sich keine intraindividuellen Änderungen beschreiben, aber (aggregierte) Prozesse gesellschaftlichen Wandels (z. B. Beschäftigte im tertiären Sektor, Ethnozentrismus, Einstellungswandel) lassen sich rekonstruieren. Die zeitlichen Abstände zwischen den Erhebungszeitpunkten sollten sich bei Panel- und auch Trendstudien an den inhaltlichen Fragen der Untersuchungen orientieren. Kurzfristig mögliche Einstellungswechsel machen geringe Zeitabstände sinnvoll, eher langfristige Prozesse, etwa des intergenera- tionalen sozialen Auf- oder Abstiegs, erlauben größere Abstände zwischen den Erhebungen bzw. Messzeitpunkten. In der Forschungspraxis trifft man häufig auf Erhebungsabstände von einem oder zwei Jahren, insbesondere wenn sie weniger theorieprüfenden Charakter haben und primär gesellschaftlichen Wandel dokumentieren wollen.
Operationalisierung und Messung: Unter Operationalisierung versteht man in der empirischen Sozialforschung eine Anweisung für die Zuweisung von Objekteigenschaften zu theoretischen Begriffen. Alle empirischen Wissenschaften müssen die in Theorien und Hypothesen verwendeten Begriffe in empirisch direkt oder indirekt beobachtbare Sachverhalte ,übersetzen'. Interessierende Eigenschaften und ihre jeweiligen Ausprägungen (Merkmale und Merkmalsausprägungen) sind erst dann empirischen Analysen zugänglich, wenn die Forschung empirische Indikatoren benennen kann, die einem theoretischen Begriff zugeordnet werden (Korrespondenzproblem). In der Geschichte der empirischen Sozialforschung wurden verschiedene Korrespondenzregeln diskutiert. Gegenwärtig wird zumeist der ,kausalanalytische Ansatz' präferiert. Er interpretiert die theoretischen Begriffe als latente Variablen. Die latenten Variablen bedingen bzw. verursachen die Ausprägungen der empirischen Indikatoren, beispielsweise reagiert eine Person mit postmaterialistischer Einstellung auf bestimmte Fragen in einem Fragebogen mit einem spezifischen Antwortmuster, zeigt also beobachtbare Reaktionen. Die Reaktionen (Antwortverhalten) können variieren (z. B. Zustimmung, starke Ablehnung). Als Messung bezeichnet man nun die Zuordnung von Zahlen zu den Antwortvariationen (Merkmalsausprägungen). Nicht jede Zahlenzuordnung ergibt aber eine sinnvolle Messung, sondern eine adäquate Messung beruht auf einer strukturtreuen Abbildung (Stevens, 1946; Steyer, & Eid, 1993). Typischerweise werden die Merkmalsausprägungen durch Zahlen repräsentiert. Diese numerischen Repräsentationen sind dann die Grundlage der angestrebten statistischen Datenanalyse. In der empirischen Sozialforschung sind Messungen nicht fehlerfrei. Die Güte von Messungen wird im Allgemeinen über zwei Kriterien bestimmt: Reliabilität und Validität. Die erste betrifft die Zuverlässigkeit - also die Konstanz der Messergebnisse über die Zeit - die Zweite zielt auf die korrekte inhaltliche Erfassung des zu Messenden durch die Messinstrumente. Geht man von den spezifischen Parametern der klassischen Testtheorie aus, lassen sich Maße für Reliabilität und Gültigkeit schätzen, die Hinweise auf die fehlende Güte der Messung geben. Die klassische Testtheorie selbst geht davon aus, dass sich die empirischen Messwerte aus dem wahren Wert der zu erfassenden Eigenschaft und einem Fehlerterm zusammensetzen. Zudem werden vier Annahmen über die Verteilung der Messfehler postuliert. Diese Annahmen sind aber nicht immer realitätsnah. Diese Schwächen versucht die probabilistische Testtheorie zu umgehen, die jedoch in der Praxis der empirischen Sozialforschung noch wenig Resonanz gefunden hat.
Messungen erfolgen auf unterschiedlichen Mess- bzw. Skalenniveaus. In den Sozialwissenschaften differenziert man im Allgemeinen zwischen Nominal-, Ordinal-, Intervall- und Ratio-Skalen. Je nach Messniveau können die Skalenwerte (Messwerte) unterschiedlichen mathematisch-statistischen Transformationen unterzogen werden. Der Einsatz statistischer Analysemethoden korrespondiert mit den Skalenniveaus der zu analysierenden Daten. Die Berechnung eines arithmetischen Mittels ist beispielsweise für Nominaldaten inadäquat, für Intervalldaten aber angemessen und hilfreich.
Innerhalb der empirischen Sozialforschung verwendet man sehr häufig Messinstrumente, die sich aus mehreren Indikatoren zur Messung der gleichen Eigenschaft zusammensetzen. Indizes bestehen im Allgemeinen aus einer Kombination von Indikatoren, die verschiedene Dimensionen eines theoretischen Begriffs zu einem Messinstrument zusammenfassen. Solche mehrdimensionalen Messinstrumente sind in den Sozialwissenschaften häufig anzutreffen, zum Beispiel bei der Erfassung der sozialen Schichtzugehörigkeit oder der Intelligenz. Eindimensionale Skalierungsverfahren haben ebenso eine lange sozialwissenschaftliche Tradition. Fast immer bestehen sie aus einer Vielzahl von Items, die alle auf die gleiche Messdimension zielen. Zu den bekanntesten Skalierungsverfahren gehören Likert-Skalen, Guttman-Skalen und Magnitude-Skalen. Solche Skalierungstechniken werden ganz überwiegend zur Erfassung von Einstellungen verwendet. Die Güte von Skalenkonstruktionen wird üblicherweise über spezielle Verfahren der Reliabili- täts- und Validitätsschätzung ermittelt. Es ist offensichtlich, dass die empirische Sozialforschung sich in besonderem Maße um die Entwicklungen zuverlässiger und gültiger Messverfahren bzw. Indizes und Skalen bemüht. Wenn empirische Fakten die Basis der Theorieprüfung darstellen, ist eine hohe Datenqualität zwingend.
Auswahlverfahren: Messungen bzw. Datenerhebungen erfolgen immer an Objekten. Innerhalb des Forschungsprozesses ist zu entscheiden, an welchen Objekten die Messungen erfolgen sollen. Natürlich sind es in den Sozialwissenschaften zumeist Menschen. Hypothesen haben einen Objektbereich, d. h. benennen Objekte (z. B. Europäer, deutsche Kinder, Menschen) für die die Hypothesen gelten sollen. Grundsätzlich können die Messungen entweder an allen interessierenden Objekten oder an einer Teilmenge erfolgen - man spricht von Voll- oder Teilerhebung. Vollerhebungen sind nur sinnvoll, wenn der Objektbereich eher klein ist, wenn also die Hypothese auf eine überschau- und erreichbare Population (z. B. die aktuellen Landtagsabgeordneten im Saarland) zielt. Aus guten Gründen gilt das wissenschaftliche Interesse aber zumeist größeren Populationen bis hin zu ,allen Menschen'. Vollerhebungen sind dann praktisch nicht realisierbar und u. U. auch fehlerbehafteter als Teilerhebungen. Zur Rekrutierung von Personen aus der Gesamtheit der zu interessierenden Population (Grundgesamtheit) werden Auswahlverfahren eingesetzt. Sehr grob lassen sich Wahrscheinlichkeitsauswahlen und willkürliche (inkl. bewusste) Auswahlen unterscheiden. Verfahren der letzteren Gruppe (z. B. Quotenauswahl, Internet oder E-Mail basierte willkürliche Auswahlen) sind durchaus verbreitet aber genügen den üblichen wissenschaftlichen Standards nicht (Schnell, Hill & Esser, 2013).
Zur Gruppe der Wahrscheinlichkeitsauswahlen (random sampling) gehört eine Vielzahl konkreter Techniken, die allesamt Zufallsstichproben generieren. Zufällig bedeutet, dass jedes Element bzw. jede Person die gleiche bzw. eine angebbare
Chance hat, in die Stichprobe zu gelangen. Auf dieser Grundlage sind dann auch Inferenzschlüsse von der Stichprobenpopulation auf die Grundgesamtheit gut begründet möglich - was aber eben bei willkürlichen Auswahlen nicht der Fall ist. Je nach Untersuchungsziel und Problemlage werden einfache, geschichtete oder Klumpenstichproben zugrunde gelegt. Telefonische Umfragen werden häufig mit Dual-Frame-Stichproben verbunden. Bei großen Bevölkerungsumfragen dominieren mehrstufige Auswahlverfahren (Schnell, Hill & Esser, 2013).
Der Umfang von Zufallsstichproben ist abhängig von der tolerierbaren Fehlermarge hinsichtlich der auf Grundlage der Stichprobenstatistiken geschätzten Parameter der Grundgesamtheit. Für sozialwissenschaftliche Untersuchungen, die Aussagen über die nationale Wohnbevölkerung anstreben, sind Stichprobengrößen zwischen 1.000 und 3.000 Personen nicht unüblich.
Die Qualität einer Stichprobe ist in der Forschungspraxis auch von der Ausschöpfungsrate (als komplimentäre Größe der nonresponse rate) abhängig (Schnell, 1997). Die angestrebte Stichprobengröße kann aufgrund von Ausfällen (z. B. Nichterreichbarkeit oder Verweigerung von Personen) zumeist nicht realisiert werden. Besonders problematisch sind Ausfälle, wenn sie nicht neutral sind, d. h. mit in der Untersuchung erhobenen Informationen zusammenhängen. Dadurch entstehende Verzerrungen sind auch nicht über Gewichtungsverfahren (Redressment) korrigierbar. Da eine Zunahme des Nonresponse (insbesondere durch Verweigerung) in den letzten Jahrzehnten zu verzeichnen ist, muss die empirische Sozialforschung verstärkt Gegenstrategien entwickeln und für die Teilnahme Anreize entwickeln.
Datenerhebung: Die wichtigsten Datenerhebungsformen sind Befragung, Beobachtung und Inhaltsanalyse. In der sozialwissenschaftlichen Praxis dominiert das Interview als Erhebungsverfahren ganz eindeutig. Beobachtung und Inhaltsanalyse sind derzeit nur gelegentlich anzutreffen, was aber nicht dauerhaft so bleiben muss, da sich durch den verstärkten Einsatz moderner Technik (z. B. Video, GPS-Ortung, computerbasierte Dokumentenanalyse) durchaus Änderungen ergeben könnten. Alle Erhebungsmethoden haben ihre spezifischen Stärken und Schwächen. Als eine besonders wichtige Eigenschaft ist dabei die Reaktivität der Erhebungsverfahren zu sehen. Darunter versteht man das Ausmaß, die Empfindlichkeit, einer Erhebungsmethode für unerwünschte Effekte, die durch die Erhebungsmethodik selbst bedingt sind und damit auf die intendierten Messungen verzerrend Einfluss nehmen. Befragte reagieren u.U. nicht nur auf das Messinstrument (Fragen im Fragebogen), sondern auch auf Eigenschaften der Interviewer. Innerhalb einer Beobachtung, über die die Beobachteten nicht informiert sind, sind auch keine Reaktivitätseffekte erwartbar.
Das Interview wurde in den 1950er und 1960er Jahren als ,Königsweg' der empirischen Sozialforschung eingeschätzt, da mit überschaubaren Mitteln umfangreiche
Informationen gesammelt werden können, zumindest im Vergleich zu anderen Erhebungsformen. Mit Hilfe von Interviews konnten zu sehr unterschiedlichen Forschungsfragen Daten erhoben werden, die zudem auch relativ schnell verfügbar waren. Befragungen (Groves et al., 2009; Schnell, 2012) können in sehr verschiedenen Formen stattfinden: als persönliches Interview, als postalische oder telefonische Befragung, mit Unterstützung durch einen Computer (CATI bzw. CAPI), als Gruppenbefragung bzw. Gruppeninterview, als Expertengespräch u. a. Zudem lassen sich verschiedene Arten von Fragen differenzieren: Einstellungsfragen, Faktenfragen, Verhaltensfragen etc. Fragen bzw. Befragungen lassen sich auch nach dem Grad der Standardisierung differenzieren. Nichtstandardisierte Leitfadeninterviews geben keine konkreten Frageformulierungen vor, sondern nur Gesprächsthemen, teilstandardisierte Interviews arbeiten mit offenen Fragen, die die Frageformulierung wörtlich festschreiben, aber keine festen Antwortkategorien verwenden und standardisierte Interviews geben Fragestellung und Antwortkategorien vor.
Welche Befragungsform zum Einsatz kommt ist von der theoretischen Fragestellung abhängig und auch vom Stand des Vorwissens. Allgemein gilt: Je geringer das Vorwissen, desto eher können weniger standardisierte Techniken zum Einsatz kommen. Stark standardisierte Befragungsformen schaffen besser vergleichbare Messsituationen und dienen so der Güte der Messung. In der Praxis gibt es sehr häufig eine Entwicklung von wenig standardisierten Formen, die primär der Erkundung dienen, zu standardisierten Messungen, die oft zur Entwicklung von Skalen führen. Diese Instrumentenentwicklung macht die Durchführung von Pretests (,Vorprüfungen') zwingend notwendig. Neben der Instrumentenentwicklung sind im Vorfeld der Befragung weitere vorbereitende Schritte unumgänglich, insbesondere die Interviewerschulung. Alle diese Bemühungen zielen darauf, die Güte der Messungen zu verbessern und Antwortverzerrungen (Response-Errors) - wie etwa soziale Erwünschtheit, Akquieszenz, Sponsorship- oder Interviewereffekte - zu vermeiden (Sudman & Bradburn, 1974; Schuhman & Presser, 1981).
Aufgrund der Dominanz der Befragungsmethodik ist mittlerweile eine explizite Forschung zu entsprechenden Methodenfragen (Artefakteforschung) und auch eine Theorie des Befragtenverhaltens (Esser, 1986) entstanden. Für die Beobachtung und die Inhaltsanalyse kann das kaum gesagt werden. Beobachtungen (Friedrichs & Lüdtke, 1977; Babbie, 2001) sind mittlerweile in der Soziologie nur noch selten zu finden. Inhaltsanalysen haben ebenfalls in der soziologischen Forschung weniger Relevanz. Dies sagt aber wenig über die Leistungsfähigkeit dieser Strategien aus. Insbesondere ist für Beobachtungen festzuhalten, dass sie tatsächliches Handeln bzw. Verhalten erfassen und messen. Bei Befragungen werden zumeist nur Handlungsabsichten und -gründe erfasst. Bekannterweise sind diese aber nicht mit faktischen Handlungen oder Verhalten gleichzusetzen. Manche Formen der
Beobachtung können zudem als nicht-reaktive Verfahren gelten. Dieser Vorzug trifft auch auf die Inhaltsanalyse bzw. Dokumentenanalyse zu (Krippendorff, 2004), deren Einsatzgebiet von der Analyse politischer Propaganda, sowie von Zeitschriften und Parlamentsdebattenprotokollen bis zu Comics und Todesanzeigen reicht. Dabei wird auch hier theoriegeleitet gearbeitet. Die Dokumente sind Objekte, die Merkmale und Merkmalsausprägungen aufweisen, die wiederum als Operationalisierung für theoretische Begriffe - wie z. B. gesellschaftlicher Wandel' stehen. Wie angesprochen könnte das Potential dieser Erhebungsmethode durch den verstärkten Einsatz neuer Kommunikationstechniken in den nächsten Jahren stärker genutzt werden. Damit käme man auch der gewünschten Kombination verschiedener Erhebungsmethoden (Triangulation) näher, in der die jeweiligen spezifischen Vorteile genutzt werden.
Datenaufbereitung und Datenanalyse: ist die Datenerhebung erfolgt, steht die Aufbereitung der Daten an (Schnell, Hill & Esser, 2013). Bei Erhebungen, die Informationen in nicht standardisierter Form (etwa auf Tonträgern aufgezeichnete qualitative Interviews) erfassen, ist eine Transkription notwendig. Die entstehenden Textkorpora sind dann der Ausgangspunkt der Auswertung bzw. Interpretation des Materials.
Bei quantitativen Daten gestaltet sich die Datenerfassung je nach der Erhebungsform unter-schiedlich. Gelegentlich ist noch eine manuelle Datenerfassung notwendig, die die Informationen des Papierfragebogens mit Hilfe eines EDV-Programmes in elektronischer Form ab-speichert. Erfolgt die Datenerhebung bereits mit Hilfe einer Software (z. B. bei CATI oder bei Internetbefragungen), ist eine explizite Datenerfassung kaum mehr notwendig. In jedem Fall werden die erhobenen Daten in nummerischer Form in einer Datenmatrix zusammengetragen. In dieser Matrix sind die Zeilen über die Untersuchungseinheiten (z. B. Personen) defi-niert, und die Spalten repräsentieren die Variablen und ihre Ausprägungen. Eine Datenmatrix wird nach Regeln erstellt, die im Codeplan festgeschrieben sind. Jeder Eintrag in der Matrix kann mit dessen Hilfe entschlüsselt werden. So stehen die Zahlen 3 und 4 in Spalte 7 und 8 in der 9. Zeile für die Information, dass der Befrage Nr. 9 ein Alter von 34 Jahren hat.
Die Informationen der Datenmatrix sind Grundlage der quantitativen Datenanalyse. In den ersten Auswertungsschritten werden zumeist deskriptive univariate Verteilungen erstellt. Es folgen bivariate und schließlich multivariate statistische Analysen, die sich allesamt natürlich an den theoretischen Ausgangsfragen bzw. den Hypothesen orientieren, d. h. Hypothesen testen. Die statistischen Analysen geben dann Auskunft über die empirische Stärke der theoretisch postulierten Zusammenhänge. Sie sind ein zentrales Kriterium für die vorläufige Akzeptanz der Hypothesen und Theorien. Zugleich sind die empirischen Ergebnisse von
Forschungsprojekten fast immer Ausgangspunkt für Theorierevisionen, Vertiefungen und Spezifikationen, die ihrerseits neue, weiterführende Fragestellungen und Forschungen anregen.
Die Skizze der zentralen Arbeitsschritte verdeutlicht auch nochmal die Interdependenz der vielen notwendigen Entscheidungen: Die Wahl der Forschungsfrage hat direkte Konsequenzen für die angemessene Erhebungsart. Arbeitet man experimentell, dann sind andere Operationalisierungen geboten als innerhalb eines Surveydesigns. Will man Reaktivitätseffekte vermeiden, scheinen Interviews nicht unbedingt angeraten. Ist man an verallgemeinerbaren Daten über eine umfangreiche Grundgesamtheit interessiert, dann sind Beobachtungen zur Datenerhebungen kaum ratsam. Empirische Forschungsprojekte bedürfen somit einer Gesamtplanung, bei der die methodenbezogenen Entscheidungen zu einer sinnvollen Projektkonzeption zusammengeführt werden. Richtungsweisend ist dabei aber immer die theoretische Fragestellung.
Empirische Sozialforschung verursacht natürlich auch (gelegentlich hohe) finanzielle Kosten. Entsprechende Forschungsunterstützung wird kaum von universitärer Seite geleistet. Sogenannte Drittmittel werden von außen eingebracht bzw. eingeworben. Geldgeber sind Stiftungen, Ministerien und sonstige wissenschaftsfördernde Institutionen. Der weit größte und wichtigste Forschungsförderer ist die Deutsche Forschungsgemeinschaft (DFG). Sie unterstützt empirische Forschungsprojekte, nachdem diese vorgängig ein Begutachtungsverfahren (peer review) durchlaufen haben. Die im Rahmen der Forschung erhobenen Daten werden im Normalfall in wissenschaftlichen Archiven gespeichert und auch anderen Forschern zur Verfügung gestellt.
Die empirische Sozialforschung (zumindest in Deutschland) ist derzeit auch von einer Kontroverse zwischen quantitativer und qualitativer Forschung (Lamneck, 1989) geprägt. Dabei geht es im Kern nicht um den angemessenen Einsatz entsprechender Techniken. Es dürfte wohl Konsens sein, dass nicht-standardisierte, explorative Erhebungstechniken vor allem dann einzusetzen sind, wenn die inhaltliche Fragestellung noch unklar ist bzw. das Vorwissen (etwa aus vorgängigen Studien) noch sehr gering ist. Im Kern ist der sogenannte ,Methodenstreit' eben kein Methodenstreit, sondern eine methodologische Kontroverse. Wenn man die beiden Standpunkte schlagwortartig zusammenfassen will, ist es nicht unplausibel die quantitativ-orientierten Wissenschaftler, die natürlich auch gar nicht selten qualitative Methoden einsetzen, als Vertreter einer erklärenden Sozialwissenschaft zu charakterisieren; sie suchen nach den kausalen Regeln, denen soziales Handeln folgt, und sie bemühen sich um die Prognosefähigkeit der Sozialwissenschaft. Qualitativ-orientierte Wissenschaftler halten dieses Streben für müßig, oder auch den Sozialwissenschaften für prinzipiell nicht angemessen oder falsch. Diese
Haltung resultiert im Wesentlichen aus der Überzeugung, dass soziales Handeln eines verstehenden Zugangs bedarf, dem eine einheitswissenschaftliche Methodologie nicht gerecht werden kann. Damit schimmert aber wieder eine alte, aus guten Gründen längst überwunden geglaubte Debatte, die zwischen ,Erklären' und Verstehen' erneut hervor.
Migration
Migration oder Wanderung im weitesten Sinne ist eine Positionsveränderung einer oder mehrerer Personen im Raum und damit ein Unterfall der horizontalen bzw. räumlichen Mobilität. In Abgrenzung zu anderen, temporären Formen der räumlichen Mobilität (z. B. Urlaubs- und Geschäftsreisen, Besuche und Ausflüge, Pendelverkehr) wird von einer Migration bzw. einer Wanderung allerdings nur dann gesprochen, wenn die Positionsveränderung nicht nur vorübergehend ist und wenn mit ihr ein bestimmter qualitativer Aspekt (,Lebensmittelpunkt') verbunden ist. In der empirischen Forschung gestaltet sich die Präzisierung dieser beiden Kriterien oftmals schwierig und konkrete Operationalisierungen weichen mitunter erheblich voneinander ab. In der amtlichen Statistik wird i.d.R. der Hauptwohnsitz zugrunde gelegt, was allerdings interessante Phänomene ausschließt, die ebenfalls unter den Begriff fallen (z. B. undokumentierte Wanderungen). Die Vereinten Nationen empfehlen, zwischen einer langfristigen (mindestens zwölf Monate) und einer kurzfristigen (mindestens drei Monate) Migration zu unterscheiden (United Nations, 1998).
Je nachdem, welche räumlichen Grenzen durch die Wanderung überschritten werden, lassen sich verschiedene Typen unterscheiden: Internationale Wanderungen betreffen einen Wechsel zwischen Staaten bzw. Nationen. Im engeren Sinne ist die Verwendung des Begriffs der Migration oftmals für den Typus der internationalen Wanderung reserviert. Erfolgt die Wanderung innerhalb eines Staates, wird auch von Binnenmigration (oder: interregionaler Wanderung) gesprochen, wobei diese sich weiter danach differenzieren lässt, welche Regionengrenzen (Bundesländer, Regierungsbezirke, Kreise, Gemeinden) überschritten werden. Wanderungen innerhalb einer Gemeinde werden auch als innerstädtische Wanderungen bzw. Umzüge innerhalb einer Gemeinde bezeichnet.
In Bezug auf eine Migration kann zwischen dem Herkunftsgebiet und dem Zielgebiet unterschieden werden. In Bezug auf ein bestimmtes Gebiet lässt sich zwischen Ein- wanderung (Immigration) und Auswanderung (Emigration) differenzieren. Beide Prozesse gehen neben der natürlichen Bevölkerungsbewegung (Fertilität und Mortalität) in die demographische Grundgleichung ein. Die Differenz zwischen Einwanderungen und Auswanderungen wird als Nettomigration bezeichnet. Bezieht man die absoluten Wanderungen in einem bestimmten Zeitraum auf den (anfänglichen bzw. mittleren) Populationsbestand eines Gebietes, ergeben sich entsprechend Einwanderungsrate, Auswanderungsrate und Nettomigrationsrate.
Weitere Differenzierungen des Migrationsbegriffes werden häufig anhand der hauptsächlichen Motive vorgenommen, die mit der Migration verbunden sind. Eine klassische Typologie bildet dabei die von William Petersen (1958), der zwischen einer ursprünglichen Wanderung (als direkte Reaktion auf die natürliche Umwelt), einer gewaltsamen und zwangsweisen Wanderung (veranlasst durch den Staat bzw. staatsäquivalente Institutionen), freiwilligen Wanderungen (infolge persönlicher Entscheidungen) und Massenwanderungen (motiviert durch die Wanderungen anderer) unterscheidet. Letzteres wird auch als Kettenmigration bezeichnet. Für das jüngere Migrationsgeschehen sind insbesondere die Unterscheidungen zwischen einer Wanderung aus unmittelbar erwerbsbezogenen Gründen (Arbeitsmigration), dem Nachzug von Familienmitgliedern (Familienzusammenführung), der Einwanderung von Flüchtlingen bzw. Asylbewerbern (Asylmigration) und der Einwanderung oftmals rechtlich privilegierter Gruppen, die in anderen Staatsgebieten als ethnische Minderheiten leben, relevant (Han, 2010). Nicht immer lassen sich jedoch eindeutige Motivlagen ausmachen, was solchen Typologisierungsversuchen Grenzen setzt.
Migration gibt und gab es in fast allen der skizzierten Typen und Formen, in allen Gesellschaften und zu allen historischen Zeiten. In der jüngeren Geschichte lassen sich grob vier typische Perioden jeweils dominanter internationaler Migrationsbewegungen ausmachen (Massey et al., 2005): eine merkantile Periode (ca. 1500-1800) im Zuge der Kolonialisierung der vier übrigen Kontinente durch die Europäer; eine industrielle Periode (ca. 1800-1925), die weitgehend geprägt ist durch die Verbreitung der Industrialisierung und die einhergehende Auswanderung von Europäern v. a. nach Nordamerika (USA und Kanada); eine Periode nur begrenzter Migration v. a. nach 1929 während der Weltwirtschaftskrise und unmittelbar nach dem zweiten Weltkrieg; und schließlich die jüngste Phase nach-industrieller Migration, spätestens seit 1960, in der zunächst die ehemaligen Auswanderungsländer Nord- und Westeuropas, dann viele industrialisierte Staaten Asiens und Südeuropas - mittlerweile zunehmend auch Osteuropas - zu Ländern mit beachtlicher Einwanderung geworden sind.
In der deutschen Geschichte seit 1945 lassen sich vereinfacht ebenfalls vier größere Abschnitte der Zuwanderung unterscheiden (Münz, Seifert & Ulrich, 1999). In den Nach- kriegsjahren kamen zunächst v. a. Flüchtlinge und Vertriebene aus den ehemaligen deutschen Ostgebieten in großer Zahl in das Gebiet der heutigen Bundesrepublik. Mit dem sogenannten Wirtschaftswunder setzte dann spätestens Anfang der 1960er Jahre die massive Arbeitsmigration, v. a. aus Italien, Spanien, Portugal, Griechenland, Jugoslawien und der Türkei ein. Diese zweite Phase endete 1973 mit dem Anwerbestopp, wurde aber durch eine umfangreiche Migration im Zeichen des Familiennachzuges abgelöst. Ende der 1980er und Anfang der 1990er Jahre setzte dann eine vierte Phase ein, in der v. a. Asylbewerber und Spätaussiedler, aber auch eine neu einsetzende Arbeitsmigration aus Ostmittelund Osteuropa, das Migrationsgeschehen bestimmten.
Die Gegenstände der Migrationsforschung sind vielfältig. Eine wichtige Aufgabe der empirischen Arbeit bildet die Dokumentation von Wanderungsbewegungen (woher? wohin?) und entsprechender zeitlicher Trends (wann?). Dies ist aufgrund der eingangs angedeuteten konzeptuellen Schwierigkeiten und der generellen Datenlage keineswegs ein leichtes Unterfangen. Über den reinen Umfang hinaus interessiert dabei auch, welche speziellen Teilgruppen (wer?) wandern, was auch als selektive Migration bzw. Migrationsdifferentiale bezeichnet wird. Gegenstand der Migrationstheorie sind allgemeine Erklärungen (warum?) dieser Phänomene und die Integration entsprechender Ansätze. Deren Überprüfung ist dann ein weiteres umfangreiches Feld der empirischen Forschung. Nicht zuletzt aufgrund der enormen gesellschaftlichen Konsequenzen, die mit Ein- und Auswanderungen verbunden sind, liegt ein wesentliches Ziel schließlich darin, zukünftige Wanderungsbewegungen angemessen prognostizieren zu können. Im weiteren Sinne des Begriffes wird unter Migrationsforschung auch die Beschäftigung mit den Folgen der Wanderung geführt, worunter z. B. Prozesse der Integration von Zuwanderern bzw. ethnischen Minderheiten fallen. Diese werden hier unter Zugrundelegung eines engeren Begriffes aber ausgeklammert. Mit seinen ,Gesetzen der Wanderung' gilt Ernest G. Ravenstein (Ravenstein, 1885) als Urvater der Migrationstheorie. In deren Folge herrschen dann zunächst makrotheoretische Ansätze vor, wie die an die Physik angelehnten Gravitationsmodelle der Wanderung, die Makroökonomie und das damit eng verbundene generelle ,Push-Pull-Paradigma'. Letzteres beinhaltet die prinzipielle Vorstellung, dass Migrationen durch ,abstoßende' Faktoren im Herkunftsgebiet einerseits und ,anziehende' Faktoren im Zielgebiet andererseits hervorgerufen werden. Neben klassischen Faktoren wie regionalen Lohnniveaus oder Arbeitslosenquoten rücken dabei zunehmend auch nicht-ökonomische Faktoren mit in den Blickpunkt. Empirische Unzulänglichkeiten bzw. offensichtliche Anomalien der Makroansätze sowie die grundsätzliche Notwendigkeit, auch selektives Migrationsverhalten zu erklären, führen zu einer ,mikrotheoretischen Wende' in der Migrationsforschung. Einen Meilenstein bilden hier die Modelle aus der Humankapitaltheorie. Deren oftmals zu rigide Annahmen werden dann mehr und mehr durch realistischere ersetzt, wobei insbesondere auch auf sozialpsychologische Ansätze zurückgegriffen wird. Die Werterwartungstheorie bildet in gewisser Weise die Symbiose dieser beiden Theoriestränge (Kalter, 2000).
In der aktuellen Migrationsforschung wird u. a. diskutiert, inwieweit all diese klassischen Erklärungsansätze auch noch zur Erklärung aktueller Migrationsphänomene angemessen sind. Unter Stichworten wie ,Globalisierung' und ,Transnationalismus' wird u. a. argumentiert, dass sich nicht nur Richtungen und Gewichte internationaler Migrationsbewegungen verschieben, sondern dass auch grundsätzliche Veränderungen im Typus der Migration zu verzeichnen sind. Migration sei nicht mehr vorwiegend ein unidirektionaler und einmaliger Akt der Verlagerung des Lebensmittelpunktes in ein anderes Staatsgebiet bzw. eine andere Kultur, vielmehr pendelten Akteure verstärkt zwischen solchen Kulturen und organisierten ihr Leben zunehmend in bi- bzw. multilokalen Kontexten (Faist, 2000).
Da die dominanten Theorieansätze darüber hinaus noch einige Anomalien aufweisen, wird aus all diesen Beobachtungen nicht selten die Notwendigkeit einer erneuten theoretischen Umorientierung abgeleitet, nun wieder hin zu makroperspektivischen Ansätzen, wie etwa der World-Systems-Theorie. Auf der
anderen Seite wird hingegen versucht, die mikroperspektivische Sicht aufgrund ihrer methodologischen Vorzüge im Kern beizubehalten. Allerdings werden zentrale Modifikationen an den grundlegenden verhaltenstheoretischen Annahmen vorgenommen. So betont die Neue Migrationsökonomie etwa das Konzept der Risikoaversion und berücksichtigt den gesamten Haushaltskontext als Rahmen der Migrationsentscheidung. Desweiteren wird verstärkt die Bedeutung von Netzwerkstrukturen bzw. sozialer Kapitalien als zentrales Glied auf der Meso-Ebene hervorgehoben. Mit einer systematischen Rückbindung dieser Konzepte auf die zugrunde liegenden Entscheidungsmodelle und deren entsprechender Dynamisierung erscheinen insbesondere auch Phänomene der Kettenmigration bzw. der sogenannten kumulativen Verursachung von Migrationen behandelbar (Massey et al., 1993).
Milieu, soziales
Unter einem sozialen Milieu versteht man eine sozialstrukturelle Gruppe gleichgesinnter Menschen, die ähnliche Werthaltungen, Lebensführungen, Beziehungen zu Mitmenschen und Mentalitäten aufweisen. Die Mitglieder eines sozialen Milieus haben oft ein gemeinsames (materielles, kulturelles, soziales) Umfeld. Sie sehen, interpretieren und gestalten es in ähnlicher Weise. Kleinere Milieus (z. B. Organi- sations-, Stadtviertel- oder Berufsmilieus) haben durch ein gewisses Wir-Gefühl und verstärkte Binnenkontakte einen engeren Zusammenhalt als größere. Der Milieubegriff ähnelt dem Begriff Lebensstil. Beide betonen die „subjektive" Seite der Gesellschaft, d. h. soziale Strukturierungen und Gruppierungen, für die das Denken und Verhalten der Menschen konstitutiv sind. Der Milieubegriff konzentriert sich auf psychologisch „tief " verankerte und vergleichsweise beständige Werthaltungen und Grundeinstellungen von Menschen. Der Lebensstilbegriff richtet sich dagegen vor allem auf äußerlich beobachtbare Verhaltensroutinen.
Noch in den 1960er und 1970er Jahren gingen Sozialwissenschaftler meist davon aus, dass Selbstdefinition, Denken und Verhalten der Menschen vor allem von ihrer Klassen- bzw. Schichtzugehörigkeit geprägt sind. In den 1980er Jahren kamen, angestoßen von Praktikern aus Schule, Marketing und Politik, immer mehr Zweifel daran auf. Mit der Zunahme von Wohlstand, Bildung und sozialer Sicherheit schien das alltägliche Handeln der Menschen immer weniger von Ressourcenbesitz als von Ressourcenverwendung geprägt zu sein. Die soziale Stellung schien individuell gestaltbarer zu werden.
Die empirische Forschung zeigte seither, dass diese Annahmen teilweise zutreffen. Die Zugehörigkeit zu sozialen Milieus ist weder völlig von äußeren Faktoren determiniert noch ganz frei wählbar. Die Milieuzugehörigkeit ist bis zu einem gewissen Grade eine Frage des Alters, des Geburtszeitraums (Kohorte), der Lebensform (Haushaltszusammensetzung, Kinderzahl), der Lebensphase, des Geschlechts und der Bildung. Daneben wirken sich auch ökonomische und berufliche Faktoren auf die Milieuzugehörigkeit aus. Die ersten diachronen empirischen Studien weisen darauf hin, dass es schwieriger ist, im Lebenslauf oder in der Generationenfolge die Milieuzugehörigkeit als den Lebensstil zu wechseln. Denn Werthaltungen sind beständiger als Verhaltensroutinen. Im Falle von Krisen oder neuen Kontakten sind Milieuwechsel aber möglich. Soziale Milieus sind als vieldimensionale, ganzheitliche Phänomene definiert. Empirische Studien beruhen daher auf einer Vielzahl von Indikatoren und sind entsprechend aufwändig. Empirische Untersuchungen kamen weithin übereinstimmend zum Ergebnis, dass in Deutschland ca. 8-10 soziale Milieus zu unterscheiden sind. Sie lassen sich überwiegend bestimmten sozialen Schichten zuordnen. Jede soziale Schicht besteht jedoch aus mehreren sozialen Milieus.
In modernen Gesellschaften gehen soziale Milieus fließend ineinander über. Empirisch ermittelte Milieugrenzen geben daher nicht „natürliche" Gruppengrenzen wieder, sondern stellen von Sozialforschern „künstlich" getroffene Unterscheidungen zwischen merkmalsähnlichen Gruppierungen dar. Viele Menschen gehören so mehreren Milieus an oder stehen zwischen ihnen.
View attachment 6128
Soziale Milieus sind historisch gewachsen. Sie sind in vielen kulturellen Produkten verankert und werden als Teilkulturen von Gesellschaften in Sozialisationsprozessen übermittelt. Deshalb sind, historisch gesehen, soziale Milieus recht stabil. Dennoch wandelt sich die Milieustruktur von Gesellschaften langsam, u. a. wegen der Veränderung von Lebensbedingungen und sozialer Lagen. Traditionelle Milieus schrumpfen. Sie weisen Werthaltungen auf, die ein Leben in Gemeinschaft und das Befolgen verpflichtender Normen obenan stellen. Dagegen wachsen „moderne" und „postmoderne" Milieus. Ihre Werte betonen individualisiertes und selbstbezügliches Leben. Langfristig sprechen die verfügbaren Befunde für eine allmähliche Pluralisierung sozialer Milieus.
View attachment 6129
Forschungsresultate zu sozialen Milieus haben u. a. im Marketing und in der politischen Beratung große Bedeutung. Denn die Zugehörigkeit zu Milieus besagt viel über das alltagspraktische Verhalten in Konsum, Politik, Bildung etc. Die Milieuzugehörigkeit erklärt Verhaltensweisen durch ähnliche Werte und Nutzenerwartungen der Menschen und nicht wie die Schichtzugehörigkeit durch die Verfügbarkeit von Geld oder Informationen. Milieuzugehörigkeit erklärt in begrenztem Ausmaß auch Vergemeinschaftungen, (z. B. in „neuen sozialen Bewegungen") und soziale Konflikte, so auch die latenten symbolischen Kämpfe um Aneignungsprozesse im öffentlichen Raum (z. B. „Gentrification").
Die Erkenntnisse über das Milieugefüge helfen, die Sozialstruktur moderner Gesellschaften insgesamt zu verstehen und zu erklären. Milieutypologien gelten in diesem Zusammenhang als wichtige Ergänzungen zu Schicht- bzw. Klassenmodellen
Mobilität, soziale
Soziale Mobilität bedeutet die Bewegung von Personen oder Personengruppen zwischen verschiedenen sozialen Positionen. Das Ausmaß der sozialen Mobilität wird häufig als Indikator für die Chancengleichheit in einer Gesellschaft interpretiert. Entsprechend zentral ist die Analyse sozialer Mobilität für die Beschreibung von Gesellschaften sowie für die Rechtfertigung bestehender Verteilungsungleichheiten.
Die (soziale) Mobilitätsforschung betrachtet vornehmlich Individuen und ihren Wechsel zwischen sozialen Positionen. Daneben gibt es auch zahlreiche Studien, welche die sozialen Bewegungen von Personengruppen analysieren, insbesondere ganzer Haushalte oder Familien. Bei der Analyse des Mobilitätsverhaltens größerer Gruppen (z. B. Arbeiter) spricht man von kollektiver sozialer Mobilität.
Für die Untersuchung von sozialer Mobilität muss festgelegt werden, welche sozialen Positionen in einer betreffenden Gesellschaft unterschieden werden sollen. In soziologischen Mobilitätsstudien werden meist arbeitsmarktbezogene soziale Positionen zugrunde gelegt. Häufig erfolgt die Einteilung in soziale Klassen (z. B. Arbeiterklasse, Selbstständige, Professionen), gelegentlich auch in Statusgruppen, Prestigegruppen oder in soziale Schichten. In der Ökonomie hingegen werden insbesondere Einkommenspositionen betrachtet (z. B. das reichste oder ärmste Fünftel in der Einkommensverteilung).
Neben der Messung der sozialen Position muss bestimmt werden, was die Bezugsgröße für den Vergleich der jeweiligen sozialen Position ist. Betrachtet man den Wechsel sozialer Positionen von ein und derselben Person (oder Personengruppe) über eine gewisse Zeit hinweg, so spricht man von intragenerationaler sozialer Mobilität oder Karrieremobilität. Vergleicht man die soziale Position einer Person mit der Position ihrer Eltern, so spricht man von intergenerationaler sozialer Mobilität. Letztere Sichtweise ist in der soziologischen Forschung die häufigere Betrachtung.
Ausgehend von den verschiedenen sozialen Positionen kann zwischen vertikaler und horizontaler sozialer Mobilität unterschieden werden. Vertikale soziale Mobilität bedeutet, dass der Wechsel zwischen sozialen Positionen einen sozialen Auf- oder Abstieg mit sich bringt (Arbeiterkinder werden zu leitenden Angestellten; Personen rutschen vom reichsten Fünftel ins ärmste Fünftel der Einkommensverteilung). Horizontale soziale Mobilität bedeutet, dass es zwar einen Wechsel der sozialen Positionen gegeben hat, diese sozialen Positionen in der gesellschaftlichen Hierarchie aber mehr oder weniger auf der gleichen Stufe anzusiedeln sind (z. B. Facharbeiter und qualifizierte Fachangestellte).
Das Ausmaß sozialer Mobilität wird durch absolute und durch relative Mobilitätsraten beschrieben. Bei absoluten Raten werden alle Individuen oder Personengruppen gezählt, deren soziale Positionen sich verändert haben, und dann als Anteil der Mobilen an der Gesamtheit berechnet. In Deutschland sind intergenerational beispielsweise gut 70 Prozent der Menschen mobil, d. h. sie haben eine andere Klassenposition als die Vätergeneration. Ein Gutteil dieser Mobilität ist strukturell bedingt: Es gibt für die heutige Generation beispielsweise weniger Positionen in der Landwirtschaft oder in der Industrie im Vergleich zur Elterngeneration, dafür aber deutlich mehr Positionen im Dienstleistungsbereich. Relative Mobilitätsraten geben die Chancen an, über die strukturellen Veränderungen hinaus sozial mobil zu sein; sie sind von dem rein strukturell bedingten Anteil der sozialen Mobilität bereinigt. Dies wird anschaulich, wenn man sich die Gesellschaft als Leiter vorstellt, deren Sprossen die Hierarchie der Gesellschaft wiedergeben. Es ist denkbar, dass die gesamte Leiter nach oben geschoben wird. Dabei erlebt jeder einen sozialen Aufstieg, aber die Reihenfolge der Personen auf den Sprossen bleibt gleich. Man hätte absolute Mobilitätsraten von
100 Prozent, aber die relativen Raten wären „null ", da es innerhalb der gesellschaftlichen Hierarchie keine Veränderung gibt. Relative Mobilitätsraten werden meist in Chancenverhältnissen (bei zugrunde liegenden Klassenschemata) oder in Korrelationen und Elastizitäten (bei zugrunde liegenden linearen Einkommensmessungen) ausgedrückt. Eine früher übliche Unterscheidung zwischen struktureller Mobilität und Zirkulationsmobilität wird heute nicht mehr verwendet.
Das Konzept der sozialen Mobilität und deren Folgen werden bereits bei den soziologischen Klassikern (u. a. Marx, Weber, Durkheim) diskutiert. Die meisten Vorhersagen zu sozialer Mobilität sind makrotheoretische Ansätze: Pitirim Sorokin (1889-1968) beschreibt bereits 1927 die gesellschaftlichen Auf- und Abstiege in der Geschichte als „trendless fluctuation", ein Begriff, der auch in der zeitgenössischen Diskussion wiederholt gebraucht wird. Die liberale Theorie des Industrialismus (Kerr et al., 1960, Blau & Duncan, 1967; Treiman, 1970), die auf strukturfunktionalistische Ideen von Talcott Parsons (1902-1979) zurückgeht, besagt, dass es in Industriegesellschaften eine hohe soziale Mobilität gibt, die weiterhin zunimmt. Aufwärtsmobilität, so die Vorhersage, findet dabei häufiger statt als Abwärtsmobilität, und es kommt zu einer Angleichung der Mobilitätschancen aller. Neo-marxistische Ansätze (Braverman, 1974, Wright & Singelmann, 1982) sagen aufgrund der kapitalistischen Wirtschaftsordnung eine verstärkte Abwärtsmobilität und damit einhergehend eine zunehmende Proletarisierung der gesellschaftlichen Mitte voraus.
Die bekannteste und empirisch am ehesten zutreffende Hypothese in der Mobilitätsforschung stammt von Featherman, Jones und Hauser (1975). Sie besagt, dass in Industriegesellschaften mit Marktwirtschaft und Kernfamilien die intergene- rationalen relativen Mobilitätsraten weitgehend gleich sind - was in der Literatur dahingehend interpretiert wird, dass die Raten zeitlich ebenfalls konstant sind.
Robert Erikson und John Goldthorpe haben in ihrer klassischen Studie „The Constant Flux" (1992) ein Modell zur Überprüfung dieser „FJH-Hypothese" entwickelt (CORE-Modell) und mit Daten mehrerer industrialisierter Länder überprüft. Sie kommen zu dem Schluss, dass ihr Modell und damit die Hypothese bis auf wenige Ausnahmen zutreffen. Diese Befunde haben Richard Breen und seine Co-Autoren in ihrer Studie „Social Mobility in Europe" (2004) mit umfassenderen Daten und mehr Ländern nur zum Teil bestätigen können. Zwar passt das CORE-Modell von Erikson und Goldthorpe nach wie vor recht gut, aber in den meisten untersuchten Ländern gibt es einen Trend zu mehr sozialer Mobilität über die Zeit, d. h. die Chancengleichheit in industrialisierten Gesellschaften nimmt zu. Dabei wird für einzelne Länder anhand des sogenannten Mobilitätsdreiecks bereits gezeigt, wie bedeutend der vermittelnde Einfluss der Bildung für das Ausmaß intergeneratio- naler sozialer Mobilität ist. Das Mobilitätsdreieck modelliert die Zusammenhänge zwischen sozialer Herkunft, eigener Bildung und eigener sozialer Position.
Für Deutschland nahm die intergenerationale soziale Mobilität im Verlauf der letzten Jahrzehnte zu (Pollak, 2013). Besonders die unmittelbar nach dem Zweiten Weltkrieg geborenen Menschen erfuhren häufig soziale Aufstiege. Diese kommen heute in Deutschland bei Männern in Westdeutschland noch doppelt so häufig vor wie soziale Abstiege. Bei Frauen und bei ostdeutschen Männern halten sich Auf- und Abstiege die Waage. Die relativen Mobilitätsraten gleichen sich zunehmend zwischen Ost und West an. Während in Westdeutschland die soziale Mobilität zunimmt, geht das ehemals höhere Mobilitätsniveau in Ostdeutschland über die Zeit hinweg zurück.
Neuere Mobilitätsstudien zeigen, dass die Vererbung von Klassenpositionen (z. B. Arbeiterklasse) über Generationen hinweg im Wesentlichen darauf zurückzuführen ist, dass Söhne und Töchter die gleichen Berufe wie ihre Eltern wählen (Jonsson et al., 2009). Weitere Ansätze zur Untersuchung von sozialer Mobilität bilden Ge- schwisterstudien, auch wenn sich das Herstellen kausaler Zusammenhänge schwierig gestaltet: Ob die Ähnlichkeiten zwischen den sozialen Positionen erwachsener Geschwister von der Familie, der Nachbarschaft, der Schulbildung oder anderen gemeinsamen Faktoren ausgehen, lässt sich nur schwer beantworten. Studien, die die Einkommensposition eines Haushalts betrachten, umgehen das Problem, dass Nichterwerbstätige und Langzeitarbeitslose in Klassenschemata schlecht abgebildet werden können. Intragenerational gibt es hierzu solide Befunde, intergenerational ist die Datenlage hierzu jedoch eher dünn (siehe aber Schnitzlein, 2009).
Morphologie, soziale
Die auf Emile Durkheim (1858-1917) zurückgehende Bezeichnung soziale Morphologie steht für die Untersuchung der materiellen Formen des Sozialen. Gemeinsam mit ihrem Gegenstück, der „sozialen Physiologie", bildet die soziale Morphologie für Durkheim den Gegenstandsbereich der Soziologie, der zwar streng arbeitsteilig organisiert ist, stets aber auf die Einheit und gegenseitige Durchdringung beider Bereiche abzielt: Während die Physiologie den sozialen Funktionszusammenhang der Gesellschaft untersucht, widmet sich die Morphologie dem materiellen Substrat (Durkheim) der Gesellschaft. Darunter fallen all diejenigen Phänomene, bei denen das Soziale eine sichtbare und greifbare Gestalt annimmt. Dazu zählen die Ausdehnung einer Gesellschaft, die Anzahl ihrer internen Gliederungen, die Größe, Dichte und Verteilung der Bevölkerung auf einem Territorium sowie die Dinge und Sachverhältnisse (vgl. Linde, 1972), die das kollektive Leben prägen.
Entgegen des in der Soziologie vorherrschenden Trends zur Sachabstinenz rechnet Durkheim ausdrücklich Dinge und Sachverhältnisse zur Sozialwelt hinzu. Artefakte wie Wohnstätten, Werkzeuge, Verkehrswege, Verkehrsmittel und Kleidung sind demnach ebenso soziale Tatbestände wie immaterielle „Dinge" (z. B. das gesatzte Recht, die geltende Moral). Beiden Dingwelten gemeinsam ist, dass sie eine vom Willen des Einzelnen unabhängige Einzelexistenz führen. Sie drängen sich dem Einzelnen von außen auf und üben einen verhaltensdeterminierenden Zwang auf das Individuum aus. Eben das macht sie in Durkheims Perspektive zu sozialen Tatbeständen.
Das Interesse an den materiellen Erscheinungsformen der Gesellschaft und an ihrer physischen Natur führt Durkheim zu einer intensiven Auseinandersetzung mit den Nachbardisziplinen der Soziologie. In der von ihm begründeten Zeitschrift L'Annee Sociologique, in der sich auch ein programmatischer Beitrag zur sozialen Morphologie aus seiner Feder befindet, werden wie selbstverständlich auch Forschungsarbeiten aus Ökonomie, Ethnologie, Anthropologie, Demographie, Sozial- und Anthropogeographie rezipiert. Während Durkheim in seinen eigenen Arbeiten die Physiologie in den Mittelpunkt stellt, widmen sich seine Schüler Marcel Mauss (1872-1950) und Maurice Halbwachs (1877-1945) ausführlich dem bei Durkheim letztlich nur angedeuteten Programm einer sozialen Morphologie. Mauss zeigt z. B. anhand einer Untersuchung von Eskimogesellschaften exemplarisch den Zusammenhang zwischen materiellen Formen einer Gesellschaft und ihren kollektiven Tätigkeiten auf. Die Eskimovölker leben zu verschiedenen Zeiten des Jahres nicht nur in unterschiedlichen sozialen Formationen, sondern üben auch je nach Jahreszeit verschiedene Tätigkeiten aus. Während im Sommer jede Familie für sich allein in einem kleinen Rundzelt lebt und sich den Dingen des täglichen Lebens widmet, schließen sie sich im Winter zu Großfamilien in großen Langhäusern zusammen und gehen insbesondere religiösen Tätigkeiten nach. Mauss legt Wert auf die Feststellung, dass der von ihm aufgezeigte Zusammenhang von wechselnder Morphologie und wechselnden Tätigkeiten an diesem Beispiel besonders gut sichtbar wird, in anderen Gesellschaften aber ebenso nachgewiesen werden könnte.
Insbesondere bei Halbwachs macht die Beschäftigung mit der sozialen Morphologie einen der Hauptschwerpunkte seiner Arbeit aus. In immer neuen Anläufen hat er sich diesem Feld zugewandt und dabei am Ende ein sehr viel umfangreicheres und präziseres Verständnis von den Aufgaben einer sozialen Morphologie vorgelegt als sein Lehrmeister. Seine grundsätzliche Annahme lautet dabei nicht nur, dass Gesellschaften sich in materiellen Manifestationen ausdrücken, sondern, dass sie auch selbst als lebende und stoffliche Mengen anzusehen sind. Der kollektive Körper nimmt wie ein individueller Körper einen bestimmten Raum ein, weist eine bestimmte Gestalt auf, bewegt sich, kann wachsen oder schrumpfen und unterliegt daher permanenten Veränderungen. Vergesellschaftung ist nach Halbwachs damit niemals als ein statischer, sondern immer als ein dynamischer Prozess anzusehen.
Religion, Politik, Ökonomie und weitere Bereiche des gesellschaftlichen Lebens bleiben für Halbwachs so lange unverstanden, wie man sie als bloße Ideen und abstrakte Konstrukte behandelt. Entscheidend für ein vollständiges Bild ihrer Bedeutung erlangt man dagegen erst durch eine genaue Analyse ihrer räumlichen Manifestationen. So wie es insgesamt für die Entwicklung einer Gesellschaft durchaus von Belang ist, ob sie sich auf einer Insel befindet und damit über einen Zugang zum Meer verfügt, oder ob ihre Bevölkerung zumeist in von hohen Bergen umgebenden Tälern wohnt, so übt auch die Anzahl, Anlage und Aufteilung der bedeutenden Stätten, Klöster und Heiligtümer etwa der christlichen Religion einen nicht unerheblichen Einfluss auf die Intensität der Glaubensvorstellungen ihrer Anhänger aus. In noch stärkerem Ausmaß sind politische Gemeinwesen von räumlichen Gegebenheiten abhängig: So ist es für Halbwachs kein Zufall, dass die ersten Demokratien am Meer entstanden sind. In Anlehnung an Platon (427-347 v. Chr.) und Jean- Jacques Rousseau (1712-1778) ist er davon überzeugt, dass es einen Zusammenhang zwischen der Größe eines Staates und seiner Regierungsform gibt. Und hinsichtlich der ökonomischen Morphologie beschreibt Halbwachs ausführlich, dass die verschiedenen ökonomischen Klassen dazu neigen, sich auf verschiedene Quartiere der Stadt aufzuteilen. In diesem Punkt gibt es auffallende Berührungspunkte mit der Chicagoer Schule der Sozialökologie.
Trotz der Betonung der Bedeutung des Raums für eine umfassende Gesellschaftsanalyse sind es jedoch nicht die räumlichen Artefakte selbst, die das Interesse der sozialen Morphologie auf den Plan rufen. Die Aufmerksamkeit der Soziologie verdienen sie nach Halbwachx' Verständnis nur deshalb, weil das Materielle und Stoffliche Einblicke in die Neigungen, Vorstellungen und Bedürfnisse der Menschen und ihrer „Lebensweise" verschafft. Die räumlichen Artefakte fungieren gleichsam als Botschafter, die von längst vergangenen gesellschaftlichen Zuständen und den Vorstellungen ihrer Bewohner berichten können. Im Einklang mit Auguste Comte (1798-1857) und Durkheim ist Halbwachs der Auffassung, dass die materiellen Formen des gesellschaftlichen Lebens, dass also die Orte, Gebäude, Plätze, Häuser und Straßen dem kollektiven Leben der sozialen Gruppen, ein Gefühl der Regelmäßigkeit und Stabilität inmitten einer sich permanent im Umbruch befindlichen Gesellschaft vermitteln.
Bei der sozialen Morphologie handelt es sich um einen soziologischen Ansatz, dem im Kontext der Wiederentdeckung der Kategorie des Raums und eines neuen Interesses an der Materialität eine unverhoffte Renaissance beschieden sein dürfte.