Path:
Konzept und methodische Grundlagen der Befragung und Auswertung

Full text: Konzept und methodische Grundlagen der Befragung und Auswertung

RADOST AKTEURSANALYSE
TEIL 1: KONZEPT UND METHODISCHE GRUNDLAGEN DER BEFRAGUNG UND AUSWERTUNG
Jesko Hirschfeld, Linda Krampe, Christiane Winkler

RADOST-Berichtsreihe Bericht Nr. 8 ISSN: 2192-3140

Hirschfeld, Krampe, Winkler (IÖW)

Kooperationspartner

REPORT
RADOST AKTEURSANALYSE
TEIL 1: KONZEPT UND METHODISCHE GRUNDLAGEN DER BEFRAGUNG UND AUSWERTUNG
Jesko Hirschfeld Institut für ökologische Wirtschaftsforschung Linda Krampe Institut für ökologische Wirtschaftsforschung Christiane Winkler Institut für ökologische Wirtschaftsforschung

RADOST-Berichtsreihe Bericht Nr. 8 ISSN: 2192-3140

Berlin, März 2012

3

Hirschfeld, Krampe, Winkler (IÖW)

RADOST Akteursanalyse – Konzept und methodische Grundlagen

Inhaltsverzeichnis

Inhaltsverzeichnis ................................................................................................................ 5 1 2 Einführung .................................................................................................................. 7 Sozialwissenschaftliche Herangehensweise in der RADOST Akteursanalyse....... 8 2.1 2.2 2.3 3 Ansätze der empirischen Sozialforschung ................................................................ 8 Theoretische Annäherung und Grundprinzipien qualitativer Forschung .................... 9 Bewertung qualitativer Forschung .......................................................................... 10

Theoretische und methodologische Ansätze der RADOST Akteursanalyse ........ 13 3.1 Dynamische Akteursnetzwerkanalyse (DANA) als analytischer Rahmen ................ 13 Stakeholder vs. Akteursanalyse ...................................................................... 14 Netzwerkanalyse ............................................................................................. 17 Konfliktanalyse und Transaktionsanalyse........................................................ 23 Diskursanalyse und kognitives Mapping.......................................................... 23

3.1.1 3.1.2 3.1.3 3.1.4 3.2

Das Interview als qualitative Forschungsmethode .................................................. 26 Formen und Charakteristika von Interviews .................................................... 26 Das leitfadengestützte Interview mit Experten ................................................. 26

3.2.1 3.2.2 4

Strategische Vorüberlegungen zum leitfadengestützten Experteninterview ....... 29 4.1 Die Konzeption eines Leitfadens ............................................................................ 29 Die Formulierung der Leitfadenfragen ............................................................. 29 Ansprüche an den Leitfaden und Strukturierung ............................................. 30

4.1.1 4.1.2 4.2 4.3 5

Die Auswahl von Interviewpartnern......................................................................... 32 Praktische Vorbereitungen zur Durchführung des Interviews .................................. 32

Begründung der leitfadengestützten Experteninterviews im Rahmen der RADOST Akteursanalyse ......................................................................................... 34 Auswertung von Experteninterviews mit der qualitativen Inhaltsanalyse ............ 36 6.1 Datendokumentation und -aufbereitung .................................................................. 36 Transkription von Interviews ............................................................................ 36

6

6.1.1 6.2

Die qualitative Inhaltsanalyse als Auswertungsverfahren ........................................ 36 Integration quantitativer und qualitativer Verfahrensweisen............................. 37 Der Ablauf qualitativer Inhaltsanalysen ........................................................... 38

6.2.1 6.2.2

5

Hirschfeld, Krampe, Winkler (IÖW) 6.2.3 6.2.4 6.3 7 8 Kategoriendefinition und Analysetechniken ..................................................... 38 Abschließende Auswertung............................................................................. 40

Die computergestützte Analyse qualitativer Interviews ........................................... 40

Der RADOST Interviewleitfaden ............................................................................... 43 Literaturverzeichnis .................................................................................................. 47

Abbildungsverzeichnis
Abbildung 1: Einteilung der Stakeholder Analysemethoden nach Reed et al. 2009 .............. 14

6

RADOST Akteursanalyse – Konzept und methodische Grundlagen

1

Einführung

Aus dem Voranschreiten des Klimawandels ergibt sich einerseits die Dringlichkeit von konsequenten Klimaschutzmaßnahmen, andererseits das Erfordernis, sich auf die Folgen des Klimawandels einstellen zu müssen – auch und gerade in Küstengebieten (IPCC 2007). Das Projekt RADOST erforscht die potenziellen Auswirkungen auf die deutsche Ostseeküste und erarbeitet gemeinsam mit regionalen Akteuren Strategien zur Anpassung an den Klimawandel. Wie aber nehmen die Menschen in der Region den Klimawandel bisher wahr? Werden Auswirkungen auf die persönliche Lebenswelt und wirtschaftlichen Aktivitäten erwartet – und wenn ja, welche? Welche Rolle spielen solche potenziellen Auswirkungen in Relation zu anderen Entwicklungen, denen sich die Akteure in der Region ausgesetzt sehen? Der Klimawandel wird verschiedene gesellschaftliche Gruppen und wirtschaftliche Akteure unterschiedlich betreffen und auch Kosten und Nutzen von Klimaanpassungsmaßnahmen werden nicht automatisch gleichmäßig verteilt sein. Die Formulierung und Umsetzung von Klimaanpassungsstrategien muss Interessen, Problemsichten und Handlungsmöglichkeiten der Akteure berücksichtigen. Mit einer Akteursanalyse können gesellschaftliche Konflikt- und Konsenspotenziale bereits frühzeitig ausgelotet werden. Akteursnetzwerkanalysen untersuchen Handlungskontexte und Beziehungsverflechtungen zwischen den Akteuren und helfen dabei, Synergiepotenziale von Anpassungsstrategien zu erkennen und mögliche Blockaden zu vermeiden. Die Arbeitspapiere zur Akteursanalyse im Projekt RADOST sind in drei Teile gegliedert: Im vorliegenden Teil 1 werden die vom Institut für ökologische Wirtschaftsforschung (IÖW) erarbeiteten methodischen Grundlagen und das Konzept der Befragung und Auswertung der geführten Interviews vorgestellt. Teil 2 gibt die Ergebnisse aus der vom Projektpartner Ecologic Institut durchgeführten Befragung von Behörden und Organisationen wieder (Knoblauch et al. 2012), Teil 3 die Auswertung der vom IÖW geführten Interviews mit Wirtschaftsakteuren aus den an der deutschen Ostseeküste zentral relevanten Wirtschaftssektoren.

7

Hirschfeld, Krampe, Winkler (IÖW)

2

Sozialwissenschaftliche Herangehensweise in der RADOST Akteursanalyse
Ansätze der empirischen Sozialforschung

2.1

Empirische Sozialforschung beobachtet und untersucht soziales Handeln, aufbauend auf existierendem Wissen und theoretischen Annahmen. Innerhalb der empirischen Sozialforschung sind grundsätzlich qualitative und quantitative Forschungsstränge zu unterscheiden. In konkreten Forschungsprozessen werden die beiden Ansätze jedoch oft auch komplementär eingesetzt. In der Abgrenzung zur quantitativen Forschung basiert die qualitative Forschung nicht auf dem Messen durch standardisierende Datenerhebung und statistische Verfahren, sondern auf dem Verstehen der sozialen Realität durch die Interpretation und einzelfallbezogene Analyse menschlichen Handelns. Als weitere Unterscheidung kann angeführt werden, dass die quantitative Forschung Hypothesen testet und versucht, diese zu erklären, weswegen sie auch als theorietestend beschrieben wird. Durch die standardisierte Analyse von Datensätzen sucht sie nach Kausalzusammenhängen zwischen sozialen Phänomenen und ihren Ursachen. Qualitative Forschung hingegen zielt eher auf ein besseres Verständnis eben jener Kausalmechanismen ab; anstatt in Zahlen auszudrückende und vergleichbare Aussagen hervorzubringen, konzentriert sie sich auf den tieferen Informationsgewinn in einzelnen Fällen und erörtert somit Ursachen und Wirkungen bestimmter Phänomene; folglich wird sie auch als theoriegenerierend beschrieben. Welcher der beiden grundverschiedenen Ansätze sich letztlich besser für ein Forschungsvorhaben eignet, hängt stark von den Merkmalen des zu untersuchenden Gegenstands und der damit verbundenen Zielsetzung ab. Jeweils innerhalb der beiden Forschungsstränge gibt es eine Vielzahl unterschiedlicher theoretischer Zugänge und Methoden. Als analytischer Ansatz wird im Rahmen des RADOST Projekts die Dynamic Actor Network Analysis (DANA) gewählt, die der qualitativen Forschung zuzuordnen ist. Innerhalb dieses Ansatzes werden die benötigten Daten mithilfe qualitativer Interviews erhoben (Gläser & Laudel 2009, S. 2327; Helfferich 2004, S. 19 ff.; Blum & Schubert 2009, S. 38, 47 f.; Dehnhardt et al. 2006, S. 176 ff.). Trotz der Unterschiede quantitativer und qualitativer Sozialforschung lassen sich nach Gläser und Laudel (2009) vier methodologische Prinzipien aufstellen, die für beide Forschungsrichtungen gleichermaßen gültig sind. Diese methodologischen Prinzipien geben an, welche Methoden und Untersuchungsstrategien auf welche Art und Weise zur Beantwortung einer Forschungsfrage angewandt werden können und ermöglichen so die Anerkennung der jeweiligen Forschungsergebnisse innerhalb der gesamten sozialwissenschaftlichen Fachgemeinschaft. Bei den Prinzipien handelt es sich zunächst um das Prinzip der Offenheit, nach dem der Forschungsprozess offen für unerwartete Informationen gestaltet sein und auch Erkenntnisse, die den vor der Untersuchung entwickelten Hypothesen widersprechen, integrieren soll. Das Prinzip des theoriegeleiteten Vorgehens legt nahe, sich während des Forschungsprozesses auf bereits existierendes theoretisches Wissen zu beziehen, um so mit den Ergebnissen zu einem Erkenntnisfortschritt beitragen zu können. Als drittes wird das Prinzip des regelgeleiteten Vorgehens genannt, welches die Einhaltung gewisser Regeln im Forschungsprozess einfordert, wie z.B. die exakte Beschreibung der Vorgehensweise, und somit Außenstehenden erlaubt, die Ergebnisse nachzuvollziehen. Das letzte Prinzip bezieht sich auf die Spezifika der Sozialwissenschaften als Wissenschaft, die soziale Handlungen

8

RADOST Akteursanalyse – Konzept und methodische Grundlagen untersucht, und wird als Prinzip vom Verstehen als Basishandlung sozialwissenschaftlicher Forschung bezeichnet. Dies betont die Bedeutung des Verstehens und der Interpretation als Mittel sozialwissenschaftlicher Forschung bei der Untersuchung menschlichen Handelns (Gläser & Laudel 2009, S. 29-33). Aus den hier genannten allgemeinen methodologischen Prinzipien lassen sich, abhängig von der Anwendung qualitativer oder quantitativer Methoden, speziellere Prinzipien ableiten. Wie bereits beschrieben, werden die für das RADOST-Projekt notwendigen Daten mit Hilfe von Interviews im Rahmen der Dynamic Actor Network Analysis (DANA) erhoben. DANA stellt eine Form der ex-ante Policy Analyse dar und zählt somit zu den qualitativen Forschungsansätzen (Bots et al. 1999; Peine 2000). Interviews können je nach Typus zu den quantitativen oder qualitativen Erhebungsmethoden gehören; die im RADOST-Projekt durchgeführten leitfadengestützten Experteninterviews zählen zu der qualitativen Sozialforschung. Aufgrund dieser qualitativen Gewichtung im RADOST Projekt, wird im Folgenden nochmals näher auf die Paradigmen qualitativer Forschung eingegangen werden.

2.2

Theoretische Annäherung und Grundprinzipien qualitativer Forschung

Nach der bereits erfolgten Abgrenzung zwischen qualitativer und quantitativer Forschung, werden hier die fünf Grundsätze qualitativen Denkens nach Mayring vorgestellt, um trotz der Vielfalt einzelner qualitativer Methoden und Verfahren einen groben Überblick über die theoretischen Grundlagen zu vermitteln. Zunächst betont Mayring, dass der eigentliche Ausgangspunkt und Zielgegenstand der qualitativen Forschung, nämlich der Mensch, nicht aus den Augen verloren gehen darf und insofern eine starke Subjektbezogenheit vorliegt. Der zweite Grundsatz unterstreicht die Notwendigkeit einer Beschreibung (Deskription) des Forschungsgegenstandes als Ausgangspunkt für die Analyse. Weiterhin spielt in der qualitativen Sozialforschung die Interpretation des Untersuchungsgegenstandes eine große Rolle. Besonders bei der Analyse von verbalem Material tragen subjektive Empfindungen des Sozialforschers entscheidend zu dem Endergebnis bei. Auch die Subjektivität des „humanwissenschaftlichen Gegenstands“, also des befragten oder beobachteten Menschen, ist in der qualitativen Forschung zu beachten: Menschen reagieren je nach Umfeld unterschiedlich und sollten aufgrund dieser Situationsgebundenheit in ihrer alltäglichen Umgebung (im Gegensatz zur künstlichen Situation im Labor) untersucht werden. Als letzten Punkt spricht Mayring die Verallgemeinerbarkeit der Ergebnisse qualitativer Forschung an, welche sich – im Gegensatz zu Resultaten quantitativer Forschung – nicht durch die Anwendung bestimmter Verfahren garantieren lassen. Deswegen muss die Verallgemeinerbarkeit der Forschungsergebnisse nach qualitativem Denken immer für den spezifischen Fall durch Argumente begründet werden, die erklären, warum jene Ergebnisse auf andere Situationen übertragbar sind. Diese Frage nach der Verallgemeinerbarkeit ist insofern für die qualitative Forschung entscheidend, als diese oft mit sehr kleinen Fallzahlen arbeitet, die dann jedoch gesamtheitlich und eingehend analysiert werden (Mayring 2002, S. 26 ff.; Flick 2010, S. 27). Auf den dritten Leitgedanken des qualitativen Denkens, nämlich den der Interpretation, soll im Folgenden nochmals detaillierter eingegangen werden, da dieser Punkt jeweils in Bezug auf DANA als auch für die Datenerhebung durch Interviews von besonderer Relevanz ist. Grundlegend ist DANA der Policy Analyse oder auch Politikfeldanalyse zuzuordnen. Ganz allgemein kennzeichnet sich die Policy Forschung durch den Rückgriff auf eine Vielzahl verschiedener Disziplinen aus, mithilfe derer sie Informationen über politische

9

Hirschfeld, Krampe, Winkler (IÖW) Entscheidungsprozesse als auch für die Verbesserung dieser Prozesse zu generieren versucht (Windhoff-Héritier 1987, S. 9). Im Laufe der Entwicklung der Policy Analyse wurde deutlich, dass eine Realanalyse derartiger Prozesse nicht ausschließlich durch quantitative Ansätze, wie z.B. durch das variablengestützte Messen von Korrelationen, zu bewerkstelligen ist, da es sich bei Entscheidungsprozessen nicht um objektive Mechanismen handelt. Stattdessen ist die Komplexität politischer Entscheidungsfindungen und Gestaltungsprozesse nur durch Zunahme der Wahrnehmungen der an den politischen Entscheidungsprozessen beteiligten Akteure zu fassen. Diese Wahrnehmungen sind durchweg subjektiv und benötigen daher der Interpretation, weswegen diese Form von Forschungsansätzen auch als qualitativ-kognitiv oder interpretativ bezeichnet wird (Schneider & Janning 2006, S. 169 f.). Das Konzept der Interpretation ist in DANA besonders stark ausgeprägt; hier wird ausdrücklich betont, dass Akteurswahrnehmungen die primäre Analyseeinheit darstellen, wodurch die Analyse ausschließlich auf intersubjektiven und damit zu interpretierenden Faktoren beruht (Bots et al. 1999, S. 2). Mit dem Konzept der Interpretation geht jenes des Verstehens Hand in Hand; die Interpretationen, die sich aus diesem Verstehen ergeben, sind als subjektives Ergebnis der Interaktion der beteiligten Personen zu sehen. Diese interaktionstheoretischen Überlegungen spielen insbesondere in Bezug auf qualitative Interviews eine große Rolle: Der Zugang zum Forschungsgegenstand oder Forschungsinteresse findet hier über die Analyse der sprachlichen Äußerung statt. Der Sinn der sprachlichen Äußerung wird zum einen in Interaktion zu den von der interviewten Person gemachten Erfahrungen und zum anderen in konkreter Interaktion im Interview selbst hergestellt. Folglich sind die Äußerungen zwar stark kontextabhängig und damit variabel; dies bedeutet jedoch nicht, dass sie gleichzeitig zufällig oder beliebig seien. Die qualitative Forschung nimmt stattdessen an, dass Einzeläußerungen als Indikator für ein allgemeineres Konzept zu betrachten sind, welches durch diese hindurch identifiziert werden kann. Um eine derartige Zuordnung zu einem Gesamtkonzept vornehmen zu können, ist es jedoch, aufgrund der schon erwähnten Kontextgebundenheit, notwendig, umfassendes Hintergrundwissen über den Entstehungskontext der Äußerungen zu besitzen. Dieses bezieht sich, aufgrund der doppelten Interaktion, gleichermaßen auf den Hintergrund von der interviewten Person als auch auf die Interviewsituation. Folglich sollte sich der Interviewer im Klaren darüber sein, dass er als Kommunikationspartner während des Interviews durch seine Reflexionen zu einem maßgeblichen Bestandteil des Forschungsresultats wird. Generell ist festzuhalten, dass – im Gegensatz zur quantitativen Forschung – Subjektivität ein fester Bestandteil des Forschungsprozesses ist (Helfferich 2004, S. 19-22; Flick 2010, S. 29).

2.3

Bewertung qualitativer Forschung

Im Rahmen einer theoretischen Annäherung an die qualitative Sozialforschung sollte auch auf die Frage nach möglichen Bewertungsmethoden und Gütekriterien für Vorgehensweise und Ergebnisse qualitativer Forschung eingegangen werden. Trotz unterschiedlicher Wege der Beurteilung sei allerdings, laut Flick, noch keine zufriedenstellende Methode entwickelt worden (Flick 2010, S. 487). Aufgrund der beschriebenen Charakteristika der qualitativen Forschung, wie Kontextgebundenheit und Subjektivität, lassen sich die für die quantitative Forschung typischen Kriterien wie Reliabilität, Validität und Objektivität nicht ohne weiteres übertragen. Besonders im Rahmen der DANA werden extrem subjektive Informationen wie Wahrnehmungen, Werte und Meinungen abgefragt, was eine Bewertung erschwert. Im Folgenden soll jedoch eine eingeschränkte oder methodenangepasste Anwendung dieser Kriterien auf die in der DANA angewandte Forschungsmethodik qualitativer Interviews

10

RADOST Akteursanalyse – Konzept und methodische Grundlagen beispielhaft aufgezeigt werden. Eine Steigerung der Reliabilität, also der Verlässlichkeit und formalen Genauigkeit von Daten und Interpretationen, kann durch Standardisierungen der einzelnen Arbeitsschritte erlangt werden, wie unter anderem der Datenaufzeichnung, der Vorgehensweise in der Interviewführung z.B. in Bezug auf den Leitfaden, die Eröffnungsfrage oder die Gesprächssituation. Die Validität, also die Beurteilung von Gültigkeit oder Belastbarkeit von Aussagen, lässt sich laut Legewie im qualitativen Interview durch folgende Fragen nachvollziehen: Trifft der Inhalt des Gesagten zu? Ist das Gesagte in seinem Beziehungsaspekt sozial angemessen? Ist das Gesagte in seinem Selbstdarstellungsaspekt aufrichtig? (Legewie 1987, S. 141). Diese Fragen sollen eine Reflexion über die Möglichkeit von inhaltlichen Verzerrungen oder auch Täuschungen durch die interviewte Person oder durch den Interpretationsprozess anregen. Eine zusätzliche Erhöhung der Validität kann erreicht werden, indem nach Abschluss der Gespräche und bereits erfolgter inhaltlicher Analyse ein inhaltlicher Abgleich der Interpretation mit den Interviewpartnern erfolgt; diese Art der Zustimmung zum Interpretationsergebnis durch die interviewte Person wird auch als kommunikative Validität bezeichnet. Das dritte Gütekriterium, die Objektivität, stellt für die ausdrücklich als interpretationsgeprägte Wissenschaft anerkannte qualitative Sozialforschung die größte Herausforderung dar. Es gibt den Vorschlag, Forschungsergebnisse als objektiv zu bewerten, wenn mehrere Forscher zu denselben Resultaten gelangen. Um einen Forschungsprozess mitsamt seinen Ergebnissen derart beurteilen zu können, ist es notwendig, dass die gesamte Vorgehensweise über die Datenerhebung bis zur Auswertung transparent dargestellt wird und zugänglich ist. Allgemein wird jedoch bezweifelt, ob eine Übertragung der für die quantitative Sozialforschung typischen Kriterien überhaupt sinnvoll ist und nicht stattdessen eine Einschätzung der theoretischen Herangehensweise, der Datensammlung, Analyse und Wiedergabe der Ergebnisse anhand alternativer Kriterien wie z.B. Vertrauenswürdigkeit, Übertragbarkeit und Bestätigbarkeit im Vordergrund stehen sollte (Flick 2010, S. 488-500). Im Zusammenhang mit Bewertungs- und Gütekriterien der qualitativen Sozialforschung sollten auch ethische Aspekte nicht außer Acht gelassen werden. Zwar scheint dies in Hinblick auf die Methoden der Sozialforschung – Beobachten und Befragen – und vor allem bei der Einschränkung auf Interviews zunächst nebensächlich, doch muss berücksichtigt werden, dass durch die Integration von Menschen in den Forschungsprozess auch eine Rückwirkung auf diese besteht, in welcher Form auch immer. Um also die Rechte und Interessen der Interaktionspartner nicht zu verletzten oder einzuschränken, werden hier kurz Prinzipien vorgestellt, die eine Orientierung für ein ethisch angemessenes Verhalten in der qualitativen Forschung bieten können (Flick 2010, S. 64 ff.). Als oberstes Prinzip für die wissenschaftliche Arbeit mit Menschen gilt die informierte Einwilligung. Problematisch hierbei ist, dass es meist nicht machbar ist, die befragte Person umfassend und uneingeschränkt über das Forschungsprojekt aufzuklären, da z.B. bestimmte Zusammenhänge oder die Ausrichtung der Studie sich mitunter erst zu Abschluss der Forschungsarbeiten ergeben und manche Sachverhalte für das Verständnis eines Außenstehenden zu komplex sind. Es kann auch der Fall eintreten, dass eine vollständige Aufklärung über das Forschungsvorhaben sich in Bezug auf das Forschungsergebnis kontraproduktiv auswirken kann, da hierdurch das Antwortverhalten der Befragten in eine bestimmte Richtung gelenkt wird. Als Kompromiss in einer derartigen Situation wird geraten, die Aussagen über das Forschungsziel möglichst sachlich oder auch abstrakt zu schildern, um dadurch so wenig Einfluss wie möglich auszuüben. Die Einwilligung der interviewten Person an sich sollte sich zuallererst natürlich auf die Erlaubnis der Befragung, aber dann auch auf die Veröffentlichung personenbezogener Daten wie persönliche Einzelangaben, aber auch auf personenbeziehbare Daten erstrecken, also Daten, die in Kombination mit weiteren

11

Hirschfeld, Krampe, Winkler (IÖW) Informationen auf die Identität der befragten Person rückschließen lassen. Wird hier keine oder nur eine beschränkte Einwilligung abgegeben, müssen in die Forschungspublikation Anonymisierungen für Personen, Organisationen, Arbeitsplätze, Wohnorte, etc. eingebracht werden, indem diese Informationen gezielt verfälscht oder abstrahiert werden. Ist die informierte Einwilligung erbracht, entbindet sie den Forscher jedoch nicht von der Pflicht, auch weiterhin ethisch verantwortlich zu handeln und so z.B. keine Wertungen auf persönlicher Ebene vorzunehmen oder die gesellschaftliche Gruppe, der die interviewte Person angehört, durch die Studie zu diskreditieren (Flick 2010, S. 63-66; Gläser & Laudel 2009, S. 48, 52, 54 f., 279 f.).

12

RADOST Akteursanalyse – Konzept und methodische Grundlagen

3

Theoretische und methodologische Ansätze der RADOST Akteursanalyse

In der Policy Forschung existieren zwei grundlegende theoretische Perspektiven. Während von der funktionalistischen Perspektive aus der Fokus auf Strukturaspekten liegt, konzentrieren sich die handlungs- bzw. steuerungstheoretischen Ansätze auf die Akteure. Zwar sollte betont werden, dass sich diese beiden Perspektiven nicht gegenseitig ausschließen und auch miteinander kombinierbar sind; dennoch ist DANA eindeutig den handlungstheoretischen Ansätzen zuzurechnen, da sie auf der grundlegenden Annahme beruht, dass die Wahrnehmungen der Akteure die treibenden und damit entscheidenden Kräfte in politischen Entscheidungsprozessen darstellen (Blum & Schubert 2009, S. 33 f.; Bots et al. 1999, S. 2). Neben dieser Einteilung der Policy Forschung in zwei grundlegende theoretische Perspektiven gibt es eine Vielzahl theoretischer Ansätze, Modelle und analytische Rahmen, die aufgrund von Kombinationen und Justierungen nicht immer eindeutig zuzuordnen sind. Mitunter wird der Policy Forschung aufgrund dessen eine fehlende oder uneinheitliche Theoriebildung nachgesagt. Jedoch ist zu bedenken, dass Policy Analysen stark praxisorientiert sind und somit theoretische Ansätze primär die Funktion erfüllen müssen, das über die politische Realität gesammelte Wissen wissenschaftlich zu reflektieren und so in abstraktes Wissen umzuwandeln. Welcher theoretische Zugang mit welchem Abstraktionsgrad jeweils der passende ist, muss einzelfallartig entschieden werden. Aufgrund dieser starken Fallbezogenheit und Kontextabhängigkeit ist es auch nicht immer sinnvoll, die Forschungsarbeit auf einer Theorie aufzubauen; stattdessen können sich empirienahe Modelle oder theorienverbindende analytische Rahmen als funktionaler erweisen (Blum & Schubert 2009, S. 34-38). Im stark praxisorientierten RADOST Projekt bietet es sich an, mit einem analytischen Ansatz zu arbeiten, den Mayntz und Scharpf (1995) als ein der Erfassung und Ordnung empirischer Tatbestände dienendes Gerüst relativ allgemeiner Theorien oder theoretischer Prämissen definieren. Aufgrund der Praxisorientierung ist es durchaus möglich, die Elemente verschiedener Theorien zu kombinieren, wenn so eine Annäherung an die wissenschaftliche Fragestellung besser zu bewerkstelligen ist. Folglich kann ein analytischer Ansatz nicht mit einer gegenstandsbezogenen, inhaltlichen Theorie, die ein Erklärungsmodell anbietet, gleichgesetzt werden, sondern sollte eher als eine Art ‚Forschungsheuristik’ betrachtet werden, die eine Orientierungshilfe für die wissenschaftliche Fokussierung darstellt (Mayntz & Scharpf 1995, S. 39). In Bezug auf die Forschungsmethode werden im Rahmen der RADOST Akteursanalyse Interviews durchgeführt, auf die ebenfalls in diesem Kapitel näher eingegangen wird.

3.1

Dynamische Akteursnetzwerkanalyse (DANA) als analytischer Rahmen

In diesem Abschnitt wird ein Überblick zu den verschiedenen analytischen Ansätzen und Methoden einer Akteursanalyse gegeben, um schließlich den in DANA verwendeten kognitiven Ansatz einzuordnen. Grundsätzlich muss zunächst zwischen den Begriffen der Akteurs- und Stakeholder Analyse unterschieden werden, auch wenn diese Unterscheidung in der Fachliteratur nicht immer eindeutig vorgenommen wird.

13

Hirschfeld, Krampe, Winkler (IÖW) 3.1.1 Stakeholder vs. Akteursanalyse

Die Stakeholder Analyse ist ein weit verbreiteter Ansatz, der ursprünglich in der Managementlehre genutzt und später in der Entwicklungszusammenarbeit und Politik übernommen wurde (Brugha & Varvasovszky 2000; Hermans 2005). Unter dem Begriff Stakeholder werden ganz allgemein die Akteure mit einem Interesse an einem bestimmten Thema verstanden. Häufig wird auf Freeman (1984) verwiesen, der Stakeholder als Gruppe oder Individuen definiert, die das Erreichen der Ziele einer Organisation bzw. eines Unternehmens beeinflussen können oder davon beeinflusst werden (Brugha & Varvasovszky 2000; Hermans 2005; Reed et al. 2009) und deshalb bei Entscheidungsprozessen berücksichtigt, wenn nicht sogar beteiligt werden sollten. Im deutschsprachigen Raum wird für Stakeholder im Kontext entwicklungsrelevanter Projekte eher der Akteursbegriff verwendet, d.h. für die zentralen Akteure, die im Projekt eine besonders aktive Rolle übernehmen (GTZ 2006). Die Stakeholder Analyse diente ursprünglich vor allem der praktischen Unterstützung von Entscheidungsträgern und Managern im öffentlichen Sektor, um ein besseres Verständnis über die Rolle von Stakeholdern bei spezifischen Policy Problemen und deren Umsetzung zu bekommen (Hermans 2005). Die Analysemethoden werden in verschiedenen Bereichen eingesetzt (wie z.B. innerhalb von Projekt- oder Ressourcenmanagement) und stetig weiterentwickelt, indem sich allerdings weniger an theoretischen Ansätzen, sondern an den praktischen Erfahrungen orientiert wird. Entsprechend diesem eher pragmatischen Charakter werden die Stakeholder Techniken häufig anhand von einzelnen „Arbeitsschritten“ bzw. stufen beschrieben - ähnlich einem praktischen Leitfaden (Hermans 2005). Auch im Überblicksartikel von Reed et al. (2009) werden die Analysemethoden drei Stufen zugeordnet (vgl. Abbildung 1): 1.) Identifizierung, 2.) Unterscheidung und Kategorisierung der Akteure, 3.) Analyse der Beziehungen zwischen den Akteuren.

Abbildung 1: Einteilung der Stakeholder Analysemethoden nach Reed et al. 2009

14

RADOST Akteursanalyse – Konzept und methodische Grundlagen Die Autoren weisen allerdings darauf hin, dass einige der zugeordneten Methoden nicht nur auf einer Stufe und zu einem Zweck genutzt werden können. Die dargestellte Typologie der Stakeholder Analyse ist hier nur als ein Vorschlag zu verstehen, die zahlreichen Stakeholder Ansätze und Methoden zuordnen. Die Methoden zur Identifizierung der Stakeholder, d.h. derjenigen, die ein Interesse an dem Thema der Untersuchung haben, können danach unterschieden werden, ob die Stakeholder dabei aktiv beteiligt werden oder nicht. Fokusgruppen (Focus groups) werden etwa genutzt, um im kleinen Kreis Stakeholder und deren Interessen, Einfluss zu ermitteln, was sich besonders anbietet bei komplexeren Themen, die erst Diskussion benötigen, um ein gewisses Verständnis über die Problematik zu entwickeln (ähnlich wurde im RADOST-Projekt im Rahmen von Expertenworkshops im Frühjahr 2010 vorgegangen). Die Daten aus den Fokusgruppen können in teilstandarisierten Interviews (Semi-structured interviews), die mit einem Teil der Stakeholder durchgeführt werden, überprüft und ergänzt werden. Die Interviews sind zwar mit einem größeren Zeitund Kostenaufwand verbunden, aber ermöglichen auch einen tieferen Einblick in die Beziehungen zwischen den Stakeholdern (dies war eine der Funktionen der im Rahmen der RADOST-Akteursanalyse im ersten Halbjahr 2010 durchgeführten Interviews). Eine weitere Methode zur Identifizierung der Stakeholder ist das Schneeball-Verfahren (Snow-ball sampling), indem die bereits anfänglich zugeordneten Stakeholder interviewt werden, um weitere Kontakte und Kategorien zu identifizieren. Die Kategorisierung der Stakeholder wird entweder durch die Stakeholder selbst durchgeführt (bottom-up) oder durch den „Analytiker“ (top-down), basierend auf dessen Beobachtungen und theoretischen Hintergrund. Letzterer Ansatz wird etwa durch die Methode der Interest-influence Tabellen verfolgt (s. ODA 1995; Bryson 2003). Dabei werden die Stakeholder entsprechend ihrer Bedeutung bzw. Interessen und ihres Einflusses in einer Matrix aufgestellt, um die Stakeholder in Gruppen einzuteilen (Bryson 2003; Reed et al. 2009). Dies ermöglicht es, den Schwerpunkt der Untersuchung auf diejenigen Stakeholder zu setzen, die einen signifikanten Einfluss auf den Erfolg eines Vorhabens haben (key players), kann aber auch mit einer probleminadäquaten Marginalisierung bestimmter Gruppen einhergehen. Um zu verhindern, dass einige Stakeholder (und damit bestimmte Themen) in der Untersuchung übersehen werden, können per Schneeball-Verfahren die Stakeholder zusätzlich hinsichtlich ihrer Einschätzung der Relevanz von Randakteuren befragt werden. Dieses Verfahren ist auch unter dem Begriff Radical transactiveness bekannt. Als Technik, mit deren Hilfe die Stakeholder selbst die Klassifizierung durchführen können, wird die Stakeholder-led Stakeholder-Kategorisierung bezeichnet, durch die Stakeholder selbst die Stakeholder in bestimmte Kategorien einordnen. Eine Methode, um die Stakeholder anhand ihrer Meinungen, Einstellungen oder auch Wertstrukturen zu erfassen, stellt die Q-Methodologie1 dar, die allerdings in der deutschsprachigen Sozialforschung bisher kaum bekannt ist (Müller & Kals 2004). Die Stakeholder ordnen hier Karten mit Statements, Wörtern etc. entlang einer Skala (Q-sort Technik), was genutzt werden kann, um bestimmte Personentypen zu bilden und typische Meinungsbilder zu erfassen. Eines der Probleme dieser bottom-up Methoden liegt darin, diejenigen Stakeholder auszuwählen, deren Sichtweise repräsentativ ist für eine größere Gruppe, weil nicht alle der identifizierten Stakeholder am Prozess beteiligt werden können.

1 Die „Q“-Methode wird im Gegensatz zur traditionellen „R“-Methode betrachtet, bei der nicht die Korrelation von Tests (bzw. Faktoren) untersucht wird, sondern die befragten Personen anhand ihrer subjektiven Sichtweise miteinander verglichen werden.

15

Hirschfeld, Krampe, Winkler (IÖW) Für die Analyse der Beziehungen zwischen den Stakeholdern führen Reed et al. (2009) drei Ansätze auf: Actor-linkage matrices/ maps, Social network analysis und Knowledge mapping. Ein vor allem in der Entwicklungszusammenarbeit weit verbreitetes Verfahren stellt das Actor-linkage Mapping dar, bei dem die Stakeholder tabellarisch in einer zweidimensionalen Matrix aufgelistet werden. Damit können die Beziehungen zwischen den Stakeholdern über Code- oder Stichwörter (wie Konflikt, Kooperation etc.) relativ einfach beschrieben werden. Um die Beziehungen zwischen den Stakeholdern auch zu bewerten, werden häufig zusätzlich Ansätze aus der Social network analysis (SNA) genutzt. In der SNA geht es in erster Linie um die Analyse der Beziehungen zwischen sozialen Einheiten (Wasserman & Faust 1994), aufgrund der Annahme, dass die Beziehungen und die damit einhergehende Position des Akteurs im sozialen Netz Auswirkungen auf das Verhalten und die Wahrnehmungen haben. Im Rahmen der Stakeholder Analyse werden zumeist Diagramme bzw. Matrizen je nach Beziehungsart (für Vertrauen, Konflikte, Kommunikation) genutzt, in denen die relative Stärke der Bindungen in quantitativer Form bewertet wird. Dies lässt sich auf den wesentlichen Ansatz von Granovetter (1983) zurückführen und der Unterscheidung von strong und weak ties. Starke Bindungen sind die intensiv genutzten Kontakte, die zur Entstehung von Vertrauen und Solidarität führen. Allerdings erfordern starke Bindungen Zeit und können nur mit einer begrenzten Anzahl von Akteuren eingegangen werden. Schwache Bindungen stellen die losen Kontakte zwischen eher sehr verschiedenen Individuen dar, welche über große Distanzen hinweg bestehen können und den Einzelnen mit neuen Informationen versorgen. Granovetter (1983) betont besonders die Stärke der schwachen Bindungen und deren Brückenfunktion, weil durch den Informationszugang nicht nur die individuelle Position verbessert wird, sondern auch innovative Ideen und Werte weitergegeben werden. Allerdings fehlt in diesen weniger intensiven Bindungen meist das Vertrauen, um längerfristig eine Zusammenarbeit bzw. einen Dialog aufrecht zu erhalten. Das Ausmaß an Vertrauen in den Beziehungen wird in Stakeholder Analysen zumeist gesondert überprüft, um problematische Beziehungen und Konflikte aufzudecken (s. GTZ 2006). Eng mit der Diskussion um die Stärke der Bindungen ist das Konzept der Homophilie (Prell et al. 2009; Reed et al. 2009). Demnach tendieren Individuen mit einem ähnlichen Kontext eher dazu, den Kontakt und den Austausch untereinander zu intensivieren, was neue Beiträge wie andersartige Ansichten und Ideen im Diskussionsprozess verhindern kann. Ansätze aus der sozialen Netzwerkanalyse werden auch zusammen mit anderen Verfahren angewendet. Dies gilt etwa für die Methode des Knowledge Mappings, dass in Verbindung mit der SNA genutzt wird, um die Darstellung der Beziehungsstrukturen mit entsprechenden Wissensflüssen zu verbinden (Reed et al. 2009). So kann durch Knowledge Mapping der Anteil an Stakeholdern ermittelt werden, die über bestimmtes Wissen verfügen oder Wissensbedarf haben. Die SNA kann daran anknüpfend aufzeigen, über welche Beziehungen Wissen im Netzwerk verteilt wird. So können Stakeholder-Gruppen effektiver gruppiert werden, um bspw. in bestimmten Projekten gegenseitiges Lernen und Innovationen zu fördern. Hermans (2005, S. 23) kritisiert generell, dass sich die Methoden einer Stakeholder Analyse kaum an theoretischen Ansätzen orientieren und dementsprechend auch eine geringe analytische Qualität besitzen. So können zwar über die verwendeten Tabellen und Matrizen wichtige Faktoren, wie etwa Einfluss und Interessen der Stakeholder, ermittelt werden, da es aber keine eindeutige Verknüpfung zwischen den Tabellen gibt, stellt sich letztlich die Frage nach dem eigentlichen analytischen Kern der Ergebnisse. Deshalb schlägt Hermans (2005)

16

RADOST Akteursanalyse – Konzept und methodische Grundlagen vor, zwischen den Begriffen Stakeholder- und Akteursanalyse zu unterscheiden. Unter letzterem werden die Methoden zusammengefasst, die Akteure und ihre Beziehungen innerhalb eines theoretischen Rahmens untersuchen, aber bisher nicht unbedingt als Akteursanalyse benannt wurden. Es können drei Perspektiven unterschieden werden im Bezug auf die Analyse von Akteuren in Policy Prozessen – Modelle mit dem Fokus auf Netzwerke, auf Ressourcen und auf Wahrnehmungen der Akteure.

3.1.2

Netzwerkanalyse

Das Konzept des Netzwerks wird in der politikwissenschaftlichen Debatte sowohl auf der empirischen als auch auf der analytischen Ebene verwendet. Im analytischen Sinne werden Netzwerke als eine Form der politischen Steuerung gesehen, die neben staats- und marktzentrierte Steuerungsformen tritt. Die Netzwerke stellen hierbei ein Geflecht aus einer Vielzahl staatlicher und nicht-staatlicher Akteure dar, die in der Lage sind, konventionelle politische Steuerungsformen zu blockieren und als Alternative hierzu oft eigenständig Koordinations- und Kooperationsaufgaben übernehmen (Baumgarten & Lahusen 2006; S. 178 f.). Auch Policy oder Governance Networks genannt, zeichnen sich Netzwerke dadurch aus, dass sie aus eigenständig handelnden Akteuren zusammen gesetzt sind, die jedoch innerhalb eines regulativen, normativen und/oder kognitiven Rahmens, wie z.B. einem bestimmten Politikfeld, aufeinander einwirken und interagieren. Sie stehen zudem in einem relativ stabilen Beziehungsmuster zueinander. Innerhalb des gesetzten Rahmens werden Informationen und Ressourcen ausgetauscht sowie gemeinsame Regeln und Konventionen erstellt, um gemeinsamen Zielen oder dem Allgemeinwohl zuträglich zu sein (Newig, Günther & Pahl-Wostl 2010, S. 3). Die empirische Netzwerkforschung hingegen geht der Frage nach, warum Netzwerke überhaupt in der Lage sind, derartige Steuerungsaufgaben zu übernehmen und konzentriert sich dementsprechend auf Faktoren der Netzwerkbildung und der Netzwerkkonstellation. Im Rahmen der RADOST-Akteursanalyse steht ebenfalls die empirische Rekonstruktion eines Gesamtnetzwerks und die anschließende Analyse der dabei herausgestellten Beziehungsmuster im Fokus (Baumgarten & Lahusen 2006, S. 178 ff.).

Die Kombination quantitativer und qualitativer Netzwerkanalyse Qualitative Datenerhebungs- und Analyseverfahren sind bislang eher selten in der Netzwerkforschung zu finden, da letztere sich überwiegend auf die formalen Strukturen zwischen Akteuren konzentriert und diese quantitativ mittels standardisierter Methoden und Rechenverfahren untersucht. Durch die Analyse der formalen Strukturen sozialer Beziehungen werden Informationen wie unter anderem die Größe der Netzwerke, die Häufigkeit der Kontakte, der Zusammenhalt und die Zentralität einzelner Akteure generiert (Hollstein 2006, S. 12). Dies lässt auf funktionale Eigenschaften des Netzwerkes rückschließen, wie z.B. in Bezug auf die Diffusion von Wissen und die Belastbarkeit des Netzwerkes (Newig et al. 2010, S. 9). Da mit Hilfe qualitativer Verfahren aber zudem, ganz im Sinne der Dynamic Actor Network Analysis (DANA), individuelle Akteurswahrnehmungen und Bewertungen von Beziehungen erfasst werden können, bietet sich die Kombination von Netzwerkanalysen und qualitativen Vorgehensweisen als durchaus vorteilhaft an, besonders wenn hierbei eine Triangulation mit quantitativen Verfahren durchgeführt wird (Hollstein 2006, S. 12, 23). Übertragen auf die Methoden der empirischen Sozialforschung versteht man unter Triangulation die

17

Hirschfeld, Krampe, Winkler (IÖW) Kombination von unterschiedlichen Methoden, durch die eine umfassendere und präzisere Erkenntnisgrundlage gewonnen werden kann, als dies durch die alleinige Anwendung der jeweils einzelnen Methoden möglich ist (Franke & Wald 2006, S. 154). Dies bedeutet, dass qualitative Erhebungsinstrumente, z.B. teilstandardisierte Akteurs- und Experteninterviews, mit quantitativen Erhebungsinstrumenten, wie standardisierten Fragebögen und Sitzungsprotokollen, kombiniert werden können. Gleichermaßen ist eine Kombination bei den Auswertungsstrategien – qualitativ im Sinne thematischen Kodierens und quantitativ durch statistisch-mathematische Verfahren, Daten-Matrizen, etc. – möglich (Jütte 2006, S. 202). Durch Methodentriangulation kann also die Bewertung von Netzwerken von der quantitativen Beschränkung auf deskriptive Faktoren wie Größe, Dichte, Stärke der Beziehungen, etc. auf zusätzliche qualitative Faktoren erweitert werden – was einen Zugewinn an Analyse- und Interpretationsniveau bedeute kann (Franke & Wald 2006, S. 164 f.)

Gesamtnetzwerke und egozentrierte Netzwerke Zunächst einmal ist die Entscheidung zu treffen, ob egozentrierte Netzwerke oder Gesamtnetzwerke untersucht werden sollen. Während in egozentrierten Netzwerken das Netz aus Sicht des befragten Akteurs erstellt wird, indem er frei angibt, welche Akteure ihm in dem vorgegebenen Politikfeld einfallen und mit welchen dieser Akteuren er in Beziehung steht, zielen Gesamtnetzwerke darauf ab, die Beziehungen zwischen allen Akteuren eines Netzwerkes abzubilden. Idealerweise werden hierbei alle Mitglieder des Netzwerkes zu ihren jeweiligen Beziehungen zu den anderen Akteuren befragt, jedoch ist dies oft aufgrund der Größe von Netzwerken nicht zu bewerkstelligen. Wichtig für die Erstellung von Gesamtnetzwerken ist die Abgrenzung des Netzwerkes, welche durch die Identifikation des jeweiligen Politikfeldes mittels inhaltlicher und/oder funktioneller Kriterien sowie die Bestimmung aller thematisch relevanten Akteure geschieht. Nach erfolgter Abgrenzung werden sämtliche Akteure in einer Liste gesammelt und können im Rahmen einer Befragung zur standardisierten Datenerhebung genutzt werden. Die befragten Akteure können so markieren, mit welchen der Akteure eine Beziehung besteht und gegebenenfalls wie sie zu bewerten ist. Im Gegenzug zu dieser Vorgehensweise erlaubt die egozentrierte Netzwerkbildung, die persönliche Gewichtung der Beziehungen durch die befragten Akteure besser zu berücksichtigen und mögliche Erklärungsfaktoren für spezielle Phänomene mit einzubeziehen (Franke & Wald 2006, S. 156 f.; Haythornthwaite 1996, S. 328 f.).

Datenerhebung Im Folgenden werden jeweils quantitative als auch qualitative Vorgehensweisen der Sozialen Netzwerkanalyse zur Datenerhebung kurz vorgestellt. Soll im quantitativen Sinne mehr über die formalen Strukturen sozialer Netzwerke herausgefunden werden, muss zunächst festgelegt werden, nach welchen Kriterien die Beziehungen innerhalb eines Netzwerkes untersucht und wonach dementsprechend die relevanten Akteure befragt werden. Zunächst kann der Fokus ganz generell auf der Ermittlung aller relevanten Akteure des Netzwerks sowie der formalen Gestaltung ihrer Verbindungen zueinander liegen. Vertiefend kann dann untersucht werden, wie diese Verbindungen zu charakterisieren sind. Hierbei kann das Interesse beispielsweise auf die Häufigkeit und Dauer des Kontakts, auf den Austausch von Informationen und sonstigen Gütern oder die Bewertung der Qualität und des Nutzens bestimmter Kontakte abzielen.

18

RADOST Akteursanalyse – Konzept und methodische Grundlagen Weitere Faktoren, die abgefragt werden können, sind z.B. die emotionale Intensität, das Vertrauen und das Konfliktpotenzial, das der betrachteten Beziehung innewohnt. Welche Faktoren letztlich zur Gewichtung der Beziehungen herangezogen werden, hängt von dem jeweiligen Forschungsinteresse ab (Hollstein 2006, S. 15; Newig et al. 2010, S. 9; Haythornthwaite 1996, S. 327). Um herauszufinden, welche Akteure an einem Netzwerk beteiligt sind, und um quantitative Daten zu den einzelnen Faktoren, die eine Akteursbeziehung ausmachen, zu gewinnen, können standardisierte Fragebögen erarbeitet werden. Hierbei gibt es zahlreiche unterschiedliche Möglichkeiten zur Gestaltung und Schwerpunktsetzung des Fragebogens, so dass hier nur exemplarisch einige Vorgehensweisen vorgestellt werden sollen. Zur Identifizierung aller relevanten Akteure mitsamt ihren Verknüpfungen wurden bereits die Methoden nach der egozentrierten oder der Gesamtnetzwerkbildung beschrieben. Um spezifischere Informationen über die Art der Beziehungen zu gewinnen, werden Fragen konzipiert, die sich an den zuvor beschriebenen Faktoren orientieren. Die Antworten hierauf sind bei diesem Vorgehen standardisiert. So kann z.B. die Intensität einer Beziehung, sei es in Form der Häufigkeit, des Ressourcenaustauschs oder des Vertrauensgrades, mit der Angabe einer Zahl, z.B. zwischen 0 und 6, dargestellt werden. Die so zustande kommende Punktzahl gibt anschließend Auskunft darüber, ob zwischen zwei Akteuren eine Beziehung besteht und wie stark bzw. schwach die Beziehung zwischen den beiden Akteuren im Sinne des abgefragten Faktors zu bewerten ist (Silburn 2007, S. 81 f.). Eine umfassendere Datenerhebung ist mithilfe eines „Nameninterpretators“ möglich. Hierbei sind die Netzwerkakteure entweder schon vorgegeben oder der befragte Akteur wird gebeten, alle Akteure, mit denen er im Rahmen der Thematik in Kontakt steht, in eine dreiecksförmige Matrix einzutragen. Dank der Form dieser Matrix können nicht nur die Ego-Alter-, sondern gleichzeitig auch die Alter-Alter-Beziehungen bewertet werden. Je nach Intensität der Beziehung wird diese entweder mit einer 1 oder einer 2 gekennzeichnet (Franke & Wald 2006, S. 165). Um Informationen über die Beziehungsformen innerhalb eines Netzwerks zu generieren, kann auch eine Herangehensweise gewählt werden, die nicht mit Nennung der Akteure beginnt, sondern den befragten Studienteilnehmern die zu ermittelnden Beziehungsformen vorlegt, wie z.B. konfliktreiche Beziehungen, nützliche Beziehungen, vertrauensbasierte Beziehungen, etc. Diesen Beziehungsformen sind dann jeweils die betreffenden Akteure zuzuordnen (Baumgarten & Lahusen 2006, S. 182). Eine weitere mögliche Form der Gewichtung einer Beziehung besteht in der Summierung der bestehenden Kontakte zwischen zwei Akteuren. Hierbei schlüsselt der befragte Akteur die Beziehungen, die er mit anderen Akteuren unterhält, auf - beispielsweise nach unterschiedlichen Themengebieten, verschiedenen Aufgaben oder nach der Anzahl bzw. dem Wert der getauschten Güter/Leistungen (Haythornthwaite 1996, S. 327). Aus den Wertungen, die mit derartigen Fragebögen abgefragt werden, ist es möglich, die Beziehungen innerhalb des Netzwerks als schwach oder stark, konfliktreich oder kooperativ zu kennzeichnen. Allerdings ist zu berücksichtigen, dass auf diese standardisierte Weise akquirierte Daten nicht in der Lage sind, tiefer gehende Fragen zu beantworten, wie z.B. warum eine Beziehung konfliktreich ist oder warum ein Akteur als besonders mächtig wahrgenommen wird. Auch lassen sich Varianzen bei der Gewichtung von Beziehungen durch verschiedene befragte Akteure nicht erklären (Haythornthwaite 1996, S. 327; Franke & Wald 2006, S. 166 f). Aufgrund dessen spielen qualitative Verfahren der Datenerhebung eine wichtige Rolle, da sie, z.B. in Form qualitativer Interviews den Akteuren die Möglichkeit einräumen, die von ihnen aufgezeigten Beziehungen zu erklären. Qualitative Verfahren sind also geeignet, wenn

19

Hirschfeld, Krampe, Winkler (IÖW) über die Bewertung der formalen Netzwerkstrukturen hinausgehend eine Gesamtbewertung des Netzwerkes geschehen soll, die mit einem vollständigeren Verständnis für die Netzwerkdynamik einhergeht. Hierzu können Akteure, wie bereits angedeutet, in Expertengesprächen, halbstrukturierten und narrativen Interviews nach ihren subjektiven Wahrnehmungen und persönlichen Gewichtungen befragt werden (Hollstein 2006, S. 21, 23). Mittels derartiger Datenerhebungen ist es zudem möglich, die subjektiven Kategorien, in denen ein Akteur z.B. in standardisierten Fragebögen Beziehungen beurteilt, zu verstehen. Weiterhin ist eine Einschätzung des akteurseigenen Überblicks über das Gesamtnetzwerk möglich (Franke & Wald 2006, S. 167).

Datenauswertung Mithilfe der auf quantitativem und qualitativem Wege gewonnenen Daten, z.B. über vorhandene Beziehungen zwischen Akteuren, mögliche Konflikte und Allianzen sowie besonders wichtige Akteure, können Netzwerke visualisiert werden. Derartige graphische Darstellungen sozialer Netzwerke werden auch Soziogramme genannt. Rein quantitative Informationen können mit mathematischen Umwandlungsregeln in graphische Darstellungen übersetzt werden. In qualitativen Netzwerkstudien allerdings ist eine einfache, manuelle Übertragung der herausgearbeiteten Verbindungen zwischen Akteuren in Netzwerkkarten oder –bildern durchaus üblich. Hierbei werden Akteure als „Knoten“ oder „Punkte“ dargestellt, während die Beziehungen zwischen den verschiedenen Akteuren durch Linien zwischen den Punkten wiedergegeben werden. Sind die Netzwerke zu groß, so dass eine graphische Abbildung unübersichtlich wäre, werden die Daten in Matrizen wiedergegeben und sind so bereit für die Auswertung per Computer. Solange allerdings eine Visualisierung in Form eines „echten“ Netzwerks noch möglich ist, können auch weitere der gewonnenen Informationen hierin eingebracht werden. So können bspw. besonders wichtige Akteure durch größere Punkte und enge Beziehungen durch dickere Linien gekennzeichnet werden. Auch mit farblichen Markierungen lassen sich Charakterisierungen des Netzwerks hervorheben (Haythornthwaite 1996, S. 331; Franke & Wald 2006, S. 161). Zur Auswertung von Netzwerkdaten gibt es vor allem im quantitativen Bereich zahlreiche standardisierte Möglichkeiten. Hier soll sich jedoch auf einführende empirische Beobachtungen der Akteursbeziehungen und der Netzwerkeigenschaften beschränkt werden. Diese Methode kann z.B. in Bezug auf den Austausch von Informationen im jeweiligen Netzwerk schon für einen bedeutsamen Erkenntnisgewinn sorgen. Die folgende Darstellung konzentriert sich deswegen auf die Identifizierung einiger zentraler Charakteristika formaler Strukturen von Netzwerken, die auf der Basis von netzwerktheoretisch formulierten Zusammenhängen zwischen der Netzwerkstruktur und der Leistung eines Netzwerks Aufschluss über mögliche Kapazitäten sowie Schwachstellen eines Netzwerks geben (Franke & Wald 2006, S. 167). Die Größe eines Netzwerkes definiert sich über die Anzahl seiner Akteure. Große Netzwerke sind häufig widerstandsfähiger gegenüber Wandel, Beratungen und Austausch der Akteure untereinander können aufgrund der Größe jedoch komplizierter werden. Die ideale Größe für ein flexibles Netzwerk wird häufig mit acht bis fünfzehn Akteuren beziffert (Newig et al. 2010, S. 9 f.). Der Faktor Geschlossenheit bezieht sich auf die Struktur des gesamten Netzwerks und ist z.B. mittels von Dichtemaßzahlen zu messen oder mit Hinblick auf die Bildung von Clustern

20

RADOST Akteursanalyse – Konzept und methodische Grundlagen und Cliquen innerhalb des Netzwerkes zu beurteilen (Haythornthwaite 1996, S. 332). Die Dichte eines Netzwerks beschreibt im Allgemeinen den Grad, zu welchem Akteure innerhalb des Netzes miteinander verknüpft sind: Je höher der Grad der Dichte, desto höher die Konnektivität der Akteure untereinander (Silburn 2007, S. 80). Berechnet wird der Dichtegrad mittels des Quotienten aus der Anzahl der tatsächlichen Verknüpfungen innerhalb eines Netzwerks und der Anzahl der Beziehungen, die insgesamt möglich wären. In Bezug auf den Informationsaustausch kann in dichten Netzwerken von einem besseren Fluss der Informationen ausgegangen werden, während in weniger dichten Netzwerken das Risiko besteht, dass Informationen aufgrund der hohen Anzahl an Akteuren, die sie passieren müssen, unzureichend weitergegeben werden (Newig et al. 2010, S. 9 f.; Haythornthwaite 1996, S. 332). Beratungstätigkeiten und Diskussionen der Akteure untereinander sind folglich eher anzunehmen, wenn das Netzwerk eine hohe Dichte aufweist und sich dadurch viele verschiedene Akteure gegenseitig kennen. Zugleich besteht bei sehr dichten und damit geschlossenen Netzwerken allerdings das Risiko, dass ein fundamentaler Wandel im Sinne einer Restrukturierung des Netzwerkes schwieriger zu vollziehen ist, weil die Akteure in ihren Positionen „gefangen“ sind (Newig et al. 2010, S. 9 f.). Die Dichte innerhalb eines Netzwerkes ist meist nicht gleichmäßig verteilt. Stattdessen bilden sich Akteurscluster heraus, die im Vergleich zu dem restlichen Netzwerk stärker miteinander verbunden sind und so Untergruppen bilden. Sind die Verknüpfungen der Akteure innerhalb eines solchen Clusters derart stark ausgeprägt, dass alle Mitglieder sich untereinander relativ direkt erreichen können, d.h., dass kein Akteur oder höchstens einer zwischengeschaltet werden muss, kann man von einer Clique sprechen. Die Identifizierung solcher Cliquen ist hilfreich, um festzustellen, wie stark ein Netzwerk fragmentiert ist und wo sich Informationsquellen sowie weitere Ressourcen konzentrieren (Silburn 2007, S. 80; Haythornthwaite 1996, S. 332). Die Verteilung der Akteure innerhalb eines Netzwerkes lässt ebenfalls Rückschlüsse auf die Zentralisierung des Netzes zu, also das Maß, in welchem die Akteure um einen zentralen Akteur oder mehrere zentrale Akteure herum positioniert sind (Newig et al. 2010, S. 10; Haythornthwaite 1996, S. 333). Der Zentralisierungsgrad eines Netzwerks gibt Aufschluss über die Informationsvermittlung, die in zentralisierten Netzwerken typischerweise leichter möglich ist als in dezentralisierten Formen. Auch kann von einer ausgeprägten Zentralisierung eines Netzwerkes oft auf relativ einheitlich vertretene Ziele und Werte geschlossen werden, da hierbei diejenigen Akteure mit der zentralen Position oft als Meinungsführer fungieren. Ist die Abhängigkeit von wenigen sehr starken Akteuren allerdings zu ausgeprägt, führt dies zu einer höheren Verletzlichkeit des Netzwerks, welche sich zeigt, wenn z.B. ein zentraler Akteur das Netzwerk verlässt und so ein strukturelles Vakuum erzeugt, aufgrund seiner Machtposition ausgewogene Diskussionen und Beratungsaktivitäten verhindert oder Informationen, die über ihn laufen, nicht weiterleitet (Newig et al. 2010, S. 10 f.; Silburn 2007, S. 80; Haythornthwaite 1996, S. 334). Berechnen lässt sich die Zentralisierung mithilfe der Zentralität einzelner Akteure, welche sich in drei Kategorien aufspalten lässt, nämlich degree, closeness und betweenness centrality (Wasserman & Faust, S. 1994). Indem die Maßzahl des jeweils zentralsten Akteurs durch die Maßzahl des Akteurs mit der geringsten Zentralität geteilt wird, wird der Grad der Netzwerkzentralisierung ermittelt (Newig et al. 2010, S. 10). Die Degree-Zentralität basiert auf der Annahme, dass die Akteure mit einer hohen Anzahl an direkten Beziehungen zu anderen Akteuren auch die aktiven und damit zentralen Akteure im Netzwerk sind. Diese Schlüsselakteure können während der Anfangsphase in Managementprozessen bzw. Projekten von Bedeutung sein, weil sie andere Netzakteure

21

Hirschfeld, Krampe, Winkler (IÖW) informieren und aktivieren können (Prell et al. 2009; Rauch 2010, S. 981). Eine weitere Möglichkeit, die Zentralität eines Akteurs zu bestimmen, besteht in der Berechnung der closeness-basierten Zentralität, welche jene Akteure ausfindig macht, die besonders nah an anderen Akteuren sind, d.h. nur wenige Umwege über zwischengeschaltete Akteure in Kauf nehmen müssen und damit relativ unabhängig agieren können (Prell et al. 2009). Hierbei wird der kürzeste Weg zwischen dem betroffenen Akteur zu jeweils allen anderen Akteuren des Netzwerks berechnet. Der Akteur mit der niedrigsten Summe, die sich aus diesen Entfernungen ergibt, ist der zentralste Akteur (Haythornthwaite 1996, S. 335). Jedoch sind auch Akteure von Bedeutung, die auf den ersten Blick über weniger Verbindungen zu anderen Akteuren verfügen. Dass die Position zwischen Akteuren im Netzwerk entscheidend sein kann, wird über die Betweenness-Zentralität ermittelt. Demnach ist ein Akteur für ein Netzwerk zentral, wenn dieser eine Verbindung zwischen bisher unverbundenen Netzwerkteilnehmern schafft, indem er z.B. zwischen zwei Akteurscliquen steht. Für langfristige Planungsprozesse sind diese vermittelnden Akteure, auch broker genannt, wichtig, weil durch das Zusammenbringen von Akteuren und Gruppen neue und vielfältige Ideen im Prozess Eingang finden (Prell et al. 2009). Allgemein kann sich die Identifizierung zentraler Punkte im Netzwerk also insofern als taktischer Vorteil erweisen, als dass das Wissen sowie der Einfluss bereits vorhandener zentraler Akteure genutzt werden kann oder noch unbesetzte Punkte, sogenannte structural holes, von neuen Akteuren eingenommen werden können (Haythornthwaite 1996, S. 335, 340). Auch die Gewichtung der Bindungen zwischen Akteuren kann als formale Netzwerkstruktur gewertet werden. Im Rahmen der Analyse formaler Netzwerkstrukturen werden starke Bindungen unter Akteuren - hier im Sinne von vertrauensvollen, regelmäßigen Kontakten – als vorteilhaft für den Austausch von Informationen und anderen Ressourcen gewertet. Akteure mit starken Bindungen teilen oft ähnliche Werte und haben ein vergleichbares Problembewusstsein. Andererseits können sich sehr enge Beziehungen aber auch hinderlich auswirken, so z.B. wenn sie Akteure davon abhalten, Beziehungen mit weiteren Akteuren aufzubauen bzw. aufrechtzuerhalten. Auch können starke Verbindungen zu routinemäßigem Verhalten führen, welches wiederum Lernprozesse erschwert. Aus diesem Grund können auch eher schwache Bindungen für die Funktionsweise eines Netzwerks durchaus nützlich sein, da sie flexibler sind und Akteure mit neuen Informationen und Ressourcen versorgen können (Haythornthwaite 1996, S. 327, 336; Newig et al. 2010, S. 9 f.). Diese formalen Netzwerkprinzipien stellen eine gute Grundlage dar, die Funktionalität eines Gesamtnetzwerkes sowie das Verhalten einzelner Akteure aufgrund ihrer Positionierung einzuschätzen. Jedoch ist diese Form der Auswertung von Netzwerkdaten in ihrer Aussagekraft begrenzt, da hierbei wichtige Faktoren wie z.B. der Charakter oder der Hintergrund eines Akteurs nicht erfasst werden können. So kann keineswegs das gesamte Verhalten eines Akteurs seiner Positionierung im Netzwerk oder anderen Netzwerkeffekten zugeschrieben werden, sondern muss durch weitergehende Analyse der zuvor qualitativ erhobenen Daten erklärt werden (Rauch 2010, S. 983 f.; Franke & Wald 2006, S. 167). Wird in standardisierten Fragebögen die Möglichkeit eröffnet, freie Kommentare beizufügen, und wird die standardisierte Befragung ergänzt durch qualitative Interviews, können die Motivationen für bestimmte Verhaltensweisen von Akteuren besser erklärt und zusammengetragene Ergebnisse insgesamt besser interpretiert werden. Zur Auswertung der qualitativen Ergebnisse kann beispielsweise die qualitative Inhaltsanalyse eingesetzt werden, bei der Interviewtranskriptionen mittels inhaltlich gebildeter Kategorien strukturiert

22

RADOST Akteursanalyse – Konzept und methodische Grundlagen werden. Diesen Untersuchungskonstrukten können dann wiederum die quantitativen Netzwerkcharakteristika zugeordnet werden (Franke & Wald 2006, S. 169 f.). 3.1.3 Konfliktanalyse und Transaktionsanalyse

Dass die Akteure verschiedene Ressourcen kontrollieren und nutzen, um ihre Ziele zu realisieren, ist die zugrundeliegende Annahme von konflikt- und transaktionsanalytischen Ansätzen (Hermans 2005, S. 35). Die Konfliktanalyse (Conflict analysis) wurde als praktische Anwendung der Spieltheorie entwickelt, um reale Konflikte zu analysieren und ebenso mögliche Kompromisse und Koalitionen aufzudecken. Dabei kann eine bestimmte Konfliktsituation als strategisches Spiel angenommen werden mit den Akteuren (Konfliktparteien etc.) als Mitwirkende, deren Verhalten durch bestimmte Ziele geleitet werden und durch ihnen zur Verfügung stehende Optionen realisiert werden können. Das grundlegende Verfahren der Konfliktanalyse stellt der Analysis of Options-Ansatz dar. Dieser ermöglicht, die Folgen des Konfliktes in Form von Szenarien zu entwerfen und die Akteure aufzudecken, welche genügend Einfluss und Macht haben, den Konfliktausgang zu verändern (anhand von strategic maps). Weitere Ansätze, die auf diesem Verfahren beruhen und es mittels mathematischer Analyse erweitern, sind Metagame analysis und Graph Model for Conflict Resolution (s. Noakes et al. 2003). Als problematisch werden allerdings die komplexen Modellberechnungen betrachtet (Hermans 2005), die nur mit Hilfe entsprechender Software durchgeführt werden können. Es wird zudem auf die Schwierigkeit hingewiesen, dass tatsächlich alle beteiligten Akteure bereitwillig ihre Ziele und Präferenzen offenlegen. Der Fokus der Transaktionsanalyse (Transactional analysis) liegt auf den Wechselbeziehungen bzw. den Transaktionen zwischen den Akteuren, die Kontrolle über bestimmte Ressourcen ausüben und damit auch über Macht im Akteursnetzwerk verfügen können. Um diese Netzwerkbeziehungen zu erfassen und zudem Ergebnisse von Verhandlungs- wie Konfliktsituationen zu klären, werden für die Analyse mathematische Modelle genutzt (Hermans 2005). Als ein Beispiel wird das Modell von Stokman und Van Oosten (1994) angeführt, durch das der Austausch von Stimmrechten zwischen Akteuren erfasst werden kann (Vote exchange model). Es gibt in dem Kontext weitere ähnliche Modelle (Transactional process model), in denen eher abstrakt der Austausch von Kontrolle über bestimmte Policy-Angelegenheiten beschrieben wird (s. Timmermans 2004). Hermans (2005) kritisiert allerdings an den Methoden der Transactional analysis, dass es ein grundsätzliches Problem darstellt, Inputvariablen wie Macht oderKontrolle entsprechend zu quantifizieren. Auch erlaubt die eher abstrakte Beschreibung des Austauschs von Kontrolle zwischen den Akteuren kaum detaillierte Schussfolgerungen darüber, wie dieser Prozess stattfindet bzw. die Verhandlungsstrategien aussehen. 3.1.4 Diskursanalyse und kognitives Mapping

Diese beiden Verfahren können den qualitativ-kognitiven bzw. interpretativen Methoden der Policy Analyse zugeordnet werden, die den Ansatz verfolgen, dass die subjektiven Wahrnehmungen und Interpretationen der Akteure deren Handlungen bestimmen und erst komplexe Policy-Prozesse erklärbar machen (Schneider & Janning 2006). Der politische Akteur handelt in dem Sinne rational, wenn seine Handlungen mit den Wahrnehmungen übereinstimmen (Bots et al. 1999). Die Darstellung und Analyse der häufig divergierenden Wahrnehmungen über eine Situation kann ein wichtiger Schritt sein, Entscheidungsprozesse und gemeinsames Handeln zu unterstützen, indem die unterschiedlichen Wahrnehmungen und Perspektiven kommuniziert und damit nicht zutreffende Annahmen wie auch Konflikte aufgedeckt werden (Mayntz & Scharpf 1995; Bots et al. 1999). Weiterführende theoretische

23

Hirschfeld, Krampe, Winkler (IÖW) Ansätze bieten in dem Zusammenhang zum einen die argumentative Perspektive (Argumentative turn, s. Fischer & Forester 1993), die den Fokus auf die diskursive Praxis bzw. die Formulierung und den Austausch von Argumenten zwischen Parteien mit unterschiedlichen Bezugsrahmen bzw. Überzeugungen legt. Zum anderen spielt auch der von Sabatier und Jenkins-Smith (1988) entwickelte Ansatz (Advocacy Coalition Framework) eine Rolle, in dem davon ausgegangen wird, dass sich innerhalb von politischen Debatten langfristig die Akteure mit übereinstimmenden Wahrnehmungen oder Glaubenssystemen zusammenschließen. Diskursanalysen werden genutzt, um Erkenntnisse über die Anschauungen, Werteund Ziele innerhalb eines öffentlichen, politischen Diskurses zu bekommen, indem die verschiedenen Argumente (Argumentative analysis) oder Geschichten (Narrative policy analysis) in den Debatten untersucht werden. Cognitive Mapping ist allgemein als Technik bekannt, mit deren Hilfe Probleme strukturiert und analysiert werden können und die dementsprechend vielfältig eingesetzt werden (Ackermann et al. 1992). Durch den Prozess des kognitiven Mappings werden die Wahrnehmungen von Akteuren zu bestimmten Problemen grafisch dargestellt, um mögliche Konflikte zwischen den Akteuren, aber auch Problemlösungspotentiale und – hintergründe aufzudecken (Hermans 2005; Eden 2004). Auch wenn sich diese Modellierungstechnik in den letzten Jahren immer weiter entwickelt hat, ist die theoretische Basis für die Interpretation bzw. Analyse der Diagramme kaum entwickelt (Eden 2004). Die Auswertung der Cognitive Maps erfolgt abhängig von ihrer Größe durch eine simple visuelle Auswertung oder mit Hilfe von für das Mapping entwickelte Software wie z.B. Decision Explorer (Ackermann & Eden 2010). Als eine kognitive Analysemethode wird SODA (Strategic Options Development and Analysis) betrachtet, die als Instrument für das Management komplexer Probleme innerhalb von Gruppen genutzt wird (Ackermann & Eden 2010). Hermans (2005) führt neben SODA auch Self-Q Interviews und DANA (Dynamic Actor Network Analysis) als kognitive Verfahren an. Während durch die beiden ersten Verfahren eine gemeinsame Handlungsbasis geschaffen werden soll, d.h. durch eine gemeinsame Problemwahrnehmung in einer Akteursgruppe (SODA) oder durch Erkenntnisse über die einzelnen Akteursperspektiven (Self-Q Interviews), dient DANA eher als Basis für eine Vergleichsanalyse. DANA ist ursprünglich als eine Methode der Politikfeldanalyse an der TU Delft entwickelt worden mit entsprechender Modellsprache und unterstützendem Software-Tool (s. Bots et al. 1999). Im Mittelpunkt stehen die formale Erfassung und der Vergleich der Wahrnehmungen von Akteuren, die gemeinsam ein Policy Netzwerk bilden. Die Akteurswahrnehmung wird mit den Begriffen umschrieben, mit denen der Akteur über eine Situation denkt bzw. umfasst alle Annahmen, die vom Akteur über die Situation gemacht werden, egal ob diese falsch oder richtig sind. Bots et al. (1999) modelliert die Wahrnehmungen bzw. Annahmen in DANA über Faktoren (facts), Bindungen (links) und Ziele (goals) und bezieht sich dabei auf Rahmatian und Hiatt (1989), die zwischen sachlichen, kausalen und teleologischen Annahmen unterscheiden. Sachliche Annahmen stellen dar, wie der Akteur den gegenwärtigen Zustand seines Umfeldes wahrnimmt und beinhalten Begriffe, die der Akteur nutzt, um eine Situation zu beschreiben. Bei Bots werden diese (wenn auch vom Akteur angenommenen) Tatsachen als Faktoren (facts/ factors) bezeichnet, welche sowohl spezifische Merkmale eines Systems (system attributes), eines Akteurs (actors attributes) oder Handlungen (actions) sein können. Kausale Annahmen geben an, wie der Akteur Veränderungen in seiner Umgebung wahrnimmt bzw. über Ursache und Wirkungen von bestimmten Entwicklungen denkt. Diese Zusammenhänge werden in DANA als Bindungen (links) zwischen den Faktoren dargestellt. Es handelt sich um teleologische Annahmen, wenn in den Akteursansichten Wünsche und Zielsetzungen bzgl. bestimmter Entwicklungen eine Rolle spielen. Derartige Bewertungen

24

RADOST Akteursanalyse – Konzept und methodische Grundlagen (die zudem Folge der Interessen der Akteure sind; Bots 2007) werden in DANA als Ziele (goals) für bestimmte Faktoren beschrieben. Neben den Wahrnehmungen über die Situation, über kausale Strukturen werden auch die Deutungen der Akteure über zu erwartende Ergebnisse als Teil kognitiver Handlungsorientierung verstanden (Mayntz & Scharpf 1995). In DANA wird dieser Aspekt als Erwartungen (prospects) der Akteure bezeichnet und als zukünftige Änderungen eines Faktors bzw. einer Situation durch externe Einflüsse dargestellt (Bots 2007). DANA ermöglicht als kognitives Verfahren nicht nur Probleme zu strukturieren, sondern auch durch den Vergleich der Akteurswahrnehmungen Interessenskonflikte und mögliche Koalitionen zwischen den Akteuren aufzudecken (Twist et al. 1998; Bots et al. 1999). So können etwa unterschiedliche Konflikttypen mit Hilfe einer Vergleichsanalyse bestimmt werden (Bots 2007). Wenn die Akteure sich grundsätzlich nicht einig sind, welche Änderungen eines spezifischen Faktors (goal) wünschenswert ist, handelt es sich um einen Zielkonflikt; bei Uneinigkeit über mögliche Handlungen, besteht ein Handlungskonflikt. Bots (2007) verweist auf weitere Möglichkeiten, Meinungsverschiedenheiten zwischen den Akteuren mit Hilfe von DANA zu analysieren, bspw. im Bezug auf die Erwartungen der Akteure, die kausalen Zusammenhänge etc. Im Rahmen der RADOST-Akteursanalyse soll die Dynamische Akteursnetzwerkanalyse als analytischer Zugang verwendet werden, um einen Einblick in die Wahrnehmungen der vom Klimawandel betroffenen Akteure an der Ostseeküste und damit auch auf Konflikte und mögliche Übereinstimmungen zwischen diesen Akteuren zu bekommen. Es wird sich im Wesentlichen auf das in DANA verwendete Vokabular bezogen, um Wahrnehmungen zu analysieren; auf die grafische Darstellung und die Analyse mit Hilfe des Software-Tools wird verzichtet. Es gibt Ansätze, in die Akteursanalyse neben den Problemwahrnehmungen auch die Interessen (und Ziele) der Akteure mit einzubeziehen bzw. zu erheben (s. Peine 2000; Denhardt et al. 2006). Interessen gehören zu den motivationalen Handlungsorientierungen (bzw. Präferenzen) von Akteuren, welche neben Normen und Identität ebenso als Erklärungsvariable für das Akteursverhalten genutzt werden (Mayntz & Scharpf 1995). Zur anschaulicheren Darstellung der im Rahmen des RADOST-Projekts analysierten Akteure werden Akteursnetzwerkdiagramme konzipiert, welche sich an die Modellierungstechnik von DANA (s. Bots et al. 2000) anlehnen, allerdings eine vereinfachte Version dieser darstellen. So beschränken sich die RADOST-Netzwerkdiagramme auf die Unterteilung der Akteure in Wirtschaft, den öffentlich-rechtlichen Sektor, NGOs und Wissenschaft. Zudem wird erkenntlich gemacht, welchem Bundesland die jeweiligen Akteure zuzuordnen sind. Der übergreifenden Fragestellung des RADOST-Projekts folgend, findet in Bezug auf die Wahrnehmung der Akteure eine Fokussierung auf ihre Wahrnehmung des Klimawandels statt; durch Minus-, Plus- und Nullzeichen wird angezeigt, wie sensibel der jeweilige Akteur für den Klimawandel ist. Im Sinne von DANA werden weiterhin die Beziehungen der Akteure zueinander dargestellt. Auch hier findet allerdings eine begrenzte Anwendung von DANA statt, da Konflikte und gemeinsame Interessen nicht gemäß der oben aufgezeigten DANATypologie charakterisiert werden. Stattdessen findet eine quantitative Bewertung der Beziehungen der Akteure zueinander statt, wobei zwischen stark bis schwachen Konflikten sowie engen bis losen Allianzen unterschieden wird. Auch wird gewichtet, wie zentral bzw. bedeutsam die jeweilige Stellung der Akteure im Gesamtnetzwerk ist.

25

Hirschfeld, Krampe, Winkler (IÖW)

3.2
3.2.1

Das Interview als qualitative Forschungsmethode
Formen und Charakteristika von Interviews

Zur Erhebung von Daten für die Durchführung von Forschungsprogrammen bieten sich unterschiedlichste Formen der Interviewführung als methodisches Instrument an. Aufgrund der Fragestellung innerhalb der Akteursanalyse des RADOST-Projekts wird hier im Folgenden ausschließlich der qualitative Interviewtypus vorgestellt, welches dem Interviewpartner eine subjektive Darstellung seiner Ansichten zum Forschungsgegenstand erlaubt. Das direkte „Face-to-Face“-Interview (FtF-Interview) ist, trotz eines relative hohen Zeit- und eventuell auch Kostenaufwands, als eine Methode der Interviewführung oft von Vorteil gegenüber Telefon-, e-mail-, oder Chat-Interviews. FtF-Interviews zeichnen sich durch eine orts- und zeitsynchrone Kommunikation aus und ermöglichen dadurch die Einbeziehung des sozialen Kontexts des Gesprächs, wie z.B. die stimmliche Betonung und Körpersprache. Derartige Zusatzinformationen sind von besonderem Interesse, wenn die Informationen, die über den Forschungsgegenstand gesammelt werden, direkt mit der befragten Person zusammen hängen und sie diesbezüglich nicht nur theoretisches, abstraktes Wissen vermittelt. Ein weiterer Vorteil des FtF-Interviews ist, dass die interviewte Person spontan auf die Fragen reagieren muss, was zu unverfälschteren Antworten führen kann als Interviews mit asynchroner Zeitgestaltung, die mehr Reflektionszeit lassen (Flick 2010, S. 194; Opdenakker 2006, S. 2 ff., 12). Neben der Wahl der Kommunikationsform für das Interview muss die Interviewtechnik entschieden werden. Bislang herrschen in der qualitativen Methodologie noch Uneindeutigkeiten und Überschneidungen in Bezug auf die Terminologie für Interviews, weswegen hier zunächst eine Übersicht über Charakteristika gegeben werden soll, die qualitativen Interviews gemeinsam sind. Ganz allgemein hat ein qualitatives Forschungsinterview zum Ziel, Beschreibungen über die Lebenswelt der interviewten Person zu erfragen und die Bedeutung der dargestellten Phänomene zu interpretieren. Hierbei besteht weder während der Interviewphase noch in der darauffolgenden Analyse die Absicht, quantifizierbare Informationen zu erlangen. Ziel des Interviews ist vielmehr, den Untersuchungsgegenstand aus der Perspektive der interviewten Person zu analysieren und nachzuvollziehen, wie und warum eben diese Perspektive zustande kommt. Vorteilhaft für die Durchführung derartiger Forschungsinteressen sind folgende Charakteristika: ein geringer Grad an Standardisierung der Interviewstruktur, ein Schwerpunkt auf offenen Fragestellungen, die sich weiterhin eher auf spezifische Erfahrungen der interviewten Person beziehen als auf abstrakte und verallgemeinerte Ansichten. Als weitere wichtige Abgrenzung zu der Vorgehensweise quantitativer Interviews ist die Einstellung gegenüber der interviewten Person. Anstatt sie als Forschungsobjekt zu sehen, wird sie als Mitwirkende im Forschungsprozess gesehen, die nicht in einem unpersönlichen Prozess auf die vorbereiteten Fragen zu antworten hat, sondern mehr oder weniger aktiv Einfluss auf die Gestaltung des Interviews nehmen kann (King 1995, S. 14 f.; Gläser & Laudel 2009, S. 40). 3.2.2 Das leitfadengestützte Interview mit Experten

Neben den beschriebenen gemeinsamen Charakteristika gibt es eine starke Ausdifferenzierung von Interviewformen im qualitativen Bereich; als hilfreiche Eingrenzung kann hier der Grad der Standardisierung dienen. Wie bereits beschrieben, sind qualitative Interviews durch eine geringe Standardisierung gekennzeichnet, während die vollständige Standardisierung, die dem Interviewer Fragewortlaut und –reihenfolge vorschreibt und auch die Antwortmöglichkeiten der interviewten Person einschränkt, in der quantitativen Sozialforschung angewandt wird. In den qualitativen Erhebungsmethoden wird zwischen

26

RADOST Akteursanalyse – Konzept und methodische Grundlagen halb- und nichtstandardisierten Interviews unterschieden. In halbstandardisierten Interviews müssen die durch den Interviewer gestellten Fragen nach einem vorgegebenen Muster ablaufen. Indessen sind in nichtstandardisierten Interviews nur die Themen für den Gesprächsverlauf vorgegeben. Doch auch innerhalb der Kategorie nichtstandardisierter Interviews können gewisse eingrenzende oder zielgerichtete Vorgaben für den Interviewer bestehen, die dann zu der Bezeichnung teilstandardisiert führen. Eine Variante hierbei ist das Leitfadeninterview, welches aufgrund seiner durch einen Leitfaden vorgegebenen thematischen Schwerpunktsetzung auch als problemzentriertes Interview bezeichnet werden kann. In dem Interviewleitfaden sind Fragen zusammengefasst, die auf eine bestimmte, bereits zuvor vom Interviewer analysierte Problemstellung abzielen. Zwar sollte der Interviewer diesen Fragekatalog abdecken und auch bei einem Abweichen vom Thema das Gespräch hierhin zurückführen, jedoch sind weder die Formulierungen noch die Reihenfolge der Fragen verbindlich. Auch sind – im Leitfaden nicht vorgesehene – Nachfragen möglich, da diese in vielen Fällen der übergeordneten Fragestellung erst spontan während des Gesprächsverlaufs als zuträglich erscheinen. Gleichermaßen können Fragen ausgelassen werden, die sich im Laufe des Interviews als hinfällig erweisen. Ebenfalls können nach den ersten durchgeführten Interviews Änderungen am Leitfaden vorgenommen werden, wenn sich in der Anwendung gezeigt hat, dass manche Fragen anders gestellt, erweitert oder ausgelassen werden müssten. Um zu erreichen, dass das Leitfadeninterview eher einem offenen Gespräch nahekommen soll als einem durchstrukturierten Interview, wird geraten, eine Situation zwischen Interviewer und Interviewtem entstehen zu lassen, die weitgehend gleichberechtigt und offen ist und so ehrliche und reflektierte Antworten fördert (Gläser & Laudel 2009, S. 41 f.; Mayring 2002, S. 67 ff.; Helfferich 2004, S. 24; King 1995, S. 19). Trotzdem müssen auch bei dieser sehr offenen Interviewform bestimmte Kommunikationsregeln berücksichtigt werden, damit das Ziel der Informationsbeschaffung nicht aus den Augen verloren geht. So muss das Gespräch durch eine festgelegte Rollenverteilung zwischen Fragendem und Antwortendem geprägt sein, während dem Fragendem, also dem Interviewer, hierbei die Dialogführung zuerkannt wird. Klare Vorteile an der Gesprächsführung des leitfadengestützten Interviews sind in der direkten Interaktion zwischen Interviewer und Interviewtem zu sehen. Demnach ist es dem Interviewer möglich, überprüfende oder nachhakende Rückfragen zu stellen. Außerdem wird dem Interviewten die Chance gegeben, seine persönlichen Perspektiven auszubreiten und in größere Zusammenhänge einzuordnen. Beide Gesprächsteilnehmer können, wenn relevant, die konkreten Umstände der Interviewsituation thematisieren (Gläser & Laudel 2009, S. 111 f.). Nachdem nun die Vorgehensweise während der Befragung grob dargelegt wurde, wird die Entscheidung für den Interviewpartner näher behandelt. Zu betonen ist hierbei, dass die Form von Interviews, wie in diesem Fall die leitfadengestützte Version, nicht mit Experteninterviews gleichzusetzen ist oder direkt zu der Entscheidung für ein Experteninterview führt. Das wichtigste Kriterium für die Wahl des Interviewpartners ist hingegen das Ziel der Studie: Wer könnte einem im Bezug auf die benötigten Informationen am besten weiterhelfen? Ebenso wie bei der Zusammenstellung der Fragen für den Leitfaden des Interviews sei auch hier betont, dass die Auswahl der Interviewpartner auch während der Datenerhebung noch variierbar ist. So können durch Hinweise in schon durchgeführten Gesprächen noch neue Personen hinzukommen, was wiederum Einfluss auf die Gestaltung des Interviewbogens nehmen kann. Die Entscheidung, sich in der Datenerhebung auf Interviews mit Experten zu stützen, hängt folglich mit dem Ziel des Forschungsprojektes zusammen: Handelt es sich nicht um die Erforschung eines biographischen Hintergrundes oder eines sozialen Verhaltens, welches den Interviewpartner als „gesamte Person“ in den Interessensmittelpunkt rücken würde, sondern um ein

27

Hirschfeld, Krampe, Winkler (IÖW) bestimmtes Handlungsfeld, in dem der Interviewte tätig ist, so konzentriert sich das Interview eher auf das Faktum seines „Expertenwissens“ auf diesem Handlungsfeld. Das Forschungsinteresse an einem derartigen Handlungsfeld kann gemäß Flick auf drei verschiedene Problemstellungen ausgerichtet sein: die Orientierung in einem neuen Feld und dessen thematische Strukturierung, die Gewinnung von Kontextinformationen zu Erkenntnissen aus anderen Methoden und schließlich die Entwicklung einer Theorie zum analysierten Gegenstandsbereich (Flick 2010, S. 216). Als nächstes sollte einer Missinterpretation des Begriffs „Experte“ entgegengewirkt werden; bei den sogenannten „Experten“ handelt es sich nicht ausschließlich um Menschen, die beruflich spezialisiert sind oder die wichtige Positionen einnehmen. Auch das Wissen um soziale Kontexte, Prozesse und Phänomene, in die eine Person einen vertieften Einblick hat und somit hierüber besondere Erfahrungen und Ansichten weitergeben kann, kann im Rahmen von Datenerhebungen wertvolle Informationen liefern und zählt somit zu „Expertenwissen“. Weiterhin soll der Begriff „Experte“ vermitteln, dass die interviewte Person als Repräsentant einer bestimmten Gruppe mit bestimmten Charakteristika wie z.B. sozialem, beruflichem oder regionalem Hintergrund angesehen wird und nicht als Einzelfall (Gläser & Laudel 2009, S. 11 ff., 117 f.; Flick 2010, S. 214 ff.; King 1995, S. 20).

28

RADOST Akteursanalyse – Konzept und methodische Grundlagen

4

Strategische Vorüberlegungen zum leitfadengestützten Experteninterview

Ein zentraler Schritt der qualitativen Forschung besteht in der Formulierung der Fragestellung. Natürlich muss die Forschungsfrage schon vor Beginn des Forschungsprozesses geklärt werden, doch besonders vor der Durchführung einmaliger Interviews sollte eine Reformulierung der gesamten Fragestellung überdacht und diese dann auf Hypothesen heruntergebrochen werden. In der qualitativen Sozialforschung unterliegen Hypothesen meist nicht der anschließenden Überprüfung durch Widerlegung oder Bestätigung, sondern helfen, die Strukturierung des Forschungsprozesses zu vereinfachen. In dieser anleitenden Funktion für die Datenerhebung und die anschließende Auswertung können sie, durch eine zugespitzte empirische Bezugnahme, auch in direkte Leitfragen übersetzt werden. Mit Hinsicht auf die Konzeption leitfadengestützter Interviews spielen diese Leitfragen eine besonders hilfreiche Rolle, da sie die Forschungsfrage operationalisieren, d.h. in Fragen an die Empirie übersetzen und dadurch die Funktion eines Erhebungsinstruments für den folgenden Forschungsprozess übernehmen. Um relevante und verwertbare Antworten zu produzieren, müssen Leitfragen nicht nur auf das Forschungsfeld gerichtet sein, sondern auch schon einen konkreten Bezug auf die Informationen aufweisen, die erhoben werden müssen. Zusammengefasst können Leitfragen somit als Bindeglied zwischen den theoretischen Vorüberlegungen und den qualitativen Erhebungsmethoden verstanden werden. Aufbauend auf der Überarbeitung oder Bestätigung der Fragestellung und den davon abgeleiteten, strukturierenden Leitfragen müssen im Vorfeld der Interviewdurchführung weitere strategische Überlegungen in Bezug auf die Konzeption des Interviewleitfadens und der Auswahl der Interviewpartner angestellt werden, die hier im folgenden erläutert werden (Flick 2010, S. 132 f., 140; Gläser & Laudel 2009, S. 77, 90-93).

4.1
4.1.1

Die Konzeption eines Leitfadens
Die Formulierung der Leitfadenfragen

Nachdem das Leitfadeninterview bereits als teilstandardisierter Interviewtypus näher vorgestellt wurde, soll in diesem Abschnitt auf die konkrete Konstruktion eines Leitfadens eingegangen werden. Die sorgfältige und überdachte Formulierung von Fragen ist die Grundlage für ein erfolgreiches Interview, da diese der interviewten Person vermitteln, welche Informationen relevant sind. Ausgangspunkt für die Konzeption von Fragen ist das an der Forschungsfrage orientierte Informationsinteresse. Zuallererst sollten einige elementare Regeln für Fragen in wissenschaftlichen Interviews dargestellt werden. Wie bereits beschrieben, zeichnen sich qualitative Interviews dadurch aus, dass es sich nicht um Ja/Nein-Fragen, sondern um Fragen handelt, deren Beantwortungsmöglichkeiten mehr oder weniger offen sind. Mit Rücksicht auf das Ziel, bestimmte Informationen gewinnen zu wollen, muss darauf geachtet werden, die Offenheit der Fragen in einem Rahmen zu gestalten, der die Fragen nicht zu ungenau werden lässt und der interviewten Person ausreichend Orientierung für eine befriedigende Antwort der Frage bietet. In Bezug auf die Offenheit von Fragen sollte weiterhin darauf hingewiesen werden, dass keine dichotomen Fragen gestellt werden, d.h. Fragen, die nicht eindeutig als Ja/Nein-Fragen formuliert sind und somit meist als offene Fragen interpretiert werden, jedoch trotzdem eine Ja/Nein-Antwort nahelegen. Dies führt dazu, dass der Interviewer nochmals nachhaken und seine Frage spontan umformulieren muss. Eine Einschränkung der Offenheit kann z.B. durch die Einbeziehung

29

Hirschfeld, Krampe, Winkler (IÖW) von Unterstellungen in die Frage geschehen. Hier drückt der Interviewer sein bereits vorhandenes Wissen über den Interessensgegenstand oder seine Vermutungen und Einstellungen hierüber aus. Obwohl hierdurch das Risiko besteht, dass die Interviewpartner in eine bestimmte Richtung gelenkt werden oder fälschliche Annahmen nicht korrigieren, sind unterstellende Fragemethoden doch zulässig, da sie im positiven Sinne eine thematische Orientierung geben können. So können unterstellende Fragen zu Zeiteinsparung führen, sie dienen als Erzählanregung und gestalten, wenn nicht provokativ formuliert, die Antwortsituation für die interviewte Person angenehmer, da sie auf den Inhalt der Frage Bezug nehmen kann. Als weiterhin vorteilhaft zu vermerken ist, dass der Interviewer durch eine Präsentation seines Wissenstands seine Autorität gegenüber dem Interviewpartner erhöhen kann und hieraus Nutzen ziehen kann. Abzugrenzen von unterstellenden Fragen sind Suggestivfragen, die die zweite Regel für Fragen in wissenschaftlichen Interviews, das Gebot der Neutralität sozialwissenschaftlicher Vorgehensweisen, missachten. Im Gegensatz zu Fragen, die bestimmte Sachverhalte unterstellen, enthält eine suggestive Frage bereits – explizit oder implizit – die Antwort, die von der interviewten Person erwartet wird. Somit kann im Nachhinein nicht angenommen werden, dass die gewonnenen Informationen auch bei neutraler Fragenformulierung zustande gekommen wären. Zulässig sind suggestive Fragen nur in sehr beschränktem Maße, z.B. wenn es sich um soziale Experimente handelt, in denen die Reaktion der befragten Personen getestet werden soll, oder wenn in Bezug auf tabuisierte oder unangenehme Themenbereiche durch einen vorwegnehmenden neutralen oder wohlwollenden Bezug hierauf der Druck bzw. die Hemmschwelle gesenkt werden kann. In Bezug auf letzteres Beispiel kann der suggestive Fragestil jedoch auch umgangen werden, indem der Interviewer in seiner Frage unterschiedliche Antwortmöglichkeiten, z.B. durch Referenz auf schon geführte Interviews, vorgibt und so verhindert, dass die interviewte Person sich an gesellschaftlich vorgegebenen Standards orientiert. Als weitere grundlegende Regel für die Formulierung von Fragen gilt, diese so klar wie möglich zu gestalten und so Uneindeutigkeiten und nicht Missverständnisse zu verhindern. Zu einer klaren Formulierung von Fragen gehört eine einfache, kurze grammatikalische Struktur, die Vermeidung von Fachtermini, mit denen der Interviewpartner nicht vertraut sein könnte, und eine Spezifizierung auf den Interessensgegenstand. Es sollte hierbei beachtet werden, dass multiple Fragen vermieden werden und tatsächlich pro Frage nur ein Gegenstand behandelt wird. Auch sollten keine Fragen gestellt werden, deren Beantwortung durch die interviewte Person nicht erfolgen kann oder deren Inhalt aus dem Kontext zu fallen scheint (Gläser & Laudel 2009, S. 121, 131-142; Helfferich 2004, S. 93 ff.). Zur Kontrolle der formulierten Fragen schlägt Flick Ansatzpunkte im Rahmen eines Fragenkatalogs vor. Zunächst sollte hinterfragt werden, warum eine Frage gestellt wird bzw. warum ein bestimmter Erzählstimulus gegeben wird, indem die theoretische Relevanz als auch der Bezug zur Fragestellung untersucht wird. Dann sollte die inhaltliche Dimension der Frage überprüft werden, d.h. der Gegenstand, auf den die Frage abzielt. Schließlich sollte die genaue Formulierung der Frage nochmals überdacht werden: Ist sie verständlich, eindeutig und erlaubt eine ergiebige Antwort? (Flick 2010, S. 222) 4.1.2 Ansprüche an den Leitfaden und Strukturierung

Nachdem nun die grundlegenden Regeln der Formulierung von Interviewfragen dargestellt worden sind, soll verdeutlicht werden, welche Ansprüche an einen Leitfaden als Erhebungsinstrument zu stellen sind. Es sei hier nochmals zu betonen, dass ein Interviewleitfaden nicht der strikten Befolgung dient, sondern als eine Art Beispielinterview eine Orientierungshilfe für den Interviewer darstellt und eine Standardisierung der gesamten

30

RADOST Akteursanalyse – Konzept und methodische Grundlagen Ergebnisse unterstützt. Grundsätzlich sollte der Leitfaden mitsamt den Einzelfragen natürlich den bereits dargestellten Prinzipien der qualitativen Sozialforschung entsprechen. Weiterhin sollte beachtet werden, dass ein Leitfaden nicht mit zu vielen Fragen überfrachtet sein darf. Die tatsächliche Anzahl der Fragen richtet sich natürlich nach der Komplexität der jeweilig abzufragenden Thematik, aber gleichermaßen sollte auch die vorhandene zeitliche Begrenzung des Interviews beachtet werden, so dass jede Frage ausreichend behandelt werden kann. Auch sollten nicht mehr Fragen gestellt werden als auf zwei Seiten passen, damit der Interviewer während des Gesprächs einen schnellen Überblick über die bereits gestellten und noch zu stellenden Fragen hat. Eine Ausformulierung der Fragen wird angeraten, zum einen aufgrund der bereits angesprochenen angenäherten Standardisierung und damit Vergleichbarkeit der verschiedenen Interviews, die hiermit erreicht werden kann, zum anderen, da erst eine Ausformulierung eine genaue Überprüfung der Fragestellung erlaubt. Bezüglich des Aufbaus des Leitfadens bzw. der Anordnung der Fragen sollte berücksichtigt werden, dass die Fragekomplexe thematisch gegliedert sind und nicht von abrupten Themenwechseln unterbrochen werden. Auch empfiehlt es sich, Fragen bestimmten Typus – wie z.B. Erinnerungsfragen, Einstellungs- und Bewertungsfragen – zu blocken und hierbei Fragen, die eine ausführlichere Beantwortung provozieren, an den Anfang zu stellen. Erleichtert werden kann der interviewten Person die Beantwortung der Fragen durch eine chronologische Vorgehensweise, d.h. dass die Fragen sich von einem in der Vergangenheit liegenden Moment hin zu Zukunftsbezogenen Fragen entwickeln. Zur weiteren Orientierung bezüglich der Strukturierung des Fragebogens empfiehlt sich folgende grobe Einteilung: Für die Einstiegsphase in das Interview sollten zunächst Sondierungsfragen gestellt werden, also Fragen, die eine Einleitung in die Thematik geben, das Kommunikationsniveau und die Atmosphäre des Gesprächs festlegen und aufzeigen, wie gut sich beide Interviewpartner in der Thematik auskennen. Hierzu eignen sich mitunter Fragen, die leicht zu beantworten sind und somit ermutigend für die interviewte Person wirken, aber auch Fragen, die erst einmal die subjektive Einstellung des Befragten gegenüber dem Forschungsgegenstand eruieren, was für eine Einschätzung des anschließenden Verlaufs des Gesprächs von Bedeutung ist. Im Mittelteil werden die Leitfadenfragen gestellt, also jene, die in Bezug auf das Forschungsinteresse als die wichtigsten identifiziert wurden. Gegen Ende des Interviews empfiehlt sich wiederum eine leichte, und damit als angenehm empfundene, Frage, die sehr offen gestellt werden kann, um so eventuell noch Informationen zu erfahren, die durch die zuvor gestellten Fragen noch nicht generiert wurden. Wird während der Vorbereitung des Interviews jedoch deutlich, dass heikle, unangenehme oder provozierende Fragen gestellt werden müssen, so werden diese an den Schluss des Interviews gestellt, da die dadurch eventuell angespannte Interviewsituation oder eine Verärgerung des Interviewpartners ansonsten zu einer weniger zufriedenstellenden Beantwortung der Fragen führen können. Sogenannte Ad-hoc-Fragen, die im Leitfaden nicht vorgesehen sind, sich aber spontan aus der Gesprächssituation heraus ergeben, dürfen in einem Leitfadeninterview spontan formuliert und eingebracht werden, ebenso wie Fragen entfernt oder abgewandelt werden können. Gleichermaßen wie in Bezug auf die angemessene Formulierung der Fragen sollte nach der Strukturierung nochmals eine Kontrolle durchgeführt werden: Warum steht eine Frage oder ein Frageblock an welcher Stelle, ist die Verteilung von Fragetypen logisch und stimmt das Verhältnis zwischen den einzelnen Fragen? (Gläser & Laudel 2009, S. 143-149; Helfferich 2004, S. 195 f.; Flick 2010, S. 222; Mayring 2002, S. 70)

31

Hirschfeld, Krampe, Winkler (IÖW)

4.2

Die Auswahl von Interviewpartnern

Neben der Konstruktion des Leitfadens spielt die Auswahl der Interviewpartner eine erhebliche Rolle für den Erfolg der Datenerhebung. Die Frage nach der Personenauswahl und der Anzahl der zu führenden Interviews hängt mit der Frage nach der Verallgemeinerbarkeit von Stichproben zusammen. Wie bereits angeklungen, gilt in der qualitativen Forschung weniger das Kriterium der Repräsentativität, wie z.B. bei Verteilungsaussagen in der standardisierten Forschung, sondern vielmehr die Aufdeckung typischer Muster durch die eingehende Analyse von Einzelfällen. Deswegen schlägt Merkens vor, das Kriterium der Repräsentativität durch das Kriterium der ‚inneren’ Repräsentativität zu ersetzen. Dies bedeutet, dass von einer angemessenen Repräsentation dann gesprochen werden kann, wenn für den jeweiligen Bereich gleichermaßen typisch angesehene Fälle miteinbezogen werden, aber auch extrem abweichende Exemplare. Dadurch können unreflektierte Verallgemeinerungen vorgebeugt werden, die bei der Auswahl von zu homogenen Fällen zustande kommen können (Merkens 1997, S. 100). Zusammengefasst bietet sich die Orientierung an folgenden Prinzipien an: Die zu befragende Gruppe an Personen sollte eng gefasst werden, aber trotzdem eine große Varianz an Fällen aufweisen. Zudem sollte, im Sinne der Gütekriterien qualitativer Sozialforschung, die Aussagekraft der Studie eigenständig und explizit limitiert werden, indem nach Durchführung der Interviews nochmals geprüft wird, welche Fälle nicht aufgenommen wurden und inwiefern dies zu einer eingeschränkten Perspektive führt. Aufgrund des Prozesscharakters qualitativer Forschung ist es durchaus möglich, dass nach den ersten geführten Interviews zuvor nicht berücksichtigte Fälle als wichtig – da kontrastierend oder vervollständigend – erscheinen und dann sukzessive in die Studie miteinbezogen werden (Helfferich 2004, S. 152-155). Die tatsächliche Entscheidung darüber, wie viele Personen interviewt werden sollen, hängt zuallererst von der zu untersuchenden Thematik ab, da z.B. in dem Forschungsfeld die Zahl geeigneter Kandidaten möglicherweise sehr beschränkt sein kann. Aber auch Faktoren wie finanzielle und zeitliche Ressourcen spielen eine nicht zu unterschätzende Rolle, da die Durchführung der Interviews und die anschließende Aufbereitung und Analyse aufwendig und teuer sind. Als Richtgröße ist eine Orientierung an der meist üblichen Stichprobenzahl qualitativer Forschungsprogramme zwischen 6 und 120 möglich. Grundsätzlich sollte man sich vor Augen halten, dass die Analysetiefe umso bedeutender wird, je weniger Fälle untersucht werden (Helfferich 2004, S. 155; King 1995, S. 20; Gläser & Laudel 2009, S. 100 f.). Betreffend der Entscheidung, wer schließlich interviewt werden soll, schlägt Gordon vier Fragen vor, die eine Eingrenzung erlauben: Wer verfügt über die relevanten Informationen? Wer ist am ehesten in der Lage, präzise Informationen zu geben? Wer ist am ehesten bereit, Informationen zu geben? Wer von den Informanten ist verfügbar? (Gordon 1975, S. 196 f.) Es sollte hierbei berücksichtigt werden, dass die interviewten Personen ihr Wissen aus ihrer subjektiven Sicht vermitteln werden und es deshalb durchaus lohnenswert sein kann, zwei Personen zu befragen, die über sich scheinbar deckende Informationen verfügen (Gläser & Laudel 2009, S. 117).

4.3

Praktische Vorbereitungen zur Durchführung des Interviews

Nachdem die theoretische und methodische Herangehensweise für das Forschungsprojekt geklärt worden ist und mit der Konzeption des Leitfadens und der Auswahl der Gesprächspartner auch die konkretere Vorbereitung für die Datenerhebung durch Interviews abgeschlossen ist, stellen sich einige stark praxisorientierte und situationsabhängige Fragen.

32

RADOST Akteursanalyse – Konzept und methodische Grundlagen Mit Hinblick auf die Durchführung des Interviews sollte im Voraus entschieden werden, ob es möglich ist, ein FtF-Interview zu führen oder ob man auf Telefon-, Chat-, oder Mailinterviews zurückgreifen muss. Ebenso muss die Frage gestellt werden, ob ein oder mehrere Interviewer der zu befragenden Person gegenüber sitzen werden. Letztere Entscheidung hängt davon ab, ob die Thematik nach einer vertraulicheren Atmosphäre verlangt oder ob Vorteile der gemeinsamen Interviewführung, wie z.B. die Erhöhung der Glaubwürdigkeit der Ergebnisse und die Möglichkeit einer ausgewogeneren Bewertung, hier stärker greifen. Je nach Gestaltung der Interviewsituation kann eine Anpassung des Fragebogens vonnöten sein. Vor Beginn des Gesprächs sollte, um den bereits erwähnten Datenschutzbestimmungen Folge zu leisten, die Einwilligung des Interviewpartners zur Aufzeichnung des Gesprächs und der Verarbeitung der hierbei gewonnenen Informationen erbeten werden. Hierzu werden nochmals Forschungsinteresse und der konkrete Zweck des Interviews genannt. Auch sollte an dieser Stelle, wenn nicht bereits geschehen, über den Grad der Anonymisierung gesprochen werden, der von der zu interviewenden Person gewünscht wird. Um Unsicherheiten des Interviewpartners diesbezüglich zu verringern, kann ihr anschließend das Interviewtranskript zugänglich gemacht werden, um das Gesagte nochmals kontrollieren zu können. Dies kann nicht nur dazu führen, dass der Interviewpartner eventuell wünscht, bestimmte Aussagen auszublenden, sondern es kann auch zu einem Informationsgewinn insofern führen, als dass eventuell während des Gespräches vergessene Informationen ergänzt werden (Gläser & Laudel 2009, S. 153 f., 170 f., 191).

33

Hirschfeld, Krampe, Winkler (IÖW)

5

Begründung der leitfadengestützten Experteninterviews im Rahmen der RADOST Akteursanalyse

Die sozio-ökonomische Analyse in RADOST befasst sich mit den aufgrund des Klimawandels zu erwartenden Veränderungen in der regionalen Wirtschaftsstruktur und analysiert die möglichen Einkommens- und Beschäftigungseffekte sowie Kosten und Nutzen unterschiedlicher Anpassungsoptionen. Interviews sollen dazu beitragen, diese sozioökonomischen Daten zu ermitteln, von denen dann schließlich sektorale und gesamtwirtschaftliche Basisszenarien über die Folgen des Klimawandels für die regionale Wirtschaft abgeleitet werden. Im Rahmen der RADOST Akteursanalyse stellen Interviews folglich ein wichtiges Instrument der Datenerhebung dar. Auf der Basis der zuvor dargelegten theoretischen Annäherung an Interviews als qualitative Forschungsmethode lässt sich die Entscheidung für den Typus des leitfadengestützten Interviews mit Experten begründen. Angesichts der in der RADOST Akteursanalyse zu ermittelnden Daten bietet sich die Durchführung qualitativer Interviews an. Ziel der Interviews ist es nicht, standardisierte Daten zu erheben und zu vergleichen. Stattdessen soll durch die tiefgehende Analyse von Einzelfällen ein Einblick in die soziale Realität der interviewten Personen gewonnen werden und so ein Verständnis für ihr Handeln erlangt werden. Besonders in Bezug auf die Konzeption möglicher Anpassungsoptionen an den Klimawandel ist es von maßgeblicher Bedeutung, die Ursachen und Wirkungen bestimmter Phänomene nachvollziehen zu können und davon zukünftige Handlungsoptionen ableiten zu können. Im sozio-ökonomischen Modul des RADOST-Projekts stehen eindeutig die Folgen des Klimawandels für den Menschen im Vordergrund; um diesbezüglich nützliche Informationen gewinnen zu können, muss der Mensch auch im Mittelpunkt der Forschungsmethode stehen. Qualitative Interviews erfüllen diesen Anspruch durch eine starke Subjektbezogenheit. In der qualitativen Forschung werden Einzeläußerungen, also in diesem Fall die Interviews mit einzelnen repräsentativen Personen, als Indikator für ein allgemeines Konzept gewertet. Um diese Übertragung rechtfertigen zu können, muss jedoch ein umfassendes Hintergrundwissen in Bezug auf die befragte Person und ihren Kontext vorhanden sein. Aufgrund der regionalwirtschaftlichen Analyse, die ebenfalls im Rahmen des sozio-ökonomischen Moduls von RADOST durchgeführt wird, können die Aussagen der Interviewpartner angemessen eingeordnet werden. Auch die Entscheidung für teilstrukturierte Leitfadeninterviews lässt sich anhand der durch die Interviews zu ermittelnden Informationen begründen. Das Forschungsinteresse besteht hierbei in der Analyse der persönlichen Erfahrungen und Einstellungen der interviewten Person in Bezug auf den Forschungsgegenstand, den Klimawandel und seinen Einfluss auf die sozio-ökonomischen Bedingungen an der deutschen Ostseeküste. Für die Durchführung derartiger Forschungsinteressen sind die Eigenschaften teilstrukturierter Leitfadeninterviews von Vorteil. Durch die thematische Schwerpunktsetzung, die geringe Standardisierung der Interviewstruktur und zumeist offene Fragestellungen ist es möglich, spezifische Erfahrungen der interviewten Person zu erfragen. Durch die teils offene, teils standardisierte Form des Leitfadens kann einerseits auf die Charakteristika jedes einzelnen Interviewpartners eingegangen werden, andererseits ist aber auch eine gewisse Vergleichbarkeit in der Vorgehensweise und dadurch auch der Ergebnisse gegeben. Schließlich muss geklärt werden, warum im Rahmen der RADOST Akteursanalyse Interviews mit Experten durchgeführt werden. Im RADOST-Projekt liegt das

34

RADOST Akteursanalyse – Konzept und methodische Grundlagen Forschungsinteresse nicht in der Analyse biographischer Hintergründe oder sozialen Verhaltens begründet; stattdessen soll der Forschungsgegenstand ‚Klimawandel’ untersucht werden. Um dies zu bewerkstelligen, müssen die Interviewpartner über ein gewisses „Expertenwissen“ auf diesem Handlungsfeld verfügen. Expertenwissen bezieht sich hierbei auf den vertieften Einblick in soziale Kontexte, Prozesse und Phänomene. Ein Experte ist demnach ein Beteiligter, der in gesellschaftliche Entscheidungs- und Gestaltungsprozesse involviert ist (vgl. zum im RADOST-Projekt verwendete erweiterten Expertenbegriff auch Abschnitt 3.2.2). Die Gesprächsführung mit Experten bietet sich weiterhin an, da sie jeweils als Repräsentant einer bestimmten Gruppe und nicht als Einzelfall angesehen werden. Dies ist ein wichtiger Aspekt, da aufgrund der eingeschränkten Zahl von Interviewdurchführungen eine gewisse Repräsentativität gegeben sein muss. Weiterhin orientiert sich die Wahl der Interviewpartner an dem Prinzip einer eng gefassten Gruppe, in der aber trotzdem eine große Varianz an Fällen vertreten ist; Interviews werden mit Akteuren aus allen betroffenen Sektoren geführt: […]

35

Hirschfeld, Krampe, Winkler (IÖW)

6

Auswertung von Experteninterviews mit der qualitativen Inhaltsanalyse

Nachdem im vorigen Abschnitt dargestellt wurde, wie Daten mit Hilfe leitfadengestützter Experteninterviews erhoben werden können, wird nun auf die Auswertung dieser Informationen eingegangen. Um eine Datenanalyse vornehmen zu können, muss jedoch noch ein Schritt zwischengeschaltet werden: die Dokumentation von Daten.

6.1

Datendokumentation und -aufbereitung

Zur Datenaufzeichnung, Aufbereitung von Beobachtungen und Protokollierung der gesammelten Informationen gibt es zahlreiche Methoden, die jeweils abhängig von der Art der Daten zu wählen sind. Durch diese Arbeitsschritte entsteht schließlich eine Textform, die der eigentlichen Analyse zugrunde liegt. In Bezug auf die Auswertung von Face-to-faceInterviews stellt die Datenaufzeichnung kein Problem dar; mittels Tonaufzeichnungen während der Gespräche werden die vermittelten Informationen unverfälscht aufgezeichnet und können naturgetreu wiedergegeben werden. Nicht nur der Inhalt des Gesagten wird eins zu eins gespeichert, auch Betonung, Sprechrhythmus und eventuell das Interview beeinflussende Hintergrundgeräusche werden eingefangen. Um ausgewertet werden zu können, müssen diese Informationen, obwohl bereits abgespeichert, noch einen weiteren Schritt zur Aufbereitung, nämlich den der Verschriftung, durchlaufen. 6.1.1 Transkription von Interviews

Die Umwandlung verbal erworbenen Materials in eine schriftliche Fassung nennt sich Transkription. Das hierbei entstehende Wortprotokoll kann sich unterschiedlich eng an der gesprochenen Sprache und dabei an verschiedenen Transkriptionsregeln orientieren. Zwar ist es durchaus möglich, Sprachfeinheiten wie Dialekte, Pausen und Betonungen z.B. durch Rückgriff auf das Internationale Phonetische Alphabet differenziert wiederzugeben, jedoch sind im Rahmen sozialwissenschaftlicher Fragestellungen derartige Genauigkeiten oft nicht relevant. Unter Umständen kann die detaillierte Darstellung von Sprach- und Dialektfärbungen sogar nachteilig sein, da sie extrem zeitaufwändig ist und durch Satzbaufehler und Dialekte zur Unübersichtlichkeit des Dokuments beiträgt. Um den Text so zugänglich wie möglich zu machen, wird mehrheitlich auf die Transkription in normales Schriftdeutsch zurückgegriffen, wobei, unter anderem, grammatikalische Fehler nicht übernommen werden, unvollendete Sätze, wenn machbar, zusammengefügt und Dialekte entfernt werden. Besonders im Fall von Experteninterviews sollten die inhaltlichen Informationen des Gesagten durch möglichst gute Lesbarkeit des Dokumentes in den Vordergrund gestellt werden. Neben der schriftlichen Übertragung und der Anpassung der gesprochenen Sprache durch gemäß dem Forschungsinteresse sinnvolle Transkriptionsregeln ist, wenn verlangt, die Anonymisierung ein wichtiger Bestandteil der Transkription (Mayring 2002, S. 89 ff.; Flick 2010, S. 371 f., 379 f.).

6.2

Die qualitative Inhaltsanalyse als Auswertungsverfahren

Die qualitative Inhaltsanalyse dient der Analyse unterschiedlichster Formen von Textmaterial. Im Gegensatz zur quantitativen Vorgehensweise beschränkt sie sich nicht auf die Zählung von Textelementen und deren Bewertung durch die Zuordnung zu von theoretischen Modellen abgeleiteten Kategorien, sondern kombiniert dieses systematische

36

RADOST Akteursanalyse – Konzept und methodische Grundlagen und theoriegeleitete Vorgehen mit dem qualitativen Prinzip des Verstehens. Das bedeutet, dass der Anspruch erhoben wird, den Kontext der Textelemente sowie eventuelle implizite oder nicht gemachte Aussagen in die Analyse einzubeziehen und einzelfallartigen Besonderheiten Rechnung zu tragen. Im Folgenden wird das Verfahren der qualitativen Inhaltsanalyse nach Mayring (2002, 2003) vorgestellt, welches darauf abzielt, die Stärken der quantitativen und qualitativen Vorgehensweise zu kombinieren und dazu ein Analyseablaufmodell mitsamt verschiedenen Techniken vorgibt. Als vorteilhaft an der qualitativen Inhaltsanalyse nach Mayring ist zu nennen, dass aufgrund ihrer systematischen, regelgeleiteten Vorgehensweise eine übersichtliche und nachvollziehbare Bearbeitung und Reduktion auch von großen Mengen Text zu bewerkstelligen ist. Durch das schematisierte Vorgehen ist es möglich, ein einheitliches Kategorienschema auf eine Mehrzahl von Fällen anzuwenden und diese zu vergleichen. Aufgrund dessen bietet sich die qualitative Inhaltsanalyse besonders für die Bearbeitung von Leitfaden-Interviews an, da hier verschiedene subjektive Aussagen generiert werden, die jedoch nicht ausschließlich fallbezogen ausgewertet, sondern aufeinander bezogen werden (Mayring 2003, S. 12, 42; Mayring 2002, S. 114; Flick 2010, S. 409, 416; Gläser & Laudel 2009, S. 197 f.). 6.2.1 Integration quantitativer und qualitativer Verfahrensweisen

Auf die Kombination quantitativer und qualitativer Ansätze legt Mayring (2003) in seinem Ansatz einen besonderen Schwerpunkt und verdeutlicht den Anspruch, eine systematische Technik zu nutzen und dabei die oft damit einhergehende Komplexitätsreduktion zu umgehen, anhand der folgenden Punkte. Zuerst wird betont, dass der zu analysierende Text immer mit Bezug auf seinen Kontext untersucht wird, d.h., dass die Entstehung des Textes ebenso wie die von ihm ausgehenden Wirkungen in die Interpretation mit einbezogen werden. Dann soll das systematische, d.h. an vorab festgelegten Regeln orientierte Vorgehen der quantitativen Inhaltsanalyse bewahrt werden, welches im Gegensatz zur freien Interpretation steht. Hierzu ist ein konkretes Ablaufmodell der Analyse zu erstellen, welches einzelne Analyseschritte mit zugehöriger Reihenfolge festlegt und diese zudem theoretisch begründet. Wichtig ist hierbei zu beachten, dass es kein standardisiertes Ablaufmodell gibt, da dieses jeweilig an Forschungsfrage und -gegenstand angepasst sein muss. Von der quantitativen Inhaltsanalyse soll weiterhin das Kategoriensystem übernommen werden, welches zu erhöhter Vergleichbarkeit der Ergebnisse führt und diese für Außenstehende nachvollziehbarer gestaltet. Kategorien dienen dazu, die Orientierung während des Forschungsprozesses durch eine Konkretisierung der Analyseziele zu vereinfachen und werden so zum wichtigsten Instrument der gesamten Analyse. Gleichzeitig soll jedoch einer Technisierung des Analyseverfahrens vorgebeugt werden. Wie bereits in Zusammenhang mit dem analytischen Ablaufmodell angemerkt, muss das Vorgehen bei der qualitativen Inhaltsanalyse gegenstandsbezogen sein und dadurch an jedes Forschungsprojekt einzeln angepasst werden. Aufgrund dieser ständigen Modifizierung der Verfahrensweise und auch der Kategoriensysteme sollten Probedurchläufe vorgesehen sein. Die bisherige Darlegung macht deutlich, dass es sich bei der qualitativen Inhaltsanalyse um keine feststehende Technik handelt; anstatt einen Schwerpunkt auf das Verfahren zu legen, misst sie der Theoriegeleitetheit wesentlich mehr Bedeutung zu. Das bedeutet, dass anstelle standardisierter Vorgehensweisen theoretische Argumente die Entscheidung für bestimmte Verfahrensschritte rechtfertigen müssen. Der Anspruch, quantitative und qualitative Verfahrensweisen in der qualitativen Inhaltsanalyse zu kombinieren, wird vor allem in der Integration eindeutig quantitativer Schritte in den Analyseprozess deutlich. Diese können z.B. zur Verallgemeinerung oder statistischen Auswertung von Ergebnissen genutzt werden. Die Bedeutung der quantitativ generierten Ergebnisse wird dann wiederum qualitativ begründet.

37

Hirschfeld, Krampe, Winkler (IÖW) Dieses integrierte Methodenverständnis spiegelt sich besonders in Computerprogrammen zur Unterstützung qualitativer Analyse wider, auf die noch eingegangen wird. Als letzten Punkt bezüglich der Kombination quantitativer und qualitativer Ansätze geht Mayring (2003) auf die Bewertung der Ergebnisse qualitativer Inhaltsanalysen ein. Ebenso wie bei der quantitativen Inhaltsanalyse ist es von großer Bedeutung, dass verschiedene Analytiker dieselben Resultate erlangen. Hierbei sind bei der qualitativen Inhaltsanalyse jedoch andere Standards anzulegen; so bedeuten sich nicht deckende Ergebnisse nicht die Ungültigkeit der Studie, sondern müssen ebenfalls interpretiert und verstanden werden (Mayring 2003, S. 4246). 6.2.2 Der Ablauf qualitativer Inhaltsanalysen

Der erste Arbeitsschritt einer qualitativen Inhaltsanalyse besteht in der Festlegung des Textmaterials, welches ausgewertet werden soll. In Bezug auf die Auswertung qualitativ geführter Interviews müssen also die für die Forschungsfragen interessanten Interviews oder die hieraus relevanten Passagen ausgewählt werden. Hierbei ist wichtig, dass die Entstehungssituation des Materials, wie z.B. beteiligte Personen und Handlungshintergrund des Verfassers, ebenso wie formale Charakteristika des Materials, also Erhebungs- und Aufbereitungsmethoden, festgehalten werden. Im nächsten Schritt sollte endgültig die Fragestellung der Analyse bestimmt werden, damit bei der Auswertung des Textmaterials klar ist, auf welchen Bereichen der Fokus liegen muss und auf welche Art von Ergebnissen abgezielt wird. Diese Fragestellung wird dann, um dem Anspruch der Theoriegeleitetheit der qualitativen Inhaltsanalyse Folge zu leisten, theoretisch begründet. Das bedeutet für Mayring konkret, dass die Fragestellung an den Forschungsstand auf dem betroffenen Themengebiet anknüpft und in Unterfragestellungen differenziert wird. Nach diesem Schritt stellt sich die Frage nach der passenden Analysetechnik. Hier unterscheidet Mayring zwischen drei Grundformen qualitativer Inhaltsanalyse: Zusammenfassung, Explikation und Strukturierung. Mit Hinblick auf die Forschungsabsichten des RADOST-Projekts sind erstere und letztere der Techniken von Interesse; auf sie wird deswegen im folgenden Unterkapitel weiter eingegangen. Nach der Wahl einer Technik schließt sich die Festlegung der Analyseeinheiten an, deren Definition besonders für quantitative Analyseschritte eine Rolle spielt. Zudem führt deren Definierung zu einer erhöhten Nachvollziehbarkeit und Präzision der Inhaltsanalyse. Mayring unterscheidet die Analyseeinheiten zunächst anhand ihrer Größe: Während die Kodiereinheit den kleinsten Bestandteil des Textes, der ausgewertet werden kann, festlegt, bestimmt die Kontexteinheit den größten Textbestandteil, der unter eine Kategorie fallen darf. Auf die Entwicklung des Kategoriensystems wird im Zusammenhang mit den Analysetechniken näher eingegangen, da es je nach Technik verschiedene Formen der Kategoriegenerierung gibt. Die Auswertungseinheit als schließlich dritte Analyseeinheit gibt vor, in welcher Reihenfolge die Textteile auszuwerten sind. Erst in den letzten Schritten des Ablaufs einer qualitativen Inhaltsanalyse findet die eigentliche Analyse mitsamt einer Interpretation in Bezug auf die Fragestellung und einer Prüfung an inhaltsanalytischen Gütekriterien statt (Mayring 2003, S. 46-53; Mayring 2002, S. 115; Flick 2010, S. 409 ff.). 6.2.3 Kategoriendefinition und Analysetechniken

Wie bereits kurz angerissen, findet die Definition von Kategorien, also Auswertungsgesichtspunkten, im Rahmen der verschiedenen Vorgehensweisen der Analysetechniken statt. Man unterscheidet generell zwischen deduktiver und induktiver Kategorienbildung. Bei einer deduktiven Entwicklungsweise werden die Kategorien durch Rückgriff auf Theorien, Konzepte, Voruntersuchungen, etc. für eine Anwendung auf das

38

RADOST Akteursanalyse – Konzept und methodische Grundlagen entsprechende Material konzipiert. Hingegen werden bei einer induktiven Kategoriendefinition die Kategorien in einem Verallgemeinerungsprozess direkt vom Textmaterial abgeleitet, ohne dass hierbei ein theoretischer Bezug notwendig ist. Trotzdem ist auch die induktive Vorgehensweise nicht völlig theoriegelöst: Vor Beginn der Kategorienfindung muss festgelegt werden, nach welchen Kriterien selektiert wird und auf welchem Abstraktionsniveau die Kategorien angesiedelt sein sollen. Das Selektionskriterium stellt hierbei ein deduktives Element dar und benötigt damit eine theoretische Begründung. Mit den Eingrenzungen zur Kategorienbildung im Hinterkopf wird der Text dann auf Passagen durchsucht, die dem zuvor grob abgesteckten Schema entsprechen, um dann aus diesen eine Kategorie zu formen. Die Bezeichnung der Kategorie kann von einem Begriff oder Satz abgeleitet werden, der einen engen Bezug zum jeweiligen Inhalt der Kategorie aufweist. Werden im Verlauf des Textes weitere Textstellen mit ähnlichen Inhalten oder Aussagen gefunden, werden sie der Kategorie subsumiert; werden Stellen gefunden, die der Kategoriendefinition, aber noch keiner Kategorie entsprechen, wird eine neue Kategorie induktiv gebildet. Wenn sich keine neu dazukommenden Kategorien mehr finden lassen, also nachdem ungefähr 10 bis 50% des Gesamtmaterials auf Kategorien hin durchgearbeitet worden sind, sollte eine Zwischenevaluierung eingeschoben werden. Hier wird geprüft, ob die allgemeine Kategoriendefinition, also das Selektionskriterium sowie der Abstraktionsgrad, passend gewählt worden ist und sich hierdurch für die Forschungsfrage zuträgliche, sich nicht überschneidende Kategorien ableiten lassen. Die Herangehensweise, Kategorien induktiv zu formulieren, findet sich ebenfalls in dem Auswertungsverfahren der gegenstandsbezogenen Theoriebildung oder Grounded Theory wieder. Hier wird dieser Prozess als „offenes Kodieren“ bezeichnet und erfolgt bereits während des Datenerhebungsprozesses, so dass Erhebung und Auswertung der Daten ineinander übergehen. Im Gegensatz hierzu kann das induktive Verfahren der qualitativen Inhaltsanalyse aufgrund des vorgegebenen Prozessmodells als systematischer bezeichnet werden (Mayring 2003, S. 74 ff.; Mayring 2002, S. 103 f., 115 ff.). Nun werden kurz die zwei für das RADOST-Projekt relevanten Analysetechniken vorgestellt. Die inhaltsanalytische Zusammenfassung zielt darauf ab, das Textmaterial durch Abstraktion und Paraphrasierung auf seine wesentlichen Inhalte zu reduzieren. Mayring empfiehlt, die Reduktion in zwei Schritten vorzunehmen: Im Rahmen einer ersten Reduktion werden irrelevante und sich wiederholende Textelemente entfernt, so dass dann in einer zweiten Reduktion die wichtigsten Passagen zusammengefasst werden können. Die Zusammenfassungen ergeben dann die einzelnen Kodiereinheiten; sie beschreiben den Inhalt durch verallgemeinerte Paraphrasen. Hier muss im Nachhinein überprüft werden, ob diese Kodiereinheiten tatsächlich für sich stehen oder über einen Bezug mit anderen Einheiten zu einer neuen Aussage zusammengefasst werden können. Dieses Vorgehen erinnert stark an die Formulierung von Kategorien nach der induktiven Kategorienbildung und tatsächlich lässt sich der systematische Grundriss der zusammenfassenden qualitativen Inhaltsanalyse gut für die induktive Kategorienbildung anwenden. Die strukturierende Inhaltsanalyse wird von Mayring (2003) als zentralste inhaltsanalytische Technik beschrieben. Strukturierende Inhaltsanalysen dienen allgemein der Filterung bestimmter Informationen aus dem Textmaterial und der Strukturierung dieses Materials, z.B. durch formale oder inhaltliche Aspekte. Diese Strukturierung erfolgt, im Gegensatz zur zusammenfassenden Inhaltsanalyse, durch das Zuordnen von Textstellen zu Kategorien, die bereits auf das Material hin entwickelt worden sind. Somit handelt es sich bei dieser Technik um eine deduktive Kategorienbildung. Allgemein lässt sich die Vorgehensweise der Strukturierung in drei Schritten zusammenfassen. Zuerst findet eine genaue Definition der Kategorien statt, so dass die verschiedenen Textelemente eindeutig den jeweiligen

39

Hirschfeld, Krampe, Winkler (IÖW) Kategorien zuzuordnen sind. Um die Zuordnung zu veranschaulichen, werden konkrete Textpassagen als sogenannte Ankerbeispiele für die bestehenden Kategorien ausgewählt. Schließlich wird an den Stellen, wo sich die Abgrenzung zwischen einzelnen Kategorien als uneindeutig erweist, nachgebessert, indem hier zuordnende Kodierregeln aufgestellt werden. Mittels dieser klar definierten Kategorien wird dann das Textmaterial jeweils zugeordnet und dadurch strukturiert. Nach einem Probedurchlauf kann durchaus eine Neujustierung der Kategoriesysteme angebracht sein, so dass mehrere Durchläufe nötig sind, bis eine endgültige Extraktion der den Kategorien zugeordneten Fundstellen im Text möglich ist (Mayring 2003, S. 59 ff., 74; 82 ff.; Mayring 2002, S. 115, 118; Flick 2010, S. 410, 415 f.). Das bis zu dieser Stelle beschriebene Modell der strukturierenden Analyse ist noch sehr allgemein gehalten; um konkretere Ziele zu verfolgen, unterscheidet Mayring (2003) zwischen formaler, inhaltlicher, typisierender und skalierender Technik der Strukturierung. Zur Auswertung von für das RADOST-Projekt interessanten Informationen bietet sich jedoch die Technik mit der geringsten Spezialisierung an, die inhaltliche Strukturierung. Diese zielt auf die Extraktion und Zusammenfassung bestimmter Inhalte aus dem Textmaterial ab und geht weitgehend identisch vor wie das zuvor beschriebene allgemeine Modell der strukturierenden Inhaltsanalyse. Die Definition der herauszufilternden Inhalte erfolgt durch die im vorigen Abschnitt erläuterte theoriegeleitete Kategorienfindung. Hier kann es von Vorteil sein, das Kategoriensystem noch einmal in Haupt- und Unterkategorien zu unterscheiden. Mittels dieser Kategorien wird das Textmaterial dann auf zutreffende Stellen durcharbeitet, welche dann extrahiert und paraphrasiert zuerst den Unter- und in einem nächsten Schritt weiterer Bündelung den Hauptkategorien zugeordnet wird (Mayring 2003, S. 85, 89). 6.2.4 Abschließende Auswertung

Am Ende einer qualitativen Inhaltsanalyse steht generell folgendes Resultat: Das Textmaterial wurde gemäß dem zuvor konzipierten Kategoriensystem bearbeitet, so dass schließlich bestimmte Textpassagen herausgefiltert und unterschiedlichen Kategorien zugeordnet worden sind. Mayring (2002) schlägt als daran anschließenden Schritt zwei unterschiedliche Auswertungsmöglichkeiten vor. Zum einen kann qualitativ vorgegangen werden und das vorliegende Kategoriensystem mit Blick auf die Forschungsfrage und die dieser zugrundeliegenden Theorie interpretiert werden. Will man ein quantitatives Ergebnis generieren, kann z.B. untersucht werden, welchen Kategorien die meisten oder längsten Textstellen zugeordnet worden sind. Im Sinne der Auffassung von Mayring, dass qualitative und quantitative Analysetechniken sich nicht gegenseitig ausschließen, sind beide Auswertungsmöglichkeiten kombinierbar (Mayring 2002, S. 117).

6.3

Die computergestützte Analyse qualitativer Interviews

Aufgrund ihres systematischen Vorgehens eignet sich die qualitative Inhaltsanalyse nach Mayring gut für eine computergestützte Umsetzung. Wichtig ist hierbei zu betonen, dass Programme, die eigens für die Analyse qualitativer Daten entwickelt wurden, sogenannte Qualitative Daten Analyse-Software (QDA-Software), die qualitativen Analysen nicht eigenständig durchführen oder automatisieren, sondern als Hilfestellung bei der Textverarbeitung zu betrachten sind. Die Anwendungsmöglichkeiten von QDA-Software sind vielfältig; unter anderem zählen hierzu die Zuordnung von Kategorien zu den jeweiligen Textabschnitten und ihre visuelle Darstellung z.B. in Hierarchien oder Netzwerken, das gleichzeitige Verwalten mehrerer Textmaterialien, die Kommentierung bestimmter Arbeitsschritte durch Memos und die Präsentation ausgewählter Daten in einem

40

RADOST Akteursanalyse – Konzept und methodische Grundlagen übersichtlichen Format. Automatisieren lassen sich Schritte wie die automatische Zuordnung von Textstellen zu Kodierung aufgrund definierter Schlüsselbegriffe. Auch Techniken der quantitativen Inhaltsanalyse, die für die letztendliche Auswertung hilfreich sein können, können durch QDA-Software integriert werden; so lassen sich hiermit Worthäufigkeitslisten erstellen und Ergebnistabellen von Statistiksoftware einfügen. In Bezug auf die im Rahmen des RADOST-Projekts zu erstellenden Akteursnetzwerkdiagramme hilft die QDA-Software bei der Bewertung der Akteursbeziehungen sowie ihrer Position. So ist es möglich, bei der Zuordnung von Kategorien zu bestimmten Textpassagen eine Gewichtung in Form einer Zahl beizufügen, anhand derer bei der Auswertung die jeweiligen Ausschnitte gefiltert bzw. sortiert werden können und so eine quantitative Auswertung der Ergebnisse vereinfacht wird. Schließlich vereinfacht die computergestützte Analyse Teamarbeit, indem mehrere Personen Zugriff auf dieselben Dokumente haben, Änderungen vornehmen und als solche kennzeichnen sowie erläuternde Kommentare hinzufügen können. Diese verlängerbare Liste an Verwendungsweisen von QDA-Software ist besonders hilfreich in Hinblick auf die Analyse großer Datensätze, da insgesamt die Verwaltung des Textmaterials, die Verbindung von Kodierungen und Textstellen sowie die Darstellung der Daten leichter zu Handhaben ist (Mayring 2003, S. 100; Kuckartz 2010, S. 12 f.; Flick 2010, S. 452-456). Unbedingt zu betonen ist, dass es sich bei QDA-Software ausschließlich um ein Werkzeug handelt, nicht aber um eine eigenständige Methode. Somit kann sie nicht zur Begründung von Vorgehensweisen bei der Analyse qualitativer Daten herangezogen werden. Genauso wenig gibt QDA-Software eine bestimmte Auswertungsmethode vor; sie hat lediglich Einfluss auf den Arbeitsstil, der im Rahmen der gewählten Methode angewandt wird. Ebenso offen wie auf die Methodik sind computergestützte Analyseprogramme mit Hinblick auf ihre Anwendungsfelder. Diese erstrecken sich über die gesamten sozialwissenschaftlichen Disziplinen und auf alle möglichen Datenmaterialien. Einzige Bedingung in Bezug auf letzteres ist, dass die Daten als Textform zu digitalisieren sind (Kuckartz 2010, S. 13-17; Flick 2010, S. 470 f.). Obwohl QDA-Software für Methodenpluralität steht, bieten sich bei ihrer Nutzung vor allem methodische Ansätze an, die mit Kategorien und Kodierungen arbeiten, wie es bei der qualitativen Inhaltsanalyse oder auch der Grounded Theory der Fall ist, da die Handhabung und Darstellung der Kategorien und Kodierungen durch die Software um einiges erleichtert wird. Im Fall des RADOST-Projekts wird die MAXQDA-Software verwendet, die eine Weiterentwicklung des von Kuckartz konzipierten Programms winMAX ist und die in Bezug auf Kategorien vielfältige Vorgehensweise zulässt. Die importierten Texte lassen sich in hierarchischen Kategoriensystemen mit bis zu zehn Ebenen darstellen, die Beziehungen der Kategorien untereinander und deren jeweilige Relevanz lassen sich visualisieren. Die Gewichtung der Relevanz kann auch bei der Auswertung berücksichtigt werden. Weiterhin ist es möglich, Variablen in Statistikprogramme zu exportieren und hier graphisch darzustellen. In Bezug auf die Umsetzung der qualitativen Inhaltsanalyse durch die QDASoftware sind eine Reihe an Anwendungsmöglichkeiten zu nennen, die mitunter zu einer Vereinfachung der Durchführung der Analyse führen und den methodischen Charakteristika der qualitativen Inhaltsanalyse gerecht werden. Die Paraphrasen, die als Kodierungsbezeichnungen dienen, lassen sich übersichtlich neben den entsprechenden Textstellen anordnen, aber auch separat als Kategoriensystem gruppieren, was zu einem guten Überblick verhilft. Von dieser separaten Darstellungsweise gelangt man durch einen Klick auf die Kategorienbezeichnungen direkt wieder zu der entsprechenden Textstelle. Die Formulierung von Memos kann den Arbeitsprozess unterstützen, z.B. bei der Notierung von Informationen über das Textmaterial und Ankerbeispielen zu Kategorien. Sollte im Team an der Auswertung der Daten gearbeitet werden, wird angezeigt, wer welche Memos

41

Hirschfeld, Krampe, Winkler (IÖW) geschrieben und welche Kategorien formuliert hat, wodurch die Transparenz der Bearbeitung erhöht wird (Kuckartz 2010, S. 72, 92, 96 f.; Flick 2010, S. 464 f.). Aufgrund des technischen Fortschrittes von QDA-Software in den letzten Jahren und ihrer damit einhergehenden verstärkten Nutzung hat sich auch die Diskussion um die Vor- und Nachteile von computergestützten Analysen ausgeweitet. Als positiv wird hierbei mitunter angeführt, dass durch das systematische und konsistente Vorgehen von QDA-Software eine Steigerung der Transparenz und damit der internen Validität des Forschungsprozesses erreicht wird. Ebenfalls von Vorteil ist die Verbesserung von Teamarbeit durch die bessere Nachvollziehbarkeit und Überprüfbarkeit der Arbeitsschritte von Teammitgliedern. Kritisiert wird dagegen, dass die systematische Vorgehensweise von Computerprogrammen zu einer zu starken Schematisierung und damit zu einer Verdrängung der subjektivistischen und kreativen Charaktereigenschaften der qualitativen Forschung führen kann. Auch wird als negativ gesehen, dass mit einer ausgeweiteten Nutzung von QDA-Software den segmentierenden Instrumenten Kategorien und Kodes eine zu gewichtige Rolle zugeschrieben wird. Befürchtet wird, dass die Analyse gegenüber dem Kategorisieren in den Hintergrund tritt und der Gegenstandsbezug der qualitativen Forschung verloren geht (Kuckartz 2010, S. 247 ff.).

42

RADOST Akteursanalyse – Konzept und methodische Grundlagen

7

Der RADOST Interviewleitfaden

Mit dem RADOST Interviewleitfaden sollen die Wahrnehmung der eigenen Region, die wirtschaftlichen Nutzungsinteressen, die institutionellen Zuständigkeiten, die Vernetzung der Akteure sowie Konflikte und Allianzen untereinander, die Erwartungen hinsichtlich der Auswirkungen des Klimawandels und das Interesse an der Beeinflussung oder Mitgestaltung einer regionalen Anpassungsstrategie an den Klimawandel erfragt werden. Der Leitfaden ist für Interviews von 20 bis 40 Minuten Länge konzipiert und in folgende Frageblöcke gegliedert:

      

Wahrnehmung der Küstenregion Eigene Interessen und Ansprüche an die Küstenregion Rolle des interviewten Akteurs in der Küstenregion Wahrnehmung des Klimawandels Klima-Anpassungsmaßnahmen und eigene Interessen Akteursnetzwerke: Konflikte und Kooperationen Partizipation

Die Fragen sollen im Interview flexibel eingesetzt werden. Es wird davon ausgegangen, dass die verschiedenen Interviewpartner sehr unterschiedliche Kenntnisstände hinsichtlich des Klimawandels und teilweise auch nur ein begrenztes Interesse haben, Optionen von Anpassung an den Klimawandel zu diskutieren. Das kann in der konkreten Interviewsituation dazu führen, dass einzelne Frageblöcke gerafft, andere dagegen detaillierter besprochen werden können und sollten. Es ist jedoch vorgesehen, dass in jedem Fall Fragen aus allen Frageblöcken gestellt werden sollen. Hier der vollständige Interviewleitfaden, wie er von den Interviewteams von IÖW und Ecologic eingesetzt wurde (vgl. zum Kreis der Befragten und zur Auswertung der durchgeführten Interviews die RADOST Arbeitspapiere zur Akteursanalyse Teil 2 und 3, download unter: www.klimzug-radost.de/publikationen/schriftenreihe):

43

Hirschfeld, Krampe, Winkler (IÖW)

Einleitung InterviewerIn legt Ziel und Hintergrund des Gesprächs offen: RADOST-Projekt, Klimawandel (ohne Details), regionale Anpassungsstrategien, Funktion der Interviews, Einholen des Einverständnisses für die Audioaufzeichnung.

Wahrnehmung der Küstenregion  Was verbinden Sie mit der Region Ostseeküste? Wie würden Sie die Küstenregion beschreiben?  Welche Aspekte sind Ihnen an der Küstenregion besonders wichtig? Und warum?

Eigene Interessen und Ansprüche an die Küstenregion  Wie nutzen Sie die Küstenregion?  Wie würden Sie ihre eigenen Interessen in der Küstenregion beschreiben?  Welche Ansprüche haben Sie an das Landschaftsbild?  Welche Ansprüche haben Sie an die Qualität von Grundwasser, Oberflächen- und Küstengewässer?  Welche Ansprüche haben Sie an die Infrastruktur?  Auf welche Merkmale der Küstenregion sind Sie angewiesen?  Wie sollte sich aus Ihrer Sicht die Küstenregion zukünftig entwickeln? Welche zentralen Ziele sollten langfristig (bis zum Jahr 2050) erreicht werden?

Rolle des interviewten Akteurs in der Küstenregion  In welchem Feld ist die Organisation / Institution, die Sie vertreten tätig? Was ist Ihre persönliche Aufgabe?  Nur für Behördenvertreter/innen: Welche Kompetenz hat die Organisation / Institution, die Sie vertreten?

Wahrnehmung des Klimawandels  Wie wird sich aus Ihrer Sicht der Klimawandel auf Ihre Küstenregion auswirken?  In welchen Bereichen sehen Sie möglicherweise positive Effekte?  In welchen Bereichen können aus Ihrer Sicht Probleme entstehen? Welche Konsequenzen könnte das für Ihre Aktivitäten in der Küstenregion haben?

44

RADOST Akteursanalyse – Konzept und methodische Grundlagen  Auf welchem Wege haben Sie von möglichen Auswirkungen des Klimawandels auf Ihre Region erfahren? Welche Informationsquellen nutzen Sie, um etwas darüber zu erfahren?

Klima-Anpassungsmaßnahmen und eigene Interessen  Sind Ihnen bereits ergriffene Maßnahmen zur Anpassung an den Klimawandel in der Küstenregion bekannt? Wenn ja, welche?  Gibt es bereits ergriffene Klima-Anpassungsmaßnahmen, die für Sie zu einer Einschränkung Ihrer Wirtschaftsweise / Ihres Freizeitverhaltens / Ihrer Gewinnmöglichkeiten geführt haben? Welche Maßnahmen haben diese verbessert?  Wie ist ihre Position zu bereits bestehenden Maßnahmen des Küstenschutzes?  Wie stehen Sie zu Maßnahmen des Gewässerschutzes?  Welche zukünftigen diesbezüglich? Erwartungen, Befürchtungen oder Hoffnungen haben sie

 Welche Anpassungsmaßnahmen könnten in Zukunft absehbar zu Konflikten mit Ihren Interessen führen?  Welche Erwartungen haben Sie an andere Akteure bzw. Akteursgruppen?

Akteursnetzwerke: Konflikte und Kooperationen  Welches sind aus Ihrer Sicht die zentralen Akteure in der Küstenregion?  Mit welchen Akteuren arbeiten Sie am häufigsten zusammen? Warum?  Mit wem würden Sie gerne mehr zusammenarbeiten? Warum tun Sie es bisher nicht?  Welche Funktionen und Interessen ordnen Sie den genannten Akteuren zu?  Wo sehen Sie gegenwärtig die zentralen Konfliktlinien zwischen Akteuren in der Küstenregion? Worum geht es bei diesen Konflikten?  Welche Akteure ziehen gegenwärtig an einem Strang? Zu welchen Themen?  Zwischen welchen Akteuren sind im Rahmen der Anpassung an den Klimawandel zukünftig Konflikte zu erwarten?  Wo sehen Sie in Zukunft Potenziale zur Zusammenarbeit?

Partizipation  Welche Informationen über die Effekte des Klimawandels und mögliche Anpassungsmaßnahmen bräuchten Sie / hätten Sie gerne? Auf welchem Wege?  Wären Sie daran interessiert, sich an der Erarbeitung einer regionalen Anpassungsstrategie an den Klimawandel zu beteiligen? Wie sollte eine solche Beteiligung gegebenenfalls aussehen?

45

Hirschfeld, Krampe, Winkler (IÖW)  Wie sollte die Informationsbereitstellung am besten stattfinden? Beispielsweise öffentliche Informationsveranstaltungen, Bereitstellung eines internetgestützten Informationssystems (z.B. abrufbare Internetseiten), regionale Presse?  Würden Sie gerne einen Newsletter / regelmäßige Informationen per Email erhalten? oder gegebenenfalls lieber per Post?  Möchten Sie über die weitere Arbeit des RADOST-Projektes informiert werden –z.B. über den RADOST-Newsletter?

Dank und Hinweise zur weiteren Arbeit des Projektes, Verarbeitung der Informationen aus den Interviews, Veranstaltungen, Informationsmöglichkeiten.

46

RADOST Akteursanalyse – Konzept und methodische Grundlagen

8

Literaturverzeichnis

Ackermann F., Eden C., Cropper S. (1992): Getting started with cognitive mapping. Tutorial Paper at the 7th Young OR Conference, University of Warwick, 13th-15th April 1992, http://www.banxia.com/dexplore/how-to-make-cognitive-maps.html (08.03.2011). Ackermann F., Eden C. (2010): Strategic Options Development and Analysis. In M. Reynolds, S. Holwell (Hrsg.): Systems approaches to managing change: a practical guide, London. Baumgarten B., Lahusen C. (2006): Politiknetzwerke – Vorteile und Grundzüge einer qualitativen Analysestrategie. In B. Hollstein, Florian S. (Hrsg.): Qualitative Netzwerkanalyse. Konzepte, Methoden, Anwendungen, Wiesbaden, S. 177-197. Blum S., Schubert K. (2009): Politikfeldanalyse, Wiesbaden. Bots P.W.G. (2007): Analysis of multi-actor policy contexts using perception graphs. In T.Y. Lin (Hrsg.): Proceedings of the International Conference on Intelligent Agent Technologies (IAT'07), Los Alamitos. Bots P.W.G., van Twist M.J.W., van Duin R. (1999): Designing a Power Tool for Policy Analysts: Dynamic Actor Network Analysis. In J.F. Nunamaker, R.H. Sprague (Hrsg.): Proceedings of the 32nd Hawaii International Conference on System Sciences, Los Alamitos. Bots P.W.G., van Twist M.J.W., van Duin J.H.R. (2000): Automatic pattern detection in stakeholder networks. In J.F. Nunamaker, R.H. Sprague (Hrsg.): Proceedings of the 33nd Hawaii International Conference on System Sciences), Los Alamitos. Brugha R., Varvasovszky Z. (2000): Stakeholder analysis: a review. In Health Policy and Planning 15 (3), S. 239-246. Crona B., Bodin Ö. (2006): What you know is who you know? Communication patterns among resource users as a prerequisite for co-management. In Ecology and Society 11 (2), S. 7. Dehnhardt A., Hirschfeld J., Petschow, U. et al. (2006): Sozioökonomie. Ergebnisse der Fallstudie Werra. In J. Dietrich, A. Schumann (Hrsg.): Werkzeuge für das integrierte Flussgebietsmanagement. Ergebnisse der Fallstudie Werra, Berlin. Eden C. (2004): Analyzing cognitive maps to help structure issues or problems. In European Journal of Operational Research 159, S. 673-686. Fischer F., Forester J. (1993): The argumentative turn in policy analysis and planning, London. Flick U. (2010): Qualitative Sozialforschung – Eine Einführung, Hamburg. Franke K., Wald A. (2006): Möglichkeiten der Triangulation quantitativer und qualitativer Methoden in der Netzwerkanalyse. In B. Hollstein, F. Straus (Hrsg.): Qualitative Netzwerkanalyse. Konzepte, Methoden, Anwendungen, Wiesbaden, S. 153-175. Freemann R.E. (1984): Strategic management – a stakeholder approach, Marshfield. Gläser J., Laudel G. (2009): Experteninterviews und qualitative Inhaltsanalyse, Wiesbaden. Gordon R. L. (1975): Interviewing. Strategies, techniques and tactics, Illinois.

47

Hirschfeld, Krampe, Winkler (IÖW)

GTZ [Deutsche Gesellschaft für Technische Zusammenarbeit] (2006): Instrumente zur AkteursAnalyse – 10 Bausteine für die partizipative Gestaltung von Kooperationssystemen. Sektorvorhaben Mainstreaming Participation, www.gtz.de/de/dokumente/de-SVMP-Instrumente-Akteursanalyse.pdf (08.03.2011). Haythornthewaite C. (1996): Social Network Analysis: An Approach and Technique for the Study of Information Exchange. In Library & Information Science Research 18 (4), S. 323-342. Helfferich C. (2004): Die Qualität qualitativer Daten – Manual für die Durchführung qualitativer Interviews, Wiesbaden. Hermans L.M. (2004): Dynamic actor network analysis for diffuse pollution in the province of NorthHolland. In Water Science and Technology 49 (3), S. 205-212. Hermans L. M. (2005): Actor analysis for water resources management – putting the promise into practice, Delft. Hollstein B. (2006): Qualitative Methoden und Netzwerkanalyse. In B. Hollstein, F. Straus (Hrsg.): Qualitative Netzwerkanalyse. Konzepte, Methoden, Anwendungen, Wiesbaden, S. 11. IPCC [Intergovernmental Panel on Climate Change] (2007): Climate Change 2007: Synthesis Report. Contribution of Working Groups I, II and III to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change [Core Writing Team, Pachauri, R.K and Reisinger, A. (eds.)]. IPCC, Geneva, Switzerland. Jütte W. (2006): Netzwerkvisualisierung als Triangulationsverfahren bei der Analyse lokaler Weiterbildungslandschaften. In B. Hollstein, F. Straus (Hrsg.): Qualitative Netzwerkanalyse. Konzepte, Methoden, Anwendungen, Wiesbaden, S. 199-220. King N. (1995): The Qualitative Research Interview. In C. Cassel, G. Symon (Hrsg.): Qualitative Methods in Organizational Research – A Practical Guide, London, S. 14 -36. Knoblauch, Doris; Kiresiewa, Zoritza; Stuke, Franziska; von Raggamby, Anneke (2012): RADOST Akteursanalyse - Teil 2: Auswertung der Befragung von Akteuren aus Politik, Verwaltung und Zivilgesellschaft. Interessen, Nutzungsansprüche, Ziele und Konflikte relevanter Akteure der deutschen Ostseeküste vor dem Hintergrund des Klimawandels. Ecologic Institute. RADOSTBerichtsreihe, Bericht Nr. 9. Legewie H. (1987): Interpretation und Validierung biographischer Interviews. In G. Jüttemann, H. Thomae (Hrsg.): Biographie und Psychologie, Berlin, S. 138-150. Merkens, H. (1997): Stichproben bei qualitativen Studien. In B. Friebertshäuser, A. Prengel (Hrsg.): Handbuch Qualitative Forschungsmethoden in der Erziehungswissenschaft, Weinheim/München. Mayntz R., Scharpf F.W. (1995): Der Ansatz des akteurzentrierten Institutionalismus. In R. Mayntz, F.W. Scharpf (Hrsg.): Gesellschaftliche Selbstregelung und politische Steuerung, Frankfurt/ New York, S. 39. Mayring P. (2002): Einführung in die qualitative Sozialforschung – Eine Anleitung zu qualitativem Denken, Weinheim/Basel. Müller F.H., Kals E. (2004): Die Q-Methode. Ein innovatives Verfahren zur Erhebung subjektiver Einstellungen und Meinungen. In Forum: Qualitative Sozialforschung 5 (2).

48

RADOST Akteursanalyse – Konzept und methodische Grundlagen
Newig J., Günther D., Pahl-Wostl C. (2010): Synapses in the Network: Learning in Governance Networks in the Context of Environmental Management. In Ecology and Society 15(4), Art. 24, http://www.ecologyandsociety.org/vol15/iss4/art24/ (08.03.2011). Noakes D. J., Fang L., Hipel K. W. (2003): An examination of the salmon aquaculture conflict in British Columbia using the graph model for conflict resolution. In Fisheries Management and Ecology 10, S. 123-137. ODA [Overseas Development Administration] (1995): Guidance note on how to do analysis of aid projects and programmes, http://www.euforic.org/gb/stake1.htm. stakeholder

Opdenakker R. (2006): Advantages and Disadvantages of Four Interview Techniques in Qualitative Research. In Forum: Qualitative Social Research 7(4), Art. 11, http://www.qualitativeresearch.net/index.php/fqs/article/viewArticle/175/391 (29.04.2010). Peine, A. (2000): A Basic Stakeholder Network Appraisal Methodology for River Basin Management. Diplomarbeit an der Delft University of Technology – unveröffentlicht. Prell C., Hubacek K., Reed M. (2009): Stakeholder analysis and social network analysis in natural resource management. In Society and Natural Resources 22 (6), S. 501-518. Rauch J. E. (2010): Does Network Theory Connect to the Rest of Us? A Review of Matthew O. Jackson's Social and Economic Networks. In Journal of Economic Literature 48(4), S. 980–986. Reed M.S., Graves A., Dandy N., Posthumus H., Hubacek K., Morris J., Prell C., Quinn C. H., Stringer L. C. (2009): Who’s in and why? A typology of stakeholder analysis methods for natural resource management. In Journal of Environmental Management 90, S. 1933-1949. Sabatier P.A. (1988): The advocay coalition framework of policy change and the role of policy-oriented learning therein. In Policy Sciences 21, S. 129-168. Schneider V., Janning F. (2006): Politikfeldanalyse – Akteure, Diskurse und Netzwerke in der öffentlichen Politik, Wiesbaden. Silburn N. L. J. (2007): Using Social Network Analysis to Study Actor. Information System Relationships – Exploratory Research. In T. N. Friemel (Hrsg.): Applications of Social Network rd Analysis. Proceedings of the 3 Conference on Applications of Social Network Analysis 2006, Konstanz, S. 73-92. Stegbauer C. (2008): Netzwerkanalyse und Netzwerktheorie. Einige Anmerkungen zu einem neuen Paradigma. In C. Stegbauer (Hrsg.): Netzwerkanalyse und Netzwerktheorie. Ein neues Paradigma in den Sozialwissenschaften, Wiesbaden, S. 11. Stokman F., Van Oosten R. (1994): The exchange of voting positions – an object-oriented model of policy networks. In B. Bueno de Mesquita, F. Stokman (Hrsg,): European Community decision making, Yale, S. 105-128. Timmermans J.S. (2004): Purposive interaction in multi-actor decision making. Delft. Wasserman S., Faust K. (1994): Social Network Analysis, Methods and Applications, Cambridge.

49

Hirschfeld, Krampe, Winkler (IÖW)

50

Impressum
Herausgeber Institut für ökologische Wirtschaftsforschung (IÖW) Potsdamer Straße 105 10785 Berlin www.ioew.de Inhalt erstellt durch: Institut für ökologische Wirtschaftsforschung (IÖW) Potsdamer Straße 105 10785 Berlin

Web http://www.klimzug-radost.de Bildrechte Foto Titel links © EUCC-D (Léonard G.) Foto Titel Mitte © Matthias Mossbauer Foto Titel rechts © Stefanie Maack ISSN 2192-3140 Das Projekt “Regionale Anpassungsstrategien für die deutsche Ostseeküste“ (RADOST) wird im Rahmen der Maßnahme „Klimawandel in Regionen zukunftsfähig gestalten“ (KLIMZUG) vom Bundesministerium für Bildung und Forschung (BMBF) gefördert
        
Top of page

Note to user

Dear user,

In response to current developments in the web technology used by the Goobi viewer, the software no longer supports your browser.

Please use one of the following browsers to display this page correctly.

Thank you.