Forschungsmethodik, Methoden und Design
Forschungsmethoden beteiligt
Gründe für die Verwendung einer Mixed-Methods-Forschungsmethodik
Der Ansatz der Mixed-Methods-Forschungsmethodik wird Forschungsmethoden sowohl aus der quantitativen als auch aus der qualitativen Methodik übernehmen, wie z. B. selbstausfüllende Fragebogenerhebungen, halbstrukturierte Interviews, unstrukturierte verdeckte teilnehmende Beobachtungen und Sekundärdatenanalyse, um die Forschungsfrage, das Ziel und die Ziele anzugehen. Die Hauptgründe für die Verwendung einer Mixed-Methods-Forschungsmethodik sind Triangulation, Offset, Vollständigkeit und Verbesserung, beinhalten aber auch Elemente verschiedener Forschungsfragen, Erklärung, Glaubwürdigkeit, Kontext, Illustration, Nützlichkeit und Vielfalt der Ansichten (Bryman, 2006: 105 -107). Wie Webb et al. (1966: 3) schlagen vor: „Sobald eine Aussage durch zwei oder mehr unabhängige Messverfahren bestätigt wurde, ist die Unsicherheit ihrer Interpretation stark reduziert“. Unter Berufung auf die Arbeit von Webb et al. (1966), Denzin (2009: 26) kommt zu dem Schluss, dass „keine einzelne Methode es einem Forscher jemals erlauben wird, Kausalaussagen frei von konkurrierenden Interpretationen zu entwickeln“. Daher wird diese Forschung eine Mixed-Methods-Forschungsmethodik verwenden, die ein Triangulationsdesign verwendet, das ein mehrstufiges Konvergenzmodell enthält (Creswell und Plano Clark, 2007: 63-64).
Die im Rahmen dieser Mixed-Methods-Forschungsmethodik verwendeten Forschungsmethoden werden nun im Folgenden näher erläutert.
Forschungsmethoden
Angesichts der begrenzten mir zur Verfügung stehenden Ressourcen beschloss ich, mich auf die vier Basic Command Units (BCUs) innerhalb
Anzahl verwendbarer Fragebögen X 100 Gesamtstichprobe - Ungeeignete oder nicht erreichbare Mitglieder der Stichprobe
Halbstrukturierte Interviews
Halbstrukturierte Interviews
-
Quantitativ
Umfragen zum Selbstausfüllen von Fragebögen und statistische Analyse von Sekundärdaten
-
Qualitativ
Halbstrukturierte Interviews und unstrukturierte verdeckte teilnehmende Beobachtungen
Über diese Forschung
Das Hauptziel dieser Forschung ist es zu untersuchen und zu beschreiben, ob Community Intelligence einen Einfluss auf die lokale Nachbarschaftspolizei hat. Die Forschung hinterfragt das Ausmaß, in dem sich Community Intelligence auf die lokale Nachbarschaftspolizei im Kontext des National Intelligence Model (NIM) auswirkt, und berücksichtigt eine Reihe anderer damit verbundener Ziele, darunter:
Über diese Forschung
Das Hauptziel dieser Forschung ist es zu untersuchen und zu beschreiben, ob Community Intelligence einen Einfluss auf die lokale Nachbarschaftspolizei hat. Die Forschung hinterfragt das Ausmaß, in dem sich Community Intelligence auf die lokale Nachbarschaftspolizei im Kontext des National Intelligence Model (NIM) auswirkt, und berücksichtigt eine Reihe anderer damit verbundener Ziele, darunter:
-
Was versteht die Polizei unter lokaler oder Nachbarschaftspolizei?
-
Wie arbeitet die Polizei mit den verschiedenen Gemeinschaften in ihrem Gebiet zusammen?
-
Über welche Systeme verfügt die Polizei in Bezug auf die Verarbeitung von Community Intelligence?
-
Welchen Gebrauch macht Community Intelligence, insbesondere zur Lösung von Community-Problemen?
- Wird Community Intelligence verwendet, um die Nachbarschaftspolizei zu unterstützen oder zu leiten?
-
Wie kann die Nutzung von Community Intelligence verbessert werden, um die Durchführung der Polizeiarbeit zu unterstützen?
Gründe für die Verwendung einer Mixed-Methods-Forschungsmethodik
Die im Rahmen dieser Mixed-Methods-Forschungsmethodik verwendeten Forschungsmethoden werden nun im Folgenden näher erläutert.
Forschungsmethoden
des untersuchten Polizeigebiets zu konzentrieren, die als „A“, „B“, „C“ und „D“ bezeichnet werden. BCUs. Aus logistischen, zeitlichen und finanziellen Gründen war es jedoch nicht praktikabel, die gesamte Bevölkerung des Polizeigebiets in die Stichprobe für die Erhebung von Primärdaten einzubeziehen. Das Hauptziel dieser Forschung ist es zu untersuchen und zu beschreiben, ob Community Intelligence einen Einfluss auf die Nachbarschaftspolizei hat. Daher wurden Proben von Polizeibeamten gezogen, die an der lokalen Nachbarschaftspolizei und der Verwaltung von Geheimdiensten beteiligt waren. In dieser Untersuchung wurde eine Stichprobengröße von 414 Mitarbeitern der örtlichen Nachbarschaftspolizei und einer Population von 60 Geheimdienstmanagern verwendet. Stichprobenverfahren und -größen werden nachstehend ausführlicher erörtert.
Webbet al. (1966) argumentieren, dass alle Forschungsmethoden Verzerrungen und Schwächen unterliegen und daher Methoden durch andere Methoden ergänzt werden sollten, die dieselben Variablen testen.
Keine Forschungsmethode ist frei von Vorurteilen. Interviews und Fragebögen müssen durch Methoden ergänzt werden, die dieselben sozialwissenschaftlichen Variablen testen, aber andere methodische Schwächen aufweisen.
Webbet al. (1966) argumentieren, dass alle Forschungsmethoden Verzerrungen und Schwächen unterliegen und daher Methoden durch andere Methoden ergänzt werden sollten, die dieselben Variablen testen.
Keine Forschungsmethode ist frei von Vorurteilen. Interviews und Fragebögen müssen durch Methoden ergänzt werden, die dieselben sozialwissenschaftlichen Variablen testen, aber andere methodische Schwächen aufweisen.
(Webb et al., 1966:1)
Durch die Verwendung eines Mixed-Methods-Ansatzes wird erwartet, dass etwaige Verzerrungen oder Schwächen in einzelnen quantitativen und qualitativen Methoden erheblich reduziert werden. Diesing (1971: 5) weist darauf hin, dass es eine so große Vielfalt an Kombinationen von Forschungsmethoden gibt, dass „Umfrageforschung und teilnehmende Beobachtung heute eher als zwei Enden eines Kontinuums als als zwei verschiedene Arten von Methoden angesehen werden können“. Grix (2002: 180) hingegen argumentiert, dass „Methoden selbst als frei von ontologischen und epistemologischen Annahmen angesehen werden sollten und die Wahl, welche verwendet werden sollte, von Forschungsfragen geleitet werden sollte“.
Unter Berücksichtigung des Ziels und der Ziele dieser Forschung, wie Forschung zur Polizeiarbeit zuvor durchgeführt wurde, Forschungsstrategien, theoretische Perspektiven und Forschungsmethoden, wurde eine gemischte Forschungsmethodik verwendet, die eine Kombination aus quantitativen und qualitativen Forschungsmethoden nutzt, um die Forschung zu untersuchen Frage. Diese Methoden umfassten die Verwendung von Primärdaten aus Fragebögen zum Selbstausfüllen per Post, halbstrukturierten Interviews und unstrukturierten verdeckten Teilnehmerbeobachtungen sowie Sekundärdaten aus archivierten
Forschungsdokumenten. Es muss auch darauf hingewiesen werden, dass die Wahl der Forschungsmethoden dadurch beeinflusst wurde, dass diese Forschung von einem einzelnen Forscher durchgeführt wurde, der sich selbst finanzierte und daher persönlichen finanziellen Beschränkungen unterworfen war.
Aufgrund der großen Stichprobenumfänge in dieser Untersuchung wurde eine postalische Befragung mit einem Selbstausfüllfragebogen als das geeignetste Untersuchungsinstrument erachtet, um in relativ kurzer Zeit eine große Datenmenge aus der Stichprobengruppe über die vier BCU hinweg zu erhalten (Neumann, 2000: 247; Mertens, 2005: 167). Andere Erhebungsmethoden wie die webbasierten Online-Umfragebögen (Mertens, 2005: 205-206; Bryman, 2012: 216-217, 670-678), der telefonische Fragebogen (Newell, 1993: 97-98; Neuman, 2000: 272; Mertens, 2005: 198-199; Bryman, 2012: 214-215) und der Interviewplan-Fragebogen (Neuman, 2000: 272-273; Bryman, 2012: 210) wurden aufgrund von logistische, zeitliche und finanzielle Zwänge (Neuman, 2000: 272-274). Die aus dieser Umfrage gewonnenen quantitativen und qualitativen Daten würden auch dazu dienen, andere qualitative Daten aus Interviews und Beobachtungsstudien zu bestätigen.
Halbstrukturierte Face-to-Face-Interviews wurden als das am besten geeignete Interviewmittel angesehen, um detailliertere qualitative Daten von einer kleineren Stichprobengruppe von Nachrichtendienstmanagern zu erhalten (Bryman, 2012: 470). Strukturierte und unstrukturierte Face-to-Face-Interviews wurden in Betracht gezogen, erwiesen sich jedoch als ungeeignet für diese Untersuchung. Halbstrukturierte Telefoninterviews wurden ebenfalls in Betracht gezogen, erwiesen sich jedoch als unpraktisch und warf ethische Fragen in Bezug auf die Tonbandaufzeichnung von Telefoninterviews ohne den Einsatz von Spezialgeräten auf.
Zwischen 2005 und 2010 wurden unstrukturierte verdeckte teilnehmende Beobachtungsstudien als Teil meiner täglichen Aufgaben bei der Verwaltung des Gemeindegeheimdienstes und der lokalen Nachbarschaftspolizei auf lokaler (Kraft), regionaler und nationaler Ebene durchgeführt Sitzungen und Feldnotizen, wurde ebenfalls analysiert, da sie als Aufzeichnung der gemachten Beobachtungen dienten.
Sekundärdaten aus anderen Forschungsarbeiten zu Nachrichtendiensten und Nachbarschaftspolizei wurden im Rahmen der Literaturrecherche untersucht und diskutiert. Weitere Sekundärdaten aus früheren Untersuchungen, die in Bezug auf Community Intelligence und lokale Nachbarschaftspolizei an den vier untersuchten BCUs der Polizei durchgeführt wurden, wurden analysiert und als unterstützende Beweise für die Primärdaten verwendet, die aus dem Fragebogen zur Selbstausfüllung der postalischen Umfrage, den halbstrukturierten Interviews und den unstrukturierten Interviews stammen verdeckte teilnehmende Beobachtungen.
Der Selbstausfüllfragebogen für postalische Umfragen
Denzin (1978: 158) definiert eine Umfrage als „eine methodische Technik, die die systematische Erhebung von Daten aus Populationen oder Stichproben durch die Verwendung des Interviews oder des selbstausgefüllten Fragebogens erfordert“. Neuman (2000: 247) fügt außerdem hinzu, dass „Umfragen für Forschungsfragen zu selbstberichteten Überzeugungen oder Verhaltensweisen geeignet sind“, was auch Einstellungen, Meinungen, Eigenschaften, Erwartungen, Selbsteinstufung und Wissen umfasst.
Mitarbeiter der örtlichen Nachbarschaftspolizei
Es wurde angenommen, dass ein per Post selbst ausgefüllter (oder selbst verwalteter) Fragebogen die effizienteste und kostengünstigste Methode ist, um systematisch Daten von einer großen Stichprobe von 414 Mitarbeitern der örtlichen Nachbarschaftspolizei zu sammeln, die über die vier geografischen BCUs innerhalb des Polizeigebiets verteilt sind untersucht (Bryman, 2012: 233). Der Fragebogen zum Selbstausfüllen wurde unter Berücksichtigung der Perspektive des Befragten konzipiert und pilotiert, indem eine Einführung und klare Anweisungen bereitgestellt wurden, Anonymität garantiert wurde, sichergestellt wurde, dass die Fragen verständlich formuliert waren, Fachsprache und Verwirrung vermieden wurden und in einer logischen Reihenfolge standen. und indem den Befragten ermöglicht wird, den Fragebogen zu einem für sie günstigen Zeitpunkt auszufüllen (Newell, 1993: 96; Neuman, 2000: 251-255; Mertens, 2005: 179-182; Bryman, 2012: 237-239).
Der Selbstausfüllfragebogen bestand aus neun Seiten, darunter eine einleitende erste Seite. Es enthielt geschlossene und offene Fragen, die beide bestimmte Vor- und Nachteile haben. Geschlossene Fragen sind einfacher auszufüllen und bieten Klarheit für den Befragten und sind im Allgemeinen für den Forscher einfacher zu vergleichen, zu codieren und zu verarbeiten. Die Antworten sind jedoch restriktiver, nicht erschöpfend und können sich für den Befragten als frustrierend erweisen, wenn seine Antwortoption nicht angezeigt wird. Offene Fragen geben den Befragten mehr Freiheit, eine detailliertere Antwort zu geben, und geben so einen Hinweis auf ihr Wissen und Verständnis zu einem bestimmten Thema. Sie sind jedoch zeitaufwändiger und erfordern einen größeren Aufwand, um von den Befragten ausgefüllt zu werden. Dies kann sich auch auf die Rücklaufquoten auswirken, insbesondere bei Fragebögen zum Selbstausfüllen. Auch der Kodierungsprozess, Themen oder Schlüsselwörter aus der schriftlichen Antwort herauszuarbeiten, ist für den
Forscher schwieriger und zeitaufwändiger (Neuman, 2000: 260-264; Bryman, 2012: 246-252). Neuman (2000: 260) schlägt vor, dass die Nachteile geschlossener und offener Fragen verringert werden können, indem „offene und geschlossene Fragen in einem Fragebogen gemischt werden“.
Vor der Vollerhebung wurde eine Pilotstudie zum Selbstausfüllfragebogen durchgeführt, um festzustellen, ob die Anweisungen zum Ausfüllen des Fragebogens klar waren, ob die Mischung aus geschlossenen und offenen Fragen geeignet und verständlich war, ob das Format benutzerfreundlich war , wenn die Länge des Fragebogens angemessen war und die Fragen zur Beantwortung der Forschungsfrage effektiv waren (Bogen, 1996: 1020-1025; Neuman, 2000: 264-265; Mertens, 2005: 182; Bryman, 2012: 263-264 ).
Der Selbstausfüllfragebogen für postalische Umfragen wurde ursprünglich in der BCU „B“ getestet, wo ich zum Zeitpunkt des Pilotprojekts beschäftigt war. Die kleine stratifizierte Zufallsstichprobe von Teilnehmern für die Pilotumfrage umfasste Polizeisergeants, Polizeibeamte, Polizisten zur Unterstützung der Gemeinschaft (PCSOs), Sonderpolizisten und Polizei-Frontline-Unterstützungsbeamte (FLSOs), die täglich an der örtlichen Nachbarschaftspolizei beteiligt waren.
Alle Teilnehmer erhielten ein Informationsblatt, das den Zweck der Studie darlegte, warum sie als Teilnehmer ausgewählt worden waren und Themen wie Vertraulichkeit, Bedenken der Teilnehmer und Rückzug aus der Studie erläuterte. Das Blatt beschrieb auch, was mit den Forschungsergebnissen passieren würde, und enthielt meine Kontaktdaten und die meines Studiendirektors für die Forschung, falls der Teilnehmer weitere Informationen benötigt.
Alle Teilnehmer erhielten außerdem eine Einverständniserklärung, in der Datenschutzfragen, ihr Recht auf Rücktritt von der Forschungsstudie, zukünftige Forschungsveröffentlichungen und -analysen sowie die Bestätigung, dass sie die Informationen auf dem Informationsblatt gelesen und verstanden hatten, hervorgehoben wurden ausreichend Zeit für die Prüfung der Informationen und Rückfragen eingeräumt wurde, dass ihre Teilnahme freiwillig war und sie jederzeit zurücktreten konnten. Die Teilnehmer wurden dann gebeten, die Einwilligungserklärung zu unterzeichnen, mit der sie der Teilnahme an der Forschungsstudie zustimmten. Die Fragen der Ethik und der informierten Einwilligung werden weiter unten ausführlicher erörtert.
Eine Kopie des Selbstausfüllfragebogens, des Informationsblatts und der Einwilligungserklärung wurden potenziellen Teilnehmern über das polizeiinterne Postsystem zugesandt. Darüber hinaus wurden den Teilnehmern voradressierte Umschläge für die Rücksendung des Fragebogens und der Einverständniserklärung an mich zugesandt.
Von den ursprünglich im Rahmen des Pilotprojekts verteilten Selbstausfüllfragebögen wurde eine signifikante Anzahl zurückgesendet und anschließend auf ihre Eignung und Wirksamkeit zur Beantwortung der Forschungsfrage analysiert. Die Analyse ergab, dass der Pilotfragebogen zum Selbstausfüllen in seinem Design effektiv zu sein schien.
Die Pilotstudie des Selbstausfüllfragebogens ergab eine Rücklaufquote von 38,81 %. Obwohl die Pilotstudie nur eine kleine Stichprobe umfasste, war sie ein nützlicher Indikator, wenn man die erwarteten Rücklaufquoten für die vollständige Umfrage betrachtete. Bryman (2012:199) beschreibt die Berechnung der Rücklaufquote als: die Anzahl der nutzbaren Fragebögen dividiert durch die Gesamtstichprobe abzüglich der ungeeigneten oder nicht erreichbaren
Unter Berücksichtigung des Ziels und der Ziele dieser Forschung, wie Forschung zur Polizeiarbeit zuvor durchgeführt wurde, Forschungsstrategien, theoretische Perspektiven und Forschungsmethoden, wurde eine gemischte Forschungsmethodik verwendet, die eine Kombination aus quantitativen und qualitativen Forschungsmethoden nutzt, um die Forschung zu untersuchen Frage. Diese Methoden umfassten die Verwendung von Primärdaten aus Fragebögen zum Selbstausfüllen per Post, halbstrukturierten Interviews und unstrukturierten verdeckten Teilnehmerbeobachtungen sowie Sekundärdaten aus archivierten
Forschungsdokumenten. Es muss auch darauf hingewiesen werden, dass die Wahl der Forschungsmethoden dadurch beeinflusst wurde, dass diese Forschung von einem einzelnen Forscher durchgeführt wurde, der sich selbst finanzierte und daher persönlichen finanziellen Beschränkungen unterworfen war.
Aufgrund der großen Stichprobenumfänge in dieser Untersuchung wurde eine postalische Befragung mit einem Selbstausfüllfragebogen als das geeignetste Untersuchungsinstrument erachtet, um in relativ kurzer Zeit eine große Datenmenge aus der Stichprobengruppe über die vier BCU hinweg zu erhalten (Neumann, 2000: 247; Mertens, 2005: 167). Andere Erhebungsmethoden wie die webbasierten Online-Umfragebögen (Mertens, 2005: 205-206; Bryman, 2012: 216-217, 670-678), der telefonische Fragebogen (Newell, 1993: 97-98; Neuman, 2000: 272; Mertens, 2005: 198-199; Bryman, 2012: 214-215) und der Interviewplan-Fragebogen (Neuman, 2000: 272-273; Bryman, 2012: 210) wurden aufgrund von logistische, zeitliche und finanzielle Zwänge (Neuman, 2000: 272-274). Die aus dieser Umfrage gewonnenen quantitativen und qualitativen Daten würden auch dazu dienen, andere qualitative Daten aus Interviews und Beobachtungsstudien zu bestätigen.
Halbstrukturierte Face-to-Face-Interviews wurden als das am besten geeignete Interviewmittel angesehen, um detailliertere qualitative Daten von einer kleineren Stichprobengruppe von Nachrichtendienstmanagern zu erhalten (Bryman, 2012: 470). Strukturierte und unstrukturierte Face-to-Face-Interviews wurden in Betracht gezogen, erwiesen sich jedoch als ungeeignet für diese Untersuchung. Halbstrukturierte Telefoninterviews wurden ebenfalls in Betracht gezogen, erwiesen sich jedoch als unpraktisch und warf ethische Fragen in Bezug auf die Tonbandaufzeichnung von Telefoninterviews ohne den Einsatz von Spezialgeräten auf.
Zwischen 2005 und 2010 wurden unstrukturierte verdeckte teilnehmende Beobachtungsstudien als Teil meiner täglichen Aufgaben bei der Verwaltung des Gemeindegeheimdienstes und der lokalen Nachbarschaftspolizei auf lokaler (Kraft), regionaler und nationaler Ebene durchgeführt Sitzungen und Feldnotizen, wurde ebenfalls analysiert, da sie als Aufzeichnung der gemachten Beobachtungen dienten.
Sekundärdaten aus anderen Forschungsarbeiten zu Nachrichtendiensten und Nachbarschaftspolizei wurden im Rahmen der Literaturrecherche untersucht und diskutiert. Weitere Sekundärdaten aus früheren Untersuchungen, die in Bezug auf Community Intelligence und lokale Nachbarschaftspolizei an den vier untersuchten BCUs der Polizei durchgeführt wurden, wurden analysiert und als unterstützende Beweise für die Primärdaten verwendet, die aus dem Fragebogen zur Selbstausfüllung der postalischen Umfrage, den halbstrukturierten Interviews und den unstrukturierten Interviews stammen verdeckte teilnehmende Beobachtungen.
Der Selbstausfüllfragebogen für postalische Umfragen
Denzin (1978: 158) definiert eine Umfrage als „eine methodische Technik, die die systematische Erhebung von Daten aus Populationen oder Stichproben durch die Verwendung des Interviews oder des selbstausgefüllten Fragebogens erfordert“. Neuman (2000: 247) fügt außerdem hinzu, dass „Umfragen für Forschungsfragen zu selbstberichteten Überzeugungen oder Verhaltensweisen geeignet sind“, was auch Einstellungen, Meinungen, Eigenschaften, Erwartungen, Selbsteinstufung und Wissen umfasst.
Mitarbeiter der örtlichen Nachbarschaftspolizei
Es wurde angenommen, dass ein per Post selbst ausgefüllter (oder selbst verwalteter) Fragebogen die effizienteste und kostengünstigste Methode ist, um systematisch Daten von einer großen Stichprobe von 414 Mitarbeitern der örtlichen Nachbarschaftspolizei zu sammeln, die über die vier geografischen BCUs innerhalb des Polizeigebiets verteilt sind untersucht (Bryman, 2012: 233). Der Fragebogen zum Selbstausfüllen wurde unter Berücksichtigung der Perspektive des Befragten konzipiert und pilotiert, indem eine Einführung und klare Anweisungen bereitgestellt wurden, Anonymität garantiert wurde, sichergestellt wurde, dass die Fragen verständlich formuliert waren, Fachsprache und Verwirrung vermieden wurden und in einer logischen Reihenfolge standen. und indem den Befragten ermöglicht wird, den Fragebogen zu einem für sie günstigen Zeitpunkt auszufüllen (Newell, 1993: 96; Neuman, 2000: 251-255; Mertens, 2005: 179-182; Bryman, 2012: 237-239).
Der Selbstausfüllfragebogen bestand aus neun Seiten, darunter eine einleitende erste Seite. Es enthielt geschlossene und offene Fragen, die beide bestimmte Vor- und Nachteile haben. Geschlossene Fragen sind einfacher auszufüllen und bieten Klarheit für den Befragten und sind im Allgemeinen für den Forscher einfacher zu vergleichen, zu codieren und zu verarbeiten. Die Antworten sind jedoch restriktiver, nicht erschöpfend und können sich für den Befragten als frustrierend erweisen, wenn seine Antwortoption nicht angezeigt wird. Offene Fragen geben den Befragten mehr Freiheit, eine detailliertere Antwort zu geben, und geben so einen Hinweis auf ihr Wissen und Verständnis zu einem bestimmten Thema. Sie sind jedoch zeitaufwändiger und erfordern einen größeren Aufwand, um von den Befragten ausgefüllt zu werden. Dies kann sich auch auf die Rücklaufquoten auswirken, insbesondere bei Fragebögen zum Selbstausfüllen. Auch der Kodierungsprozess, Themen oder Schlüsselwörter aus der schriftlichen Antwort herauszuarbeiten, ist für den
Forscher schwieriger und zeitaufwändiger (Neuman, 2000: 260-264; Bryman, 2012: 246-252). Neuman (2000: 260) schlägt vor, dass die Nachteile geschlossener und offener Fragen verringert werden können, indem „offene und geschlossene Fragen in einem Fragebogen gemischt werden“.
Vor der Vollerhebung wurde eine Pilotstudie zum Selbstausfüllfragebogen durchgeführt, um festzustellen, ob die Anweisungen zum Ausfüllen des Fragebogens klar waren, ob die Mischung aus geschlossenen und offenen Fragen geeignet und verständlich war, ob das Format benutzerfreundlich war , wenn die Länge des Fragebogens angemessen war und die Fragen zur Beantwortung der Forschungsfrage effektiv waren (Bogen, 1996: 1020-1025; Neuman, 2000: 264-265; Mertens, 2005: 182; Bryman, 2012: 263-264 ).
Der Selbstausfüllfragebogen für postalische Umfragen wurde ursprünglich in der BCU „B“ getestet, wo ich zum Zeitpunkt des Pilotprojekts beschäftigt war. Die kleine stratifizierte Zufallsstichprobe von Teilnehmern für die Pilotumfrage umfasste Polizeisergeants, Polizeibeamte, Polizisten zur Unterstützung der Gemeinschaft (PCSOs), Sonderpolizisten und Polizei-Frontline-Unterstützungsbeamte (FLSOs), die täglich an der örtlichen Nachbarschaftspolizei beteiligt waren.
Alle Teilnehmer erhielten ein Informationsblatt, das den Zweck der Studie darlegte, warum sie als Teilnehmer ausgewählt worden waren und Themen wie Vertraulichkeit, Bedenken der Teilnehmer und Rückzug aus der Studie erläuterte. Das Blatt beschrieb auch, was mit den Forschungsergebnissen passieren würde, und enthielt meine Kontaktdaten und die meines Studiendirektors für die Forschung, falls der Teilnehmer weitere Informationen benötigt.
Alle Teilnehmer erhielten außerdem eine Einverständniserklärung, in der Datenschutzfragen, ihr Recht auf Rücktritt von der Forschungsstudie, zukünftige Forschungsveröffentlichungen und -analysen sowie die Bestätigung, dass sie die Informationen auf dem Informationsblatt gelesen und verstanden hatten, hervorgehoben wurden ausreichend Zeit für die Prüfung der Informationen und Rückfragen eingeräumt wurde, dass ihre Teilnahme freiwillig war und sie jederzeit zurücktreten konnten. Die Teilnehmer wurden dann gebeten, die Einwilligungserklärung zu unterzeichnen, mit der sie der Teilnahme an der Forschungsstudie zustimmten. Die Fragen der Ethik und der informierten Einwilligung werden weiter unten ausführlicher erörtert.
Eine Kopie des Selbstausfüllfragebogens, des Informationsblatts und der Einwilligungserklärung wurden potenziellen Teilnehmern über das polizeiinterne Postsystem zugesandt. Darüber hinaus wurden den Teilnehmern voradressierte Umschläge für die Rücksendung des Fragebogens und der Einverständniserklärung an mich zugesandt.
Von den ursprünglich im Rahmen des Pilotprojekts verteilten Selbstausfüllfragebögen wurde eine signifikante Anzahl zurückgesendet und anschließend auf ihre Eignung und Wirksamkeit zur Beantwortung der Forschungsfrage analysiert. Die Analyse ergab, dass der Pilotfragebogen zum Selbstausfüllen in seinem Design effektiv zu sein schien.
Die Pilotstudie des Selbstausfüllfragebogens ergab eine Rücklaufquote von 38,81 %. Obwohl die Pilotstudie nur eine kleine Stichprobe umfasste, war sie ein nützlicher Indikator, wenn man die erwarteten Rücklaufquoten für die vollständige Umfrage betrachtete. Bryman (2012:199) beschreibt die Berechnung der Rücklaufquote als: die Anzahl der nutzbaren Fragebögen dividiert durch die Gesamtstichprobe abzüglich der ungeeigneten oder nicht erreichbaren
Anzahl verwendbarer Fragebögen X 100 Gesamtstichprobe - Ungeeignete oder nicht erreichbare Mitglieder der Stichprobe
Abbildung 4.1 Rücklaufquote
Adaptiert von „Was ist eine Rücklaufquote?“ (Bryman, 2012: 199).
Mitglieder der Stichprobe multipliziert mit 100, was er als Gleichung ausdrückte (siehe Abbildung 4.1).
Neuman (2000: 268) schlägt vor, dass „eine Rücklaufquote von 10 bis 50 Prozent für eine Mail-Umfrage üblich ist“. Bryman (2012: 199) stimmt zu und stellt fest, dass Forschungsstudien darauf hindeuten, dass die Rücklaufquoten in den letzten 40 Jahren zurückgegangen sind, wobei einige Rücklaufquoten nur 10 % und 15 % betragen haben. Bryman (2012: 235) argumentiert, dass der Forscher bei der Betrachtung von Rücklaufquoten nicht verzweifeln sollte, wenn er eine niedrige Rücklaufquote erreicht: „Der Schlüsselpunkt ist, die Implikationen der möglichen Einschränkungen einer niedrigen Rücklaufquote zu erkennen und anzuerkennen“. Zu den Implikationen für die Forschung gehören die Beobachtung, dass die reduzierte Anzahl von Befragten die Stichprobenpopulation möglicherweise nicht vollständig repräsentiert, die erhöhte Möglichkeit von Verzerrungen und eine schwächere Validität.
Bogen (1996) führte eine Literaturrecherche durch, um den Einfluss der Länge eines Fragebogens auf die Rücklaufquoten zu bestimmen. Je kürzer der Fragebogen, desto höher die Rücklaufquote, so die verbreitete Meinung (Neuman, 2000: 264-265; Bryman, 2012: 236). Nach Abschluss der Überprüfung gab Bogen (1996: 1020) jedoch zu, dass „die Ergebnisse immer noch verwirrend und widersprüchlich sind, die Schlussfolgerungen immer noch nicht klar sind“. Es gibt also keine empirischen Belege dafür, dass die Rücklaufquote bei einem kürzeren Fragebogen höher wäre als bei einem längeren Fragebogen. Bogen kommt zu dem Schluss, dass sehr wenig experimentelle Arbeit unternommen wurde, um Forschern dabei zu helfen, eine praktische Entscheidung über die Länge einer Umfrage zu
treffen.
Bogen (1996) weist auch darauf hin, dass grundlegende Follow-up-Verfahren jede Unterscheidung zwischen Fragebogenlänge und Rücklaufquote zunichte machen können. Neuman (2000) und Bryman (2012) stimmen darin überein, dass zwei oder drei Folgeerinnerungen die Rücklaufquote erheblich steigern können. Andere Faktoren, die die Rücklaufquote erhöhen können und in dieser Studie berücksichtigt wurden, sind ein Einführungsschreiben oder Informationsblatt, klare Anweisungen und voradressierte Umschläge für Rücksendungen (Neuman, 2000; Mertens, 2005; Bryman, 2012).
Nach Berücksichtigung des Obigen und der Ergebnisse der Pilotstudie wurde der Pilotfragebogen zum Selbstausfüllen für die vollständige Umfrage mit den verbleibenden Teilnehmern aus der Stichprobe des Personals der lokalen Nachbarschaftspolizei verwendet. Zu diesen Teilnehmern gehörten auch Polizeisergeants, Polizeibeamte, Polizeibeamte zur Unterstützung der Gemeinschaft (PCSOs), Sonderpolizisten und Frontline-Unterstützungsbeamte der Polizei (FLSOs), die täglich an der örtlichen Nachbarschaftspolizei beteiligt waren.
Analog zur Pilotstudie wurden im Zeitraum April 2012 bis September 2012 der Selbstausfüllfragebogen, das Informationsblatt, die Einverständniserklärung und voradressierte Umschläge über das polizeiinterne Postsystem an alle übrigen Teilnehmer versandt. Initial Die Rücklaufquoten wurden überwacht, und an die Teilnehmer, die noch nicht geantwortet hatten, wurden Erinnerungen per E-Mail versandt, einschließlich Kopien des Fragebogens zum Selbstausfüllen, des Informationsblatts und der Einverständniserklärung. Dieser Vorgang wurde für diejenigen, die nicht geantwortet hatten, dreimal im Abstand von ungefähr einem Monat wiederholt. Die Gesamtrücklaufquote betrug 23,42 %, und alle Daten aus den Fragebögen wurden später analysiert und die Ergebnisse aufgezeichnet.
Geheimdienstmanager
Ein postalischer Fragebogen zum Selbstausfüllen wurde erneut als die effizienteste und kostengünstigste Methode zur systematischen Erhebung von Daten aus der Population von 60 Geheimdienstmanagern angesehen, die ebenfalls über die vier geografischen BCUs innerhalb des untersuchten Polizeigebiets verteilt waren.
Ein ähnlicher Prozess wurde in Bezug auf die Verwaltung des Selbstausfüllfragebogens für Geheimdienstmanager angewendet wie für das Personal der lokalen Nachbarschaftspolizei. Der Fragebogen wurde zunächst als Pilotprojekt durchgeführt und dann die vollständige Umfrage gleichzeitig mit der Mitarbeiterumfrage der lokalen Nachbarschaftspolizei durchgeführt. Es wurde eine Gesamtrücklaufquote von 33,33 % erreicht,
und wiederum wurden die Daten aus den Fragebögen später analysiert und die Ergebnisse aufgezeichnet.
Adaptiert von „Was ist eine Rücklaufquote?“ (Bryman, 2012: 199).
Mitglieder der Stichprobe multipliziert mit 100, was er als Gleichung ausdrückte (siehe Abbildung 4.1).
Neuman (2000: 268) schlägt vor, dass „eine Rücklaufquote von 10 bis 50 Prozent für eine Mail-Umfrage üblich ist“. Bryman (2012: 199) stimmt zu und stellt fest, dass Forschungsstudien darauf hindeuten, dass die Rücklaufquoten in den letzten 40 Jahren zurückgegangen sind, wobei einige Rücklaufquoten nur 10 % und 15 % betragen haben. Bryman (2012: 235) argumentiert, dass der Forscher bei der Betrachtung von Rücklaufquoten nicht verzweifeln sollte, wenn er eine niedrige Rücklaufquote erreicht: „Der Schlüsselpunkt ist, die Implikationen der möglichen Einschränkungen einer niedrigen Rücklaufquote zu erkennen und anzuerkennen“. Zu den Implikationen für die Forschung gehören die Beobachtung, dass die reduzierte Anzahl von Befragten die Stichprobenpopulation möglicherweise nicht vollständig repräsentiert, die erhöhte Möglichkeit von Verzerrungen und eine schwächere Validität.
Bogen (1996) führte eine Literaturrecherche durch, um den Einfluss der Länge eines Fragebogens auf die Rücklaufquoten zu bestimmen. Je kürzer der Fragebogen, desto höher die Rücklaufquote, so die verbreitete Meinung (Neuman, 2000: 264-265; Bryman, 2012: 236). Nach Abschluss der Überprüfung gab Bogen (1996: 1020) jedoch zu, dass „die Ergebnisse immer noch verwirrend und widersprüchlich sind, die Schlussfolgerungen immer noch nicht klar sind“. Es gibt also keine empirischen Belege dafür, dass die Rücklaufquote bei einem kürzeren Fragebogen höher wäre als bei einem längeren Fragebogen. Bogen kommt zu dem Schluss, dass sehr wenig experimentelle Arbeit unternommen wurde, um Forschern dabei zu helfen, eine praktische Entscheidung über die Länge einer Umfrage zu
treffen.
Bogen (1996) weist auch darauf hin, dass grundlegende Follow-up-Verfahren jede Unterscheidung zwischen Fragebogenlänge und Rücklaufquote zunichte machen können. Neuman (2000) und Bryman (2012) stimmen darin überein, dass zwei oder drei Folgeerinnerungen die Rücklaufquote erheblich steigern können. Andere Faktoren, die die Rücklaufquote erhöhen können und in dieser Studie berücksichtigt wurden, sind ein Einführungsschreiben oder Informationsblatt, klare Anweisungen und voradressierte Umschläge für Rücksendungen (Neuman, 2000; Mertens, 2005; Bryman, 2012).
Nach Berücksichtigung des Obigen und der Ergebnisse der Pilotstudie wurde der Pilotfragebogen zum Selbstausfüllen für die vollständige Umfrage mit den verbleibenden Teilnehmern aus der Stichprobe des Personals der lokalen Nachbarschaftspolizei verwendet. Zu diesen Teilnehmern gehörten auch Polizeisergeants, Polizeibeamte, Polizeibeamte zur Unterstützung der Gemeinschaft (PCSOs), Sonderpolizisten und Frontline-Unterstützungsbeamte der Polizei (FLSOs), die täglich an der örtlichen Nachbarschaftspolizei beteiligt waren.
Analog zur Pilotstudie wurden im Zeitraum April 2012 bis September 2012 der Selbstausfüllfragebogen, das Informationsblatt, die Einverständniserklärung und voradressierte Umschläge über das polizeiinterne Postsystem an alle übrigen Teilnehmer versandt. Initial Die Rücklaufquoten wurden überwacht, und an die Teilnehmer, die noch nicht geantwortet hatten, wurden Erinnerungen per E-Mail versandt, einschließlich Kopien des Fragebogens zum Selbstausfüllen, des Informationsblatts und der Einverständniserklärung. Dieser Vorgang wurde für diejenigen, die nicht geantwortet hatten, dreimal im Abstand von ungefähr einem Monat wiederholt. Die Gesamtrücklaufquote betrug 23,42 %, und alle Daten aus den Fragebögen wurden später analysiert und die Ergebnisse aufgezeichnet.
Geheimdienstmanager
Ein postalischer Fragebogen zum Selbstausfüllen wurde erneut als die effizienteste und kostengünstigste Methode zur systematischen Erhebung von Daten aus der Population von 60 Geheimdienstmanagern angesehen, die ebenfalls über die vier geografischen BCUs innerhalb des untersuchten Polizeigebiets verteilt waren.
Ein ähnlicher Prozess wurde in Bezug auf die Verwaltung des Selbstausfüllfragebogens für Geheimdienstmanager angewendet wie für das Personal der lokalen Nachbarschaftspolizei. Der Fragebogen wurde zunächst als Pilotprojekt durchgeführt und dann die vollständige Umfrage gleichzeitig mit der Mitarbeiterumfrage der lokalen Nachbarschaftspolizei durchgeführt. Es wurde eine Gesamtrücklaufquote von 33,33 % erreicht,
und wiederum wurden die Daten aus den Fragebögen später analysiert und die Ergebnisse aufgezeichnet.
Halbstrukturierte Interviews
Mason (2004: 1020) schlägt vor, dass „das bestimmende Merkmal halbstrukturierter Interviews darin besteht, dass sie eine flexible und fließende Struktur haben, im Gegensatz zu strukturierten Interviews, die eine strukturierte Abfolge von Fragen enthalten, die allen Befragten auf die gleiche Weise gestellt werden“. Für diese Untersuchung wurden halbstrukturierte Interviews gewählt, da sie eine flexiblere Methode zur Befragung und Erhebung von Daten aus der Bevölkerungsgruppe der Geheimdienstmanager boten, zu der Inspektoren der örtlichen Polizei, Kriminalinspektoren (Geheimdienst), Detective Sergeants (Geheimdienst) und lokale Geheimdienstoffiziere (LIOs) gehörten ) und Field Intelligence Officers (FIOs). Diese Bevölkerungsgruppe hatte eine Vielzahl unterschiedlicher Rollen und Verantwortlichkeiten im Geheimdienstmanagement, was die Verwendung von strukturierten Interviews mit einem Interviewplan unpraktisch machte (Barriball und While, 1994: 330). Umgekehrt fehlte der Verwendung von unstrukturierten Interviews, bei denen höchstens ein Aide Memoire verwendet wurde, um ein Gespräch mit dem Interviewten zu unterstützen, die Struktur, die erforderlich ist, um die durch diese Forschung identifizierten Forschungsthemen zu diskutieren (Bryman, 2012: 471).
Dieselbe Bevölkerungsgruppe von 60 Geheimdienstmanagern, denen ein Fragebogen zum Selbstausfüllen, ein Informationsblatt und eine Einwilligungserklärung zugesandt worden waren, wurden damals auch eingeladen, an den halbstrukturierten Interviews teilzunehmen. Derselbe Prozess, der zur Überwachung der Rücklaufquoten und Follow-up-Erinnerungen für die Selbstausfüll-Fragebögen verwendet wurde, wurde auch für die halbstrukturierten Interviews verwendet.
Die halbstrukturierten Interviews wurden mit allen Teilnehmern zu einem Zeitpunkt, Datum und Ort arrangiert, der für jeden einzelnen Interviewten bequem war. Die Befragungen fanden in der Regel in einem Büro innerhalb einer Polizeiwache am oder in der Nähe des üblichen Arbeitsplatzes des Befragten statt. Vor Beginn der Interviews wurde den Befragten erneut ein Informationsblatt ausgehändigt und an die Bedingungen erinnert, unter denen sie ihr Einverständnis zu den Interviews gegeben hatten. Jeder Interviewpartner hatte außerdem die Möglichkeit, sein Interview auf Tonband aufzunehmen oder nicht. Die Teilnehmer wurden auch darüber informiert, dass die auf Tonband aufgezeichneten Interviews transkribiert würden, und ihnen wurde eine Kopie der Abschrift ihres Interviews angeboten. Alle Befragten lehnten dieses Angebot ab. Es
wurden Notizen zu den Interviews gemacht, bei denen der Teilnehmer nicht wünschte, dass das Interview auf Tonband aufgezeichnet wird (Bryman, 2012).
Die halbstrukturierten Interviews dauerten zwischen 45 und 60 Minuten und fanden im Zeitraum Dezember 2012 bis Juli 2013 statt. Die Interviews wurden anhand eines Interviewleitfadens geführt, um möglichst viel Freiheit bei der Diskussion der Forschungsthemen zu lassen und gleichzeitig eine ausreichende Strukturierung zu gewährleisten Interviewprozess, um die Forschungsfrage beantworten zu können (Bryman, 2012: 471). Der Interviewleitfaden enthielt ähnliche Themen und Fragen wie der Selbstausfüllfragebogen für Geheimdienstmanager und bot die Möglichkeit, zusätzliche Fragen zu stellen, die speziell auf das jeweilige Fachgebiet des Befragten abzielten (Mason, 2004: 1020).
Bryman (2012: 470) argumentiert, dass strukturierte Interviews quantitativ sind, während halbstrukturierte und unstrukturierte Interviews qualitativ sind. Diese Ansicht wird auch von Kvale (1996), Mason (2004) und Mertens (2005) unterstützt. Kvale (1996: 1) schlägt vor, dass „das qualitative Forschungsinterview versucht, die Welt aus der Sicht der Subjekte zu verstehen, die Bedeutung der Erfahrungen der Menschen zu enthüllen, ihre gelebte Welt vor wissenschaftlichen Erklärungen aufzudecken“. Die Absicht der qualitativen halbstrukturierten Interviews in dieser Studie war es daher, eine Darstellung der Wahrnehmungen, Ansichten, Erfahrungen und des Verständnisses der Befragten zu den Forschungsthemen zu erhalten und die aus der Selbstausfüller-Fragebogenerhebung erhobenen Daten zu vervollständigen und anzureichern die Geheimdienstmanager (Mason, 2004).
Unstrukturierte verdeckte teilnehmende Beobachtung
Denzin (1978: 183) definiert teilnehmende Beobachtung als „eine Feldstrategie, die gleichzeitig Dokumentenanalyse, Befragung von Befragten und Informanten, direkte Teilnahme und Beobachtung sowie Introspektion kombiniert“. Bryman (2012: 273) schlägt vor, dass teilnehmende Beobachtung „das relativ lange Eintauchen des Beobachters in ein soziales Umfeld beinhaltet, in dem er oder sie versucht, das Verhalten von Mitgliedern dieses Umfelds (Gruppe, Organisation, Gemeinschaft usw.) zu beobachten und zu beobachten die Bedeutungen herauszuarbeiten, die sie ihrer Umgebung und ihrem Verhalten beimessen. Bryman schlägt auch vor, dass die meisten teilnehmenden Beobachtungen „unstrukturierte Beobachtungen“ sind, da im Allgemeinen kein Beobachtungsplan verwendet wird, um das Verhalten aufzuzeichnen. Stattdessen werden so viele Details wie möglich aufgezeichnet, um eine „narrative Darstellung“ des Verhaltens der Teilnehmer zu entwickeln
(2012: 273).
Bulmer (1982) definiert verdeckte, geheime oder getarnte teilnehmende Beobachtung als
...Forschungssituationen, in denen die wahre Identität des Beobachters als Sozialforscher geheim und seinen Gesprächspartnern völlig unbekannt bleibt. Der Ermittler gibt vor, ein vollständiger Teilnehmer zu sein und ist in Wirklichkeit etwas anderes.
(Bulmer, 1982: 252) Unstrukturierte verdeckte teilnehmende Beobachtungen wurden über einen Zeitraum von fünf Jahren zwischen August 2005 und August 2010 durchgeführt, während ich direkt an der Verwaltung der Nachbarschaftspolizei und des Gemeindegeheimdienstes beteiligt war, lokal mit der untersuchten Polizei, regional mit der All Wales Neighborhood Policing Development Group und auf nationaler Ebene mit der National Policing Improvement Agency (NPIA). Die unstrukturierte verdeckte teilnehmende Beobachtung wirft eine Reihe ethischer Fragen auf, insbesondere in Bezug auf die informierte Einwilligung, da die Teilnehmer ihre Einwilligung nicht erteilen können, da sie nicht informiert wurden und sich der Beobachtungen nicht bewusst sind. Die Fragen der Ethik und der informierten Einwilligung werden weiter unten ausführlicher erörtert.
Beobachtungen innerhalb der Polizei, lokal, regional und national
Beobachtungen innerhalb der untersuchten Polizei wurden zwischen August 2005 und Dezember 2008 durchgeführt, als ich Teil einer kleinen Gruppe von Polizeibeamten war, die für die Umsetzung der Nachbarschaftspolizei im gesamten geografischen Gebiet dieser Polizei verantwortlich war. Diese Rolle umfasste die Bereitstellung von Expertenratschlägen zu lokaler Nachbarschaftspolizei und Community Intelligence für Polizeichefs, leitende Manager und BCU-Implementierungsteams innerhalb dieser Polizeikräfte. Diese Schlüsselpersonen wurden heimlich in ihrem Arbeitsumfeld beobachtet, entweder einzeln oder als Teil einer kleinen Gruppe. Diese Beobachtungen gaben mir auch die Gelegenheit, das Arbeitsumfeld dieser Schlüsselpersonen zu besuchen und zu beobachten. Die verschiedenen Gruppen wurden auch in einer formelleren Sitzungsumgebung beobachtet, wo Protokolle der Sitzungen aufgezeichnet und verteilt wurden.
In ähnlicher Weise gab es Beobachtungen innerhalb der All Wales Neighborhood Policing Development Group zwischen Oktober 2005 und Dezember 2008 und innerhalb der National Policing Improvement Agency (NPIA) zwischen Dezember 2008 und August 2010, als ich zur Agentur als
Local Policing and Confidence Unit Field abgeordnet wurde Offizier. Diese Beobachtungen boten mir die Möglichkeit, das Management und die Entwicklung der Nachbarschaftspolizei und der Community Intelligence auf lokaler, regionaler und nationaler Ebene zu beobachten und ein besseres Verständnis der Interaktionen und Dynamiken zwischen den Gruppen auf jeder Ebene zu erlangen.
Sekundäre Datenanalyse
Hakim (1982: 1) definiert Sekundärdatenanalyse als „jede weitere Analyse eines bestehenden Datensatzes, die Interpretationen, Schlussfolgerungen oder Erkenntnisse enthält, die zusätzlich zu oder von denen abweichen, die im ersten Bericht über die Untersuchung als Ganzes und ihre Hauptergebnisse erstellt wurden“. . Bryman (2012: 312) schlägt vor, dass „Sekundäranalysen die Analyse entweder quantitativer Daten (Dale et al., 1988) oder qualitativer Daten (Corti et al., 1995) beinhalten können“. Heaton (2000: 4) stimmt dem zu und schlägt weiter vor, dass die Sekundärdatenanalyse auch die Analyse einer Mischung aus quantitativen und qualitativen Daten beinhalten kann. Church (2001: 33) ist spezifischer und schlägt vor, dass eine Sekundärdatenanalyse an statistischen Informationen, Texten, Tabellen, Grafiken und Anhängen, die in Artikeln veröffentlicht wurden, oder an den ursprünglichen Primärdaten durchgeführt werden kann.
Heaton (2008: 35) argumentiert auch, dass es drei Hauptmodi der Sekundärdatenanalyse gibt, nämlich formellen Datenaustausch (bei dem Daten „in öffentlichen oder institutionellen Archiven hinterlegt“ und für Sekundärforschung zugänglich gemacht werden); informeller Datenaustausch (der die Analyse von Daten durch eine „Mischung aus Forschern, die an der ursprünglichen Forschung beteiligt waren und nicht beteiligt waren“ beinhalten kann); und selbst gesammelte Daten (wobei der Forscher seine eigenen Daten verwendet, um „neue oder zusätzliche Fragen zu den in der Primärforschung untersuchten zu untersuchen oder alternativ seine früheren Ergebnisse zu überprüfen“). Denzin (1978) und Webb et al. (1966) schlagen vor, dass die Sekundärdatenanalyse unter Verwendung von Archivmaterial auch als unauffällige Maßnahme der Beobachtungsforschung angesehen werden kann.
Denzin (1978: 256) definiert eine unaufdringliche Beobachtungsmethode als „jede Beobachtungsmethode, die den Beobachter direkt aus der Menge der untersuchten Interaktionen oder Ereignisse entfernt“, was die Analyse von Archivdokumenten einschließen würde. Webbet al. (1966: 3) skizzieren drei Haupttypen unauffälliger Methoden oder Maßnahmen, nämlich „physische Spuren, Archive [und] Beobachtungen“. Physische Spuren beziehen sich auf die physischen Beweise, die durch einen Prozess
der Erosion oder Akkretion (Ablagerung) hinterlassen wurden. Archive sind die kontinuierlichen oder diskontinuierlichen Aufzeichnungen der Gesellschaft. Beobachtungen werden weiter unterteilt in „einfache Beobachtung“ und „erfundene Beobachtung“ (Webb et al., 1966: 112, 142). Bei der einfachen Beobachtungsmethode spielt der Beobachter „eine unbeobachtete, passive und unaufdringliche Rolle in der Forschungssituation“, während bei der künstlichen Beobachtungsmethode der Beobachter „eine aktive Rolle bei der Strukturierung der Situation spielt, bei der er jedoch von den Forschern noch unbeobachtet bleibt Schauspieler“ (Webb et al., 1966: 112). Somit weist der Beobachter bei der letzteren Methode ein Kontrollelement auf und kann Hardware, wie beispielsweise Videokameras, einführen, um die Beobachtung zu unterstützen. Webb schlägt auch vor, dass unauffällige Maßnahmen nützlich sind, wenn angenommen wird, dass das Bewusstsein eines Teilnehmers, dass er untersucht wird, wahrscheinlich seine Reaktion auf die Forschung beeinflusst.
Heaton (2008: 39) identifizierte außerdem fünf Haupttypen der Sekundärdatenanalyse, nämlich „ergänzende Analyse“, „Supraanalyse“, „Reanalyse“, „verstärkte Analyse“ und „sortierte Analyse“. Die ergänzende Analyse umfasst „eine eingehendere Analyse eines aufkommenden Problems oder Aspekts der Daten, das in der Primärstudie nicht oder nur teilweise behandelt wurde“. Eine Supra-Analyse findet statt, wenn „die Ziele und Schwerpunkte der Sekundärstudie diejenigen der ursprünglichen Forschung übersteigen“. Die erneute Analyse umfasst die erneute Prüfung von Daten, „um die Ergebnisse einer Primärstudie zu bestätigen und zu validieren“. Bei der erweiterten Analyse werden „zwei oder mehr vorhandene qualitative Datensätze“ verglichen oder kombiniert. Die sortierte Analyse beinhaltet die Wiederverwendung vorhandener qualitativer Daten „neben der Erhebung und Analyse primärer qualitativer Daten für dieselbe Studie“.
Diese Forschung wird den formalen Datenaustauschmodus und den von Heaton (2008) promulgierten Typ der sortierten Sekundärdatenanalyse übernehmen, wobei Daten aus unabhängiger Forschung verwendet werden, die zuvor in den Archiven der untersuchten Polizeikräfte hinterlegt wurden. Das archivierte Material in Bezug auf Community Intelligence wurde im Zeitraum der Primärdatenanalyse gemäß der gewählten Multilevel-Triangulationsdesign-Methodik einer Sekundärdatenanalyse unterzogen. Die Fragen der Ethik und der informierten Einwilligung werden weiter unten ausführlicher erörtert.
Probenahme
Zum Zeitpunkt des Stichprobenverfahrens für diese Studie im März 2012
verfügte die untersuchte Polizei über eine Einrichtung von 2893 regulären Polizeibeamten, 306 Police Community Support Officers (PCSOs), 147 Special Constables und 1625 Polizeiunterstützungsmitarbeitern (einschließlich 19 Front Line Support Officers (FLSOs), jetzt bekannt als Sector Support Officers) – insgesamt 4990 Voll- und Teilzeitmitarbeiter.
Die Anzahl der Voll- und Teilzeitmitarbeiter (aller Ränge/Positionen), die in jeder BCU (einschließlich FLSOs) direkt an der operativen Polizeiarbeit beteiligt waren, war wie folgt: „A“ BCU hatte 484 Mitarbeiter, „B“ BCU hatte 760 Mitarbeiter Mitarbeiter, „C“ BCU hatte 544 Mitarbeiter und „D“ BCU hatte 747 Mitarbeiter. Insgesamt 2535 Mitarbeiter, die in den vier territorialen BCUs an der operativen Polizeiarbeit beteiligt sind. Die obigen Zahlen wurden aus den unveröffentlichten Betriebslisten abgeleitet, die von den Geschäftsleitern der vier BCUs auf meine Anfrage während meiner Zeit bei der Polizei zur Verfügung gestellt wurden, und wurden auch verwendet, um die Anzahl der Mitarbeiter zu berechnen, die für die lokale Nachbarschaftspolizei und die Verwaltung bestimmt sind Community Intelligence in jeder BCU.
Die Anzahl der Mitarbeiter, die für die lokale Nachbarschaftspolizei in jeder der BCUs bestimmt sind, einschließlich regulärer Polizeibeamter (Neighbourhood Sergeants, Neighborhood Beat Managers (NBMs) (Constables) und Police Schools Community Officers (PSCOs) (Constables)), PCSOs, Special Constables und FLSOs war wie folgt: „A“ BCU hatte 153 Mitarbeiter (31,61 %), „B“ BCU hatte 177 Mitarbeiter (23,28 %), „C“ BCU hatte 137 Mitarbeiter (25,18 %) und „D“ BCU hatte 217 Mitarbeiter (29,04 %). ). Insgesamt 684 Mitarbeiter (26,98 %) wurden für die lokale Nachbarschaftspolizei in den vier territorialen BCUs eingesetzt. Dies entspricht 20,32 % der polizeilichen Einrichtung von regulären Polizeibeamten, PCSOs, Sonderpolizisten und FLSOs zum Zeitpunkt des Stichprobenverfahrens. Die Inspektoren der örtlichen Polizei wurden nicht in die insgesamt 684 Mitarbeiter aufgenommen, da sie für die Zwecke dieser Untersuchung zur Bevölkerungsgruppe der Nachrichtendienstleiter gehörten.
Die Anzahl der identifizierbaren Mitarbeiter, die in jeder der vier BCUs an der Verwaltung des Community Intelligence beteiligt waren, war wie folgt: „A“ BCU hatte neun Mitarbeiter, „B“ BCU hatte 16 Mitarbeiter, „C“ BCU hatte 13 Mitarbeiter und „D“ BCU hatte 22 Mitarbeiter. Insgesamt 60 identifizierbare Mitarbeiter (darunter Inspektoren der örtlichen Polizei, Kriminalinspektoren, Kriminalwachtmeister, Local Intelligence Officers (LIOs) und Field Intelligence Officers (FIOs)) waren an der Verwaltung der Community Intelligence in den vier BCUs beteiligt.
Mit Blick auf das Hauptziel dieser Untersuchung wurden die 684 ausgewiesenen Mitarbeiter der örtlichen Nachbarschaftspolizei und die 60 Geheimdienstmanager, die an der Verwaltung des
Gemeindegeheimdienstes beteiligt sind, als die am besten geeigneten Bevölkerungsgruppen für die Selbstausfüllfragebögen per Post erachtet.
In ähnlicher Weise wurde die Bevölkerungsgruppe, die für die halbstrukturierten Interviews als am besten geeignet erachtet wurde, von den gleichen 60 Geheimdienstmanagern gebildet, die an der Verwaltung von Community Intelligence beteiligt sind.
Die folgenden Bevölkerungsgruppen wurden für die unstrukturierten verdeckten teilnehmenden Beobachtungen als am besten geeignet angesehen: (1) Mitglieder und Manager der lokalen Nachbarschaftspolizei-Durchführungsteams für die untersuchte Polizei; (2) Mitglieder der regionalen All Wales Neighborhood Policing Development Group; und (3) Nachbarschaftspolizisten von der NPIA.
In Bezug auf die Sekundärdatenanalyse wurden die Daten aus der unabhängigen Forschung von Rogers (2007) und Rogers und Gravelle (2008), die zuvor in den Archiven der Polizeibehörde hinterlegt worden waren, als die am besten geeigneten Daten für die Analyse angesehen studiert.
Beispiele für Fragebögen zum Selbstausfüllen per Post
Zum Zwecke der Stichprobenziehung war die Analyseeinheit für die Komponente des Selbstausfüllfragebogens für die postalische Erhebung jeder einzelne Mitarbeiter (oder Einheit), der für die lokale Nachbarschaftspolizei aus einer Bevölkerung von 684 bestimmt ist, und jeder Geheimdienstmanager (oder Einheit) Bryman (2012: 187) beschreibt eine Population als „das Universum von Einheiten, aus denen die Stichprobe ausgewählt werden soll“ und eine Stichprobe als „das Segment der Bevölkerung, das ausgewählt wird zur Untersuchung“.
Meine Erfahrung als „Inside-Insider“ (Brown, 1996: 180-181) im Polizeidienst wurde bei der Bestimmung der Stichprobengröße für die Selbstausfüllfragebögen der postalischen Befragung berücksichtigt. Aufgrund von Apathie oder Teilnahmeverweigerung wurde eine relativ niedrige, aber nicht ungewöhnliche Rücklaufquote (von etwa 25 %) erwartet (Bryman, 2012: 235). Andere Faktoren, die berücksichtigt wurden, waren Verderbnisraten, ob absichtlich oder nicht, die Gesamtpopulationsgröße, die mir zur Verfügung stehenden Ressourcen (wie Zeit und Finanzierung), die Stärke und Tiefe der gemessenen Meinungen der Teilnehmer und der Gesamtumfang der Analysen, die am Ende des Datenerhebungsprozesses durchgeführt werden müssten (Bryman, 2012: 197-200). Daher wurde im Verhältnis zu den 684 Mitarbeitern der lokalen Nachbarschaftspolizei eine geschätzte Stichprobengröße von 410 (60 %) als angemessen erachtet. In der Praxis betrug die tatsächliche Stichprobengröße 414 (60,52 %). Ich habe auch entschieden, dass diese Bevölkerungsgruppe aufgrund der relativ geringen Anzahl von
Geheimdienstmanagern nicht befragt wird und die gesamte Bevölkerung von 60 (100%) in dieser Forschung verwendet wird.
Die von jeder der vier BCUs bereitgestellten Betriebslisten wurden in diesem Teil der Untersuchung als Stichprobenrahmen für die Population des lokalen Nachbarschaftspolizeipersonals verwendet. Bryman (2012: 187) beschreibt einen Stichprobenrahmen als „die Liste aller Einheiten in der Grundgesamtheit, aus der die Stichprobe ausgewählt wird“. Die vier Betriebslisten (allerdings in unterschiedlichen Formaten) enthielten alle Angaben zu Name, Rang/Position, Rolle und Standort jedes in den BCUs beschäftigten Mitarbeiters und wurden auch zur Identifizierung der Bevölkerungsgruppe der Nachrichtendienstleiter verwendet.
Nichtwahrscheinlichkeits- und Wahrscheinlichkeitsstichproben wurden beide als Stichprobenverfahren für diese Forschung in Betracht gezogen. Bryman (2012: 187) beschreibt eine Nicht-Wahrscheinlichkeits-Stichprobe als „eine Stichprobe, die nicht unter Verwendung einer zufälligen Auswahlmethode ausgewählt wurde“ und daher „werden einige Einheiten in der Grundgesamtheit mit größerer Wahrscheinlichkeit ausgewählt als andere“. Im Gegensatz dazu beschreibt Bryman (2012: 187) eine Wahrscheinlichkeitsstichprobe als „eine Stichprobe, die durch Zufallsauswahl ausgewählt wurde, sodass jede Einheit in der Grundgesamtheit eine bekannte Chance hat, ausgewählt zu werden“, wodurch eine repräsentativere Stichprobe bereitgestellt und Stichprobenfehler minimiert werden ( siehe auch: Leming, 1997; Tashakkori und Teddlie, 2003; Handwerker, 2005; Mertens, 2005; Teddlie und Yu, 2007). Um eine repräsentativere Stichprobe der untersuchten Bevölkerung bereitzustellen und Stichprobenfehler zu minimieren, wurde in dieser Untersuchung eine Wahrscheinlichkeitsstichprobe verwendet.
Mertens (2005: 314-316) schlägt vor, dass es nach Schätzung der Stichprobengröße fünf Hauptarten der Wahrscheinlichkeitsstichprobe gibt, nämlich „einfache Zufallsstichprobe“, „systematische Stichprobe“, „geschichtete Stichprobe“, „Clusterstichprobe“ und „Mehrfachstichprobe“. -Stufenprobenahme“. Einfache Zufallsstichprobe bedeutet, dass jeder Analyseeinheit eine Nummer zugewiesen wird und die Stichprobe durch die Verwendung von computergenerierten Zufallszahlen (oder durch die Verwendung einer Tabelle von Zufallszahlen) ausgewählt wird, um die erforderliche Stichprobengröße zu erzeugen. Somit hat jede Einheit eine „gleiche und unabhängige Chance ausgewählt zu werden“ (Mertens, 2005: 314). Bei der systematischen Stichprobenziehung wird „jeder n-te Name“ aus dem Stichprobenrahmen genommen, um die Stichprobe und die erforderliche Stichprobengröße bereitzustellen (Mertens, 2005: 315). Stratifizierte Stichproben werden verwendet, wenn es „Untergruppen (oder Schichten) unterschiedlicher Größe“ gibt, die im Rahmen der Forschungsstudie untersucht werden müssen (Mertens, 2005: 315).
Beispielsweise würden in dieser Untersuchung Untergruppen (oder Schichten) innerhalb der Bevölkerung des lokalen Polizeipersonals Neighborhood Sergeants, NBMs, PSCOs, PCSOs, Special Constables und FLSOs umfassen. Bryan (2012:
Dieselbe Bevölkerungsgruppe von 60 Geheimdienstmanagern, denen ein Fragebogen zum Selbstausfüllen, ein Informationsblatt und eine Einwilligungserklärung zugesandt worden waren, wurden damals auch eingeladen, an den halbstrukturierten Interviews teilzunehmen. Derselbe Prozess, der zur Überwachung der Rücklaufquoten und Follow-up-Erinnerungen für die Selbstausfüll-Fragebögen verwendet wurde, wurde auch für die halbstrukturierten Interviews verwendet.
Die halbstrukturierten Interviews wurden mit allen Teilnehmern zu einem Zeitpunkt, Datum und Ort arrangiert, der für jeden einzelnen Interviewten bequem war. Die Befragungen fanden in der Regel in einem Büro innerhalb einer Polizeiwache am oder in der Nähe des üblichen Arbeitsplatzes des Befragten statt. Vor Beginn der Interviews wurde den Befragten erneut ein Informationsblatt ausgehändigt und an die Bedingungen erinnert, unter denen sie ihr Einverständnis zu den Interviews gegeben hatten. Jeder Interviewpartner hatte außerdem die Möglichkeit, sein Interview auf Tonband aufzunehmen oder nicht. Die Teilnehmer wurden auch darüber informiert, dass die auf Tonband aufgezeichneten Interviews transkribiert würden, und ihnen wurde eine Kopie der Abschrift ihres Interviews angeboten. Alle Befragten lehnten dieses Angebot ab. Es
wurden Notizen zu den Interviews gemacht, bei denen der Teilnehmer nicht wünschte, dass das Interview auf Tonband aufgezeichnet wird (Bryman, 2012).
Die halbstrukturierten Interviews dauerten zwischen 45 und 60 Minuten und fanden im Zeitraum Dezember 2012 bis Juli 2013 statt. Die Interviews wurden anhand eines Interviewleitfadens geführt, um möglichst viel Freiheit bei der Diskussion der Forschungsthemen zu lassen und gleichzeitig eine ausreichende Strukturierung zu gewährleisten Interviewprozess, um die Forschungsfrage beantworten zu können (Bryman, 2012: 471). Der Interviewleitfaden enthielt ähnliche Themen und Fragen wie der Selbstausfüllfragebogen für Geheimdienstmanager und bot die Möglichkeit, zusätzliche Fragen zu stellen, die speziell auf das jeweilige Fachgebiet des Befragten abzielten (Mason, 2004: 1020).
Bryman (2012: 470) argumentiert, dass strukturierte Interviews quantitativ sind, während halbstrukturierte und unstrukturierte Interviews qualitativ sind. Diese Ansicht wird auch von Kvale (1996), Mason (2004) und Mertens (2005) unterstützt. Kvale (1996: 1) schlägt vor, dass „das qualitative Forschungsinterview versucht, die Welt aus der Sicht der Subjekte zu verstehen, die Bedeutung der Erfahrungen der Menschen zu enthüllen, ihre gelebte Welt vor wissenschaftlichen Erklärungen aufzudecken“. Die Absicht der qualitativen halbstrukturierten Interviews in dieser Studie war es daher, eine Darstellung der Wahrnehmungen, Ansichten, Erfahrungen und des Verständnisses der Befragten zu den Forschungsthemen zu erhalten und die aus der Selbstausfüller-Fragebogenerhebung erhobenen Daten zu vervollständigen und anzureichern die Geheimdienstmanager (Mason, 2004).
Unstrukturierte verdeckte teilnehmende Beobachtung
Denzin (1978: 183) definiert teilnehmende Beobachtung als „eine Feldstrategie, die gleichzeitig Dokumentenanalyse, Befragung von Befragten und Informanten, direkte Teilnahme und Beobachtung sowie Introspektion kombiniert“. Bryman (2012: 273) schlägt vor, dass teilnehmende Beobachtung „das relativ lange Eintauchen des Beobachters in ein soziales Umfeld beinhaltet, in dem er oder sie versucht, das Verhalten von Mitgliedern dieses Umfelds (Gruppe, Organisation, Gemeinschaft usw.) zu beobachten und zu beobachten die Bedeutungen herauszuarbeiten, die sie ihrer Umgebung und ihrem Verhalten beimessen. Bryman schlägt auch vor, dass die meisten teilnehmenden Beobachtungen „unstrukturierte Beobachtungen“ sind, da im Allgemeinen kein Beobachtungsplan verwendet wird, um das Verhalten aufzuzeichnen. Stattdessen werden so viele Details wie möglich aufgezeichnet, um eine „narrative Darstellung“ des Verhaltens der Teilnehmer zu entwickeln
(2012: 273).
Bulmer (1982) definiert verdeckte, geheime oder getarnte teilnehmende Beobachtung als
...Forschungssituationen, in denen die wahre Identität des Beobachters als Sozialforscher geheim und seinen Gesprächspartnern völlig unbekannt bleibt. Der Ermittler gibt vor, ein vollständiger Teilnehmer zu sein und ist in Wirklichkeit etwas anderes.
(Bulmer, 1982: 252) Unstrukturierte verdeckte teilnehmende Beobachtungen wurden über einen Zeitraum von fünf Jahren zwischen August 2005 und August 2010 durchgeführt, während ich direkt an der Verwaltung der Nachbarschaftspolizei und des Gemeindegeheimdienstes beteiligt war, lokal mit der untersuchten Polizei, regional mit der All Wales Neighborhood Policing Development Group und auf nationaler Ebene mit der National Policing Improvement Agency (NPIA). Die unstrukturierte verdeckte teilnehmende Beobachtung wirft eine Reihe ethischer Fragen auf, insbesondere in Bezug auf die informierte Einwilligung, da die Teilnehmer ihre Einwilligung nicht erteilen können, da sie nicht informiert wurden und sich der Beobachtungen nicht bewusst sind. Die Fragen der Ethik und der informierten Einwilligung werden weiter unten ausführlicher erörtert.
Beobachtungen innerhalb der Polizei, lokal, regional und national
Beobachtungen innerhalb der untersuchten Polizei wurden zwischen August 2005 und Dezember 2008 durchgeführt, als ich Teil einer kleinen Gruppe von Polizeibeamten war, die für die Umsetzung der Nachbarschaftspolizei im gesamten geografischen Gebiet dieser Polizei verantwortlich war. Diese Rolle umfasste die Bereitstellung von Expertenratschlägen zu lokaler Nachbarschaftspolizei und Community Intelligence für Polizeichefs, leitende Manager und BCU-Implementierungsteams innerhalb dieser Polizeikräfte. Diese Schlüsselpersonen wurden heimlich in ihrem Arbeitsumfeld beobachtet, entweder einzeln oder als Teil einer kleinen Gruppe. Diese Beobachtungen gaben mir auch die Gelegenheit, das Arbeitsumfeld dieser Schlüsselpersonen zu besuchen und zu beobachten. Die verschiedenen Gruppen wurden auch in einer formelleren Sitzungsumgebung beobachtet, wo Protokolle der Sitzungen aufgezeichnet und verteilt wurden.
In ähnlicher Weise gab es Beobachtungen innerhalb der All Wales Neighborhood Policing Development Group zwischen Oktober 2005 und Dezember 2008 und innerhalb der National Policing Improvement Agency (NPIA) zwischen Dezember 2008 und August 2010, als ich zur Agentur als
Local Policing and Confidence Unit Field abgeordnet wurde Offizier. Diese Beobachtungen boten mir die Möglichkeit, das Management und die Entwicklung der Nachbarschaftspolizei und der Community Intelligence auf lokaler, regionaler und nationaler Ebene zu beobachten und ein besseres Verständnis der Interaktionen und Dynamiken zwischen den Gruppen auf jeder Ebene zu erlangen.
Sekundäre Datenanalyse
Hakim (1982: 1) definiert Sekundärdatenanalyse als „jede weitere Analyse eines bestehenden Datensatzes, die Interpretationen, Schlussfolgerungen oder Erkenntnisse enthält, die zusätzlich zu oder von denen abweichen, die im ersten Bericht über die Untersuchung als Ganzes und ihre Hauptergebnisse erstellt wurden“. . Bryman (2012: 312) schlägt vor, dass „Sekundäranalysen die Analyse entweder quantitativer Daten (Dale et al., 1988) oder qualitativer Daten (Corti et al., 1995) beinhalten können“. Heaton (2000: 4) stimmt dem zu und schlägt weiter vor, dass die Sekundärdatenanalyse auch die Analyse einer Mischung aus quantitativen und qualitativen Daten beinhalten kann. Church (2001: 33) ist spezifischer und schlägt vor, dass eine Sekundärdatenanalyse an statistischen Informationen, Texten, Tabellen, Grafiken und Anhängen, die in Artikeln veröffentlicht wurden, oder an den ursprünglichen Primärdaten durchgeführt werden kann.
Heaton (2008: 35) argumentiert auch, dass es drei Hauptmodi der Sekundärdatenanalyse gibt, nämlich formellen Datenaustausch (bei dem Daten „in öffentlichen oder institutionellen Archiven hinterlegt“ und für Sekundärforschung zugänglich gemacht werden); informeller Datenaustausch (der die Analyse von Daten durch eine „Mischung aus Forschern, die an der ursprünglichen Forschung beteiligt waren und nicht beteiligt waren“ beinhalten kann); und selbst gesammelte Daten (wobei der Forscher seine eigenen Daten verwendet, um „neue oder zusätzliche Fragen zu den in der Primärforschung untersuchten zu untersuchen oder alternativ seine früheren Ergebnisse zu überprüfen“). Denzin (1978) und Webb et al. (1966) schlagen vor, dass die Sekundärdatenanalyse unter Verwendung von Archivmaterial auch als unauffällige Maßnahme der Beobachtungsforschung angesehen werden kann.
Denzin (1978: 256) definiert eine unaufdringliche Beobachtungsmethode als „jede Beobachtungsmethode, die den Beobachter direkt aus der Menge der untersuchten Interaktionen oder Ereignisse entfernt“, was die Analyse von Archivdokumenten einschließen würde. Webbet al. (1966: 3) skizzieren drei Haupttypen unauffälliger Methoden oder Maßnahmen, nämlich „physische Spuren, Archive [und] Beobachtungen“. Physische Spuren beziehen sich auf die physischen Beweise, die durch einen Prozess
der Erosion oder Akkretion (Ablagerung) hinterlassen wurden. Archive sind die kontinuierlichen oder diskontinuierlichen Aufzeichnungen der Gesellschaft. Beobachtungen werden weiter unterteilt in „einfache Beobachtung“ und „erfundene Beobachtung“ (Webb et al., 1966: 112, 142). Bei der einfachen Beobachtungsmethode spielt der Beobachter „eine unbeobachtete, passive und unaufdringliche Rolle in der Forschungssituation“, während bei der künstlichen Beobachtungsmethode der Beobachter „eine aktive Rolle bei der Strukturierung der Situation spielt, bei der er jedoch von den Forschern noch unbeobachtet bleibt Schauspieler“ (Webb et al., 1966: 112). Somit weist der Beobachter bei der letzteren Methode ein Kontrollelement auf und kann Hardware, wie beispielsweise Videokameras, einführen, um die Beobachtung zu unterstützen. Webb schlägt auch vor, dass unauffällige Maßnahmen nützlich sind, wenn angenommen wird, dass das Bewusstsein eines Teilnehmers, dass er untersucht wird, wahrscheinlich seine Reaktion auf die Forschung beeinflusst.
Heaton (2008: 39) identifizierte außerdem fünf Haupttypen der Sekundärdatenanalyse, nämlich „ergänzende Analyse“, „Supraanalyse“, „Reanalyse“, „verstärkte Analyse“ und „sortierte Analyse“. Die ergänzende Analyse umfasst „eine eingehendere Analyse eines aufkommenden Problems oder Aspekts der Daten, das in der Primärstudie nicht oder nur teilweise behandelt wurde“. Eine Supra-Analyse findet statt, wenn „die Ziele und Schwerpunkte der Sekundärstudie diejenigen der ursprünglichen Forschung übersteigen“. Die erneute Analyse umfasst die erneute Prüfung von Daten, „um die Ergebnisse einer Primärstudie zu bestätigen und zu validieren“. Bei der erweiterten Analyse werden „zwei oder mehr vorhandene qualitative Datensätze“ verglichen oder kombiniert. Die sortierte Analyse beinhaltet die Wiederverwendung vorhandener qualitativer Daten „neben der Erhebung und Analyse primärer qualitativer Daten für dieselbe Studie“.
Diese Forschung wird den formalen Datenaustauschmodus und den von Heaton (2008) promulgierten Typ der sortierten Sekundärdatenanalyse übernehmen, wobei Daten aus unabhängiger Forschung verwendet werden, die zuvor in den Archiven der untersuchten Polizeikräfte hinterlegt wurden. Das archivierte Material in Bezug auf Community Intelligence wurde im Zeitraum der Primärdatenanalyse gemäß der gewählten Multilevel-Triangulationsdesign-Methodik einer Sekundärdatenanalyse unterzogen. Die Fragen der Ethik und der informierten Einwilligung werden weiter unten ausführlicher erörtert.
Probenahme
Zum Zeitpunkt des Stichprobenverfahrens für diese Studie im März 2012
verfügte die untersuchte Polizei über eine Einrichtung von 2893 regulären Polizeibeamten, 306 Police Community Support Officers (PCSOs), 147 Special Constables und 1625 Polizeiunterstützungsmitarbeitern (einschließlich 19 Front Line Support Officers (FLSOs), jetzt bekannt als Sector Support Officers) – insgesamt 4990 Voll- und Teilzeitmitarbeiter.
Die Anzahl der Voll- und Teilzeitmitarbeiter (aller Ränge/Positionen), die in jeder BCU (einschließlich FLSOs) direkt an der operativen Polizeiarbeit beteiligt waren, war wie folgt: „A“ BCU hatte 484 Mitarbeiter, „B“ BCU hatte 760 Mitarbeiter Mitarbeiter, „C“ BCU hatte 544 Mitarbeiter und „D“ BCU hatte 747 Mitarbeiter. Insgesamt 2535 Mitarbeiter, die in den vier territorialen BCUs an der operativen Polizeiarbeit beteiligt sind. Die obigen Zahlen wurden aus den unveröffentlichten Betriebslisten abgeleitet, die von den Geschäftsleitern der vier BCUs auf meine Anfrage während meiner Zeit bei der Polizei zur Verfügung gestellt wurden, und wurden auch verwendet, um die Anzahl der Mitarbeiter zu berechnen, die für die lokale Nachbarschaftspolizei und die Verwaltung bestimmt sind Community Intelligence in jeder BCU.
Die Anzahl der Mitarbeiter, die für die lokale Nachbarschaftspolizei in jeder der BCUs bestimmt sind, einschließlich regulärer Polizeibeamter (Neighbourhood Sergeants, Neighborhood Beat Managers (NBMs) (Constables) und Police Schools Community Officers (PSCOs) (Constables)), PCSOs, Special Constables und FLSOs war wie folgt: „A“ BCU hatte 153 Mitarbeiter (31,61 %), „B“ BCU hatte 177 Mitarbeiter (23,28 %), „C“ BCU hatte 137 Mitarbeiter (25,18 %) und „D“ BCU hatte 217 Mitarbeiter (29,04 %). ). Insgesamt 684 Mitarbeiter (26,98 %) wurden für die lokale Nachbarschaftspolizei in den vier territorialen BCUs eingesetzt. Dies entspricht 20,32 % der polizeilichen Einrichtung von regulären Polizeibeamten, PCSOs, Sonderpolizisten und FLSOs zum Zeitpunkt des Stichprobenverfahrens. Die Inspektoren der örtlichen Polizei wurden nicht in die insgesamt 684 Mitarbeiter aufgenommen, da sie für die Zwecke dieser Untersuchung zur Bevölkerungsgruppe der Nachrichtendienstleiter gehörten.
Die Anzahl der identifizierbaren Mitarbeiter, die in jeder der vier BCUs an der Verwaltung des Community Intelligence beteiligt waren, war wie folgt: „A“ BCU hatte neun Mitarbeiter, „B“ BCU hatte 16 Mitarbeiter, „C“ BCU hatte 13 Mitarbeiter und „D“ BCU hatte 22 Mitarbeiter. Insgesamt 60 identifizierbare Mitarbeiter (darunter Inspektoren der örtlichen Polizei, Kriminalinspektoren, Kriminalwachtmeister, Local Intelligence Officers (LIOs) und Field Intelligence Officers (FIOs)) waren an der Verwaltung der Community Intelligence in den vier BCUs beteiligt.
Mit Blick auf das Hauptziel dieser Untersuchung wurden die 684 ausgewiesenen Mitarbeiter der örtlichen Nachbarschaftspolizei und die 60 Geheimdienstmanager, die an der Verwaltung des
Gemeindegeheimdienstes beteiligt sind, als die am besten geeigneten Bevölkerungsgruppen für die Selbstausfüllfragebögen per Post erachtet.
In ähnlicher Weise wurde die Bevölkerungsgruppe, die für die halbstrukturierten Interviews als am besten geeignet erachtet wurde, von den gleichen 60 Geheimdienstmanagern gebildet, die an der Verwaltung von Community Intelligence beteiligt sind.
Die folgenden Bevölkerungsgruppen wurden für die unstrukturierten verdeckten teilnehmenden Beobachtungen als am besten geeignet angesehen: (1) Mitglieder und Manager der lokalen Nachbarschaftspolizei-Durchführungsteams für die untersuchte Polizei; (2) Mitglieder der regionalen All Wales Neighborhood Policing Development Group; und (3) Nachbarschaftspolizisten von der NPIA.
In Bezug auf die Sekundärdatenanalyse wurden die Daten aus der unabhängigen Forschung von Rogers (2007) und Rogers und Gravelle (2008), die zuvor in den Archiven der Polizeibehörde hinterlegt worden waren, als die am besten geeigneten Daten für die Analyse angesehen studiert.
Beispiele für Fragebögen zum Selbstausfüllen per Post
Zum Zwecke der Stichprobenziehung war die Analyseeinheit für die Komponente des Selbstausfüllfragebogens für die postalische Erhebung jeder einzelne Mitarbeiter (oder Einheit), der für die lokale Nachbarschaftspolizei aus einer Bevölkerung von 684 bestimmt ist, und jeder Geheimdienstmanager (oder Einheit) Bryman (2012: 187) beschreibt eine Population als „das Universum von Einheiten, aus denen die Stichprobe ausgewählt werden soll“ und eine Stichprobe als „das Segment der Bevölkerung, das ausgewählt wird zur Untersuchung“.
Meine Erfahrung als „Inside-Insider“ (Brown, 1996: 180-181) im Polizeidienst wurde bei der Bestimmung der Stichprobengröße für die Selbstausfüllfragebögen der postalischen Befragung berücksichtigt. Aufgrund von Apathie oder Teilnahmeverweigerung wurde eine relativ niedrige, aber nicht ungewöhnliche Rücklaufquote (von etwa 25 %) erwartet (Bryman, 2012: 235). Andere Faktoren, die berücksichtigt wurden, waren Verderbnisraten, ob absichtlich oder nicht, die Gesamtpopulationsgröße, die mir zur Verfügung stehenden Ressourcen (wie Zeit und Finanzierung), die Stärke und Tiefe der gemessenen Meinungen der Teilnehmer und der Gesamtumfang der Analysen, die am Ende des Datenerhebungsprozesses durchgeführt werden müssten (Bryman, 2012: 197-200). Daher wurde im Verhältnis zu den 684 Mitarbeitern der lokalen Nachbarschaftspolizei eine geschätzte Stichprobengröße von 410 (60 %) als angemessen erachtet. In der Praxis betrug die tatsächliche Stichprobengröße 414 (60,52 %). Ich habe auch entschieden, dass diese Bevölkerungsgruppe aufgrund der relativ geringen Anzahl von
Geheimdienstmanagern nicht befragt wird und die gesamte Bevölkerung von 60 (100%) in dieser Forschung verwendet wird.
Die von jeder der vier BCUs bereitgestellten Betriebslisten wurden in diesem Teil der Untersuchung als Stichprobenrahmen für die Population des lokalen Nachbarschaftspolizeipersonals verwendet. Bryman (2012: 187) beschreibt einen Stichprobenrahmen als „die Liste aller Einheiten in der Grundgesamtheit, aus der die Stichprobe ausgewählt wird“. Die vier Betriebslisten (allerdings in unterschiedlichen Formaten) enthielten alle Angaben zu Name, Rang/Position, Rolle und Standort jedes in den BCUs beschäftigten Mitarbeiters und wurden auch zur Identifizierung der Bevölkerungsgruppe der Nachrichtendienstleiter verwendet.
Nichtwahrscheinlichkeits- und Wahrscheinlichkeitsstichproben wurden beide als Stichprobenverfahren für diese Forschung in Betracht gezogen. Bryman (2012: 187) beschreibt eine Nicht-Wahrscheinlichkeits-Stichprobe als „eine Stichprobe, die nicht unter Verwendung einer zufälligen Auswahlmethode ausgewählt wurde“ und daher „werden einige Einheiten in der Grundgesamtheit mit größerer Wahrscheinlichkeit ausgewählt als andere“. Im Gegensatz dazu beschreibt Bryman (2012: 187) eine Wahrscheinlichkeitsstichprobe als „eine Stichprobe, die durch Zufallsauswahl ausgewählt wurde, sodass jede Einheit in der Grundgesamtheit eine bekannte Chance hat, ausgewählt zu werden“, wodurch eine repräsentativere Stichprobe bereitgestellt und Stichprobenfehler minimiert werden ( siehe auch: Leming, 1997; Tashakkori und Teddlie, 2003; Handwerker, 2005; Mertens, 2005; Teddlie und Yu, 2007). Um eine repräsentativere Stichprobe der untersuchten Bevölkerung bereitzustellen und Stichprobenfehler zu minimieren, wurde in dieser Untersuchung eine Wahrscheinlichkeitsstichprobe verwendet.
Mertens (2005: 314-316) schlägt vor, dass es nach Schätzung der Stichprobengröße fünf Hauptarten der Wahrscheinlichkeitsstichprobe gibt, nämlich „einfache Zufallsstichprobe“, „systematische Stichprobe“, „geschichtete Stichprobe“, „Clusterstichprobe“ und „Mehrfachstichprobe“. -Stufenprobenahme“. Einfache Zufallsstichprobe bedeutet, dass jeder Analyseeinheit eine Nummer zugewiesen wird und die Stichprobe durch die Verwendung von computergenerierten Zufallszahlen (oder durch die Verwendung einer Tabelle von Zufallszahlen) ausgewählt wird, um die erforderliche Stichprobengröße zu erzeugen. Somit hat jede Einheit eine „gleiche und unabhängige Chance ausgewählt zu werden“ (Mertens, 2005: 314). Bei der systematischen Stichprobenziehung wird „jeder n-te Name“ aus dem Stichprobenrahmen genommen, um die Stichprobe und die erforderliche Stichprobengröße bereitzustellen (Mertens, 2005: 315). Stratifizierte Stichproben werden verwendet, wenn es „Untergruppen (oder Schichten) unterschiedlicher Größe“ gibt, die im Rahmen der Forschungsstudie untersucht werden müssen (Mertens, 2005: 315).
Beispielsweise würden in dieser Untersuchung Untergruppen (oder Schichten) innerhalb der Bevölkerung des lokalen Polizeipersonals Neighborhood Sergeants, NBMs, PSCOs, PCSOs, Special Constables und FLSOs umfassen. Bryan (2012:
-
193) bevorzugt den Begriff „geschichtete Zufallsstichprobe“ und rät, diese Methode nur anzuwenden, wenn es leicht identifizierbare Analyseeinheiten gibt, die jeder Schicht zugeordnet werden können. Cluster-Stichproben werden verwendet, wenn es an einem bestimmten Ort „natürlich vorkommende Gruppen von Individuen“ gibt und wenn kein Stichprobenrahmen (oder eine Liste aller Einheiten in der Bevölkerung) verfügbar ist, aber eine Liste von Clustern verfügbar ist (Mertens, 2005: 316). Die mehrstufige Probenahme besteht aus einer Kombination mehrerer Probenahmeverfahren. Beispielsweise die Kombination von Cluster-Sampling mit einfacher Zufallsstichprobe (Mertens, 2005: 316). Bryan (2012:
-
195) reduziert die Anzahl der wichtigsten Arten von Wahrscheinlichkeitsstichproben von fünf auf vier, indem Klumpenstichproben und mehrstufige Stichproben zu einer „mehrstufigen Klumpenstichprobe“ kombiniert werden. Bryman (2012: 194) argumentiert, dass „Cluster-Sampling immer ein mehrstufiger Ansatz ist“, weil Cluster immer zuerst beprobt werden, gefolgt von weiteren Clustern oder Einheiten in der Population.
Geschichtete Stichproben und insbesondere „geschichtete Zufallsstichproben“ (Bryman, 2012: 192-193) wurden als die am besten geeignete Stichprobenmethode für diese Forschung angesehen, um eine Zufallsstichprobe aus jeder Schicht von Neighborhood Sergeants, NBMs, PCSOs und Special Constables bereitzustellen. Da jedoch die Populationsgröße von PSCOs und FLSOs so klein war, 25 bzw. 19, wurde die gesamte Population dieser beiden Schichten in dieser Forschung verwendet.
Nachdem die Schichten für die geschichtete Zufallsstichprobe als Sergeants der Nachbarschaft, NBMs, PCSOs und Sonderpolizisten identifiziert worden waren, wurde ein Stichprobenrahmen für jede Schicht erstellt und jeder Analyseeinheit innerhalb der Schichten eine eindeutige Nummer zugewiesen. Die Stichprobe aus jeder Schicht wurde dann unter Verwendung von computergenerierten Zufallszahlen ausgewählt, um die geschätzte Stichprobengröße von 60 % zu erreichen. Die Population der PSCOs (25) und FLSOs (19) wurde der geschichteten Zufallsstichprobe hinzugefügt, um die Gesamtstichprobe von 414 Analyseeinheiten für diese Untersuchung zu erstellen.
Nachdem die Schichten für die geschichtete Zufallsstichprobe als Sergeants der Nachbarschaft, NBMs, PCSOs und Sonderpolizisten identifiziert worden waren, wurde ein Stichprobenrahmen für jede Schicht erstellt und jeder Analyseeinheit innerhalb der Schichten eine eindeutige Nummer zugewiesen. Die Stichprobe aus jeder Schicht wurde dann unter Verwendung von computergenerierten Zufallszahlen ausgewählt, um die geschätzte Stichprobengröße von 60 % zu erreichen. Die Population der PSCOs (25) und FLSOs (19) wurde der geschichteten Zufallsstichprobe hinzugefügt, um die Gesamtstichprobe von 414 Analyseeinheiten für diese Untersuchung zu erstellen.
Halbstrukturierte Interviews
Für die Zwecke der halbstrukturierten Interviewkomponente dieser Untersuchung wurde die Analyseeinheit als jeder einzelne
Geheimdienstmanager spezifiziert, der an der Verwaltung von Community-Geheimdiensten beteiligt ist. Aufgrund der relativ geringen Anzahl von Geheimdienstmanagern (eine Bevölkerung von 60) wurde entschieden, diese Bevölkerungsgruppe nicht zu befragen und die gesamte Bevölkerung in dieser Forschung zu verwenden.
Unstrukturierte verdeckte teilnehmende Beobachtungen
In Bezug auf die Komponente der unstrukturierten verdeckten teilnehmenden Beobachtungen dieser Forschung wurde die Analyseeinheit auch als jede der folgenden drei Gruppen definiert: (1) Mitglieder und Manager der lokalen Nachbarschaftspolizei-Implementierungsteams der untersuchten Polizeikräfte; (2) die regionale Neighbourhood Policing Development Group; und (3) die Manager der Nachbarschaftspolizei von der NPIA. Aufgrund der relativ geringen Anzahl von Mitgliedern dieser Gruppen (eine Bevölkerung von 23, 12 bzw. 18) entschied ich mich erneut, dass diese Bevölkerungsgruppe nicht beprobt und die gesamte Bevölkerung in dieser Forschung verwendet wird.
Sekundäre Datenanalyse
Als Analyseeinheit für die Sekundärdatenanalyse wurden die einzelnen Dokumente aus der unabhängigen Recherche von Rogers (2007) und Rogers und Gravelle (2008) festgelegt.
Stichprobenfehler
Obwohl die Wahrscheinlichkeitsstichprobe den Stichprobenfehler minimiert, kann er dennoch durch Zufall, Zufallsfehler, Voreingenommenheit oder sogar durch reines Pech auftreten. Non-Sampling-Fehler können auch durch Forscherfehler auftreten, wie z. B. Datenanalysefehler und Teilnehmerfehler, wie z. B. die Unfähigkeit oder mangelnde Bereitschaft zur Teilnahme, Nichtbeantwortung, Betrug und Teilnehmerverzerrung (Mertens, 2005; Bryman, 2012).
Datenanalyse
Die Datenanalyse wurde gleichzeitig mit den Primärdaten durchgeführt, die aus den Fragebögen zum Selbstausfüllen der postalischen Umfrage, halbstrukturierten Interviews und unstrukturierten verdeckten teilnehmenden Beobachtungen gesammelt wurden, und mit den Sekundärdaten, die aus den unabhängigen Forschungsdokumenten gesammelt wurden, die zuvor in den Archiven der untersuchten Polizei hinterlegt wurden. Quantitative Daten wurden mit den Statistical Product and Service Solutions (früher Statistical Package for the Social Sciences) (SPSS) Version 20.0 für Microsoft Windows von International Business
Machines (IBM) und qualitative Daten mit thematischer Analyse analysiert. Bryman (2012: 717) beschreibt die thematische Analyse als „Ein Begriff, der im Zusammenhang mit der Analyse qualitativer Daten verwendet wird, um sich auf die Extraktion von Schlüsselthemen in den eigenen Daten zu beziehen“. In dieser Untersuchung wurde ein Framework- oder Matrix-Ansatz zur thematischen Analyse unter Verwendung von Microsoft Excel verwendet.
Ethische Überlegungen
Diener und Crandall (1978: 7) schlagen vor, dass es vier hauptsächliche ethische Prinzipien gibt, die im Allgemeinen in Bezug auf die Behandlung von Teilnehmern an der Sozial- und Verhaltensforschung berücksichtigt werden, nämlich „Schaden für die Teilnehmer“, „Einwilligung nach Aufklärung“, „Privatsphäre“ und „ Täuschung'.
Schaden für die Teilnehmer
Faktoren, die für einzelne Teilnehmer als schädlich angesehen werden können, sind psychische Schäden wie Angst und Stress, körperliche Schäden, Verletzung der Privatsphäre, mangelnde Anonymität, Verletzungen der Vertraulichkeit, Rufschädigung und der Einsatz von Täuschung (Diener und Crandall, 1978; Punch, 1994; Hammersley und Atkinson, 1995). Körperliche Schäden wurden in dieser Untersuchung nicht als Faktor betrachtet. Es wurde jedoch sorgfältig überlegt, andere potenziell schädliche Auswirkungen dieser Forschung auf die Teilnehmer zu minimieren.
Die Bereitstellung von Informationen für potenzielle Teilnehmer über den Fragebogen zum Selbstausfüllen der postalischen Umfrage und halbstrukturierte Interviewkomponenten dieser Studie wurde als wesentlicher Bestandteil des Forschungsdesigns angesehen, damit die Teilnehmer fundierte Entscheidungen darüber treffen können, ob sie der Teilnahme zustimmen möchten diese Forschung. Es wurde auch verwendet, um unnötige Angst und Stress zu minimieren, indem versichert wurde, dass ihre Privatsphäre, Anonymität, Vertraulichkeit und ihr Ruf gewahrt bleiben würden und dass sie nicht getäuscht würden.
Auch im Hinblick auf unstrukturierte verdeckte teilnehmende Beobachtungen und Sekundärdatenanalysen kann eine Schädigung der Teilnehmer minimiert werden, auch wenn den Teilnehmern der Primärforschung jeweils nicht bewusst ist, dass sie an einem Forschungsprozess teilnehmen. Die gleichen oben erwähnten potenziell schädlichen Faktoren können während und nach dem Forschungsprozess minimiert werden (Punch, 1994).
Andere Überlegungen bei der Untersuchung großer öffentlicher
Organisationen wie der Polizei beinhalten beispielsweise die Schädigung ihres Rufs, die gegen die Suche nach Wissen und Wahrheit abgewogen werden muss. All diese Faktoren wurden in Bezug auf diese Forschung berücksichtigt, und Einwilligung nach Aufklärung, Privatsphäre und Täuschung werden im Folgenden ausführlicher erörtert.
Einverständniserklärung
Der Economic and Social Research Council (2010: 40) definiert die informierte Einwilligung wie folgt: „Eine informierte Einwilligung bedeutet, ausreichende Informationen über die Forschung zu geben und sicherzustellen, dass es keinen expliziten oder impliziten Zwang gibt, damit potenzielle Teilnehmer eine informierte und freie Entscheidung über ihre treffen können mögliche Beteiligung“. Diese Ansicht wird von der Social Research Association (2003) und der British Sociological Association (2004: 3) unterstützt, die beide ebenfalls raten, dass „soweit wie möglich die Teilnahme an soziologischer Forschung auf der freiwillig erteilten informierten Zustimmung der Untersuchten beruhen sollte '. Sieber (1992: 26) schlägt vor, dass die freiwillige Einwilligung nach Aufklärung nicht nur eine Vereinbarung über die Bedingungen der Teilnahme eines Teilnehmers an der Forschung ist, sondern auch „ein fortlaufender wechselseitiger Kommunikationsprozess zwischen den Probanden und dem Forscher“. Diener und Crandall (1978) argumentieren, dass die freiwillige informierte Einwilligung auf westlichen kulturellen Werten und Rechtssystemen basiert, die die Wahlfreiheit betonen. Artikel 9 (Gedanken-, Gewissens- und Religionsfreiheit) und Artikel 10 (Meinungsfreiheit) des Human Rights Act 1998 (Home Office, 1998b: 24-25) und der Europäischen Menschenrechtskonvention (Convention for the Protection of Human Rights und Grundfreiheiten) (Europarat, 2010: 11-12) tendieren dazu, dieses Argument zu unterstützen.
Obwohl es von Forschern als gängige Strategie akzeptiert wird, ist das Konzept der freiwilligen Einwilligung nach Aufklärung nicht so einfach, wie es zunächst scheinen mag, und kein Allheilmittel für alle ethischen Probleme (Kimmel, 1988; Hammersley und Traianou, 2012). Bedenken ergeben sich bei der Bestimmung, wie potenzielle Teilnehmer vollständig über die Forschung informiert werden und wie viele Details ihnen mitgeteilt werden sollen, da dies zu einer technisch komplizierten, mühsamen und möglicherweise unerreichbaren Aufgabe werden könnte. Stanleyet al. (1987: 736) weisen darauf hin, dass „das Verständnis von Einwilligungsinformationen relativ schlecht ist“ und je länger und komplexer die Informationen sind, desto weniger werden sie verstanden. Daher sollten die Informationen so präsentiert werden, dass sie für jeden einzelnen Interessenten verständlich sind (Kimmel, 1988; Wiles et al., 2004). Die freiwillig erteilte informierte Einwilligung wirft auch andere
Fragen darüber auf, wie frei die Einwilligung tatsächlich ist. Hammersley und Traianou (2012) argumentieren, dass potenzielle Teilnehmer keine wirklich freien und unabhängigen Individuen sind, da sie von bestimmten sozialen Faktoren und Beziehungen beeinflusst werden, die ihre Entscheidungsfindung beeinflussen. Insbesondere wenn diese Faktoren und Beziehungen eine Organisation betreffen, die Macht oder Einfluss auf sie hat, und sie sich verpflichtet fühlen, der Zustimmung zuzustimmen oder nicht zuzustimmen, aufgrund der Einschränkungen, die die Organisation oder Einzelpersonen innerhalb der Organisation ihnen auferlegen. Hammersley und Traianou (2012) argumentieren auch, dass kulturelle Aspekte innerhalb der Gesellschaft und innerhalb von Organisationen ebenfalls die vollständige und freie Einwilligung nach Aufklärung beeinflussen werden. Obwohl eine vollständige und freie informierte Einwilligung unter bestimmten Umständen nicht immer möglich ist, ist sie dennoch wünschenswert. Dies ist jedoch möglicherweise nicht der Fall, wenn es um verdeckte Forschung geht.
Spicker (2011: 119) definiert verdeckte Forschung wie folgt: „Verdeckte Forschung ist Forschung, die der Versuchsperson nicht offengelegt wird – wo der Forscher nicht offenbart, dass Forschung stattfindet“. Verdeckte Forschung, insbesondere verdeckte teilnehmende Beobachtung, wird oft als kontrovers und sogar unethisch angesehen, hauptsächlich weil die beobachteten Teilnehmer nicht in der Lage sind, ihre freiwillige informierte Zustimmung zu geben und ihre Beteiligung nicht ablehnen können (Bulmer, 1982: 252; Lee, 1993: 143; Lugosi , 2006: 542-543). Lee (1993: 143-144) weist jedoch darauf hin, dass sozialwissenschaftliche Forscher drei Positionen in Bezug auf die Ethik der verdeckten Forschung eingenommen haben, nämlich „absolutistisch“, „pragmatisch“ und „skeptisch“. Die absolutistische Position ist, dass verdeckte Forschungsmethoden aus ethischen Gründen nicht verwendet werden können. Die pragmatische Position ist, dass sie die Rechte der Teilnehmer schützen möchte und verpflichtet ist, ihnen keinen Schaden zuzufügen, aber nur ungern verdeckte Methoden anwenden wird, wenn es keine andere Möglichkeit gibt, an die erforderlichen Daten zu gelangen. Die skeptische Position ist, dass es eine positive Rechtfertigung für verdeckte Forschungsmethoden gibt. Obwohl sich Lees drei ethische Positionen speziell auf verdeckte Forschung beziehen, gibt es Ähnlichkeiten mit drei von Brymans (2012) fünf Hauptpositionen zur Ethik. Es können Vergleiche zwischen der absolutistischen Position und Universalismus, der pragmatischen Position und Situationsethik sowie der skeptischen Position und der Anything goes (mehr oder weniger) Haltung gesehen werden (Bryman, 2012: 133-134).
Privatsphäre
Privatsphäre, Vertraulichkeit und Anonymität sind untrennbar miteinander verbunden, wenn ethische Fragen in der Forschung diskutiert werden, was durch den folgenden Absatz aus dem Statement of Ethical Practice der British Sociological Association betont wird:
Die Anonymität und Privatsphäre der am Forschungsprozess Beteiligten sollte respektiert werden. Persönliche Informationen über Forschungsteilnehmer sollten vertraulich behandelt werden. In einigen Fällen kann es erforderlich sein, zu entscheiden, ob es richtig oder angemessen ist, bestimmte Arten sensibler Informationen aufzuzeichnen.
(British Sociological Association, 2004: 5) Diener und Crandall (1978: 55-57) identifizieren drei Dimensionen der Privatsphäre, die sie als „Sensitivität von Informationen“, „das beobachtete Umfeld“ und „Verbreitung von Informationen“ beschreiben. Die Sensibilität von Informationen bezieht sich darauf, „wie persönlich oder potenziell bedrohlich sie sind“, da einige Informationen wie religiöse Überzeugungen, sexuelle Orientierung, rassistische Vorurteile, persönliche Finanzen und Ehrlichkeit als sensibler angesehen werden als andere Informationen wie ein Name (Diener und Crandall , 1978: 55). Je sensibler die Informationen sind, desto mehr Schutzmaßnahmen müssen getroffen werden, um die Privatsphäre des Einzelnen zu schützen. Die beobachtete Umgebung berücksichtigt das „Kontinuum von sehr privat (z. B. Ihr Badezimmer) bis vollständig öffentlich (z. B. ein Bürgersteig in der Innenstadt)“ (Diener und Crandall, 1978: 57). Je privater die Umgebung, desto mehr Vorkehrungen müssen getroffen werden, um die Privatsphäre zu gewährleisten. Spicker (2011) argumentiert, dass es eine schwierige und oft komplexe Aufgabe ist, die Grenzen zwischen privatem und öffentlichem Umfeld zu unterscheiden. Wenn beispielsweise eine Gruppe einen normalerweise öffentlichen Raum in einem öffentlichen Haus für ein Treffen mietet, wird dieser Raum dann zu einem privaten Ort für die Zwecke der ethischen Forschung? Diese Frage ist sehr schwer zu beantworten, da jeder Fall einzeln geprüft werden müsste. Bei der Verbreitung von Informationen geht es um die Anzahl der Personen, die „persönliche Informationen mit dem Namen der betroffenen Person in Verbindung bringen können“ (Diener und Crandall, 1978: 57). Je mehr Personen Kenntnis von den personenbezogenen Daten einer identifizierbaren Person haben, desto größer muss die Sorge um den Datenschutz sein. Daher sollte der Forscher in allen Fällen die Sensibilität der Informationen, die Umgebung oder den Ort, der für die Forschung verwendet werden soll, und die Art und Weise der Verbreitung der resultierenden Informationen bewerten, um sicherzustellen, dass Sicherheitsvorkehrungen zum Schutz der Privatsphäre des Einzelnen getroffen werden.
Der Datenschutz ist auch mit der Bereitstellung von Informationen für die Teilnehmer verbunden, damit sie feststellen können, welche Auswirkungen die Forschung auf ihr Privatleben haben kann, bevor sie ihre Einwilligung nach Aufklärung erteilen (Bryman, 2012). Die British Sociological Association (2004: 5) schlägt vor, dass „verdeckte Methoden die Prinzipien der informierten Einwilligung verletzen und in die Privatsphäre der untersuchten Personen eindringen können“. Daher sollte den drei Dimensionen der Privatsphäre, die von Diener und Crandall (1978) hervorgehoben werden, noch mehr Aufmerksamkeit geschenkt werden, wenn verdeckte Forschung in Betracht gezogen wird.
Spicker (2011) argumentiert jedoch, dass die Handlungen öffentlicher Stellen wie der Polizei auch hinter verschlossenen Türen immer noch in der Öffentlichkeit liegen.
Einige Aktionen sind ihrer Natur nach öffentlich. Das förmliche Handeln von Regierungen und Behörden, auch in geschlossenen Räumen, ist per se öffentlich.
(Spicker, 2011: 124) Die Hauptmethode, mit der Forscher eine versehentliche Offenlegung verhindern und Forschungsteilnehmer schützen, ist die Verwendung von Anonymität. Mertens (2005: 333) schlägt vor, dass „Anonymität bedeutet, dass den Daten keine eindeutig identifizierenden Informationen beigefügt werden und somit niemand, nicht einmal der Forscher, die Daten zu der Person zurückverfolgen kann, die sie bereitgestellt hat“. Vollständige Anonymität, wie von Mertens oben vorgeschlagen, ist sehr schwer zu erreichen, insbesondere wenn die Forschungsmethoden beinhalten, dass der Forscher die Teilnehmer befragt. Es liegt in der Natur des Interviewprozesses, dass er im Allgemeinen von Angesicht zu Angesicht mit einer kleineren Population oder Stichprobengruppe von Teilnehmern durchgeführt wird. Selbst wenn die Daten verschlüsselt und anonymisiert werden, um eine Identifizierung der Teilnehmer durch Dritte zu verhindern, wird der Forscher zweifellos in der Lage sein, eine Reihe von Teilnehmern
anhand der von ihnen bereitgestellten spezifischen Daten zu identifizieren. Dies sollte den Forscher jedoch nicht daran hindern, die Anonymität der Teilnehmer gegenüber Dritten zu gewährleisten.
Für die Zwecke dieser Untersuchung wurden alle Anstrengungen unternommen, um die Privatsphäre, Vertraulichkeit und Anonymität der Teilnehmer in allen Aspekten der Untersuchung zu gewährleisten, auch wenn die Teilnehmer als Beamte einer öffentlichen Organisation (z. B. der Polizei) angesehen werden können (British Sociological Association , 2004).
Täuschung
Spicker (2011) argumentiert, dass Täuschung oft mit verdeckter Forschung verwechselt wird und viele der Einwände gegen verdeckte Forschung tatsächlich Einwände gegen Täuschung sind. Im Gegensatz zu Spickers obiger Definition von verdeckter Forschung definiert Spicker (2011: 119) Täuschung wie folgt: „Deception, by contrast, tritt auf, wenn die Art der Handlung eines Forschers gegenüber dem Forschungssubjekt falsch dargestellt wird.“
Ich neige dazu, den oben von Spicker (2011) angebotenen Definitionen von verdeckter Forschung und Täuschung zuzustimmen. Obwohl bei dieser Untersuchung verdeckte Forschung in Form von unstrukturierten teilnehmenden Beobachtungen zum Einsatz kam, bin ich der Meinung, dass keine Täuschung stattgefunden hat. Ich habe meine Handlungen gegenüber den Forschungssubjekten nicht falsch dargestellt und lediglich meine normale Rolle und Verantwortung als voll teilnehmendes Mitglied der beobachteten Gruppen erfüllt. Ich gab nicht vor, jemand oder etwas zu sein, was ich nicht war, und es gab keine Absicht, mich zu täuschen. In keiner der anderen Komponenten dieser Forschung wurde irgendeine Form der Täuschung verwendet.
Politische Erwägungen
Politische Erwägungen unterscheiden sich von den oben beschriebenen ethischen Erwägungen, da sie sich eher auf die Substanz und den Nutzen der Forschung als auf die angewandten Forschungsmethoden beziehen. Hammersley (1995: 103) schlägt vor, dass es zwei Hauptwege gibt, auf denen Forschung als politisch angesehen werden kann: erstens durch die „Ausübung von Macht“ und zweitens durch das „Machen von Werturteilen“ und die Maßnahmen, die als Ergebnis dieser Urteile ergriffen werden . Hammersley argumentiert, dass die Ausübung von Macht aus zwei gegensätzlichen Perspektiven betrachtet werden kann. Die erste Perspektive betrifft Forscher und Forschungseinrichtungen, die ihre Autonomie gegenüber externen Mächten, wie dem Staat und anderen
Macht- und Einflussberechtigten in der Gesellschaft, bewahren. Die zweite Perspektive betrifft die Macht, die von Forschern und Forschungseinrichtungen selbst ausgeübt wird, wo die Forschung oder das Wissen selbst Macht ist. Hammersley (1995: 109) argumentiert auch, dass das Fällen von Werturteilen auch einen politischen Aspekt hat, da Forschung nicht völlig wertfrei oder neutral sein kann, da sie von der Suche nach Wissen und den sozialen, politischen und wirtschaftlichen Bedingungen beeinflusst wird intellektuellen Voraussetzungen der Zeit.
Im Gegensatz zu ethischen Überlegungen gibt es keinen professionellen Verhaltenskodex für politische Angelegenheiten, aber es ist allgemein anerkannt, dass die politischen Ansichten des Forschers die Forschung nicht stören oder beeinflussen dürfen. Im Verlauf dieser Recherche war ich mir der zu berücksichtigenden politischen Themen bewusst und bemühte mich, deren Einfluss auf diese Recherche so gering wie möglich zu halten.
Forschung kann auch durchgeführt und verwendet werden, um die Zentralregierung in politischen Fragen zu beraten, was letztendlich zu Gesetzesänderungen führen kann. Insoweit können also auch politische Erwägungen mit rechtlichen Erwägungen verknüpft werden.
Rechtlichen Erwägungen
Zusätzlich zu den oben genannten ethischen und politischen Erwägungen wurden auch die rechtlichen Erwägungen im Zusammenhang mit Zustimmung, Datenschutz, Vertraulichkeit und Anonymität berücksichtigt. Wileset al. (2004: 8) argumentieren, dass „Artikel 8 des Menschenrechtsgesetzes von 1998 und des Datenschutzgesetzes von 1998 für die Einwilligung in Bezug auf alle Forschung relevant sind“.
Artikel 8 (Recht auf Achtung des Privat- und Familienlebens) des Menschenrechtsgesetzes von 1998 (Innenministerium, 1998b: 24) und der Europäischen Menschenrechtskonvention (Übereinkommen zum Schutz der Menschenrechte und Grundfreiheiten) (Europarat, 2010: 10-11) heißt es: „Jeder hat das Recht auf Achtung seines Privat- und Familienlebens, seiner Wohnung und seiner Korrespondenz“. Daher wird die Privatsphäre als eines der grundlegendsten Rechte des Einzelnen angesehen, das durch die Gesetzgebung geschützt wird.
Das Datenschutzgesetz von 1998 (Home Office, 1998a: 47) umreißt auch acht gesetzliche Grundsätze für die Verarbeitung personenbezogener Daten, um sicherzustellen, dass sie für einen rechtmäßigen Zweck verarbeitet werden, dass sie angemessen, relevant, nicht übermäßig, genau, rechtzeitig und erforderlich sind, und dass es verwaltet wird, um unbefugte oder rechtswidrige Verarbeitung, versehentlichen Verlust, Zerstörung und Beschädigung zu verhindern. Daher dienen diese gesetzlichen Grundsätze nicht nur dem Schutz der Privatsphäre des Einzelnen, sondern auch seiner Vertraulichkeit und Anonymität.
Zusammenfassend lässt sich sagen, dass diese Studie nach sorgfältiger Überlegung der oben genannten ethischen und rechtlichen Erwägungen einen pragmatischen situativen Ansatz zur Ethik annehmen wird, während sie dennoch die vier wichtigsten ethischen Prinzipien der Schädigung der Teilnehmer, der informierten Zustimmung, der Privatsphäre und der Täuschung berücksichtigt (Diener und Crandall, 1978) und die wichtigsten Rechtsfragen im Zusammenhang mit Freiheit, Privatsphäre und Vertraulichkeit (Home Office, 1998a; 1998b). Im Verlauf dieser Forschung wurden konzertierte Anstrengungen unternommen, um den Schaden für die Teilnehmer zu verringern, gegebenenfalls eine Einwilligung nach Aufklärung einzuholen, die Privatsphäre, Vertraulichkeit und Anonymität der Teilnehmer und Probanden zu gewährleisten und alle Formen der Täuschung aufzuheben, während sie innerhalb des Verbundes operierten Menschenrechte und Datenschutzrecht.
Es gibt jedoch noch andere Überlegungen, die berücksichtigt werden müssen, wie z. B. die Validität, Zuverlässigkeit und Objektivität der Forschung, die auch ethische Implikationen haben können. Gorard (2010: 247) schlägt vor, dass die „Qualität der Forschung“, die „Robustheit der Ergebnisse“ und die „Sicherheit der gezogenen Schlussfolgerungen“ zentrale ethische Erwägungen für Forscher sind, insbesondere für öffentlich finanzierte Forschung.
Gültigkeit, Zuverlässigkeit und Objektivität
Die Begriffe Validität, Zuverlässigkeit und Objektivität werden im Allgemeinen mit der quantitativen Forschungsmethodik und den quantitativen Forschungsmethoden und -designs in Verbindung gebracht (Bryman, 2012). Eine Reihe von Forschern (z. B. Kirk und Miller, 1986; Mason, 2002) haben diese traditionellen Kriterien jedoch auf die qualitative Forschungsmethodik angewendet, während andere (z. B. Lincoln und Guba, 1985) argumentieren, dass sie auf quantitativer Forschung beruhen sind für qualitative Forschung ungeeignet und haben auf der Grundlage des Konzepts der „Vertrauenswürdigkeit“ alternative Kriterien vorgeschlagen, auf die weiter unten näher eingegangen wird (Lincoln und Guba, 1985: 290). Golafshani (2003) schlägt vor, dass, wenn traditionelle Kriterien wie Gültigkeit und Zuverlässigkeit auf qualitative Forschung angewendet werden sollen, diese neu definiert werden müssen. Morseet al. (2002) stimmen zu und argumentieren, dass Autoren unterschiedliche Terminologien für dieselben oder ähnliche Kriterien verwenden, was zu Verwirrung führt und die Frage der Strenge in der Forschung untergraben kann.
Gültigkeit
Bryman (2012:47) schlägt vor, dass „Gültigkeit mit der Integrität der Schlussfolgerungen, die aus einer Forschungsarbeit hervorgehen, verbunden ist“. Er (identifiziert auch vier Haupttypen von Validität, nämlich „Messvalidität“, „ökologische Validität“, „interne Validität“ und „externe Validität“.
Die Messvalidität bezieht sich darauf, ob ein Instrument, das zur Messung eines Konzepts entwickelt wurde, tatsächlich das Konzept widerspiegelt, das es misst. Die Messvalidität ist unweigerlich mit der Zuverlässigkeit verbunden, da die Messung auch stabil und zuverlässig sein muss, damit sie gültig ist (Campbell und Fiske, 1959; Neuman, 2000; Bryman, 2012) (siehe den Abschnitt über Zuverlässigkeit weiter unten). Das Forschungsinstrument für die quantitative Komponente dieser Forschung (der Selbstausfüllfragebogen für postalische Umfragen) wurde pilotiert und ein gut getestetes und weit verbreitetes quantitatives Datenanalysesystem, die IBM SPSS Version 20.0 für Microsoft Windows, wurde verwendet, um die Daten zu analysieren die Messvalidität verbessern.
Bei der ökologischen Validität geht es darum, ob die Erkenntnisse der Sozialforschung auf den Alltag der Menschen in ihren natürlichen sozialen Umgebungen übertragbar sind. Je mehr die Forschung in diese Einstellungen eingreift, desto unnatürlicher werden sie (Bryman, 2012). Die Fragebögen zur Selbstausfüllung per Post wurden von jedem der Teilnehmer in einem von ihnen gewählten sozialen Umfeld ohne Einmischung des Forschers ausgefüllt.
Die interne Validität bezieht sich auf die Kausalität oder kausale Beziehung zwischen zwei Variablen (der unabhängigen Variablen und der abhängigen Variablen) und darauf, ob der Forscher zuversichtlich ist, dass alle aus dieser Beziehung abgeleiteten Schlussfolgerungen echt sind (Bryman, 2012). Der Hawthorne-Effekt wurde berücksichtigt, bei dem die Teilnehmer ihr Verhalten ändern, wenn sie wissen, dass sie Gegenstand einer Forschungsstudie sind (Bramel und Friend, 1981; Olson et al., 2004). Diese Verhaltensänderung kann die Kausalität zwischen Variablen beeinflussen und die interne Validität einer Studie beeinträchtigen. Dies kann sich auch darin äußern, dass Teilnehmer Antworten auf einen selbst auszufüllenden Fragebogen geben, von dem sie glauben, dass der Forscher ihn sehen möchte, anstatt offene und ehrliche Antworten zu geben. Randomisierung ist ein Faktor, der zur Steigerung der internen Validität beitragen kann, aber es muss darauf geachtet werden, nicht zu viele Kontrollen einzuführen, denn je mehr Kontrollen eingeführt werden, desto künstlicher wird die Forschung. Daher muss interne Validität mit externer Validität abgewogen werden, was Generalisierbarkeit erfordert (Jupp, 1989).
Bei der externen Validität geht es darum, ob die Ergebnisse einer
bestimmten Forschung im breiteren Kontext weiterer Forschung verallgemeinert werden können. Stichprobenverfahren sind wichtig für die externe Validität, da die Stichprobe für die untersuchte Population repräsentativ sein muss, damit die Ergebnisse verallgemeinert werden können (Bryman, 2012). Die geschichtete Zufallsstichprobe (Bryman, 2012: 192-193) wurde als die valideste Stichprobenmethode für die große Bevölkerungsgruppe der Mitarbeiter der lokalen Nachbarschaftspolizei angesehen und lieferte eine repräsentative Zufallsstichprobe aus jeder untersuchten Schicht. Triangulation kann auch die externe Validität einer Forschungsstudie erhöhen, indem quantitative und qualitative Forschungsergebnisse als Form der Bestätigung kombiniert werden (Denzin, 1978) (siehe den Abschnitt über die Stichprobenziehung oben). Eine Verallgemeinerbarkeit kann in dieser Studie jedoch nicht garantiert werden, da sie als Momentaufnahme der Beziehung zwischen lokaler Nachbarschaftspolizei und Community Intelligence in der untersuchten Polizei zu einem bestimmten Zeitpunkt angesehen werden kann. Die Prioritäten dieser Polizeikräfte können sich im Laufe der Zeit ändern, und andere Polizeikräfte können andere Prioritäten haben, wobei der Schwerpunkt mehr oder weniger auf Nachbarschaftspolizei und Community Intelligence liegt.
Zuverlässigkeit
Neuman (2000: 164) schlägt vor, dass Zuverlässigkeit „bedeutet, dass die von einem Indikator erzeugten numerischen Ergebnisse nicht aufgrund von Eigenschaften des Messverfahrens oder Messinstruments selbst variieren“. Wenn also dasselbe Messinstrument und Verfahren erneut verwendet werden, sollten die erhaltenen numerischen Ergebnisse dieselben sein (Campbell und Fiske, 1959). Wie oben erwähnt, ist die Reliabilität mit der Messvalidität verknüpft, und die gleichen Maßnahmen, die zur Erhöhung der Validität verwendet werden, können zur Erhöhung der Reliabilität verwendet werden. Um die Zuverlässigkeit zu erhöhen, wurde die Stabilität, Repräsentativität und Genauigkeit der Messung durch Pilotierung der Fragebögen zum Selbstausfüllen von postalischen Umfragen berücksichtigt.
Objektivität
Payne und Payne (2004: 152) beschreiben Objektivität wie folgt: „... so weit wie möglich sollten Forscher von dem, was sie untersuchen, Abstand halten, damit die Ergebnisse eher von der Art dessen abhängen, was untersucht wurde, als von der Persönlichkeit, den Überzeugungen und Werten dessen Der Forscher ...'. Daher muss der Forscher versuchen, objektiv zu bleiben und nicht zulassen, dass persönliche Vorurteile die Forschung beeinflussen, während die Leser der Forschung darauf vertrauen
müssen, dass der Forscher ihre persönlichen Vorurteile eingeschränkt hat (Payne und Payne, 2004: 153). Gegner dieser Ansicht weisen jedoch darauf hin, dass vollständige Objektivität unerreichbar oder unangemessen ist, da Forscher nicht isoliert arbeiten, sondern mit anderen innerhalb des Forschungsumfelds interagieren und von ihnen beeinflusst werden (Scott und Marshall, 2009: 522). Ich war mir meiner persönlichen Werte und Vorurteile bewusst und wie sie meine Objektivität beeinflussen können, wenn ich mich mit den quantitativen Komponenten dieser Forschung befasse (siehe den Abschnitt über Reflexivität weiter unten).
Das Konzept der „Vertrauenswürdigkeit“ wurde von Lincoln und Guba (1985: 290) vorgeschlagen, um die Frage zu beantworten „Wie kann ein Forscher sein oder ihr Publikum (einschließlich sich selbst) davon überzeugen, dass die Ergebnisse einer Untersuchung es wert sind, beachtet und berücksichtigt zu werden von?' Lincoln und Guba (1985: 189) entwickelten vier Aspekte der Vertrauenswürdigkeit für qualitative Forschung, nämlich „Glaubwürdigkeit“, „Übertragbarkeit“, „Zuverlässigkeit“ und „Bestätigbarkeit“, um parallel zu den vier traditionellen quantitativen Forschungskriterien interne Validität, externe Validität, Reliabilität und Objektivität bzw.
Glaubwürdigkeit
Glaubwürdigkeit bezieht sich auf die Genauigkeit des Verständnisses und der Interpretation eines Aspekts der sozialen Realität durch den Forscher und die Akzeptanz dieses Berichts für andere in diesem sozialen Umfeld (Lincoln und Guba, 1985; Bryman, 2012). Zu den Techniken zur internen Validierung der Glaubwürdigkeit gehören die Verwendung etablierter Forschungsmethoden, Zufallsstichproben, Reziprozität (eine gegenseitig kooperative Interaktion zwischen Teilnehmern und Forschern), Befragte-Validierung (bei der Befragte oder an der Forschung beteiligte Teilnehmer die Darstellung des Forschers bestätigen) und Triangulation (Webb et al ., 1966; Bloor, 1978; Denzin, 1978; Harrison et al., 2001; Shenton, 2004). In dieser Forschung wurden etablierte qualitative Forschungsmethoden wie halbstrukturierte Interviews und unstrukturierte verdeckte teilnehmende Beobachtungen mit der gesamten Bevölkerungsgruppe von Geheimdienstmanagern bzw. lokalen, regionalen und nationalen Nachbarschaftspolizeimanagern verwendet. Es wurde darauf geachtet, dass die halbstrukturierten Interviews am oder in der Nähe des normalen Arbeitsplatzes der Teilnehmer durchgeführt wurden und die unstrukturierten verdeckten teilnehmenden Beobachtungen im natürlichen Rahmen von Management-Meetings durchgeführt wurden, an denen normalerweise die Forschungssubjekte teilnehmen würden.
Übertragbarkeit
Übertragbarkeit bezieht sich auf die Tiefe der vom Forscher produzierten
qualitativen Forschungsergebnisse, die es anderen ermöglicht, zu beurteilen, ob die Ergebnisse auf andere soziale Situationen übertragbar sind (Lincoln und Guba, 1985; Bryman, 2012). Zu den Techniken zur externen Validierung der Übertragbarkeit gehören ausführliche Beschreibungen, um anderen ein angemessenes Verständnis des untersuchten Phänomens zu ermöglichen (Geertz, 1973; Denzin, 1989; Harrison et al., 2001). Um die Übertragbarkeit zu verbessern, wurden in dieser Untersuchung reichhaltige dicke Beschreibungen verwendet.
Zuverlässigkeit
Verlässlichkeit bezieht sich auf die Darstellung des Forschers über alle Veränderungen, die in dem untersuchten sozialen Umfeld bestehen, und auf die Reaktion auf diese Veränderungen in der Realität durch Modifikation des Forschungsdesigns. Dies beinhaltet, dass der Forscher detaillierte Aufzeichnungen über jede Phase des Forschungsprozesses führt, einschließlich der Formulierung der Forschungsfrage, der Forschungsmethodik, der Methoden und des Designs, des Stichprobenverfahrens, der Transkripte der Interviews, der Feldnotizen, der Datenanalyse und der Forschungsergebnisse (Lincoln and Guba, 1985; Bryan, 2012). Verlässlichkeit ist eng mit Glaubwürdigkeit verbunden, daher trägt die Sicherstellung von Glaubwürdigkeit wesentlich zur Gewährleistung von Verlässlichkeit bei (Lincoln und Guba, 1985). Zu den Techniken zur Gewährleistung der Zuverlässigkeit und Verlässlichkeit der Forschung gehören Peer-Reviews (bei denen Peers während oder am Ende der Forschung als Prüfer fungieren, um festzustellen, dass alle Verfahren korrekt befolgt wurden) und Reflexivität der Forscher (Bryman, 2012). Detaillierte Aufzeichnungen dieser Forschung wurden während des gesamten Forschungsprozesses geführt und diese Forschung wird im Rahmen des Promotionsverfahrens überprüft. Reflexivität wurde auch als Teil dieses Forschungsprozesses verwendet (siehe den Abschnitt über Reflexivität weiter unten).
Bestätigbarkeit
Bei der Bestätigbarkeit geht es darum, sicherzustellen, dass der Forscher so objektiv wie möglich bleibt und nicht zugelassen hat, dass seine persönlichen Überzeugungen, Werte oder Vorurteile die Durchführung der Forschung oder ihre Ergebnisse beeinflussen, während die subjektive Natur der qualitativen Forschung anerkannt wird (Lincoln und Guba, 1985;Bryman ,2012).Techniken zur Sicherstellung der Konfirmierbarkeit können mit dem Peer Review (Auditverfahren) zur Sicherstellung der Verlässlichkeit und einem Triangulationsforschungsdesign wie dem oben erwähnten verknüpft werden (Denzin, 1978; Lincoln und Guba, 1985). Triangulation wurde in diesem Zusammenhang auch verwendet, um die
Wirkung meiner eigenen Werte und Vorurteile zu reduzieren und um sicherzustellen, dass die Ergebnisse das Ergebnis der Erfahrungen und Ideen der Teilnehmer waren und nicht meiner persönlichen Präferenzen (Shenton, 2004: 72).
Im Anschluss an die Vertrauenswürdigkeit führten Guba und Lincoln (1989: 245-250) auch das Konzept der „Authentizität“ ein, das sich mit der Qualität qualitativer Forschung und den breiteren Implikationen der Politikforschung befasst, aber dieses Konzept hatte keinen großen Einfluss und bleibt in manchen Kreisen immer noch ziemlich umstritten (Morse et al., 2002; Bryman, 2012).
Brymanet al. (2008) führten eine Studie durch, um festzustellen, welche der oben genannten Kriterien von Sozialpolitikforschern als am besten geeignet für die quantitative, qualitative und Mixed-Methods-Forschung erachtet wurden. Brymanet al. (2008: 264-267) fanden heraus, dass Forscher glaubten, dass Validität und Zuverlässigkeit die zwei am besten geeigneten traditionellen Kriterien sowohl für quantitative als auch für qualitative Forschung seien, während Glaubwürdigkeit als die am besten geeigneten alternativen Kriterien für qualitative Forschung befunden wurde. Die Mehrheit der Forscher (82,1 %) war der Ansicht, dass eine Kombination aus traditionellen und alternativen Kriterien für die Forschung mit gemischten Methoden verwendet werden sollte, und mehr als drei Viertel (76,5 %) der Forscher bevorzugten die Verwendung verschiedener Kriterien (traditionell und alternativ) für die quantitativen und qualitativen Komponenten von Mixed-Methods-Forschung (Bryman et al., 2008: 268-269).
Für die Zwecke dieser Untersuchung wurde eine Kombination aus traditionellen (Gültigkeit, Zuverlässigkeit und Objektivität) Kriterien und alternativen (Glaubwürdigkeit, Übertragbarkeit, Zuverlässigkeit und Bestätigbarkeit) Kriterien verwendet, um die Qualität und Robustheit der quantitativen bzw. qualitativen Komponenten sicherzustellen.
Reflexivität
Guillemin und Gillam (2004: 274) beschreiben Reflexivität in der Forschung als „einen Prozess der kritischen Reflexion sowohl über die Art des Wissens, das aus der Forschung hervorgeht, als auch darüber, wie dieses Wissen generiert wird“. Hammersley und Atkinson (2007: 15) betonen, dass „die Wissensproduktion von Forschern Konsequenzen hat“, da die Veröffentlichung von Forschungsergebnissen die politische und praktische Entscheidungsfindung beeinflussen und sogar „den Charakter der untersuchten Situationen verändern“ kann. Sie argumentieren auch, dass die Orientierungen der Forscher von ihren soziohistorischen Standorten geprägt sind und sie nicht von der breiteren Gesellschaft oder ihrer eigenen Biografie isoliert sind und daher Reflexivität ein
„signifikantes Merkmal der Sozialforschung“ ist (Hammersley und Atkinson, 2007: 15). Reflexivität ermöglicht es dem Forscher, seine soziohistorischen Annahmen, Überzeugungen, Vorurteile und Werte anzuerkennen und zu beschreiben und durch diesen reflexiven Selbstbewusstseinsprozess identifizierte Vorurteile im Verlauf der Forschung zu minimieren (Creswell und Miller, 2000: 127).
Pels (2000: 3) schlägt vor, dass Reflexivität eine weitere Ebene oder Dimension der Selbstreferenz hinzufügt, was die Forschung „einen Schritt nach oben“ bringt. Lynch (2000: 34-35) ist anderer Meinung und schlägt vor, dass der Begriff Reflexivität viele verschiedene Bedeutungen hat und oft als „theoretische oder methodologische Tugend“ bezeichnet wird, wobei er die intellektuelle Überlegenheit einnimmt. Lynch (2000: 35) argumentiert jedoch auch, dass es sehr wenige Beweise dafür gibt, dass zeitgenössische Forschung, die Reflexivität beinhaltet, von größerem Wert oder größerer Autorität ist als frühere Forschung, die dies nicht getan hat.
Finlay (2002: 209) schlägt vor, dass es fünf Varianten der Reflexivität gibt: „Introspektion“, „intersubjektive Reflexion“, „gegenseitige Zusammenarbeit“, „Gesellschaftskritik“ und „diskursive Dekonstruktion“. Selbstbeobachtung beinhaltet die Verwendung der eigenen Reflexionen, Intuitionen, Gedanken und Erfahrungen des Forschers als primäre Beweise für die Forschung. Intersubjektive Reflexion beschäftigt sich mit den Bedeutungen, die sich aus der komplexen Beziehungsdynamik zwischen Forschenden und Beteiligten ergeben, und ist mehr als bloße Reflexion. Gegenseitige Zusammenarbeit entsteht, wenn der Forscher und die Teilnehmer zusammenarbeiten und die Teilnehmer zu Co-Forschern werden, die einen reflexiven Dialog führen. Gesellschaftskritik reflektiert den Umgang mit dem Machtungleichgewicht zwischen dem Forscher und den Teilnehmern unter Berücksichtigung von Themen wie Klasse, Geschlecht und Rasse. Die diskursive Dekonstruktion reflektiert die Mehrdeutigkeit in der Bedeutung der in der Forschung verwendeten Sprache und wie diese interpretiert wird.
Watt (2007: 82) schlägt vor, dass der Forscher das primäre Instrument für die Datenerhebung und -analyse ist und daher Reflexivität wesentlich ist. Daher wurde für die Zwecke dieser Forschung eine eher introspektive Reflexivität verwendet, um den Forschungsprozess als Ganzes zu reflektieren.
Es gibt Probleme, mit denen Forscher in Bezug auf Reflexivität konfrontiert werden können, wie die Verwendung von Rhetorik zur Unterstützung von Vorurteilen, das Ausströmen persönlicher Emotionen, ein Kreislauf der Dekonstruktion und Rekonstruktion von Elementen innerhalb des Forschungsprozesses und endlose Selbstkritik, die alles verlieren können Bedeutung für den Leser (Finlay, 2002: 226). In Anbetracht dessen ist es ratsam, über das folgende Gedicht nachzudenken:
Reflexivität hat wie Hypnotherapie verschiedene Ebenen. Einige versuchen sich an der Oberfläche, tauchen in reflexive Momente ein, flirten mit den Bildern, die in der Reflexion hervorgerufen werden, bevor sie in die Sicherheit des Alltäglichen zurückkehren. Andere versuchen, der Angst vor dem im Abgrund lauernden Monster zu begegnen, indem sie in die tieferen Bereiche der Reflexivität hinabsteigen. Es sind diejenigen, die sich der Bestie stellen, die wirklich wissen, was dort in der Dunkelheit dahinter ist. Denken Sie darüber nach, während Sie sich tief in Ihrem Inneren nach unten drehen.
Geheimdienstmanager spezifiziert, der an der Verwaltung von Community-Geheimdiensten beteiligt ist. Aufgrund der relativ geringen Anzahl von Geheimdienstmanagern (eine Bevölkerung von 60) wurde entschieden, diese Bevölkerungsgruppe nicht zu befragen und die gesamte Bevölkerung in dieser Forschung zu verwenden.
Unstrukturierte verdeckte teilnehmende Beobachtungen
In Bezug auf die Komponente der unstrukturierten verdeckten teilnehmenden Beobachtungen dieser Forschung wurde die Analyseeinheit auch als jede der folgenden drei Gruppen definiert: (1) Mitglieder und Manager der lokalen Nachbarschaftspolizei-Implementierungsteams der untersuchten Polizeikräfte; (2) die regionale Neighbourhood Policing Development Group; und (3) die Manager der Nachbarschaftspolizei von der NPIA. Aufgrund der relativ geringen Anzahl von Mitgliedern dieser Gruppen (eine Bevölkerung von 23, 12 bzw. 18) entschied ich mich erneut, dass diese Bevölkerungsgruppe nicht beprobt und die gesamte Bevölkerung in dieser Forschung verwendet wird.
Sekundäre Datenanalyse
Als Analyseeinheit für die Sekundärdatenanalyse wurden die einzelnen Dokumente aus der unabhängigen Recherche von Rogers (2007) und Rogers und Gravelle (2008) festgelegt.
Stichprobenfehler
Obwohl die Wahrscheinlichkeitsstichprobe den Stichprobenfehler minimiert, kann er dennoch durch Zufall, Zufallsfehler, Voreingenommenheit oder sogar durch reines Pech auftreten. Non-Sampling-Fehler können auch durch Forscherfehler auftreten, wie z. B. Datenanalysefehler und Teilnehmerfehler, wie z. B. die Unfähigkeit oder mangelnde Bereitschaft zur Teilnahme, Nichtbeantwortung, Betrug und Teilnehmerverzerrung (Mertens, 2005; Bryman, 2012).
Datenanalyse
Die Datenanalyse wurde gleichzeitig mit den Primärdaten durchgeführt, die aus den Fragebögen zum Selbstausfüllen der postalischen Umfrage, halbstrukturierten Interviews und unstrukturierten verdeckten teilnehmenden Beobachtungen gesammelt wurden, und mit den Sekundärdaten, die aus den unabhängigen Forschungsdokumenten gesammelt wurden, die zuvor in den Archiven der untersuchten Polizei hinterlegt wurden. Quantitative Daten wurden mit den Statistical Product and Service Solutions (früher Statistical Package for the Social Sciences) (SPSS) Version 20.0 für Microsoft Windows von International Business
Machines (IBM) und qualitative Daten mit thematischer Analyse analysiert. Bryman (2012: 717) beschreibt die thematische Analyse als „Ein Begriff, der im Zusammenhang mit der Analyse qualitativer Daten verwendet wird, um sich auf die Extraktion von Schlüsselthemen in den eigenen Daten zu beziehen“. In dieser Untersuchung wurde ein Framework- oder Matrix-Ansatz zur thematischen Analyse unter Verwendung von Microsoft Excel verwendet.
Ethische Überlegungen
Diener und Crandall (1978: 7) schlagen vor, dass es vier hauptsächliche ethische Prinzipien gibt, die im Allgemeinen in Bezug auf die Behandlung von Teilnehmern an der Sozial- und Verhaltensforschung berücksichtigt werden, nämlich „Schaden für die Teilnehmer“, „Einwilligung nach Aufklärung“, „Privatsphäre“ und „ Täuschung'.
Schaden für die Teilnehmer
Faktoren, die für einzelne Teilnehmer als schädlich angesehen werden können, sind psychische Schäden wie Angst und Stress, körperliche Schäden, Verletzung der Privatsphäre, mangelnde Anonymität, Verletzungen der Vertraulichkeit, Rufschädigung und der Einsatz von Täuschung (Diener und Crandall, 1978; Punch, 1994; Hammersley und Atkinson, 1995). Körperliche Schäden wurden in dieser Untersuchung nicht als Faktor betrachtet. Es wurde jedoch sorgfältig überlegt, andere potenziell schädliche Auswirkungen dieser Forschung auf die Teilnehmer zu minimieren.
Die Bereitstellung von Informationen für potenzielle Teilnehmer über den Fragebogen zum Selbstausfüllen der postalischen Umfrage und halbstrukturierte Interviewkomponenten dieser Studie wurde als wesentlicher Bestandteil des Forschungsdesigns angesehen, damit die Teilnehmer fundierte Entscheidungen darüber treffen können, ob sie der Teilnahme zustimmen möchten diese Forschung. Es wurde auch verwendet, um unnötige Angst und Stress zu minimieren, indem versichert wurde, dass ihre Privatsphäre, Anonymität, Vertraulichkeit und ihr Ruf gewahrt bleiben würden und dass sie nicht getäuscht würden.
Auch im Hinblick auf unstrukturierte verdeckte teilnehmende Beobachtungen und Sekundärdatenanalysen kann eine Schädigung der Teilnehmer minimiert werden, auch wenn den Teilnehmern der Primärforschung jeweils nicht bewusst ist, dass sie an einem Forschungsprozess teilnehmen. Die gleichen oben erwähnten potenziell schädlichen Faktoren können während und nach dem Forschungsprozess minimiert werden (Punch, 1994).
Andere Überlegungen bei der Untersuchung großer öffentlicher
Organisationen wie der Polizei beinhalten beispielsweise die Schädigung ihres Rufs, die gegen die Suche nach Wissen und Wahrheit abgewogen werden muss. All diese Faktoren wurden in Bezug auf diese Forschung berücksichtigt, und Einwilligung nach Aufklärung, Privatsphäre und Täuschung werden im Folgenden ausführlicher erörtert.
Einverständniserklärung
Der Economic and Social Research Council (2010: 40) definiert die informierte Einwilligung wie folgt: „Eine informierte Einwilligung bedeutet, ausreichende Informationen über die Forschung zu geben und sicherzustellen, dass es keinen expliziten oder impliziten Zwang gibt, damit potenzielle Teilnehmer eine informierte und freie Entscheidung über ihre treffen können mögliche Beteiligung“. Diese Ansicht wird von der Social Research Association (2003) und der British Sociological Association (2004: 3) unterstützt, die beide ebenfalls raten, dass „soweit wie möglich die Teilnahme an soziologischer Forschung auf der freiwillig erteilten informierten Zustimmung der Untersuchten beruhen sollte '. Sieber (1992: 26) schlägt vor, dass die freiwillige Einwilligung nach Aufklärung nicht nur eine Vereinbarung über die Bedingungen der Teilnahme eines Teilnehmers an der Forschung ist, sondern auch „ein fortlaufender wechselseitiger Kommunikationsprozess zwischen den Probanden und dem Forscher“. Diener und Crandall (1978) argumentieren, dass die freiwillige informierte Einwilligung auf westlichen kulturellen Werten und Rechtssystemen basiert, die die Wahlfreiheit betonen. Artikel 9 (Gedanken-, Gewissens- und Religionsfreiheit) und Artikel 10 (Meinungsfreiheit) des Human Rights Act 1998 (Home Office, 1998b: 24-25) und der Europäischen Menschenrechtskonvention (Convention for the Protection of Human Rights und Grundfreiheiten) (Europarat, 2010: 11-12) tendieren dazu, dieses Argument zu unterstützen.
Obwohl es von Forschern als gängige Strategie akzeptiert wird, ist das Konzept der freiwilligen Einwilligung nach Aufklärung nicht so einfach, wie es zunächst scheinen mag, und kein Allheilmittel für alle ethischen Probleme (Kimmel, 1988; Hammersley und Traianou, 2012). Bedenken ergeben sich bei der Bestimmung, wie potenzielle Teilnehmer vollständig über die Forschung informiert werden und wie viele Details ihnen mitgeteilt werden sollen, da dies zu einer technisch komplizierten, mühsamen und möglicherweise unerreichbaren Aufgabe werden könnte. Stanleyet al. (1987: 736) weisen darauf hin, dass „das Verständnis von Einwilligungsinformationen relativ schlecht ist“ und je länger und komplexer die Informationen sind, desto weniger werden sie verstanden. Daher sollten die Informationen so präsentiert werden, dass sie für jeden einzelnen Interessenten verständlich sind (Kimmel, 1988; Wiles et al., 2004). Die freiwillig erteilte informierte Einwilligung wirft auch andere
Fragen darüber auf, wie frei die Einwilligung tatsächlich ist. Hammersley und Traianou (2012) argumentieren, dass potenzielle Teilnehmer keine wirklich freien und unabhängigen Individuen sind, da sie von bestimmten sozialen Faktoren und Beziehungen beeinflusst werden, die ihre Entscheidungsfindung beeinflussen. Insbesondere wenn diese Faktoren und Beziehungen eine Organisation betreffen, die Macht oder Einfluss auf sie hat, und sie sich verpflichtet fühlen, der Zustimmung zuzustimmen oder nicht zuzustimmen, aufgrund der Einschränkungen, die die Organisation oder Einzelpersonen innerhalb der Organisation ihnen auferlegen. Hammersley und Traianou (2012) argumentieren auch, dass kulturelle Aspekte innerhalb der Gesellschaft und innerhalb von Organisationen ebenfalls die vollständige und freie Einwilligung nach Aufklärung beeinflussen werden. Obwohl eine vollständige und freie informierte Einwilligung unter bestimmten Umständen nicht immer möglich ist, ist sie dennoch wünschenswert. Dies ist jedoch möglicherweise nicht der Fall, wenn es um verdeckte Forschung geht.
Spicker (2011: 119) definiert verdeckte Forschung wie folgt: „Verdeckte Forschung ist Forschung, die der Versuchsperson nicht offengelegt wird – wo der Forscher nicht offenbart, dass Forschung stattfindet“. Verdeckte Forschung, insbesondere verdeckte teilnehmende Beobachtung, wird oft als kontrovers und sogar unethisch angesehen, hauptsächlich weil die beobachteten Teilnehmer nicht in der Lage sind, ihre freiwillige informierte Zustimmung zu geben und ihre Beteiligung nicht ablehnen können (Bulmer, 1982: 252; Lee, 1993: 143; Lugosi , 2006: 542-543). Lee (1993: 143-144) weist jedoch darauf hin, dass sozialwissenschaftliche Forscher drei Positionen in Bezug auf die Ethik der verdeckten Forschung eingenommen haben, nämlich „absolutistisch“, „pragmatisch“ und „skeptisch“. Die absolutistische Position ist, dass verdeckte Forschungsmethoden aus ethischen Gründen nicht verwendet werden können. Die pragmatische Position ist, dass sie die Rechte der Teilnehmer schützen möchte und verpflichtet ist, ihnen keinen Schaden zuzufügen, aber nur ungern verdeckte Methoden anwenden wird, wenn es keine andere Möglichkeit gibt, an die erforderlichen Daten zu gelangen. Die skeptische Position ist, dass es eine positive Rechtfertigung für verdeckte Forschungsmethoden gibt. Obwohl sich Lees drei ethische Positionen speziell auf verdeckte Forschung beziehen, gibt es Ähnlichkeiten mit drei von Brymans (2012) fünf Hauptpositionen zur Ethik. Es können Vergleiche zwischen der absolutistischen Position und Universalismus, der pragmatischen Position und Situationsethik sowie der skeptischen Position und der Anything goes (mehr oder weniger) Haltung gesehen werden (Bryman, 2012: 133-134).
Privatsphäre
Privatsphäre, Vertraulichkeit und Anonymität sind untrennbar miteinander verbunden, wenn ethische Fragen in der Forschung diskutiert werden, was durch den folgenden Absatz aus dem Statement of Ethical Practice der British Sociological Association betont wird:
Die Anonymität und Privatsphäre der am Forschungsprozess Beteiligten sollte respektiert werden. Persönliche Informationen über Forschungsteilnehmer sollten vertraulich behandelt werden. In einigen Fällen kann es erforderlich sein, zu entscheiden, ob es richtig oder angemessen ist, bestimmte Arten sensibler Informationen aufzuzeichnen.
(British Sociological Association, 2004: 5) Diener und Crandall (1978: 55-57) identifizieren drei Dimensionen der Privatsphäre, die sie als „Sensitivität von Informationen“, „das beobachtete Umfeld“ und „Verbreitung von Informationen“ beschreiben. Die Sensibilität von Informationen bezieht sich darauf, „wie persönlich oder potenziell bedrohlich sie sind“, da einige Informationen wie religiöse Überzeugungen, sexuelle Orientierung, rassistische Vorurteile, persönliche Finanzen und Ehrlichkeit als sensibler angesehen werden als andere Informationen wie ein Name (Diener und Crandall , 1978: 55). Je sensibler die Informationen sind, desto mehr Schutzmaßnahmen müssen getroffen werden, um die Privatsphäre des Einzelnen zu schützen. Die beobachtete Umgebung berücksichtigt das „Kontinuum von sehr privat (z. B. Ihr Badezimmer) bis vollständig öffentlich (z. B. ein Bürgersteig in der Innenstadt)“ (Diener und Crandall, 1978: 57). Je privater die Umgebung, desto mehr Vorkehrungen müssen getroffen werden, um die Privatsphäre zu gewährleisten. Spicker (2011) argumentiert, dass es eine schwierige und oft komplexe Aufgabe ist, die Grenzen zwischen privatem und öffentlichem Umfeld zu unterscheiden. Wenn beispielsweise eine Gruppe einen normalerweise öffentlichen Raum in einem öffentlichen Haus für ein Treffen mietet, wird dieser Raum dann zu einem privaten Ort für die Zwecke der ethischen Forschung? Diese Frage ist sehr schwer zu beantworten, da jeder Fall einzeln geprüft werden müsste. Bei der Verbreitung von Informationen geht es um die Anzahl der Personen, die „persönliche Informationen mit dem Namen der betroffenen Person in Verbindung bringen können“ (Diener und Crandall, 1978: 57). Je mehr Personen Kenntnis von den personenbezogenen Daten einer identifizierbaren Person haben, desto größer muss die Sorge um den Datenschutz sein. Daher sollte der Forscher in allen Fällen die Sensibilität der Informationen, die Umgebung oder den Ort, der für die Forschung verwendet werden soll, und die Art und Weise der Verbreitung der resultierenden Informationen bewerten, um sicherzustellen, dass Sicherheitsvorkehrungen zum Schutz der Privatsphäre des Einzelnen getroffen werden.
Der Datenschutz ist auch mit der Bereitstellung von Informationen für die Teilnehmer verbunden, damit sie feststellen können, welche Auswirkungen die Forschung auf ihr Privatleben haben kann, bevor sie ihre Einwilligung nach Aufklärung erteilen (Bryman, 2012). Die British Sociological Association (2004: 5) schlägt vor, dass „verdeckte Methoden die Prinzipien der informierten Einwilligung verletzen und in die Privatsphäre der untersuchten Personen eindringen können“. Daher sollte den drei Dimensionen der Privatsphäre, die von Diener und Crandall (1978) hervorgehoben werden, noch mehr Aufmerksamkeit geschenkt werden, wenn verdeckte Forschung in Betracht gezogen wird.
Spicker (2011) argumentiert jedoch, dass die Handlungen öffentlicher Stellen wie der Polizei auch hinter verschlossenen Türen immer noch in der Öffentlichkeit liegen.
Einige Aktionen sind ihrer Natur nach öffentlich. Das förmliche Handeln von Regierungen und Behörden, auch in geschlossenen Räumen, ist per se öffentlich.
(Spicker, 2011: 124) Die Hauptmethode, mit der Forscher eine versehentliche Offenlegung verhindern und Forschungsteilnehmer schützen, ist die Verwendung von Anonymität. Mertens (2005: 333) schlägt vor, dass „Anonymität bedeutet, dass den Daten keine eindeutig identifizierenden Informationen beigefügt werden und somit niemand, nicht einmal der Forscher, die Daten zu der Person zurückverfolgen kann, die sie bereitgestellt hat“. Vollständige Anonymität, wie von Mertens oben vorgeschlagen, ist sehr schwer zu erreichen, insbesondere wenn die Forschungsmethoden beinhalten, dass der Forscher die Teilnehmer befragt. Es liegt in der Natur des Interviewprozesses, dass er im Allgemeinen von Angesicht zu Angesicht mit einer kleineren Population oder Stichprobengruppe von Teilnehmern durchgeführt wird. Selbst wenn die Daten verschlüsselt und anonymisiert werden, um eine Identifizierung der Teilnehmer durch Dritte zu verhindern, wird der Forscher zweifellos in der Lage sein, eine Reihe von Teilnehmern
anhand der von ihnen bereitgestellten spezifischen Daten zu identifizieren. Dies sollte den Forscher jedoch nicht daran hindern, die Anonymität der Teilnehmer gegenüber Dritten zu gewährleisten.
Für die Zwecke dieser Untersuchung wurden alle Anstrengungen unternommen, um die Privatsphäre, Vertraulichkeit und Anonymität der Teilnehmer in allen Aspekten der Untersuchung zu gewährleisten, auch wenn die Teilnehmer als Beamte einer öffentlichen Organisation (z. B. der Polizei) angesehen werden können (British Sociological Association , 2004).
Täuschung
Spicker (2011) argumentiert, dass Täuschung oft mit verdeckter Forschung verwechselt wird und viele der Einwände gegen verdeckte Forschung tatsächlich Einwände gegen Täuschung sind. Im Gegensatz zu Spickers obiger Definition von verdeckter Forschung definiert Spicker (2011: 119) Täuschung wie folgt: „Deception, by contrast, tritt auf, wenn die Art der Handlung eines Forschers gegenüber dem Forschungssubjekt falsch dargestellt wird.“
Ich neige dazu, den oben von Spicker (2011) angebotenen Definitionen von verdeckter Forschung und Täuschung zuzustimmen. Obwohl bei dieser Untersuchung verdeckte Forschung in Form von unstrukturierten teilnehmenden Beobachtungen zum Einsatz kam, bin ich der Meinung, dass keine Täuschung stattgefunden hat. Ich habe meine Handlungen gegenüber den Forschungssubjekten nicht falsch dargestellt und lediglich meine normale Rolle und Verantwortung als voll teilnehmendes Mitglied der beobachteten Gruppen erfüllt. Ich gab nicht vor, jemand oder etwas zu sein, was ich nicht war, und es gab keine Absicht, mich zu täuschen. In keiner der anderen Komponenten dieser Forschung wurde irgendeine Form der Täuschung verwendet.
Politische Erwägungen
Politische Erwägungen unterscheiden sich von den oben beschriebenen ethischen Erwägungen, da sie sich eher auf die Substanz und den Nutzen der Forschung als auf die angewandten Forschungsmethoden beziehen. Hammersley (1995: 103) schlägt vor, dass es zwei Hauptwege gibt, auf denen Forschung als politisch angesehen werden kann: erstens durch die „Ausübung von Macht“ und zweitens durch das „Machen von Werturteilen“ und die Maßnahmen, die als Ergebnis dieser Urteile ergriffen werden . Hammersley argumentiert, dass die Ausübung von Macht aus zwei gegensätzlichen Perspektiven betrachtet werden kann. Die erste Perspektive betrifft Forscher und Forschungseinrichtungen, die ihre Autonomie gegenüber externen Mächten, wie dem Staat und anderen
Macht- und Einflussberechtigten in der Gesellschaft, bewahren. Die zweite Perspektive betrifft die Macht, die von Forschern und Forschungseinrichtungen selbst ausgeübt wird, wo die Forschung oder das Wissen selbst Macht ist. Hammersley (1995: 109) argumentiert auch, dass das Fällen von Werturteilen auch einen politischen Aspekt hat, da Forschung nicht völlig wertfrei oder neutral sein kann, da sie von der Suche nach Wissen und den sozialen, politischen und wirtschaftlichen Bedingungen beeinflusst wird intellektuellen Voraussetzungen der Zeit.
Im Gegensatz zu ethischen Überlegungen gibt es keinen professionellen Verhaltenskodex für politische Angelegenheiten, aber es ist allgemein anerkannt, dass die politischen Ansichten des Forschers die Forschung nicht stören oder beeinflussen dürfen. Im Verlauf dieser Recherche war ich mir der zu berücksichtigenden politischen Themen bewusst und bemühte mich, deren Einfluss auf diese Recherche so gering wie möglich zu halten.
Forschung kann auch durchgeführt und verwendet werden, um die Zentralregierung in politischen Fragen zu beraten, was letztendlich zu Gesetzesänderungen führen kann. Insoweit können also auch politische Erwägungen mit rechtlichen Erwägungen verknüpft werden.
Rechtlichen Erwägungen
Zusätzlich zu den oben genannten ethischen und politischen Erwägungen wurden auch die rechtlichen Erwägungen im Zusammenhang mit Zustimmung, Datenschutz, Vertraulichkeit und Anonymität berücksichtigt. Wileset al. (2004: 8) argumentieren, dass „Artikel 8 des Menschenrechtsgesetzes von 1998 und des Datenschutzgesetzes von 1998 für die Einwilligung in Bezug auf alle Forschung relevant sind“.
Artikel 8 (Recht auf Achtung des Privat- und Familienlebens) des Menschenrechtsgesetzes von 1998 (Innenministerium, 1998b: 24) und der Europäischen Menschenrechtskonvention (Übereinkommen zum Schutz der Menschenrechte und Grundfreiheiten) (Europarat, 2010: 10-11) heißt es: „Jeder hat das Recht auf Achtung seines Privat- und Familienlebens, seiner Wohnung und seiner Korrespondenz“. Daher wird die Privatsphäre als eines der grundlegendsten Rechte des Einzelnen angesehen, das durch die Gesetzgebung geschützt wird.
Das Datenschutzgesetz von 1998 (Home Office, 1998a: 47) umreißt auch acht gesetzliche Grundsätze für die Verarbeitung personenbezogener Daten, um sicherzustellen, dass sie für einen rechtmäßigen Zweck verarbeitet werden, dass sie angemessen, relevant, nicht übermäßig, genau, rechtzeitig und erforderlich sind, und dass es verwaltet wird, um unbefugte oder rechtswidrige Verarbeitung, versehentlichen Verlust, Zerstörung und Beschädigung zu verhindern. Daher dienen diese gesetzlichen Grundsätze nicht nur dem Schutz der Privatsphäre des Einzelnen, sondern auch seiner Vertraulichkeit und Anonymität.
Zusammenfassend lässt sich sagen, dass diese Studie nach sorgfältiger Überlegung der oben genannten ethischen und rechtlichen Erwägungen einen pragmatischen situativen Ansatz zur Ethik annehmen wird, während sie dennoch die vier wichtigsten ethischen Prinzipien der Schädigung der Teilnehmer, der informierten Zustimmung, der Privatsphäre und der Täuschung berücksichtigt (Diener und Crandall, 1978) und die wichtigsten Rechtsfragen im Zusammenhang mit Freiheit, Privatsphäre und Vertraulichkeit (Home Office, 1998a; 1998b). Im Verlauf dieser Forschung wurden konzertierte Anstrengungen unternommen, um den Schaden für die Teilnehmer zu verringern, gegebenenfalls eine Einwilligung nach Aufklärung einzuholen, die Privatsphäre, Vertraulichkeit und Anonymität der Teilnehmer und Probanden zu gewährleisten und alle Formen der Täuschung aufzuheben, während sie innerhalb des Verbundes operierten Menschenrechte und Datenschutzrecht.
Es gibt jedoch noch andere Überlegungen, die berücksichtigt werden müssen, wie z. B. die Validität, Zuverlässigkeit und Objektivität der Forschung, die auch ethische Implikationen haben können. Gorard (2010: 247) schlägt vor, dass die „Qualität der Forschung“, die „Robustheit der Ergebnisse“ und die „Sicherheit der gezogenen Schlussfolgerungen“ zentrale ethische Erwägungen für Forscher sind, insbesondere für öffentlich finanzierte Forschung.
Gültigkeit, Zuverlässigkeit und Objektivität
Die Begriffe Validität, Zuverlässigkeit und Objektivität werden im Allgemeinen mit der quantitativen Forschungsmethodik und den quantitativen Forschungsmethoden und -designs in Verbindung gebracht (Bryman, 2012). Eine Reihe von Forschern (z. B. Kirk und Miller, 1986; Mason, 2002) haben diese traditionellen Kriterien jedoch auf die qualitative Forschungsmethodik angewendet, während andere (z. B. Lincoln und Guba, 1985) argumentieren, dass sie auf quantitativer Forschung beruhen sind für qualitative Forschung ungeeignet und haben auf der Grundlage des Konzepts der „Vertrauenswürdigkeit“ alternative Kriterien vorgeschlagen, auf die weiter unten näher eingegangen wird (Lincoln und Guba, 1985: 290). Golafshani (2003) schlägt vor, dass, wenn traditionelle Kriterien wie Gültigkeit und Zuverlässigkeit auf qualitative Forschung angewendet werden sollen, diese neu definiert werden müssen. Morseet al. (2002) stimmen zu und argumentieren, dass Autoren unterschiedliche Terminologien für dieselben oder ähnliche Kriterien verwenden, was zu Verwirrung führt und die Frage der Strenge in der Forschung untergraben kann.
Gültigkeit
Bryman (2012:47) schlägt vor, dass „Gültigkeit mit der Integrität der Schlussfolgerungen, die aus einer Forschungsarbeit hervorgehen, verbunden ist“. Er (identifiziert auch vier Haupttypen von Validität, nämlich „Messvalidität“, „ökologische Validität“, „interne Validität“ und „externe Validität“.
Die Messvalidität bezieht sich darauf, ob ein Instrument, das zur Messung eines Konzepts entwickelt wurde, tatsächlich das Konzept widerspiegelt, das es misst. Die Messvalidität ist unweigerlich mit der Zuverlässigkeit verbunden, da die Messung auch stabil und zuverlässig sein muss, damit sie gültig ist (Campbell und Fiske, 1959; Neuman, 2000; Bryman, 2012) (siehe den Abschnitt über Zuverlässigkeit weiter unten). Das Forschungsinstrument für die quantitative Komponente dieser Forschung (der Selbstausfüllfragebogen für postalische Umfragen) wurde pilotiert und ein gut getestetes und weit verbreitetes quantitatives Datenanalysesystem, die IBM SPSS Version 20.0 für Microsoft Windows, wurde verwendet, um die Daten zu analysieren die Messvalidität verbessern.
Bei der ökologischen Validität geht es darum, ob die Erkenntnisse der Sozialforschung auf den Alltag der Menschen in ihren natürlichen sozialen Umgebungen übertragbar sind. Je mehr die Forschung in diese Einstellungen eingreift, desto unnatürlicher werden sie (Bryman, 2012). Die Fragebögen zur Selbstausfüllung per Post wurden von jedem der Teilnehmer in einem von ihnen gewählten sozialen Umfeld ohne Einmischung des Forschers ausgefüllt.
Die interne Validität bezieht sich auf die Kausalität oder kausale Beziehung zwischen zwei Variablen (der unabhängigen Variablen und der abhängigen Variablen) und darauf, ob der Forscher zuversichtlich ist, dass alle aus dieser Beziehung abgeleiteten Schlussfolgerungen echt sind (Bryman, 2012). Der Hawthorne-Effekt wurde berücksichtigt, bei dem die Teilnehmer ihr Verhalten ändern, wenn sie wissen, dass sie Gegenstand einer Forschungsstudie sind (Bramel und Friend, 1981; Olson et al., 2004). Diese Verhaltensänderung kann die Kausalität zwischen Variablen beeinflussen und die interne Validität einer Studie beeinträchtigen. Dies kann sich auch darin äußern, dass Teilnehmer Antworten auf einen selbst auszufüllenden Fragebogen geben, von dem sie glauben, dass der Forscher ihn sehen möchte, anstatt offene und ehrliche Antworten zu geben. Randomisierung ist ein Faktor, der zur Steigerung der internen Validität beitragen kann, aber es muss darauf geachtet werden, nicht zu viele Kontrollen einzuführen, denn je mehr Kontrollen eingeführt werden, desto künstlicher wird die Forschung. Daher muss interne Validität mit externer Validität abgewogen werden, was Generalisierbarkeit erfordert (Jupp, 1989).
Bei der externen Validität geht es darum, ob die Ergebnisse einer
bestimmten Forschung im breiteren Kontext weiterer Forschung verallgemeinert werden können. Stichprobenverfahren sind wichtig für die externe Validität, da die Stichprobe für die untersuchte Population repräsentativ sein muss, damit die Ergebnisse verallgemeinert werden können (Bryman, 2012). Die geschichtete Zufallsstichprobe (Bryman, 2012: 192-193) wurde als die valideste Stichprobenmethode für die große Bevölkerungsgruppe der Mitarbeiter der lokalen Nachbarschaftspolizei angesehen und lieferte eine repräsentative Zufallsstichprobe aus jeder untersuchten Schicht. Triangulation kann auch die externe Validität einer Forschungsstudie erhöhen, indem quantitative und qualitative Forschungsergebnisse als Form der Bestätigung kombiniert werden (Denzin, 1978) (siehe den Abschnitt über die Stichprobenziehung oben). Eine Verallgemeinerbarkeit kann in dieser Studie jedoch nicht garantiert werden, da sie als Momentaufnahme der Beziehung zwischen lokaler Nachbarschaftspolizei und Community Intelligence in der untersuchten Polizei zu einem bestimmten Zeitpunkt angesehen werden kann. Die Prioritäten dieser Polizeikräfte können sich im Laufe der Zeit ändern, und andere Polizeikräfte können andere Prioritäten haben, wobei der Schwerpunkt mehr oder weniger auf Nachbarschaftspolizei und Community Intelligence liegt.
Zuverlässigkeit
Neuman (2000: 164) schlägt vor, dass Zuverlässigkeit „bedeutet, dass die von einem Indikator erzeugten numerischen Ergebnisse nicht aufgrund von Eigenschaften des Messverfahrens oder Messinstruments selbst variieren“. Wenn also dasselbe Messinstrument und Verfahren erneut verwendet werden, sollten die erhaltenen numerischen Ergebnisse dieselben sein (Campbell und Fiske, 1959). Wie oben erwähnt, ist die Reliabilität mit der Messvalidität verknüpft, und die gleichen Maßnahmen, die zur Erhöhung der Validität verwendet werden, können zur Erhöhung der Reliabilität verwendet werden. Um die Zuverlässigkeit zu erhöhen, wurde die Stabilität, Repräsentativität und Genauigkeit der Messung durch Pilotierung der Fragebögen zum Selbstausfüllen von postalischen Umfragen berücksichtigt.
Objektivität
Payne und Payne (2004: 152) beschreiben Objektivität wie folgt: „... so weit wie möglich sollten Forscher von dem, was sie untersuchen, Abstand halten, damit die Ergebnisse eher von der Art dessen abhängen, was untersucht wurde, als von der Persönlichkeit, den Überzeugungen und Werten dessen Der Forscher ...'. Daher muss der Forscher versuchen, objektiv zu bleiben und nicht zulassen, dass persönliche Vorurteile die Forschung beeinflussen, während die Leser der Forschung darauf vertrauen
müssen, dass der Forscher ihre persönlichen Vorurteile eingeschränkt hat (Payne und Payne, 2004: 153). Gegner dieser Ansicht weisen jedoch darauf hin, dass vollständige Objektivität unerreichbar oder unangemessen ist, da Forscher nicht isoliert arbeiten, sondern mit anderen innerhalb des Forschungsumfelds interagieren und von ihnen beeinflusst werden (Scott und Marshall, 2009: 522). Ich war mir meiner persönlichen Werte und Vorurteile bewusst und wie sie meine Objektivität beeinflussen können, wenn ich mich mit den quantitativen Komponenten dieser Forschung befasse (siehe den Abschnitt über Reflexivität weiter unten).
Das Konzept der „Vertrauenswürdigkeit“ wurde von Lincoln und Guba (1985: 290) vorgeschlagen, um die Frage zu beantworten „Wie kann ein Forscher sein oder ihr Publikum (einschließlich sich selbst) davon überzeugen, dass die Ergebnisse einer Untersuchung es wert sind, beachtet und berücksichtigt zu werden von?' Lincoln und Guba (1985: 189) entwickelten vier Aspekte der Vertrauenswürdigkeit für qualitative Forschung, nämlich „Glaubwürdigkeit“, „Übertragbarkeit“, „Zuverlässigkeit“ und „Bestätigbarkeit“, um parallel zu den vier traditionellen quantitativen Forschungskriterien interne Validität, externe Validität, Reliabilität und Objektivität bzw.
Glaubwürdigkeit
Glaubwürdigkeit bezieht sich auf die Genauigkeit des Verständnisses und der Interpretation eines Aspekts der sozialen Realität durch den Forscher und die Akzeptanz dieses Berichts für andere in diesem sozialen Umfeld (Lincoln und Guba, 1985; Bryman, 2012). Zu den Techniken zur internen Validierung der Glaubwürdigkeit gehören die Verwendung etablierter Forschungsmethoden, Zufallsstichproben, Reziprozität (eine gegenseitig kooperative Interaktion zwischen Teilnehmern und Forschern), Befragte-Validierung (bei der Befragte oder an der Forschung beteiligte Teilnehmer die Darstellung des Forschers bestätigen) und Triangulation (Webb et al ., 1966; Bloor, 1978; Denzin, 1978; Harrison et al., 2001; Shenton, 2004). In dieser Forschung wurden etablierte qualitative Forschungsmethoden wie halbstrukturierte Interviews und unstrukturierte verdeckte teilnehmende Beobachtungen mit der gesamten Bevölkerungsgruppe von Geheimdienstmanagern bzw. lokalen, regionalen und nationalen Nachbarschaftspolizeimanagern verwendet. Es wurde darauf geachtet, dass die halbstrukturierten Interviews am oder in der Nähe des normalen Arbeitsplatzes der Teilnehmer durchgeführt wurden und die unstrukturierten verdeckten teilnehmenden Beobachtungen im natürlichen Rahmen von Management-Meetings durchgeführt wurden, an denen normalerweise die Forschungssubjekte teilnehmen würden.
Übertragbarkeit
Übertragbarkeit bezieht sich auf die Tiefe der vom Forscher produzierten
qualitativen Forschungsergebnisse, die es anderen ermöglicht, zu beurteilen, ob die Ergebnisse auf andere soziale Situationen übertragbar sind (Lincoln und Guba, 1985; Bryman, 2012). Zu den Techniken zur externen Validierung der Übertragbarkeit gehören ausführliche Beschreibungen, um anderen ein angemessenes Verständnis des untersuchten Phänomens zu ermöglichen (Geertz, 1973; Denzin, 1989; Harrison et al., 2001). Um die Übertragbarkeit zu verbessern, wurden in dieser Untersuchung reichhaltige dicke Beschreibungen verwendet.
Zuverlässigkeit
Verlässlichkeit bezieht sich auf die Darstellung des Forschers über alle Veränderungen, die in dem untersuchten sozialen Umfeld bestehen, und auf die Reaktion auf diese Veränderungen in der Realität durch Modifikation des Forschungsdesigns. Dies beinhaltet, dass der Forscher detaillierte Aufzeichnungen über jede Phase des Forschungsprozesses führt, einschließlich der Formulierung der Forschungsfrage, der Forschungsmethodik, der Methoden und des Designs, des Stichprobenverfahrens, der Transkripte der Interviews, der Feldnotizen, der Datenanalyse und der Forschungsergebnisse (Lincoln and Guba, 1985; Bryan, 2012). Verlässlichkeit ist eng mit Glaubwürdigkeit verbunden, daher trägt die Sicherstellung von Glaubwürdigkeit wesentlich zur Gewährleistung von Verlässlichkeit bei (Lincoln und Guba, 1985). Zu den Techniken zur Gewährleistung der Zuverlässigkeit und Verlässlichkeit der Forschung gehören Peer-Reviews (bei denen Peers während oder am Ende der Forschung als Prüfer fungieren, um festzustellen, dass alle Verfahren korrekt befolgt wurden) und Reflexivität der Forscher (Bryman, 2012). Detaillierte Aufzeichnungen dieser Forschung wurden während des gesamten Forschungsprozesses geführt und diese Forschung wird im Rahmen des Promotionsverfahrens überprüft. Reflexivität wurde auch als Teil dieses Forschungsprozesses verwendet (siehe den Abschnitt über Reflexivität weiter unten).
Bestätigbarkeit
Bei der Bestätigbarkeit geht es darum, sicherzustellen, dass der Forscher so objektiv wie möglich bleibt und nicht zugelassen hat, dass seine persönlichen Überzeugungen, Werte oder Vorurteile die Durchführung der Forschung oder ihre Ergebnisse beeinflussen, während die subjektive Natur der qualitativen Forschung anerkannt wird (Lincoln und Guba, 1985;Bryman ,2012).Techniken zur Sicherstellung der Konfirmierbarkeit können mit dem Peer Review (Auditverfahren) zur Sicherstellung der Verlässlichkeit und einem Triangulationsforschungsdesign wie dem oben erwähnten verknüpft werden (Denzin, 1978; Lincoln und Guba, 1985). Triangulation wurde in diesem Zusammenhang auch verwendet, um die
Wirkung meiner eigenen Werte und Vorurteile zu reduzieren und um sicherzustellen, dass die Ergebnisse das Ergebnis der Erfahrungen und Ideen der Teilnehmer waren und nicht meiner persönlichen Präferenzen (Shenton, 2004: 72).
Im Anschluss an die Vertrauenswürdigkeit führten Guba und Lincoln (1989: 245-250) auch das Konzept der „Authentizität“ ein, das sich mit der Qualität qualitativer Forschung und den breiteren Implikationen der Politikforschung befasst, aber dieses Konzept hatte keinen großen Einfluss und bleibt in manchen Kreisen immer noch ziemlich umstritten (Morse et al., 2002; Bryman, 2012).
Brymanet al. (2008) führten eine Studie durch, um festzustellen, welche der oben genannten Kriterien von Sozialpolitikforschern als am besten geeignet für die quantitative, qualitative und Mixed-Methods-Forschung erachtet wurden. Brymanet al. (2008: 264-267) fanden heraus, dass Forscher glaubten, dass Validität und Zuverlässigkeit die zwei am besten geeigneten traditionellen Kriterien sowohl für quantitative als auch für qualitative Forschung seien, während Glaubwürdigkeit als die am besten geeigneten alternativen Kriterien für qualitative Forschung befunden wurde. Die Mehrheit der Forscher (82,1 %) war der Ansicht, dass eine Kombination aus traditionellen und alternativen Kriterien für die Forschung mit gemischten Methoden verwendet werden sollte, und mehr als drei Viertel (76,5 %) der Forscher bevorzugten die Verwendung verschiedener Kriterien (traditionell und alternativ) für die quantitativen und qualitativen Komponenten von Mixed-Methods-Forschung (Bryman et al., 2008: 268-269).
Für die Zwecke dieser Untersuchung wurde eine Kombination aus traditionellen (Gültigkeit, Zuverlässigkeit und Objektivität) Kriterien und alternativen (Glaubwürdigkeit, Übertragbarkeit, Zuverlässigkeit und Bestätigbarkeit) Kriterien verwendet, um die Qualität und Robustheit der quantitativen bzw. qualitativen Komponenten sicherzustellen.
Reflexivität
Guillemin und Gillam (2004: 274) beschreiben Reflexivität in der Forschung als „einen Prozess der kritischen Reflexion sowohl über die Art des Wissens, das aus der Forschung hervorgeht, als auch darüber, wie dieses Wissen generiert wird“. Hammersley und Atkinson (2007: 15) betonen, dass „die Wissensproduktion von Forschern Konsequenzen hat“, da die Veröffentlichung von Forschungsergebnissen die politische und praktische Entscheidungsfindung beeinflussen und sogar „den Charakter der untersuchten Situationen verändern“ kann. Sie argumentieren auch, dass die Orientierungen der Forscher von ihren soziohistorischen Standorten geprägt sind und sie nicht von der breiteren Gesellschaft oder ihrer eigenen Biografie isoliert sind und daher Reflexivität ein
„signifikantes Merkmal der Sozialforschung“ ist (Hammersley und Atkinson, 2007: 15). Reflexivität ermöglicht es dem Forscher, seine soziohistorischen Annahmen, Überzeugungen, Vorurteile und Werte anzuerkennen und zu beschreiben und durch diesen reflexiven Selbstbewusstseinsprozess identifizierte Vorurteile im Verlauf der Forschung zu minimieren (Creswell und Miller, 2000: 127).
Pels (2000: 3) schlägt vor, dass Reflexivität eine weitere Ebene oder Dimension der Selbstreferenz hinzufügt, was die Forschung „einen Schritt nach oben“ bringt. Lynch (2000: 34-35) ist anderer Meinung und schlägt vor, dass der Begriff Reflexivität viele verschiedene Bedeutungen hat und oft als „theoretische oder methodologische Tugend“ bezeichnet wird, wobei er die intellektuelle Überlegenheit einnimmt. Lynch (2000: 35) argumentiert jedoch auch, dass es sehr wenige Beweise dafür gibt, dass zeitgenössische Forschung, die Reflexivität beinhaltet, von größerem Wert oder größerer Autorität ist als frühere Forschung, die dies nicht getan hat.
Finlay (2002: 209) schlägt vor, dass es fünf Varianten der Reflexivität gibt: „Introspektion“, „intersubjektive Reflexion“, „gegenseitige Zusammenarbeit“, „Gesellschaftskritik“ und „diskursive Dekonstruktion“. Selbstbeobachtung beinhaltet die Verwendung der eigenen Reflexionen, Intuitionen, Gedanken und Erfahrungen des Forschers als primäre Beweise für die Forschung. Intersubjektive Reflexion beschäftigt sich mit den Bedeutungen, die sich aus der komplexen Beziehungsdynamik zwischen Forschenden und Beteiligten ergeben, und ist mehr als bloße Reflexion. Gegenseitige Zusammenarbeit entsteht, wenn der Forscher und die Teilnehmer zusammenarbeiten und die Teilnehmer zu Co-Forschern werden, die einen reflexiven Dialog führen. Gesellschaftskritik reflektiert den Umgang mit dem Machtungleichgewicht zwischen dem Forscher und den Teilnehmern unter Berücksichtigung von Themen wie Klasse, Geschlecht und Rasse. Die diskursive Dekonstruktion reflektiert die Mehrdeutigkeit in der Bedeutung der in der Forschung verwendeten Sprache und wie diese interpretiert wird.
Watt (2007: 82) schlägt vor, dass der Forscher das primäre Instrument für die Datenerhebung und -analyse ist und daher Reflexivität wesentlich ist. Daher wurde für die Zwecke dieser Forschung eine eher introspektive Reflexivität verwendet, um den Forschungsprozess als Ganzes zu reflektieren.
Es gibt Probleme, mit denen Forscher in Bezug auf Reflexivität konfrontiert werden können, wie die Verwendung von Rhetorik zur Unterstützung von Vorurteilen, das Ausströmen persönlicher Emotionen, ein Kreislauf der Dekonstruktion und Rekonstruktion von Elementen innerhalb des Forschungsprozesses und endlose Selbstkritik, die alles verlieren können Bedeutung für den Leser (Finlay, 2002: 226). In Anbetracht dessen ist es ratsam, über das folgende Gedicht nachzudenken:
Reflexivität hat wie Hypnotherapie verschiedene Ebenen. Einige versuchen sich an der Oberfläche, tauchen in reflexive Momente ein, flirten mit den Bildern, die in der Reflexion hervorgerufen werden, bevor sie in die Sicherheit des Alltäglichen zurückkehren. Andere versuchen, der Angst vor dem im Abgrund lauernden Monster zu begegnen, indem sie in die tieferen Bereiche der Reflexivität hinabsteigen. Es sind diejenigen, die sich der Bestie stellen, die wirklich wissen, was dort in der Dunkelheit dahinter ist. Denken Sie darüber nach, während Sie sich tief in Ihrem Inneren nach unten drehen.
(MacMillan, 1996: 29)
Lehren aus dieser Forschung
-
Die Anwendung einer Mixed-Methods-Methodik, die Methoden wie Fragebögen, Interviews, Beobachtungen und Datenanalyse umfasst, ist sehr komplex.
-
Dies spiegelt sich auch in der Komplexität des gewählten Mixed-Methods-Triangulationsforschungsdesigns wider, das Konvergenz- und Mehrebenenmodelle zum Sammeln und Analysieren von Daten sowie zum Vergleichen und Gegenüberstellen von Ergebnissen beinhaltete.
-
Der Einsatz von unstrukturierter verdeckter teilnehmender Beobachtung wirft immer ethische Bedenken auf und wird oft als unethisch und irreführend angesehen. Diese Sichtweise muss jedoch gegen ihren Einsatz als Methode der Erkenntnis- und Wahrheitssuche unter Berücksichtigung aller ethischen Fragen abgewogen werden.
-
Der Zugang zu Personen und Daten war als Inside-Insider (Polizeiangestellter) zu Beginn dieser Studie viel einfacher als als Outside-Insider und kurz davor, Inside-Outsider (im Ruhestand) gegen Ende der Studie zu werden .
Verweise
Barriball, K.L. und While, A. (1994) „Sammeln von Daten mithilfe eines halbstrukturierten Interviews: Ein Diskussionspapier“, Journal of Advanced Nursing, 19(2): 328-335.
Bloor, M. (1978) „On the Analysis of Observational Data: A Discussion on the Worth and Uses of Induction Techniques and Respondent Validation“, Sociology, 12(3): 545-552.
Bogen, K. (1996) „The Effect of Questionnaire Length on Response Rates: A Review of the Literature“, Proceedings of the Section on Survey Research Methods (American Statistical Association): Band 91, 1020-1025.
Bramel, D. und Friend, R. (1981) „Hawthorne, the Myth of the Docile Worker, and Class Bias in Psychology“, American Psychologist, 36(8): 867-878.
Britische Gesellschaft für Soziologie. (2004) Statement of Ethical Practice for the British Sociological Association, Durham: British Sociological Association (BSA).
Brown, J. (1996) „Police Research: Some Critical Issues“, in Leishman, F., Loveday, B. und Savage, S. (Hrsg.) Core Issues in Policing, New York, NY: Longman, 249-263.
Bryman, A. (2006) „Integration von quantitativer und qualitativer Forschung: Wie wird das gemacht?“ Qualitative Forschung, 6(1): 97-113.
Bryman, A. (2012) Social Research Methods (4. Aufl.), Oxford: Oxford University Press.
Bryman, A., Becker, S. und Sempik, J. (2008) „Quality Criteria for Quantitative, Qualitative and Mixed Methods Research: A View from Social Policy“, International Journal of Social Research Methodology, 11(4): 261- 276.
Bulmer, M. (1982) „Wann ist Verschleierung gerechtfertigt? Alternatives to Covert Participant Observation', Qualitative Sociology, 5(4): 251-264.
Campbell, D. T. und Fiske, D. W. (1959) „Convergent and Discriminant Validation by the Multitrait-Multimethod Matrix“, Psychological Bulletin, 56(2): 81-105.
Kirche, R.M. (2001) „The Effective Use of Secondary Data“, Learning and Motivation, 33: 32-45.
Corti, L., Foster, J. und Thompson, P. (1995) „Archiving Qualitative Research Data“, Social Research Update (Herbst 1995), Ausgabe 10. Verfügbar unter: http://sru. soc.surrey.ac.uk/SRU10.html [Zugriff: 12. Juni 2013].
Europäischer Rat. (2010) Die Europäische Menschenrechtskonvention (Konvention zum Schutz der Menschenrechte und Grundfreiheiten), geändert durch die Protokolle Nr. 11 und 14, Straßburg: Council of Europe Publishing.
Creswell, J.W. und Miller, D.L. (2000) „Validitätsbestimmung in qualitativer Untersuchung“, Theory into Practice, 39(3): 124-131.
Creswell, J.W. und Plano Clark, V.L. (2007) Entwerfen und Durchführen von Mixed-Methods-Forschung, Thousand Oaks, CA: Sage.
Dale, A., Arber, S. und Proctor, M. (1988) Doing Secondary Analysis, London: Unwin Hyman.
Denzin, N.K. (1989) Interpretierender Interaktionismus, Newbury Park, CA: Sage.
Denzin, N.K. (1978) The Research Act: Eine theoretische Einführung in soziologische Methoden, New York, NY: Praeger.
Denzin, N.K. (2009) The Research Act: Eine theoretische Einführung in soziologische Methoden (Taschenbuch), Piscataway, NJ: Transaction.
Diener, E. und Crandall, R. (1978) Ethik in der Sozial- und Verhaltensforschung, Chicago, IL: University of Chicago Press.
Diesing, P. (1971) Patterns of Discovery in the Social Sciences, Chicago, IL: Aldine-Atherton.
Wirtschafts- und Sozialforschungsrat. (2010) Framework for Research Ethics, Swindon: Economic and Social Research Council (ESRC).
Finlay, L. (2002) „Negotiating the Swamp: The Opportunity and Challenge of Reflexivity in Research Practice“, Qualitative Research, 2(2): 209-230.
Geertz, C. (1973) Die Interpretation von Kulturen: Ausgewählte Essays, New York, NY: Basic Books.
Golafshani, N. (2003) „Understanding Reliability and Validity in Qualitative Research“, The Qualitative Report, 8(4): 597-607.
Gorard, S. (2010) „Research Design, as Independent of Methods“, in Tashakkori, A. und Teddlie, C. (Hrsg.) SAGE Handbook of Mixed Methods in Social and Behavioral Research (2. Aufl.), Thousand Oaks, CA : Salbei.
Grix, J. (2002) „Introducing Students to the Generic Terminology of Social Research“, Politics, 22(3): 175-186.
Guba, E.G. und Lincoln, Y.S. (1989) Bewertung der vierten Generation, Newbury Park, CA: Sage.
Guillemin, M. und Gillam, L. (2004) „Ethics, Reflexivity, and „Ethically Important Moments“ in Research“, Qualitative Inquiry, 10(2): 261-280.
Hakim, C. (1982) Sekundäranalyse in der Sozialforschung: Ein Leitfaden zu Datenquellen und Methoden mit Beispielen, London: Allen und Unwin.
Hammersley, M. (1995) The Politics of Social Research, London: Sage.
Hammersley, M. und Atkinson, P. (1995) Ethnography: Principles in Practice (2. Aufl.), London: Routledge.
Hammersley, M. und Atkinson, P. (2007) Ethnography: Principles in Practice (3. Aufl.), London: Routledge.
Hammersley, M. und Traianou, A. (2012) Ethik und Bildungsforschung, London: British Educational Research Association.
Handwerker, W.P. (2005) „Sample Design“, Encyclopedia of Social Measurement, 3: 429-436.
Harrison, J., MacGibbon, L. und Morton, M. (2001) „Regimes of Trustworthiness in Qualitative Research: The Rigors of Reciprocity“, Qualitative Inquiry, 7(3): 323-345.
Heaton, J. (2000) Secondary Analysis of Qualitative Data: A Review of the Literature, York: Social Policy Research Unit (SPRU), University of York.
Heaton, J. (2008) „Secondary Analysis of Qualitative Data: An Overview“, Historical Social Research, 33(3): 33-45.
Heimbüro. (1998a) Data Protection Act 1998, London: The Stationery Office.
Heimbüro. (1998b) Human Rights Act 1998, London: The Stationery Office.
Jupp, V. (1989) Methods of Criminological Research, London: Routledge.
Kimmel, A.J. (1988) Ethik und Werte in der angewandten Sozialforschung, Newbury Park, CA: Sage.
Kirk, J. und Miller, M.L. (1986) Zuverlässigkeit und Gültigkeit in der qualitativen Forschung, Newbury Park, CA: Sage.
Kvale, S. (1996) Interviews: An Introduction to Qualitative Research Interviewing, London: Sage.
Lee, R.M. (1993) Doing Research on Sensitive Topics, London: Sage.
Leming, M.R. (1997) Research and Sampling Designs: Techniques for Evaluating Hypotheses. Verfügbar unter: http://www.stolaf.edu/people/leming/soc371res/research.html [Zugriff: 19. Juli 2013].
Lincoln, Y.S. und Guba, E.G. (1985) Naturalistische Untersuchung, Newbury Park, CA: Sage.
Lugosi, P. (2006) „Between Overt and Covert Research: Concealment and Disclosure in an Ethnographic Study of Commercial Hospitality“, Qualitative Inquiry, 12(3): 541-561.
Lynch, M. (2000) „Gegen Reflexivität als akademische Tugend und Quelle privilegierten Wissens“, Theory, Culture and Society, 17(3): 26-54.
MacMillan, K. (1996) Trance-scripts: The Poetics of a Reflexive Guide to Hypnosis and Trance Talk (unveröffentlichte Doktorarbeit), Loughborough: Loughborough University.
Mason, J. (2002) Qualitative Researching (2. Aufl.), London: Sage.
Mason, J. (2004) „Semistructured Interview“, in Lewis-Beck, M., Bryman, A. und Futing Liao, T. (Hrsg.) The SAGE Encyclopaedia of Social Science Research Methods (Band 1), London: Sage.
Mertens, D.M. (2005) Research and Evaluation in Education and Psychology: Integrating Diversity with Quantitative, Qualitative and Mixed Methods (2. Aufl.), Thousand Oaks, CA: Sage.
Morse, J.M., Barrett, M., Mayan, M., Olson, K. und Spiers, J. (2002) 'Verification Strategies for Establishing Reliability and Validity in Qualitative Research', International Journal of Qualitative Methods, 1(2): 13-22.
Neumann, W.L. (2000) Social Research Methods: Qualitative and Quantitative
Approaches (4. Aufl.), Boston, MA: Allyn and Bacon.
Newell, R. (1993) „Fragebögen“, in Gilbert, N. (Hrsg.) (1993) Researching Social Life, London: Sage.
Olson, R., Verley, J., Santos, L. und Salas, C. (2004) „Was wir Studenten über die Hawthorne-Studien beibringen: Eine Überprüfung des Inhalts in einer Auswahl von einführenden I-O- und OB-Lehrbüchern“, The Industrial- Organisationspsychologe, 41(3): 23-39.
Payne, G. und Payne, J. (2004) Key Concepts in Social Research, London: Sage.
Pels, D. (2000) „Reflexivity: One Step Up“, Theory, Culture and Society, 17(3): 1-25. Punch, M. (1994) „Politik und Ethik in der qualitativen Forschung“, in Denzin, N.K.
und Lincoln, Y.S. (Hrsg.) Handbook of Qualitative Research, Thousand Oaks, CA: Sage.
Rogers, C. (2007) Community Intelligence Initiative in 'A' Division (BCU): An Independent Evaluation, Pontypridd: University of Glamorgan.
Rogers, C. und Gravelle, J. (2008) Verwendung des Community Intelligence Diary (CID)-Systems: Eine unabhängige Bewertung, Pontypridd: University of Glamorgan.
Scott, J. und Marshall, G. (Hrsg.) (2009) Oxford Dictionary of Sociology (3. Aufl. überarbeitet), Oxford: Oxford University Press.
Shenton, A. K. (2004) „Strategien zur Sicherstellung der Vertrauenswürdigkeit in qualitativen Forschungsprojekten“, Education for Information, 22: 63-75.
Sieber, J. E. (1992) Planning Ethically Responsible Research, London: Sage.
Gesellschaft für Sozialforschung. (2003) Ethische Richtlinien, London: Social Research Association.
Spicker, P. (2011) „Ethical Covert Research“, Sociology, 45(1): 118-133.
Stanley, B., Sieber, J. E. und Melton, G. B. (1987) „Empirical Studies of Ethical Issues in Research: A Research Agenda“, American Psychologist, 42(7): 735-741.
Tashakkori, A. und Teddlie, C. (2003) Handbuch gemischter Methoden in der Sozial- und Verhaltensforschung, Thousand Oaks, CA: Sage.
Teddlie, C. und Yu, F. (2007) „Mixed Methods Sampling: A Typology with Examples“, Journal of Mixed Methods Research, 1(1): 77-100.
Watt, D. (2007) „On Becoming a Qualitative Researcher: The Value of Reflexivity“, The Qualitative Report, 12(1): 82-101.
Webb, E. J., Campbell, D. T., Schwartz, R. D. und Sechrest, L. (1966) Unobtrusive Measures: Nonreactive Research in the Social Sciences, Chicago, IL: Rand McNally.
Wiles, R., Heath, S., Crow, G. und Charles, V. (2004) Informed Consent in Social Research: A Literature Review, Southampton: Economic and Social Research Council (ESRC), National Center for Research Methods.
Barriball, K.L. und While, A. (1994) „Sammeln von Daten mithilfe eines halbstrukturierten Interviews: Ein Diskussionspapier“, Journal of Advanced Nursing, 19(2): 328-335.
Bloor, M. (1978) „On the Analysis of Observational Data: A Discussion on the Worth and Uses of Induction Techniques and Respondent Validation“, Sociology, 12(3): 545-552.
Bogen, K. (1996) „The Effect of Questionnaire Length on Response Rates: A Review of the Literature“, Proceedings of the Section on Survey Research Methods (American Statistical Association): Band 91, 1020-1025.
Bramel, D. und Friend, R. (1981) „Hawthorne, the Myth of the Docile Worker, and Class Bias in Psychology“, American Psychologist, 36(8): 867-878.
Britische Gesellschaft für Soziologie. (2004) Statement of Ethical Practice for the British Sociological Association, Durham: British Sociological Association (BSA).
Brown, J. (1996) „Police Research: Some Critical Issues“, in Leishman, F., Loveday, B. und Savage, S. (Hrsg.) Core Issues in Policing, New York, NY: Longman, 249-263.
Bryman, A. (2006) „Integration von quantitativer und qualitativer Forschung: Wie wird das gemacht?“ Qualitative Forschung, 6(1): 97-113.
Bryman, A. (2012) Social Research Methods (4. Aufl.), Oxford: Oxford University Press.
Bryman, A., Becker, S. und Sempik, J. (2008) „Quality Criteria for Quantitative, Qualitative and Mixed Methods Research: A View from Social Policy“, International Journal of Social Research Methodology, 11(4): 261- 276.
Bulmer, M. (1982) „Wann ist Verschleierung gerechtfertigt? Alternatives to Covert Participant Observation', Qualitative Sociology, 5(4): 251-264.
Campbell, D. T. und Fiske, D. W. (1959) „Convergent and Discriminant Validation by the Multitrait-Multimethod Matrix“, Psychological Bulletin, 56(2): 81-105.
Kirche, R.M. (2001) „The Effective Use of Secondary Data“, Learning and Motivation, 33: 32-45.
Corti, L., Foster, J. und Thompson, P. (1995) „Archiving Qualitative Research Data“, Social Research Update (Herbst 1995), Ausgabe 10. Verfügbar unter: http://sru. soc.surrey.ac.uk/SRU10.html [Zugriff: 12. Juni 2013].
Europäischer Rat. (2010) Die Europäische Menschenrechtskonvention (Konvention zum Schutz der Menschenrechte und Grundfreiheiten), geändert durch die Protokolle Nr. 11 und 14, Straßburg: Council of Europe Publishing.
Creswell, J.W. und Miller, D.L. (2000) „Validitätsbestimmung in qualitativer Untersuchung“, Theory into Practice, 39(3): 124-131.
Creswell, J.W. und Plano Clark, V.L. (2007) Entwerfen und Durchführen von Mixed-Methods-Forschung, Thousand Oaks, CA: Sage.
Dale, A., Arber, S. und Proctor, M. (1988) Doing Secondary Analysis, London: Unwin Hyman.
Denzin, N.K. (1989) Interpretierender Interaktionismus, Newbury Park, CA: Sage.
Denzin, N.K. (1978) The Research Act: Eine theoretische Einführung in soziologische Methoden, New York, NY: Praeger.
Denzin, N.K. (2009) The Research Act: Eine theoretische Einführung in soziologische Methoden (Taschenbuch), Piscataway, NJ: Transaction.
Diener, E. und Crandall, R. (1978) Ethik in der Sozial- und Verhaltensforschung, Chicago, IL: University of Chicago Press.
Diesing, P. (1971) Patterns of Discovery in the Social Sciences, Chicago, IL: Aldine-Atherton.
Wirtschafts- und Sozialforschungsrat. (2010) Framework for Research Ethics, Swindon: Economic and Social Research Council (ESRC).
Finlay, L. (2002) „Negotiating the Swamp: The Opportunity and Challenge of Reflexivity in Research Practice“, Qualitative Research, 2(2): 209-230.
Geertz, C. (1973) Die Interpretation von Kulturen: Ausgewählte Essays, New York, NY: Basic Books.
Golafshani, N. (2003) „Understanding Reliability and Validity in Qualitative Research“, The Qualitative Report, 8(4): 597-607.
Gorard, S. (2010) „Research Design, as Independent of Methods“, in Tashakkori, A. und Teddlie, C. (Hrsg.) SAGE Handbook of Mixed Methods in Social and Behavioral Research (2. Aufl.), Thousand Oaks, CA : Salbei.
Grix, J. (2002) „Introducing Students to the Generic Terminology of Social Research“, Politics, 22(3): 175-186.
Guba, E.G. und Lincoln, Y.S. (1989) Bewertung der vierten Generation, Newbury Park, CA: Sage.
Guillemin, M. und Gillam, L. (2004) „Ethics, Reflexivity, and „Ethically Important Moments“ in Research“, Qualitative Inquiry, 10(2): 261-280.
Hakim, C. (1982) Sekundäranalyse in der Sozialforschung: Ein Leitfaden zu Datenquellen und Methoden mit Beispielen, London: Allen und Unwin.
Hammersley, M. (1995) The Politics of Social Research, London: Sage.
Hammersley, M. und Atkinson, P. (1995) Ethnography: Principles in Practice (2. Aufl.), London: Routledge.
Hammersley, M. und Atkinson, P. (2007) Ethnography: Principles in Practice (3. Aufl.), London: Routledge.
Hammersley, M. und Traianou, A. (2012) Ethik und Bildungsforschung, London: British Educational Research Association.
Handwerker, W.P. (2005) „Sample Design“, Encyclopedia of Social Measurement, 3: 429-436.
Harrison, J., MacGibbon, L. und Morton, M. (2001) „Regimes of Trustworthiness in Qualitative Research: The Rigors of Reciprocity“, Qualitative Inquiry, 7(3): 323-345.
Heaton, J. (2000) Secondary Analysis of Qualitative Data: A Review of the Literature, York: Social Policy Research Unit (SPRU), University of York.
Heaton, J. (2008) „Secondary Analysis of Qualitative Data: An Overview“, Historical Social Research, 33(3): 33-45.
Heimbüro. (1998a) Data Protection Act 1998, London: The Stationery Office.
Heimbüro. (1998b) Human Rights Act 1998, London: The Stationery Office.
Jupp, V. (1989) Methods of Criminological Research, London: Routledge.
Kimmel, A.J. (1988) Ethik und Werte in der angewandten Sozialforschung, Newbury Park, CA: Sage.
Kirk, J. und Miller, M.L. (1986) Zuverlässigkeit und Gültigkeit in der qualitativen Forschung, Newbury Park, CA: Sage.
Kvale, S. (1996) Interviews: An Introduction to Qualitative Research Interviewing, London: Sage.
Lee, R.M. (1993) Doing Research on Sensitive Topics, London: Sage.
Leming, M.R. (1997) Research and Sampling Designs: Techniques for Evaluating Hypotheses. Verfügbar unter: http://www.stolaf.edu/people/leming/soc371res/research.html [Zugriff: 19. Juli 2013].
Lincoln, Y.S. und Guba, E.G. (1985) Naturalistische Untersuchung, Newbury Park, CA: Sage.
Lugosi, P. (2006) „Between Overt and Covert Research: Concealment and Disclosure in an Ethnographic Study of Commercial Hospitality“, Qualitative Inquiry, 12(3): 541-561.
Lynch, M. (2000) „Gegen Reflexivität als akademische Tugend und Quelle privilegierten Wissens“, Theory, Culture and Society, 17(3): 26-54.
MacMillan, K. (1996) Trance-scripts: The Poetics of a Reflexive Guide to Hypnosis and Trance Talk (unveröffentlichte Doktorarbeit), Loughborough: Loughborough University.
Mason, J. (2002) Qualitative Researching (2. Aufl.), London: Sage.
Mason, J. (2004) „Semistructured Interview“, in Lewis-Beck, M., Bryman, A. und Futing Liao, T. (Hrsg.) The SAGE Encyclopaedia of Social Science Research Methods (Band 1), London: Sage.
Mertens, D.M. (2005) Research and Evaluation in Education and Psychology: Integrating Diversity with Quantitative, Qualitative and Mixed Methods (2. Aufl.), Thousand Oaks, CA: Sage.
Morse, J.M., Barrett, M., Mayan, M., Olson, K. und Spiers, J. (2002) 'Verification Strategies for Establishing Reliability and Validity in Qualitative Research', International Journal of Qualitative Methods, 1(2): 13-22.
Neumann, W.L. (2000) Social Research Methods: Qualitative and Quantitative
Approaches (4. Aufl.), Boston, MA: Allyn and Bacon.
Newell, R. (1993) „Fragebögen“, in Gilbert, N. (Hrsg.) (1993) Researching Social Life, London: Sage.
Olson, R., Verley, J., Santos, L. und Salas, C. (2004) „Was wir Studenten über die Hawthorne-Studien beibringen: Eine Überprüfung des Inhalts in einer Auswahl von einführenden I-O- und OB-Lehrbüchern“, The Industrial- Organisationspsychologe, 41(3): 23-39.
Payne, G. und Payne, J. (2004) Key Concepts in Social Research, London: Sage.
Pels, D. (2000) „Reflexivity: One Step Up“, Theory, Culture and Society, 17(3): 1-25. Punch, M. (1994) „Politik und Ethik in der qualitativen Forschung“, in Denzin, N.K.
und Lincoln, Y.S. (Hrsg.) Handbook of Qualitative Research, Thousand Oaks, CA: Sage.
Rogers, C. (2007) Community Intelligence Initiative in 'A' Division (BCU): An Independent Evaluation, Pontypridd: University of Glamorgan.
Rogers, C. und Gravelle, J. (2008) Verwendung des Community Intelligence Diary (CID)-Systems: Eine unabhängige Bewertung, Pontypridd: University of Glamorgan.
Scott, J. und Marshall, G. (Hrsg.) (2009) Oxford Dictionary of Sociology (3. Aufl. überarbeitet), Oxford: Oxford University Press.
Shenton, A. K. (2004) „Strategien zur Sicherstellung der Vertrauenswürdigkeit in qualitativen Forschungsprojekten“, Education for Information, 22: 63-75.
Sieber, J. E. (1992) Planning Ethically Responsible Research, London: Sage.
Gesellschaft für Sozialforschung. (2003) Ethische Richtlinien, London: Social Research Association.
Spicker, P. (2011) „Ethical Covert Research“, Sociology, 45(1): 118-133.
Stanley, B., Sieber, J. E. und Melton, G. B. (1987) „Empirical Studies of Ethical Issues in Research: A Research Agenda“, American Psychologist, 42(7): 735-741.
Tashakkori, A. und Teddlie, C. (2003) Handbuch gemischter Methoden in der Sozial- und Verhaltensforschung, Thousand Oaks, CA: Sage.
Teddlie, C. und Yu, F. (2007) „Mixed Methods Sampling: A Typology with Examples“, Journal of Mixed Methods Research, 1(1): 77-100.
Watt, D. (2007) „On Becoming a Qualitative Researcher: The Value of Reflexivity“, The Qualitative Report, 12(1): 82-101.
Webb, E. J., Campbell, D. T., Schwartz, R. D. und Sechrest, L. (1966) Unobtrusive Measures: Nonreactive Research in the Social Sciences, Chicago, IL: Rand McNally.
Wiles, R., Heath, S., Crow, G. und Charles, V. (2004) Informed Consent in Social Research: A Literature Review, Southampton: Economic and Social Research Council (ESRC), National Center for Research Methods.
No Comments