Qualitative und Quantitative Forschung

Hallo, Ihr Lieben! :smile:

Ich habe jetzt die nächsten Tage schriftliches Examen (Altenpflege). Für das LF 1.1 und 1.2 müssen wir uns mit der Pflegeforschung auseinandersetzen, aber leider verstehe ich da etwas nicht ganz genau. :frowning: Ich hoffe, dass mir einer helfen kann!
Danke schonmal im Voraus. :smile:

Also, was ist der genaue Unterschied zwischen Quantitativer und Qualitativer Forschung?
Dies habe ich schon so halbwegs verstanden; mir würde es aber leichter fallen, wenn ich Beispiele hätte zur Unterscheidung.
Kann mir jemand ein paar Beispiele nennen??

Im Internet habe ich leider nichts gefunden, und in meinen Büchern habe ich nur ein Beispiel, was mir jedoch relativ wenig hilft. Mit mehreren Beispielen könnte ich mehr anfangen!

Ich hoffe, dass mir jemand helfen kann. :smile:

Liebe Grüße

Hallo,
Du hast im Internet nix gefunden?
http://de.wikipedia.org/wiki/Qualitative_Sozialforsc…
http://de.wikipedia.org/wiki/Quantitative_Sozialfors…

Ganz grob gesagt, betrachtet man in der quantitativen Forschung eine größere Grupppe von Leuten, bei der qulitativen hingegegn weniger (u.U. auch nur eine!) genauer.

Beispiel:
Du möchtest herausfinden, wie belastet Angehörige von Demenzkranken sind.
quantitativ: Du lässt 1500 Angehörige einen standardisierten Fragebogen zu ihrem Stressempfingen ausfüllen und wertest es aus.
qualitativ: Du begleitest Frau xy, die seit Jahren ihre Demenzkranke Mutter pflegt, 4 Wochen lang. Du beschreibst ihren Tagesablauf, interviewst sie und findest so heraus, wann sie besonders belastet ist. Aus diesen Ergebnissen leitest du dann Thesen ab, wie die Belastung von Angehörigen ausgeprägt ist.

Gibt für beide Arten Pro- und Contraagrumente. Kommt immer auf das Fach und die Fragestellung an.

LG,
batz

Hallo!

In der quantitativen Forschung werden Daten immer zahlenmäßig erhoben. Das leitet sich schon vom Wort ab: Bei der Datenerhebung wird „quantifiziert“ (s. Wiktionary), also in Zahlen ausgedrückt.

Alles andere ist qualitative Forschung.

Bsp.: Untersuchung eines Bücherregals

Quantitative Daten (Frage: Was lässt sich in Zahlen ausdrücken?):

  • Anzahl aller Bücher

  • Anzahl aller Bücher der Sparte „Sachbücher“ und der Sparte „Belletristik“

  • Prozentualer Anteil Bücher der Sparte „Sachbücher“

  • Alter der Bücher

Quantitative Daten (Frage: Was lässt sich nicht in Zahlen ausdrücken?):

  • Buchtitel

  • Namen der Autoren

  • Sprachen der Bücher

Aus qualitativen Daten lassen sich oft quantitative Daten generieren. Diesen Vorgang erreicht man u. a. durch Standardisieren: Z. B. könnten Autorennamen in einer vorgefertigten Liste verzeichnet sein und man würde dann erheben, ob ein oder mehrere Bücher zu diesem Autor vorhanden sind, ggf. die genaue Anzahl. Zu beachten ist, dass auch einfache ja/nein-Daten eine Quantifizierung darstellen. Man könnte nämlich z. B. ja=1 und nein=0 setzen.

In der Praxis ist richtig, was dummbatz sagt, nämlich dass in der quantiativen Forschung i.d.R. mehr „Probanden“ bzw. Befragte teilnehmen, als in der qualitativen Forschung. Das liegt daran, dass die Auswertung von qualitativen Daten i.d.R. wesentlich länger dauert. Vor allem kann die Auswertung qualitativer Daten nicht automatisiert werden.

Grüße von Hans-Peter

Hallo!

In der Praxis ist richtig, was dummbatz sagt, nämlich dass in
der quantiativen Forschung i.d.R. mehr „Probanden“ bzw.
Befragte teilnehmen, als in der qualitativen Forschung. Das
liegt daran, dass die Auswertung von qualitativen Daten i.d.R.
wesentlich länger dauert. Vor allem kann die Auswertung
qualitativer Daten nicht automatisiert werden.

  1. Es gibt sehr wohl Formen qualitativer Forschung, die Auswertungsprogramme verwenden, und zwar nicht nur zum Transkribieren.
    Z.B. das ‚Qualitative Interview‘ nach Mayring
    http://de.wikipedia.org/wiki/MAXQDA

  2. Dass die quantitative Forschung mehr Probanden benötigt als die qualitative liegt doch v.a. an der völlig unterschiedlichen Grundausrichtung auf (statistische) Repräsentativität (quant.) bzw. Sättigung („inhaltliche Repräsentativität“; qual.)

Das ist m.E. auch die grundsätzliche Unterscheidung der beiden Forschungslogiken.
http://www.pflegewiki.de/wiki/Samplingverfahren_der_…

Gruß
Tyll

Hallo Tyll,

  1. Es gibt sehr wohl Formen qualitativer Forschung, die
    Auswertungsprogramme verwenden, und zwar nicht nur zum
    Transkribieren.
    Z.B. das ‚Qualitative Interview‘ nach Mayring
    http://de.wikipedia.org/wiki/MAXQDA

Der Gebrauch von Computerprogrammen ist ja nicht gleich Automatisierung. Mit Automatisierung meine ich z. B. die automatische Auszählung von Fragebogendaten (Internetfragebögen oder gescannte Fragebögen) und der automatischen Erstellung von deskriptiver (meist Grafiken) und Inferenzstatistik.

MAXQDA würde ich eher als ein Unterstützung- oder Verwaltungsprogramm bezeichnen, das einem die Arbeit (Speichern, Sortieren, Markieren, Kategorisieren, Modellieren, Koordination des Projektes etc.) bei der qualitativen Forschung erleichtert. Zwar gibt es auch dort Automatisierung, aber die bezieht sich dann auf die sog. „Mixed-Methods“, also wieder Quantifizierungen.

Das ‚Qualitative Interview‘ nach Mayring kenne ich übrigens nicht. Wie hilft denn dort MAXQDA?

  1. Dass die quantitative Forschung mehr Probanden benötigt als
    die qualitative liegt doch v.a. an der völlig
    unterschiedlichen Grundausrichtung auf (statistische)
    Repräsentativität (quant.) bzw. Sättigung („inhaltliche
    Repräsentativität“; qual.)
    Das ist m.E. auch die grundsätzliche Unterscheidung der beiden
    Forschungslogiken.
    http://www.pflegewiki.de/wiki/Samplingverfahren_der_…

Ich fand den Artikel aus der Pflege-Wiki sehr interessant. Ich kann mich aber nicht so recht kritiklos mit ihm anfreunden. Ich behaupte, dass die „inhaltliche Repräsentativität/Sättigung“ sehr wohl von der Stichprobengröße abhängt. Die kluge Selektion (Punkt „theoretisches Samplen“) kann die Repräsentativität nicht garantieren. Warum wird überhaupt selektiert, also eine Stichprobe gebildet? Doch nur, weil es praktisch nicht möglich ist, alle Objekte des Interesses zu untersuchen.

Grüße von Hans-Peter (der diese Diskussion sehr interessant findet!)

Hallo!

Der Gebrauch von Computerprogrammen ist ja nicht gleich
Automatisierung. Mit Automatisierung meine ich z. B. die
automatische Auszählung von Fragebogendaten
(Internetfragebögen oder gescannte Fragebögen) und der
automatischen Erstellung von deskriptiver (meist Grafiken) und
Inferenzstatistik.

Was in der qualitativen Forschung aber gar nicht die Hauptarbeit ist, wenn überhaupt.
Dort liegt (zumindest bei den Ansätzen, die an der Grounded Theory orientiert sind) die Hauptarbeit im Transkribieren und im sog. „Kodieren“.

MAXQDA … Zwar gibt es auch dort Automatisierung,
aber die bezieht sich dann auf die sog. „Mixed-Methods“, also
wieder Quantifizierungen.

Nein, das „Kodieren“ wird durch MAXQDA weitgehend automatisiert, so dass damit große Textmengen ausgewertet werden können (und zwar semantisch sensibler als mit irgendwelchen simplen Wortsuchprogrammen).
Und das Kodieren ist ein Kernstück genuin qualitativer Forschungslogik.
http://www.maxqda.de/max3/b.htm

Das ‚Qualitative Interview‘ nach Mayring kenne ich übrigens
nicht.

Entschuldige, ich meinte natürlich die „Qualitative Inhaltsanalyse nach Mayring“.
Die eignet sich für Programme wie MAXQDA deshalb gut, weil bei ihr recht stark die Subsumtion von Textelementen unter feste Kategorien im Vordergrund steht, während z.B. die „Objektive Hermeneutik“ (Oevermann) völlig anti-subsumtorisch vorgehen möchte, und deshalb kaum ‚automatisierbar‘ ist.

Ich fand den Artikel aus der Pflege-Wiki sehr interessant. Ich
kann mich aber nicht so recht kritiklos mit ihm anfreunden.
Ich behaupte, dass die „inhaltliche
Repräsentativität/Sättigung“ sehr wohl von der
Stichprobengröße abhängt.

Natürlich, aber doch völlig andersartig als bei der „statistischen Repräsentativität“.
Die „Sättigung“ ist erreicht, wenn hinzugefügtes Datenmaterial die gefundene Fallstruktur nur noch reproduziert anstatt sie zu transformieren.
Deshalb ist die dafür nötige „Stichprobengröße“ überhaupt nicht vorab festlegbar, sondern es werden (in einem zirkulären Verhältnis von Erhebung und Auswertung) immer wieder neue „Stichprobenelemente“, wenn man das so ausdrücken will, hinzugefügt.
Das ist ein prinzipieller Unterschied zum Statistischen Sampling.

Die kluge Selektion (Punkt
„theoretisches Samplen“) kann die Repräsentativität nicht
garantieren.

Wenn du damit meinst, dass „Bewusste Auswahlverfahren“ innerhalb der Quantitativen Forschung Repräsentativität nicht garantieren können, dann ist das richtig, aber für die Qualitative Forschung unerheblich, weil dort diese Art der Repräsentativität (d.h. Abbildung der Grundgesamtheit) gar keine Zielsetzung ist und sein kann.

Gruß
Tyll

1 Like

Hallo!

Nein, das „Kodieren“ wird durch MAXQDA weitgehend
automatisiert, so dass damit große Textmengen ausgewertet
werden können (und zwar semantisch sensibler als mit
irgendwelchen simplen Wortsuchprogrammen).

Das finde ich sehr spannend! Die Möglichkeit der Automatisierung in der qualitativen Forschung kannte ich bisher nicht. (Ich komme eher aus der Ecke der quantitativen Forschung.)

Die „Sättigung“ ist erreicht, wenn hinzugefügtes Datenmaterial
die gefundene Fallstruktur nur noch reproduziert anstatt sie
zu transformieren.
Deshalb ist die dafür nötige „Stichprobengröße“ überhaupt
nicht vorab festlegbar, sondern es werden (in einem zirkulären
Verhältnis von Erhebung und Auswertung) immer wieder neue
„Stichprobenelemente“, wenn man das so ausdrücken will,
hinzugefügt.
Das ist ein prinzipieller Unterschied zum Statistischen
Sampling.

Genau dasselbe Vorgehen gibt es bei Untersuchungen, die statistisch ausgewertet werden auch. Oftmals ist nämlich nicht im Voraus klar, wie groß ein zu untersuchender Effekt ist, weshalb die Stichprobengröße nicht vorab berechnet werden kann. Dann kann man sich des „adaptive sampling“ oder „sample size adjustment“ bedienen. Auch dort wird man anhand der bereits erhobenen Daten eine Aussage darüber treffen, ob die Vergrößerung der Stichprobe nur die bisherigen Daten reproduziert oder transformiert.

Die kluge Selektion (Punkt
„theoretisches Samplen“) kann die Repräsentativität nicht
garantieren.

Wenn du damit meinst, dass „Bewusste Auswahlverfahren“
innerhalb der Quantitativen Forschung Repräsentativität nicht
garantieren können, dann ist das richtig, aber für die
Qualitative Forschung unerheblich, weil dort diese Art der
Repräsentativität (d.h. Abbildung der Grundgesamtheit) gar
keine Zielsetzung ist und sein kann.

Im Kopf hatte ich ein Beispiel qualitativer Forschung: Tiefeninterviews mit Konsumenten über deren Assoziationen zu einem Produkt zwecks der Ableitung von Marketingstrategien oder Produktmodifikationen. Hier wäre es schon hilfreich, möglichst viele der Zielgruppe zu befragen, also ein Abbild der Grundgesamtheit zu bekommen. Nur wird es wegen des Aufwands irgendwann ineffizient werden (Forschungskosten höher als mögliche Gewinnsteigerung durch Anwendung der Forschungsergebnisse).

Letztendlich denke ich, in der qualitativen Forschung verhält es sich genauso wie in der quantiativen Forschung: Wenn nicht schon die Grundgesamtheit im Ganzen untersucht, sondern nur eine Stichprobe genommen wird, dann geht es in beiden Fällen um Repräsentativität. Vielleicht verzichtet die qualitative Forschung auf den Repräsentativitätsanspruch, weil sie befürchtet, diesbezüglich nicht mit der quantiativen Forschung mithalten zu können. Doch nicht alle Objekte lassen sich repräsentativ mit Zahlen erfassen.

Viele Grüße von Hans-Peter

Hallo!

Genau dasselbe Vorgehen gibt es bei Untersuchungen, die
statistisch ausgewertet werden auch. Oftmals ist nämlich nicht
im Voraus klar, wie groß ein zu untersuchender Effekt ist,
weshalb die Stichprobengröße nicht vorab berechnet werden
kann. Dann kann man sich des „adaptive sampling“ oder „sample
size adjustment“ bedienen. Auch dort wird man anhand der
bereits erhobenen Daten eine Aussage darüber treffen, ob die
Vergrößerung der Stichprobe nur die bisherigen Daten
reproduziert oder transformiert.

Ich bin mit dem Thema bei weitem nicht vertraut genug, um da eine starke Aussage treffen zu können, aber beim „adaptive sampling“ wird man doch gewiss „Korrekturfaktoren“ benötigen zur Vermeidung eines sampling bias, also dafür sorgen müssen, dass man sich weiterhin im Rahmen der Zufallsstichprobe bewegt - quasi als ob man von vorne herein eine Zufallsstichprobe gezogen hätte.
Oder liege ich damit falsch?

Im Kopf hatte ich ein Beispiel qualitativer Forschung:
Tiefeninterviews mit Konsumenten über deren Assoziationen zu
einem Produkt zwecks der Ableitung von Marketingstrategien
oder Produktmodifikationen. Hier wäre es schon hilfreich,
möglichst viele der Zielgruppe zu befragen, also ein Abbild
der Grundgesamtheit zu bekommen.

Warum möglichst viele?
Genuin qualitatives Vorgehen sieht doch -ganz schematisch- eigentlich so aus:

Ich untersuche eine kleine Zahl von Untersuchungspersonen.
Die Auswahl stelle ich auf Grund meines Vorwissens zusammen, z.B. nach dem Prinzip der „maximalen Konstrastierung“.
Nun erhalte ich dabei bestimmte Strukturgesetzlichkeiten, die mein (Vor)Wissen erweitern, so dass ich nun erneut „kontrastieren“ kann/muss, also nach dem Prinzip der „maximalen Kontrastierung“ weitere Personen in die Untersuchung einbeziehen.
Das geht dann wiederum in mein (Vor)Wissen ein …
Weiteres „Kontrastieren“ …
Bis irgendwann neue Untersuchungen mein (Vor)Wissen NICHT mehr erweitern und ich keine Ahnung mehr habe, wie ich noch „kontrastieren“ könnte.

Auf diese Weise bin ich auf der höchsten Generalisierungsebene angelangt und kann allgemeine Aussagen über das untersuchte Feld tätigen.
Das hat aber nichts mit statistischen Überlegungen zu einer „Grundgesamtheit“ zu tun.
Und mein Ziel war es auch nicht „möglichst viele“ Untersuchungspersonen einzubeziehen, sondern „die maximal voneinander kontrastierenden“.
Das sind -in aller Regel- dann auch deutlich weniger Personen als beim quantitativ-statistischen Vorgehen.

Gruß
Tyll

Hallo!

Ich bin mit dem Thema bei weitem nicht vertraut genug, um da
eine starke Aussage treffen zu können, aber beim „adaptive
sampling“ wird man doch gewiss „Korrekturfaktoren“ benötigen
zur Vermeidung eines sampling bias, also dafür sorgen müssen,
dass man sich weiterhin im Rahmen der Zufallsstichprobe bewegt

  • quasi als ob man von vorne herein eine Zufallsstichprobe
    gezogen hätte.
    Oder liege ich damit falsch?

Das ist schon richtig und es gibt Regeln dafür, die in der Literatur diskutiert werden. Ich finde nur das grundlegende Prinzip, Daten zu sammeln, bis man merkt, dass keine neuen Informationen mehr hinzukommen, ziemlich vergleichbar.

Warum möglichst viele?

Mein naiver Verstand sagt mir einfach, dass bei dieser Forschungsfrage (Produktverbesserung) gilt: je mehr Befragte, desto besser. Z. B. könnte es mir bei einer kleinen Stichprobe passieren, keine Mutter mit Kleinkindern in der Stichprobe zu haben, die mir ihre Sorge über den nicht kindersicheren Schraubverschluss des Produktes „WC-Reiniger“ hätte mitteilen können.

Ich untersuche eine kleine Zahl von Untersuchungspersonen.
Die Auswahl stelle ich auf Grund meines Vorwissens zusammen,
z.B. nach dem Prinzip der „maximalen Konstrastierung“.

Das halte ich für sehr sinnvolles Vorgehen, wenn ich meine Forschungsfrage mit einer kleinen Stichprobe untersuchen will. Ich werde dann zusehen, Frauen, Männer, mit und ohne Kindern usw. in der Stichprobe zu haben, weil ich erwarte, dass sie kontrastreiche Ansichten und Ideen zum Produkt haben. Noch toller wäre aber ein große Stichprobe, weil immer noch 20 Personen (bei getrennter Befragung) mehr Ideen liefern, als 10.

Allerdings beziehe ich meine Überlegungen ganz auf das von mir gewählte Beispiel, bei dem mir das qualitative Vorgehen noch am vertrautesten ist. Ich will daher nicht ausschließen, dass qualitative Forscher meine Ansichten für sehr quantitativ geprägt halten.

Grüße von Hans-Peter

Hallo!

Noch
toller wäre aber ein große Stichprobe, weil immer noch 20
Personen (bei getrennter Befragung) mehr Ideen liefern, als
10.

Das interessiert mich noch (denn es geht hierbei ja nicht um den Stichprobenumfang aus statistischer Perspektive betrachtet, wo mir die Antwort klar wäre) …

Warum sollen z.B. unbedingt 20 Personen bei 10 Fragen mehr Ideen liefern als 10 Personen bei 20 Fragen?

Klar ist natürlich, dass ich mindestens 11 Personen befragen muss, wenn ich den Gegenstand „Wie gehe ich als Fußballspieler mit meiner Spielposition um?“ untersuche.
Da würde ich nicht in Frage stellen, dass 11 Personen bei drei Fragen mehr liefern als wenn ich dem Torwart 33 Fragen stellen würde.
Es ist also nicht so, dass ich die „Stichprobengröße“ für nebensächlich halte, und glaube, aus wenigen Untersuchungspersonen die Welt herauslesen zu können, wie der meditierende Buddhist aus einer Saubohne.
Die Zahl muss eben dem Untersuchungsgegenstand adäquat sein.

Gruß
Tyll

Hallo!

Warum sollen z.B. unbedingt 20 Personen bei 10 Fragen mehr
Ideen liefern als 10 Personen bei 20 Fragen?

Ich habe dabei wieder an meine fiktive Forschungsfrage gedacht (Produktverbesserung). Für diese ist die Generalisierung auf die Konsumentenzielgruppe von Bedeutung. Bei nur 10 Personen ist die Wahrscheinlichkeit geringer als bei 20 Personen, dass die Mutter mit Kleinkindern dabei ist, die wertvolle Informationen zur Kindersicherheit beitragen könnte. Gut wäre sogar, mehrere Mütter mit Kleinkindern dabei zu haben, um feststellen zu können, ob es sich bei jener Mutter mit Sicherheitsbedenken um eine Einzelmeinung handelt, die die Produktveränderung wegen des damit verbundenen Aufwands nicht rechtfertigt.

Klar ist natürlich, dass ich mindestens 11 Personen befragen
muss, wenn ich den Gegenstand „Wie gehe ich als Fußballspieler
mit meiner Spielposition um?“ untersuche.

Dann hat man aber eigentlich den Gegenstand: „Wie gehe ich als Fussballspieler des Vereins X mit meiner Spielposition um?“ untersucht. Das ist zwar ein legitimer Forschungsgegenstand, doch der Erkenntnisgewinn bleibt begrenzt, wenn man nicht auf Fussballspieler allgemein generalisieren darf.

Vergleichbare Probleme gibt es aber auch in der quantitativen Forschung: Wenn ich feststellen will, ob Hühner weiße oder braune Eier legen, nehme ich dann (a) ein Huhn und lasse es viele Eier legen, (b) viele Hühner und lasse sie jeweils ein Ei legen oder © viele Hühner die viele Eier legen? Die Designs (a)-© beantworten unterschiedliche Fragestellungen.

Die Zahl muss eben dem Untersuchungsgegenstand adäquat sein.

Besser kann man es nicht zusammenfassen!

Viele Grüße

Hans-Peter