Zusatzmaterialien zum UTB-Band https://twitter.com/utb_stuttgart https://plus.google.com/105316937979043460985/posts https://de-de.facebook.com/Studiertier https://www.facebook.com/UTBStuttgart Markus Pospeschill , Empirische Methoden in der Psychologie bereitgestellt über www.utb-shop.de/9783825240103 Gefürchtet, aber unverzichtbar: Kenntnisse empirischer Methoden brauchen Psychologiestudierende in allen Studienphasen und im späteren Berufsleben. Wie stelle ich eine gute Hypothese auf und wie kann ich meine Hypothese überprüfen? Welche Methoden der Datenerhebung stehen mir zur Verfügung? Was ist ein Signifikanztest? Diese und viele weitere Fragen rund um empirische Methoden möchte dieses Buch beantworten. Dieses Buch liefert das begriffliche Rüstzeug und überträgt es auf die Planungsschritte einer Untersuchung. Es stellt Methoden der Datenerhebung und Anwendungen empirischer Forschungsprinzipien vor und befähigt dazu, empirische Befunde selbst kritisch zu bewerten – so werden empirische Methoden für Studierende durchschaubar. Damit gelingt die Prüfung im Fach empirische Methoden ebenso wie das eigene Forschungsprojekt für die Bachelor- oder Masterarbeit. Die Zusatzmaterialien wurden vom Autor / der Autorin / den Autoren zur Verfügung gestellt und sind genau auf den Inhalt des Werkes abgestimmt. Nutzung und Copyright Die Nutzung der Materialien für eigene Studienzwecke ist kostenlos, das Copyright liegt bei den Autoren bzw. beim Verlag. Eine Weiterverbreitung gleich in welcher Form ist nur mit schriftlicher Genehmigung der UTB GmbH Stuttgart gestattet. Diese und viele weitere kostenlose Zusatzmaterialien finden Sie unter www.utb-shop.de Kostenlose Tipps zum wissenschaftlichen Arbeiten für alle Fächer gibt’s auf unserem Studi-Portal unter http://studium.utb.de UTB auf Twitter UTB auf Facebook Das Studiertier auf Facebook UTB auf Google + UTB GmbH | Industriestr. 2 | 70565 Stuttgart Fax 07 11/7 80 13 76 | www.utb.de | [email protected]
19
Embed
Markus Pospeschill , Empirische Methoden in der …...Markus Pospeschill Empirische Methoden in der Pschologie 2013 b Ernst Reinhardt, GmbH o KG, Verlag, München 3 Empirisches Arbeiten
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Markus Pospeschill ,Empirische Methoden in der Psychologie
bereitgestellt über www.utb-shop.de/9783825240103
Gefürchtet, aber unverzichtbar: Kenntnisseempirischer Methoden brauchenPsychologiestudierende in allen Studienphasen undim späteren Berufsleben.
Wie stelle ich eine gute Hypothese auf und wie kannich meine Hypothese überprüfen? Welche Methodender Datenerhebung stehen mir zur Verfügung? Wasist ein Signifikanztest? Diese und viele weitere Fragenrund um empirische Methoden möchte dieses Buchbeantworten.
Dieses Buch liefert das begriffliche Rüstzeug undüberträgt es auf die Planungsschritte einerUntersuchung.
Es stellt Methoden der Datenerhebung undAnwendungen empirischer Forschungsprinzipien vorund befähigt dazu, empirische Befunde selbst kritischzu bewerten – so werden empirische Methoden fürStudierende durchschaubar.
Damit gelingt die Prüfung im Fach empirischeMethoden ebenso wie das eigene Forschungsprojektfür die Bachelor- oder Masterarbeit.
Die Zusatzmaterialien wurden vom Autor / der Autorin / den Autoren zur Verfügung gestellt und sind
genau auf den Inhalt des Werkes abgestimmt.
Nutzung und Copyright
Die Nutzung der Materialien für eigene Studienzwecke ist kostenlos, das Copyright liegt bei den
Autoren bzw. beim Verlag. Eine Weiterverbreitung gleich in welcher Form ist nur mit schriftlicher
Genehmigung der UTB GmbH Stuttgart gestattet.
Diese und viele weitere kostenlose Zusatzmaterialien finden Sie unter www.utb-shop.de
Kostenlose Tipps zum wissenschaftlichen Arbeiten für alle Fächer gibt’s auf unserem Studi-Portal
unter http://studium.utb.de
UTB auf Twitter UTB auf Facebook Das Studiertier auf Facebook UTB auf Google +
- Eine wissenschaftliche Methode ist ein System von Regeln.- Regeln müssen kommunizierbar, lehrbar und intersubjektiv nachprüfbar sein.- Methodologie als allgemeine und spezielle sowie deskriptive und wertende Methodologie.
- Variablen erfassen Merkmalsunterschiede.- Werden Merkmalsausprägungen Zahlen zugeordnet, entstehen Daten (Operationalisierung).- Variablen besitzen verschiedene funktionale Bedeutungen.
- Hypothesen müssen sich durch empirischen Gehalt, Generalisierbarkeit und spezifische Formulierung (Konditionalsätze, Falsifizierbarkeit) auszeichnen.- Wissenschaftliche Hypothesen werden in statistische Hypothesen übersetzt.- Kausalität von Hypothesen ist abhängig vom Untersuchungsdesign und inhaltlichen Erwägungen.
- Kritischer Rationalismus ist die Basis für empirische Forschung.- Begriffe und Aussagen müssen einen empirischen Bezug aufweisen und so formuliert sein, das sie prinzipiell widerlegbar sind.- Typisch für empirische Forschung sind Aussagen mittlerer Reichweite, aber keine Gesetzesaussagen.
- Deduktiv-nomologische Erklärungen besitzen den Charakter empirisch abgesicherter Theorien.- Dabei stellt sich grundsätzlich ein Korrespondenzproblem, ein Problem der Messgenauigkeit und die Möglichkeit, Theorien durch Modifikation vor einer Falsifikation zu bewahren.
- Planungsphasen zeigen eine wechselseitige Abhängigkeit und sind daher simultan zu betrachten.- In der Planung werden Entscheidungen getroffen, die später ggf. nicht mehr korrigiert werden können.
- Grundgesetz und berufsethische Verpflichtungen schränken Untersuchungsvorhaben ein.- Vor- und Nachteile wissenschaftlichen Fortschritts sind daher gründlich abzuwägen.
- Dimensionale und semantische Analyse dienen der Problempräzisierung.- Über Korrespondenzregeln wird entschieden, ob Sachverhalte dem theoretischen Begriff entsprechen.
- Es werden Nominal- und Realdefinitionen unterschieden.- Daneben erfordert die wissenschaftliche Verwendung analytische und operationale Definitionen.
- Es werden definitorische, (interne und externe) korrelative und schlussfolgernde Indikatoren unterschieden.- Operationalisierungen führen zu Messwerten unterschiedlichen Skalenniveaus.- Bei der Operationalisierung sind logische und empirische Validität zu betrachten.
- Messen in den Humanwissenschaften ist die homomorphe Zuordnung von Zahlen zu Objekten.- Beim Messen werden das Repräsentations-, Eindeutigkeits- und Bedeutsamkeitsproblem unterschieden.
- Es werden explorative, populationsbeschreibende und hypothesenprüfende Untersuchungen unterschieden. Dabei sind Aspekte der internen und externen Validität zu berücksichtigen.- Ferner werden quasiexperimentelle von experimentellen Untersuchungen unterschieden.- Schließlich gibt es Feld- von Laboruntersuchungen zu differenzieren.
- In der Planungsphase sind Aspekte der Durchführung, Auswertung und Interpretation zu berücksichtigen.- Dazu werden vorbereitend ein Exposé und ein Übersichtsplan erstellt.
Charakteristika der insbesondere im wissenschaftlichen Kontext wichtigen analytischen und operationalen Definition von Begriffen (Abbildung 2.4 im Buch)
Darstellung eines Pretest-Posttest-Follow-up-Kontrollgruppen-Designs und den Möglichkeiten statistischer Vergleiche zu den drei Messzeitpunkten (Abbildung 3.1 im Buch)
- Evaluationsstudien sind eine Form bewertender Begleitforschung von Programmen, Maßnahmen oder Interventionen sowie von Strategien ihrer Erfolgs- und Wirkungskontrolle.
- Wissenschaftliche Theorien stellen die Basis der Grundlagenforschung dar.- Technologische Theorien stellen die Basis der Evaluationsforschung dar.
- Die Interventionsforschung hat die Entwicklung einer Maßnahme oder einer Intervention zum Ziel.
- Es werden summative von formativen Evaluationen unterschieden.- Formative Evaluationen verwenden auf Stichproben basierende Populationsbeschreibungen.- Summative Evaluationen verwenden hypothesenprüfende Untersuchungsarten.
Evaluations-forschung
Arten systema-tischer „Erfolgs-
kontrollen“
Begleitforschung
Technologische vs.
wissenschaftliche Theorien
Interventions-forschung
Studienarten
- Der Evaluationsforschung vorgeschaltet ist eine Interventionsforschung.
Ist ein Test nicht objektiv, dann sind seine Ergebnisse hauptsächlich auf Fehler bei der Durchführung, Auswertung oder Interpretation zurückzuführen.
Ist ein Test nicht reliabel, dann erfassen die Items unterschiedliche Sachverhalte, sind ungenau und/oder messfehlerbehaftet.
Ist ein Test nicht valide, dann können auf seiner Grundlage keine angemessenen Aussagen undsinnvolle Entscheidungen getroffen oder Generalisierungen vorgenommen werden.
ist notwendig aber nicht hinreichend für
sind partiellinkompatibel
(Verdünnungs-paradoxon)
entbindet vom Nachweis
entbindet vom Nachweis
Beziehungen zwischen den Hauptgütekriterien nach der Klassischen Testtheorie. Das Verdünnungsparadoxon (Reliabilitäts-Validitäts-Dilemma) benennt einen umge-kehrt-U-förmigen Zusammenhang zwischen der Reliabilität und der Validität. Obwohl die Reliabilität eine Voraussetzung für Validität ist, wird eine perfekte Reliabilität nur auf Kosten der Validität erreicht. (Abbildung 4.6 im Buch)
- Qualitative und quantitative Merkmale werden unterschieden.- Durch Zusammenfassung von Messwerten (un/gewichtet, multiplikativ) entstehen Indizes.
- Rangordnungen entstehen durch die Vergabe von Rangplätzen für Merkmalsausprägungen.- Beim Dominanz-Paarvergleich sind Objekte in eine Rangreihe zu bringen. Problematisch sind hier intransitive Urteile.- Beim Ähnlichkeits-Paarvergleich sind Ähnlichkeitsurteile zwischen Objekten abzugeben. Problematisch kann hier die Schwere des Urteils sein.- Ratingskalen sind graduelle Beurteilungsskalen mit unterschiedlicher Skalierung.
- Hier werden Biosignale und Biopotentiale unterschieden.- Messungen können sich auf das periphere Nervensystem, das zentrale Nervensystem oder das endrokrine System/Immunsystem beziehen.
- Grundlage ist hier verbales (nicht-numerisches) Datenmaterial, das nach Strukturen und Mustern durchsucht wird.- Dabei werden Techniken der offenen/halb-strukturierten Befragung, der qualitativen Beobachtung und nonreaktive Verfahren unterschieden.
- Testskalen sind Itemsätze, die nach spezifischen Skalierungseigenschaften zusammengestellt werden.- Beispiele sind die Thurstone-, die Guttman-, die Rasch-, die Coombs- und die Likert-Skala.
- Mündliche Befragungen dienen eher der Erhebung stärker individualisierter Information.- Schriftliche Befragungen eignen sich eher bei homogenen Untersuchungsgruppen und strukturierten Befragungsinhalten.- Befragungen unterliegen generell zahlreichen Tendenzen zur Antwortverfälschung und Urteilsverzerrung.
- Systematische Beobachtungen können offen, verdeckt, teilnehmend oder nicht teilnehmend erfolgen.- Über einen Beobachtungsplan sind Festlegungen zur Standardisierung und Durchführung festzulegen.
Thesenhafte Zusammenfassung des 4. Kapitels (Abbildung 4.8 im Buch)
- Explorative Studien bedienen sich heuristischer Strategien, um Hypothesen und Theorien zu generieren.- Explorative Studien sind explanativen Untersuchungen vorgeschaltet.
- Hier werden aus Alltags- oder wissenschaftlichen Theorien neue Hypothesen abgeleitet.- Auch Vergleiche oder Formalisierungen von Theorien können als Strategie eingesetzt werden.
- Durch Methodenvergleiche, -variationen oder den Einsatz von Methoden als Denkwerkzeug entstehen hier neue Hypothesen.
Empiriebasierte Explorations-
studien
- Mittels Primär- und Sekundäranalysen sollen Muster und Regelmäßigkeiten in Daten entdeckt werden.- Hierbei ist auch ein exploratives Signifikanztesten statthaft.
- Über eine Zufallsstichprobe sollen möglichst viele Merkmale der GG repräsentiert sein.- Zu unterscheiden ist hier zwischen globaler und lokaler Repräsentativität.- Exakte Abbildungen von GG lassen sich allerdings über Zufallsstichproben nicht erreichen.
- Bei populationsbeschreibenden Untersuchungen werden Punkt- und Intervallschätzungen vorgenommen.- Mit wachsendem Stichprobenumfang nimmt die Präzision dieser Schätzungen allgemein zu.
- Zur Präzisierung von Parameterschätzungen sind geschichtete, Klumpen- und mehrfach geschichtete Stichproben sowie wiederholte Stichprobenuntersuchungen geeignet.
- Die Elemente der Stichprobenpläne lassen sich zu komplexeren Stichprobenplänen kombinieren.- Daneben existieren nicht-probabilistische Auswahlverfahren, bei denen aber keine Inferenzschlüsse zulässig sind.
- Forschungshypothesen legen Geltungsbereich und Stichprobenart fest.- Ein Signifikanztest entscheidet über die Existenz eines Effektes (Ablehnung der Nullhypothese).- Nachträgliche Korrekturen des α-Niveaus sind unzulässig.
- Die Teststärke gibt die Wahrscheinlichkeit an, mit der ein Signifikanztest bei Gültigkeit der Alternativhypothese zu einem signifikanten Ergebnis führt.
- Zusammenhangshypothesen werden vielfach über Cross-Sectional-Designs überprüft.- Für Unterschiedshypothesen bieten sich randomisierte Zwei- oder Mehrgruppen-Pläne an.- Veränderungshypothesen werden über Zwei- oder faktorielle Pretest-Posttest-Pläne untersucht.
- Indirekte Veränderungsmessungen betrachten das Ausmaß an Veränderungen zwischen Messzeitpunkten.- Dabei ist die Reliabilität der Differenzwerte umso geringer, je höher die Reliabilität der Einzeltestungen ist.
- Effektstärkemaße unterteilen sich in Maße zu standardisierten Differenzen und Indizes für Varianzaufklärung.- Über Delta-Maße können Effektgrößen vereinheitlicht werden.
- Optimal ist ein Stichprobenumfang dann, wenn aufgrund eines empirischen Ergebnisses entweder die H0 oder die H1 zu verwerfen ist.
Validität hingegen ist vor allem durch Übungseffekte und durch den Zeit-punkt des Beginns der Behandlung zu kontrollieren. Gegebenenfalls kann auch über einzelne parallelisierte Kontrollpersonen (ohne Treatment) eine Kontrollbedingung eingeführt werden; dies gelingt in der Praxis allerdings nur selten.
Einzelfallstudien und Small-n-
Designs
Exakte Tests/ Permutations-
tests/Randomi-sierungstest
Problematik von Einzelfallstudien
und kleinen Stichproben
Einzelfall-diagnostik
- Klinische Forschung ist vor allem durch Intensive Designs charakterisiert.- Der Anwendung parametrischer Testverfahren sind hier Grenzen gesetzt.
- Randomisierungstests ersetzt analytische durch computationale Power.- Randomisierungstests schöpfen alle Informationen hinsichtlich der Verteilung aus den Daten aus. - Randomisierungstests ordnen die Daten neu an, um zu einer Prüfverteilung zu gelangen.
- Beobachtete Testwerte lassen sich über Standardmessfehler, Standardschätzfehler und Konfidenzintervalle absichern.- Ferner leiten sich daraus Konzepte der kritischen Differenz und der diagnostischen Valenz ab.
Abb. 8.9: Thesenhafte Zusammenfassung des 8. Kapitels
1. Welches sind die zentralen Validitätsprobleme bei klinischen For-schungsdesigns?
2. Welche Mindeststichprobengrößen werden bei parametrischen, nicht-parametrischen und Randomisierungstests vorausgesetzt?
3. Was verbirgt sich hinter der Bezeichnung „Randomisierungs-tests“?
4. Wann wirken Voraussetzungsverletzungen für Varianz- und Re-gressionsanalysen kritisch?
5. Was unterscheidet die analytische von der computationalen Power?
6. Was versteht man unter Autokorrelationen und was ist der Effekt positiver Autokorrelationen?
7. Was ist die Problematik nicht-parametrischer Tests?
8. Worin besteht die Problematik mangelnder Reliabilität von Ein-zelfällen?
- Skalentheoretische und statistisch-mathematische Voraussetzungen sowie die Robustheit des Verfahren bestimmen die Entscheidungsfindung bei einem statistischen Test.
- Einzelne Signifikanzangaben können zu einer statistischen Entscheidung zusammengefasst werden.
- A-priori Hypothesen bedürfen keiner α-Fehler-Adjustierung.- Undifferenzierte Globalhypothesen bedürfen einer α-Fehler-Adjustierung.- Bei den Entscheidungsregeln zur Ermittelung eines korrigierten α-Wertes werden progressive von konservativen Regeln unterschieden.
Bootstrap-Methode
- Hierbei handelt es sich um eine Schätzmethode für Standardfehler und Konfidenzintervalle bei parametrischen Tests.
Exakte Tests - Hierbei handelt es sich um eine Methode, die Überschreitungswahrscheinlichkeit exakt zur Stichproben-Realisation der Teststatistik zu berechnen.