Sozialwissenschaftliche Forschungsmethoden

Hrsg. von Wenzel Matiaske, Martin Spieß et al.

Band 10: Explorative und deskriptive Datenanalyse mit R

25.08.15 (Allgemein)

sozialwissenschaftliche-forschungsmethoden-10Markus Burkhardt, Peter Sedlmeier

Explorative und deskriptive Datenanalyse mit R

Die explorative Datenanalyse (EDA) umfasst eine Reihe meist grafischer oder semigrafischer Verfahren, die es ermöglichen, Daten und Ergebnisse besser zu verstehen. Das Ziel der EDA ist es Muster, Auffälligkeiten oder Zusammenhänge in Daten zu entdecken. Im Hauptteil des Buches werden die Grundtechniken zur Exploration von Verteilungen, Zusammenhängen und multivariaten Beziehungen vorgestellt. Die Grenzen zwischen der explorativen und der deskriptiven Datenanalyse sind fließend und für eine vernünftige Datenanalyse (und auch zur Kommunikation von Ergebnissen) sind beide unabdingbar. Deswegen behandelt das Buch beide Arten von Verfahren. Zudem enthält es ein Kapitel über Effektgrößen und eines zu Grafiken in der Inferenzstatistik. Alle Verfahren werden mit Hilfe von Beispielen illustriert und können unter Verwendung der frei erhältlichen Programmiersprache R von jedermann leicht nachvollzogen werden. Ergänzend werden alle R-Skripte auch online angeboten (http://www.r-stutorials.de/eda). Da keinerlei Programmierkenntnisse vorausgesetzt werden, eignet sich dieses Buch auch zum Einstieg in R.

Inhaltsverzeichnis

Reinlesen

Schlüsselwörter: Explorative Datenanalyse, deskriptive Datenanalyse, semigrafische und grafische Verfahren, Effektgrößen, R

Markus Burkhardt ist wissenschaftlicher Mitarbeiter an der Professur für Forschungsmethoden und Evaluation am Institut für Psychologie der TU-Chemnitz.

Peter Sedlmeier ist Professor für Forschungsmethoden und Evaluation am Institut für Psychologie der TU Chemnitz.

Online-Bestellung

 

Keine Kommentare »

Band 9: Lineare Strukturgleichungsmodelle. Eine Einführung mit R (2. Auflage)

09.12.14 (Allgemein)

Band 9: Lineare Strukturgleichungsmodelle. Eine Einfuehrung mit RHolger Steinmetz

Lineare Strukturgleichungsmodelle
Eine Einführung mit R

Lineare Strukturgleichungsmodelle sind aus der verhaltenswissenschaftlichen Forschung nicht mehr wegzudenken. Sie sind ein nützliches Werkzeug, um Hypothesen über Beziehungen zwischen Variablen zu prüfen und – mehr noch – Implikationen kausaler Strukturen zu testen. In diesem Buch werden Grundlagen, Hintergründe und die Vorgehensweisen bei der Spezifizierung von Kausalmodellen diskutiert. Dies wird an einem empirischen Beispiel und unter Verwendung des lavaan-Pakets innerhalb der Software R illustriert. Der Schwerpunkt des Buchs liegt hierbei weniger auf methodischen und statistischen Aspekten eines Modells, sondern auf der adäquaten Übersetzung der theoretischen Vorstellungen in ein Modell. Ein besonderer Stellenwert wird dem Verständnis der kausalen Implikationen von Modellen, der theoretische Bedeutung von Variablen, der Diagnostik einer Fehlanpassung an die Daten und modernen Konzepten wie dem Instrumentalvariablen-Ansatz aus der Ökonometrie und dem d-separation-Konzept, eingeräumt. Somit bietet das Buch sowohl einen Einstieg für Anfänger/innen als auch interessante Inhalte für Fortschrittene.

Inhaltsverzeichnis

Reinlesen

Schlüsselwörter: Lineare Strukturgleichungsmodelle, Kausalität,
d-separation, Endogenität, Instrumentalvariablen, Lavaan

Holger Steinmetz ist wissenschaftlicher Mitarbeiter am Lehrstuhl für International Business Studies der Universität Paderborn.

Online-Bestellung

Keine Kommentare »

Band 8: Metaanalyse

18.12.13 (Allgemein)

Metaanalyse

Martin Eisend

Metaanalyse

Angesichts der stark zunehmenden Zahl von wissenschaftlichen Untersuchungen ist es heutzutage für Wissenschaftler und Wissenschaftlerinnen kaum noch möglich, einen Überblick über alle Forschungsergebnisse selbst in einem klar abgegrenzten Forschungsgebiet zu behalten. Auch zu relativ spezifischen Fragestellungen liegen oftmals mehrere Untersuchungen vor, die durchaus mit uneinheitlichen und manchmal sogar widersprüchlichen Befunden aufwarten. Hier kommt die Metaanalyse zum Einsatz. Unter einer Metaanalyse versteht man ein Verfahren, mit dem die statistischen Ergebnisse verschiedener Untersuchungen integriert werden, so dass man ein zusammenfassendes Gesamtergebnis erhält; außerdem können im Rahmen der Metaanalyse die Gründe für die Unterschiede der Ergebnisse, die in den verschiedenen Untersuchungen gefunden wurden, analysiert werden.

Dieses Buch gibt eine kompakte und anwendungsorientierte Einführung in die Metaanalyse. Die Darstellung orientiert sich an den spezifischen Anforderungen an dieses Verfahren in den Sozialwissenschaften. Das Buch richtet sich an Interessierte, die das Verfahren der Metaanalyse verstehen wollen, um beispielsweise Metaanalysen in der jeweiligen Fachliteratur besser nachvollziehen und deren Ergebnisse interpretieren zu können, als auch an Interessierte, die selbst eine Metaanalyse durchführen wollen.

Inhaltsverzeichnis

Reinlesen

Schlüsselwörter: Empirische Generalisierung, Metaanalyse, Effektstärke

Martin Eisend ist Professor für Marketing an der Europa-Universität Viadrina. Seine Forschungsschwerpunkte sind das Verhalten von Konsumenten und Konsumentinnen, Marketingkommunikation und empirische Generalisierungen, insbesondere Metaanalysen.

Online-Bestellung

Keine Kommentare »

Band 7: Conjoint-Analyse

05.09.13 (Allgemein)

band7-conjointTim Kaltenborn, Harald Fiedler, Ralf Lanwehr & Torsten Melles:

Conjoint-Analyse.

Mit der Conjoint-Analyse werden Fragestellungen nach wichtigen Merkmalen sowie dem Potential von Neu- und Weiterentwicklungen von (Produkt-)Konzepten und der Preisbereitschaft beim Kunden beantwortet. Der Vorteil der CA als dekompositionelles Verfahren gegenüber anderen, direkten Methoden der Relevanzmessung ist, dass Gesamtbeurteilungen von ausgewählten Objekten erfragt werden, die anschließend in Einzelurteile bezüglich der Merkmale und Ausprägungen dieser Objekte zerlegt/dekomponiert werden.
Das Buch ist eine anwenderorientierte Einführung in die CA. Es beschreibt die wichtigsten Verfahrensvarianten, führt mit Praxisbeispielen in die typischen Anwendungen ein und entwickelt ein Verständnis für die häufigsten Fallstricke. Die Praxisdurchführung der CA wird zusätzlich an drei Computerprogrammen (SSI Web von Sawtooth Software, CAM von NORDLIGHT research, Conjoint in R) erläutert.

Inhaltsverzeichnis

Reinlesen

Schlüsselwörter: Multivariate Statistik, Datenanalyse, Präferenzmodelle, Sozialwissenschaftliche Methodik, Marktsegmentierung, Schätzverfahren, Urteilsbildung

Tim Kaltenborn ist Leiter der Abteilung Hochschulbeziehungen und Studierendenforschung bei UNIVERSUM Communications und Dozent für Marktforschung an verschiedenen Hochschulen. Seine Forschung liegt überwiegend im Bereich Kunden- und Trendbefragungen, Präferenzstrukturen und Conjoint-Analysen .

Harald Fiedler ist wissenschaftlicher Mitarbeiter an der BiTS Iserlohn. Seine Interessensschwerpunkte sind adaptive Verfahren auf Grundlage der Item Response Theorie, MCMC-Verfahren und die Behandlung fehlender Werte (missing data) mit Hilfe Multipler Imputation

Torsten Melles ist geschäftsführender Gesellschafter von NORDLIGHT research. Er ist Diplom-Psychologe und hat sich im Rahmen seines Studiums und der Dissertation mit methodischen Fragestellungen der Conjoint-Analyse beschäftigt, und verfügt über langjährige Erfahrung in der Durchführung von Marktforschungsstudien, insbesondere im Bereich „Produkttests und Werbewirkung“.

Ralf Lanwehr ist Forschungsdekan und Professor für Wirtschaftspsychologie an der Business and Information Technology School (BiTS) Iserlohn. Seine Forschungsschwerpunkte sind Organisationspsychologie und Methodenlehre.

Online-Bestellung

Keine Kommentare »

Band 6: Computerunterstützte Textanalysen mit TextQuest. Eine Einführung in Methoden und Arbeitstechniken

07.02.13 (Allgemein)

sowifome-band6.pngHarald Klein:

Computerunterstützte Textanalysen mit TextQuest.
Eine Einführung in Methoden und Arbeitstechniken

Was können computerunterstützte Textanalysen leisten? Welche Möglichkeiten, aber auch welche Grenzen gibt es? Welche Ergebnisse lassen sich wie erzielen?

Am Beispiel von Heirats- und Kontaktanzeigen werden die Analysemöglichkeiten von TextQuest beschrieben. Ein Schwerpunkt liegt in der Aufbereitung von Texten durch Abschreiben, Scannen oder Diktieren, aber auch in der Übernahme von Texten aus Textarchiven oder dem Internet. Dabei werden Grenzen und Möglichkeiten der einzelnen Methoden aufgezeigt.

Verschiedene Arten von Wörterlisten geben einen Überblick über den Wortschatz und können für die Formulierung von Suchbegriffen genutzt werden, die dann im Kontext dargestellt oder in einer Inhaltsanalyse genutzt werden.

Insbesondere bei der Inhaltsanalyse werden Probleme wie Mehrdeutigkeit und Negation von Suchbegriffen mit den verfügbaren Methoden und Arbeitstechniken diskutiert sowie Möglichkeiten der Validierung von Kategoriensystemen vorgestellt: von der interaktiven Kodierung bis hin zu umfangreichen Protokolldateien.

Die (syntaktische) Lesbarkeit von Texten lässt sich mittels Lesbarkeitsformeln für verschiedene Sprachen und Textgenres bestimmen.

Inhaltsverzeichnis

Reinlesen

Rezension von Dr. Sabrina Böhmer

Schlüsselwörter: Inhaltsanalyse, Lesbarkeitsanalyse, Textanalyse, Wörterliste, KWIC

Harald Klein hat an der Westfälischen Wilhelms-Universität Münster in Publizistik- und Kommunikationswissenschaften promoviert und ist an verschiedenen deutschen Universitäten tätig gewesen. Computerunterstützte Textanalysen und die Entwicklung von Software dazu sind sein Spezialgebiet.

Online-Bestellung

Keine Kommentare »

Band 5: Sequenzmusteranalyse. Einführung in Theorie und Praxis

23.01.13 (Allgemein)

sowifome-band5.jpgMichael Stegmann, Julia Werner, Heiko Müller:

Sequenzmusteranalyse. Einführung in Theorie und Praxis

Dieses Buch liefert aus sozialwissenschaftlicher Perspektive einen Überblick über aktuelle Längsschnittdaten und schildert relevante Analyseverfahren. Der Schwerpunkt liegt auf der Durchführung der Sequenzmusteranalyse mit der Statistiksoftware TDA, STATA und R. Dabei wird die kostenlose und frei zugängliche Software R mit ihren vielfältigen Möglichkeiten der Längsschnittdatenanalyse in den Mittelpunkt gerückt. Die ausführlichen Beschreibungen der theoretischen Grundlagen der Sequenzmusteranalyse sowie die umfangreichen Vorgehenserläuterungen zur Deskription von Sequenzen, Optimal Matching und Clusteranalyse werden durch Beispiel-Skripte und zahlreiche Abbildungen ergänzt, sodass sie analog auf eigene Daten angewendet werden können.

Inhaltsverzeichnis

Reinlesen

Schlüsselwörter: Sequenzmusteranalyse, Clusteranalyse, R, Optimal Matching, Längsschnittdaten

Dr. Michael Stegmann, M.A., Regierungsdirektor. Ausbildung und Tätigkeit als Rettungsassistent. Studium der Soziologie, Psychologie und Pädagogik in Würzburg und Frankfurt. Anschließend Sozial- und Jugendhilfeplaner sowie Referent für Statistik in der Gesetzlichen Rentenversicherung. Aktuell Leiter des Referates „Statistisches Berichtswesen und Forschungsdatenzentrum“ bei der Deutschen Rentenversicherung.

Julia Werner, M.A., Wissenschaftliche Mitarbeiterin. Studium der Soziologie, Europäischen Ethnologie und Slavistik in Würzburg. Danach Wissenschaftliche Mitarbeiterin im Projekt „BASiD – Biographiedaten ausgewählter Sozialversicherungsträger in Deutschland“ am Forschungsdatenzentrum der Rentenversicherung (FDZ-RV) und aktuell im Projekt „GRV-Regio – Regionalisierung der Daten der Rentenversicherung“ am FDZ-RV, das der Regionalisierung des Datenangebots der Rentenversicherung
dient.

Heiko Müller, M.A., Studium der Soziologie, Politikwissenschaft und Philosophie in Würzburg. Aktuell Mitarbeiter der HA Hessen Agentur GmbH mit dem Aufgabengebiet Statistik.

Online-Bestellung

Keine Kommentare »

Band 4: Soziodemographische Standards für Umfragen in Europa

23.01.13 (Allgemein)

sowifome-band4.pngJürgen H.P. Hoffmeyer-Zlotnik, Uwe Warner:

Soziodemographische Standards für Umfragen in Europa

Die international vergleichende sozialwissenschaftliche Umfrageforschung benötigt Befragungsinstrumente, die in jedem an einem Projekt beteiligten Land das Gleiche messen. Daher ist es notwendig, harmonisierte Befragungsinstrumente zu standardisieren. Harmonisieren bedeutet, dass das Befragungsinstrument für den internationalen Einsatz aufbereitet wird. Standardisieren bedeutet, dass das Befragungsinstrument bei allen am Projekt beteiligten Teams mit den gleichen Stimuli erhoben wird. Vorgestellt wird ein standardisiertes sozialwissenschaftliches Messinstrument für den internationalen Vergleich zu den zentralen soziodemographischen Variablen, die in der Regel auch die unabhängigen Variablen sind. Darüber hinaus wird für die an einem international vergleichenden Survey beteiligten Gruppen – von der zentralen Projektkoordination über das nationale Forscherteam zu der nationalen Feldorganisation und deren Interviewer, zu den Befragten und der Datenaufbereitung – gezeigt, was diese im Umgang mit dem standardisierten Fragebogen zu leisten und zu beachten haben.

Das vorliegende Buch wendet sich an Forscher und Studenten, die an der international vergleichenden sozialwissenschaftlichen Umfrageforschung interessiert sind.

Inhaltsverzeichnis

Reinlesen

Schlüsselwörter: Umfrageforschung, internationaler Vergleich, sozio-demographische Variablen, Harmonisierung, Standardisierung

Prof. Dr. Jürgen H. P. Hoffmeyer-Zlotnik ist apl. Professor am Institut für Politikwissenschaft der Justus Liebig-Universität Gießen. Sein Arbeitsgebiet sind die Methoden der Datenerhebung in der Umfrageforschung, sein Forschungsschwerpunkt ist die Standardisierung und Harmonisierung soziodemographischer Variablen für die vergleichende Surveyforschung.

Dr. Uwe Warner ist Sozialforscher bei CEPS/INSTEAD, Centre d‘Etudes de Populations, de Pauvreté et de Politiques Socio-Economiques / International Network for Studies in Technology, Environment, Alternatives, Development in Esch/Alzette, Luxembourg. Sein Arbeitsgebiet ist die empirisch vergleichende Umfrageforschung.

Online-Bestellung

Keine Kommentare »

Band 3: Wachstumsmodelle

16.04.12 (Allgemein)

9783866186927.jpgJost Reinecke:

Wachstumsmodelle

In der Paneldatenanalyse werden zunehmend Modelle verwendet, die sich nicht nur auf interindividuelle Zusammenhänge über die Zeit beschränken, sondern auch intraindividuelle Entwicklungsverläufe und Veränderungsprozesse schätzen können. Im Allgemeinen werden diese auf dem Strukturgleichungsansatz basierenden Modelle als Wachstumsmodelle bezeichnet. Die Schätzung dieser Modelle erfolgt in der Regel mit einem Strukturgleichungsprogramm (z. B. AMOS, EQS, LISREL, Mplus). Dieses Buch gibt eine verständliche Einführung in die Technik der Modellierung von Wachstumskurven und ist insbesondere für den inhaltlich orientierten Nutzer von Paneldatensätzen geeignet. Im Buch wird weitgehend auf die Darstellung mathematischer Ableitungen verzichtet. Kenntnisse im Umgang mit multivariaten Analyseverfahren (Faktorenanalyse, Strukturgleichungsmodelle) sollten vorhanden sein. Neben der Darstellung der unterschiedlichen Modellansätze kann der Leser die einzelnen Beispiele auch praktisch nachvollziehen. Das Datenmaterial und die Input-Files für das Programm Mplus stehen hierfür zur Verfügung.

Inhaltsverzeichnis

Reinlesen

Schlüsselwörter: Paneldatenanalyse, Psychologische Methodik, Sozialwissenschaftliche Methodik, Strukturgleichungsmodelle, Wachstumskurven

Jost Reinecke ist Professor für quantitative Methoden der empirischen Sozialforschung an der Fakultät für Soziologie der Universität Bielefeld. Seine Forschungsschwerpunkte sind Strukturgleichungsmodelle, Techniken zur Ersetzung fehlender Werte, kriminologische Längsschnittforschung, die Analyse gruppenbezogener Menschenfeindlichkeit sowie die statistische Modellierung von Rational Choice Theorien.

Material zum Download

Online-Bestellung

Keine Kommentare »

Band 2: Das Rasch-Modell (3. Auflage)

18.06.10 (Allgemein)

Das Rasch-ModellCarolin Strobl:

Das Rasch-Modell – Eine verständliche Einführung für Studium und Praxis

Im schulischen und beruflichen Alltag werden häufig psychologische Tests verwendet, um z.B. die Kompetenz von Schülern oder die Eignung von Bewerbern zu messen. Damit ein psychologischer Test faire Vergleiche zwischen Personen erlaubt, muss er allerdings bestimmte Anforderungen erfüllen.

Das Rasch-Modell ermöglicht durch seine mathematische Formulierung die Überprüfung dieser Anforderungen. Es wird u.a. in der empirischen Bildungsforschung zur praktischen Konstruktion von Tests eingesetzt und gehört als wichtigster Vertreter der sogenannten probabilistischen Testtheorie standardmäßig zum Prüfungsstoff in Psychologie und verwandten Studiengängen.

Dieses Buch gibt eine verständliche Einführung in die Thematik der Konstruktion und Validierung psychologischer Tests mithilfe des Rasch-Modells. Alle nötigen mathematischen und statistischen Grundlagen werden dabei in einem Anhang und begleitenden Fußnoten erläutert. Dadurch ist dieses Buch unabhängig von der mathematischen Vorbildung als Einführung und zur Prüfungsvorbereitung geeignet.

Neben der verständlichen Darstellung der zugrundeliegenden Theorie bietet dieses Buch auch eine praktische Einführung in die Anpassung von Rasch-Modellen mithilfe der frei verfügbaren Statistik-Software R. Dadurch können die im Buch erklärten Verfahren direkt auf eigene Daten angewendet werden.

Inhaltsverzeichnis

Reinlesen

Rezension von Dr. Christoph Borzikowsky in Unterrichtswissenschaft, 42. Jg., Heft 2, 2014, S. 187-189.

Schlüsselwörter: Psychologische Testtheorie, Item-Response-Theorie, Psychologische Methodik, Sozialwissenschaftliche Methodik

Carolin Strobl ist Professorin für Psychologische Methodenlehre, Evaluation und Statistik an der Universität Zürich. Ihre Forschungsgebiete sind u.a. die psychometrische Modelle im Rahmen der Item-Response-Theorie, Methoden zur Berücksichtigung von Subjekt-Kovariablen in IRT-Modellen und Anwendungen von IRT Modellen in der Kompetenzdiagnostik.

Materialien zum Download (Beispiel R-Daten-Datei)

Online-Bestellung

Erratum: In der ersten und zweiten Auflage ist die Anzahl der Freiheitsgrade für die asymptotische Chi-Quadrat-Verteilung der Likelihood-Quotienten-Statistik falsch angegeben. Die korrekte Anzahl der Freiheitsgrade lautet für K Gruppen und m Items: K(m-1)-(m-1) = (K-1)(m-1)

Keine Kommentare »

Band 1: Multidimensionale Skalierung

27.02.10 (Allgemein)

Band 1: Multidimensionale SkalierungIngwer Borg, Patrick J.F. Groenen, Patrick Mair:
Multidimensionale Skalierung

Die Multidimensionale Skalierung (MDS) ist eine Familie von Verfahren, die Objekte des Forschungsinteresses durch Punkte eines mehrdimensionalen (meist: 2-dimensionalen) Raums so darstellen, dass die Distanz zwischen je zwei Punkten in diesem Raum einem gegebenen Nähe-, Abstands-, Ähnlichkeits- oder Unähnlichkeitswert dieser Objekte optimal entspricht. Der Zweck der MDS liegt meist in der Visualisierung der wesentlichen Struktur der Daten. Diese soll dem Auge für eine explorative oder Theorie testende Ana- lyse zugänglich gemacht werden. Als Daten lassen sich in der MDS außerordentlich viele Messgrößen verwenden wie etwa Korrelationen der Objekte über ihre Ausprägungen auf verschiedenen Variablen; direkt erhobene globale Ähnlichkeitsratings für Paare von Objekten; oder Co-Occurrence-Koeffizienten, die erfassen, wie oft ein Ereignis zusammen mit einem anderen auftritt.

Das Buch ist eine anwenderorientierte Einführung in die MDS. Es beschreibt die für die Praxis wichtigsten MDS-Modelle (inkl. der konfirmatorischen MDS) konzeptionell, mit wenigen Formeln, und unter Verwendung typischer Beispiele. Es bietet zudem eine Beschreibung von zwei umfassenden Computerprogrammen für die MDS (PROXSCAL in SPSS, SMACOF in R). Ausführlich diskutiert werden zudem typische Anwenderfehler in der MDS.

Inhaltsverzeichnis

Reinlesen

Schlüsselwörter: Multivariate Statistik, Datenanalyse, Visualisierungsverfahren, Urteilsbildung, Psychologische Methodik, Sozialwissenschaftliche Methodik

Ingwer Borg ist wissenschaftlicher Leiter der Abteilung Survey Design & Methodology (SDM) der GESIS (Mannheim) und Professor am Fachbereich Psychologie der Uni Gießen. Seine Forschung liegt überwiegend im Bereich von Mitarbeiterbefragungen, Werten und Einstellungen sowie Skalierungsverfahren.

Patrick J.F. Groenen ist Professor für Statistik am Ökonometrischen Institut der Erasmus School of Economics der Erasmus Universität in Rotterdam, Niederlande. Seine Forschung fokussiert auf Explorative Multivariate Datenanalyse, Multidimensionale Skalierung und numerische Algorithmen.

Patrick Mair ist Universitätsassistent am Institut für Statistik und Mathematik an der Wirt- schaftuniversität Wien. Seine Forschungsschwerpunkte sind psychometrische Methoden, kategoriale Datenanalyse, Modelle für latente Variablen sowie computationale Statistik allgemein.

Weitere Informationen und Bestellmöglichkeit

Online-Bestellung

Keine Kommentare »