Sozialwissenschaftliche Forschungsmethoden

Hrsg. von Wenzel Matiaske, Martin Spieß et al.

Band 12: Case Study Research Approaches, Methods, Contribution to Theory

23.09.16 (Allgemein)

9783957100757
Hans-Gerd Ridder

Case Study Research

Approaches, Methods, Contribution to Theory

This book outlines the richness of case study approaches in their contribution to theory. It offers master and doctoral students a systematic overview of how to conduct case study research considering the variety of its approaches.

A continuum of theory is outlined in order to clarify the contribution of research designs to theory. Research topics, research questions, and the role of the theoretical and empirical state of the art are discussed. The conceptual framework is displayed as an orientation, guiding the study theoretically as well as methodologically.

The core of the book is the investigation into the main approaches of case study re-search. Exploratory, explanatory, constructivist, and extended case study approaches are outlined and compared. Commonalities and differences in data collection and data analysis within case study research are deepened.

Hans-Gerd Ridder holds the Chair in Human Resource Management at the Leibniz Universität Hannover. His research focuses on strategic HRM in Profit and Non Profit Organizations.

Online bestellen

Keine Kommentare »

Band 11: Wahrscheinlichkeits- und Matrizenrechnung für Sozialwissenschaftler

23.09.16 (Allgemein)

9783957100733
Pascal Jordan

Wahrscheinlichkeits- und Matrizenrechnung für Sozialwissenschaftler

Die Themengebiete Wahrscheinlichkeitsrechnung und Lineare Algebra bilden die mathematische Grundlage zahlreicher quantitativer Analyse- und Forschungsansätze in den Sozialwissenschaften. Sie sind dabei nicht nur zum Verständnis klassischer Auswertungsansätze relevant, sondern insbesondere
auch um neu adaptierte statistische Verfahren nachvollziehen und integrieren zu können. Dieses Buch bietet eine theorieorientierte Einführung in die Grundlagen der Wahrscheinlichkeitsrechnung und der Linearen Algebra. Im ersten Teil werden nach einer Einführung der drei Kernbegriffe der Wahrscheinlichkeitstheorie (Ereignis, Wahrscheinlichkeit, Zufallsvariable) zentrale Sätze der Wahrscheinlichkeitstheorie behandelt und das Unabhängigkeitskonzept definiert. Es werden hierauf basierend generelle Prinzipien zur Lösung
wahrscheinlichkeitstheoretischer Probleme dargestellt, kontraintuitive Resultate erläutert sowie häufig auftretende Fallstricke hervorgehoben. Ein separates Kapitel behandelt als Anwendungsbeispiel die statistische Theorie derAuswertung von Experimenten zur Gewinnung kausaler Aussagen.

Der zweite Teil befasst sich mit der Vektor- und Matrizenrechnung. Neben elementaren Begriffen der Vektorrechnung werden hierbei insbesondere auch die Lösung linearer Gleichungssysteme sowie das fortgeschrittene Konzept eines Eigenvektors bzw. eines Eigenwerts behandelt. Anwendungen der
Matrixrechnung werden sowohl im Rahmen des linearen Regressionsmodells als auch für den Bereich der Indexkonstruktion dargestellt.

Schlüsselwörter: Wahrscheinlichkeitstheorie, Lineare Algebra, Matrix- Vektorrechnung, Statistik, Stochastik

Pascal Jordan ist promovierter Statistiker. Seine Forschungsinteressen liegen in den Gebieten Latente-Variablen- Modelle, stochastische Prozesse und nichtlineare Optimierung unter Nebenbedingungen.

Online bestellen

 

Keine Kommentare »

Band 10: Explorative und deskriptive Datenanalyse mit R

25.08.15 (Allgemein)

sozialwissenschaftliche-forschungsmethoden-10Markus Burkhardt, Peter Sedlmeier

Explorative und deskriptive Datenanalyse mit R

Die explorative Datenanalyse (EDA) umfasst eine Reihe meist grafischer oder semigrafischer Verfahren, die es ermöglichen, Daten und Ergebnisse besser zu verstehen. Das Ziel der EDA ist es Muster, Auffälligkeiten oder Zusammenhänge in Daten zu entdecken. Im Hauptteil des Buches werden die Grundtechniken zur Exploration von Verteilungen, Zusammenhängen und multivariaten Beziehungen vorgestellt. Die Grenzen zwischen der explorativen und der deskriptiven Datenanalyse sind fließend und für eine vernünftige Datenanalyse (und auch zur Kommunikation von Ergebnissen) sind beide unabdingbar. Deswegen behandelt das Buch beide Arten von Verfahren. Zudem enthält es ein Kapitel über Effektgrößen und eines zu Grafiken in der Inferenzstatistik. Alle Verfahren werden mit Hilfe von Beispielen illustriert und können unter Verwendung der frei erhältlichen Programmiersprache R von jedermann leicht nachvollzogen werden. Ergänzend werden alle R-Skripte auch online angeboten (http://www.r-stutorials.de/eda). Da keinerlei Programmierkenntnisse vorausgesetzt werden, eignet sich dieses Buch auch zum Einstieg in R.

Inhaltsverzeichnis

Reinlesen

Schlüsselwörter: Explorative Datenanalyse, deskriptive Datenanalyse, semigrafische und grafische Verfahren, Effektgrößen, R

Markus Burkhardt ist wissenschaftlicher Mitarbeiter an der Professur für Forschungsmethoden und Evaluation am Institut für Psychologie der TU-Chemnitz.

Peter Sedlmeier ist Professor für Forschungsmethoden und Evaluation am Institut für Psychologie der TU Chemnitz.

Online-Bestellung

 

Keine Kommentare »

Band 9: Lineare Strukturgleichungsmodelle. Eine Einführung mit R (2. Auflage)

09.12.14 (Allgemein)

Band 9: Lineare Strukturgleichungsmodelle. Eine Einfuehrung mit RHolger Steinmetz

Lineare Strukturgleichungsmodelle
Eine Einführung mit R

Lineare Strukturgleichungsmodelle sind aus der verhaltenswissenschaftlichen Forschung nicht mehr wegzudenken. Sie sind ein nützliches Werkzeug, um Hypothesen über Beziehungen zwischen Variablen zu prüfen und – mehr noch – Implikationen kausaler Strukturen zu testen. In diesem Buch werden Grundlagen, Hintergründe und die Vorgehensweisen bei der Spezifizierung von Kausalmodellen diskutiert. Dies wird an einem empirischen Beispiel und unter Verwendung des lavaan-Pakets innerhalb der Software R illustriert. Der Schwerpunkt des Buchs liegt hierbei weniger auf methodischen und statistischen Aspekten eines Modells, sondern auf der adäquaten Übersetzung der theoretischen Vorstellungen in ein Modell. Ein besonderer Stellenwert wird dem Verständnis der kausalen Implikationen von Modellen, der theoretische Bedeutung von Variablen, der Diagnostik einer Fehlanpassung an die Daten und modernen Konzepten wie dem Instrumentalvariablen-Ansatz aus der Ökonometrie und dem d-separation-Konzept, eingeräumt. Somit bietet das Buch sowohl einen Einstieg für Anfänger/innen als auch interessante Inhalte für Fortschrittene.

Inhaltsverzeichnis

Reinlesen

Schlüsselwörter: Lineare Strukturgleichungsmodelle, Kausalität,
d-separation, Endogenität, Instrumentalvariablen, Lavaan

Holger Steinmetz ist wissenschaftlicher Mitarbeiter am Lehrstuhl für International Business Studies der Universität Paderborn.

Online-Bestellung

Keine Kommentare »

Band 8: Metaanalyse

18.12.13 (Allgemein)

Metaanalyse

Martin Eisend

Metaanalyse

Angesichts der stark zunehmenden Zahl von wissenschaftlichen Untersuchungen ist es heutzutage für Wissenschaftler und Wissenschaftlerinnen kaum noch möglich, einen Überblick über alle Forschungsergebnisse selbst in einem klar abgegrenzten Forschungsgebiet zu behalten. Auch zu relativ spezifischen Fragestellungen liegen oftmals mehrere Untersuchungen vor, die durchaus mit uneinheitlichen und manchmal sogar widersprüchlichen Befunden aufwarten. Hier kommt die Metaanalyse zum Einsatz. Unter einer Metaanalyse versteht man ein Verfahren, mit dem die statistischen Ergebnisse verschiedener Untersuchungen integriert werden, so dass man ein zusammenfassendes Gesamtergebnis erhält; außerdem können im Rahmen der Metaanalyse die Gründe für die Unterschiede der Ergebnisse, die in den verschiedenen Untersuchungen gefunden wurden, analysiert werden.

Dieses Buch gibt eine kompakte und anwendungsorientierte Einführung in die Metaanalyse. Die Darstellung orientiert sich an den spezifischen Anforderungen an dieses Verfahren in den Sozialwissenschaften. Das Buch richtet sich an Interessierte, die das Verfahren der Metaanalyse verstehen wollen, um beispielsweise Metaanalysen in der jeweiligen Fachliteratur besser nachvollziehen und deren Ergebnisse interpretieren zu können, als auch an Interessierte, die selbst eine Metaanalyse durchführen wollen.

Inhaltsverzeichnis

Reinlesen

Schlüsselwörter: Empirische Generalisierung, Metaanalyse, Effektstärke

Martin Eisend ist Professor für Marketing an der Europa-Universität Viadrina. Seine Forschungsschwerpunkte sind das Verhalten von Konsumenten und Konsumentinnen, Marketingkommunikation und empirische Generalisierungen, insbesondere Metaanalysen.

Online-Bestellung

Keine Kommentare »

Band 7: Conjoint-Analyse

05.09.13 (Allgemein)

band7-conjointTim Kaltenborn, Harald Fiedler, Ralf Lanwehr & Torsten Melles:

Conjoint-Analyse.

Mit der Conjoint-Analyse werden Fragestellungen nach wichtigen Merkmalen sowie dem Potential von Neu- und Weiterentwicklungen von (Produkt-)Konzepten und der Preisbereitschaft beim Kunden beantwortet. Der Vorteil der CA als dekompositionelles Verfahren gegenüber anderen, direkten Methoden der Relevanzmessung ist, dass Gesamtbeurteilungen von ausgewählten Objekten erfragt werden, die anschließend in Einzelurteile bezüglich der Merkmale und Ausprägungen dieser Objekte zerlegt/dekomponiert werden.
Das Buch ist eine anwenderorientierte Einführung in die CA. Es beschreibt die wichtigsten Verfahrensvarianten, führt mit Praxisbeispielen in die typischen Anwendungen ein und entwickelt ein Verständnis für die häufigsten Fallstricke. Die Praxisdurchführung der CA wird zusätzlich an drei Computerprogrammen (SSI Web von Sawtooth Software, CAM von NORDLIGHT research, Conjoint in R) erläutert.

Inhaltsverzeichnis

Reinlesen

Schlüsselwörter: Multivariate Statistik, Datenanalyse, Präferenzmodelle, Sozialwissenschaftliche Methodik, Marktsegmentierung, Schätzverfahren, Urteilsbildung

Tim Kaltenborn ist Leiter der Abteilung Hochschulbeziehungen und Studierendenforschung bei UNIVERSUM Communications und Dozent für Marktforschung an verschiedenen Hochschulen. Seine Forschung liegt überwiegend im Bereich Kunden- und Trendbefragungen, Präferenzstrukturen und Conjoint-Analysen .

Harald Fiedler ist wissenschaftlicher Mitarbeiter an der BiTS Iserlohn. Seine Interessensschwerpunkte sind adaptive Verfahren auf Grundlage der Item Response Theorie, MCMC-Verfahren und die Behandlung fehlender Werte (missing data) mit Hilfe Multipler Imputation

Torsten Melles ist geschäftsführender Gesellschafter von NORDLIGHT research. Er ist Diplom-Psychologe und hat sich im Rahmen seines Studiums und der Dissertation mit methodischen Fragestellungen der Conjoint-Analyse beschäftigt, und verfügt über langjährige Erfahrung in der Durchführung von Marktforschungsstudien, insbesondere im Bereich „Produkttests und Werbewirkung“.

Ralf Lanwehr ist Forschungsdekan und Professor für Wirtschaftspsychologie an der Business and Information Technology School (BiTS) Iserlohn. Seine Forschungsschwerpunkte sind Organisationspsychologie und Methodenlehre.

Online-Bestellung

Keine Kommentare »

Band 6: Computerunterstützte Textanalysen mit TextQuest. Eine Einführung in Methoden und Arbeitstechniken

07.02.13 (Allgemein)

sowifome-band6.pngHarald Klein:

Computerunterstützte Textanalysen mit TextQuest.
Eine Einführung in Methoden und Arbeitstechniken

Was können computerunterstützte Textanalysen leisten? Welche Möglichkeiten, aber auch welche Grenzen gibt es? Welche Ergebnisse lassen sich wie erzielen?

Am Beispiel von Heirats- und Kontaktanzeigen werden die Analysemöglichkeiten von TextQuest beschrieben. Ein Schwerpunkt liegt in der Aufbereitung von Texten durch Abschreiben, Scannen oder Diktieren, aber auch in der Übernahme von Texten aus Textarchiven oder dem Internet. Dabei werden Grenzen und Möglichkeiten der einzelnen Methoden aufgezeigt.

Verschiedene Arten von Wörterlisten geben einen Überblick über den Wortschatz und können für die Formulierung von Suchbegriffen genutzt werden, die dann im Kontext dargestellt oder in einer Inhaltsanalyse genutzt werden.

Insbesondere bei der Inhaltsanalyse werden Probleme wie Mehrdeutigkeit und Negation von Suchbegriffen mit den verfügbaren Methoden und Arbeitstechniken diskutiert sowie Möglichkeiten der Validierung von Kategoriensystemen vorgestellt: von der interaktiven Kodierung bis hin zu umfangreichen Protokolldateien.

Die (syntaktische) Lesbarkeit von Texten lässt sich mittels Lesbarkeitsformeln für verschiedene Sprachen und Textgenres bestimmen.

Inhaltsverzeichnis

Reinlesen

Rezension von Dr. Sabrina Böhmer

Schlüsselwörter: Inhaltsanalyse, Lesbarkeitsanalyse, Textanalyse, Wörterliste, KWIC

Harald Klein hat an der Westfälischen Wilhelms-Universität Münster in Publizistik- und Kommunikationswissenschaften promoviert und ist an verschiedenen deutschen Universitäten tätig gewesen. Computerunterstützte Textanalysen und die Entwicklung von Software dazu sind sein Spezialgebiet.

Online-Bestellung

Keine Kommentare »

Band 5: Sequenzmusteranalyse. Einführung in Theorie und Praxis

23.01.13 (Allgemein)

sowifome-band5.jpgMichael Stegmann, Julia Werner, Heiko Müller:

Sequenzmusteranalyse. Einführung in Theorie und Praxis

Dieses Buch liefert aus sozialwissenschaftlicher Perspektive einen Überblick über aktuelle Längsschnittdaten und schildert relevante Analyseverfahren. Der Schwerpunkt liegt auf der Durchführung der Sequenzmusteranalyse mit der Statistiksoftware TDA, STATA und R. Dabei wird die kostenlose und frei zugängliche Software R mit ihren vielfältigen Möglichkeiten der Längsschnittdatenanalyse in den Mittelpunkt gerückt. Die ausführlichen Beschreibungen der theoretischen Grundlagen der Sequenzmusteranalyse sowie die umfangreichen Vorgehenserläuterungen zur Deskription von Sequenzen, Optimal Matching und Clusteranalyse werden durch Beispiel-Skripte und zahlreiche Abbildungen ergänzt, sodass sie analog auf eigene Daten angewendet werden können.

Inhaltsverzeichnis

Reinlesen

Schlüsselwörter: Sequenzmusteranalyse, Clusteranalyse, R, Optimal Matching, Längsschnittdaten

Dr. Michael Stegmann, M.A., Regierungsdirektor. Ausbildung und Tätigkeit als Rettungsassistent. Studium der Soziologie, Psychologie und Pädagogik in Würzburg und Frankfurt. Anschließend Sozial- und Jugendhilfeplaner sowie Referent für Statistik in der Gesetzlichen Rentenversicherung. Aktuell Leiter des Referates „Statistisches Berichtswesen und Forschungsdatenzentrum“ bei der Deutschen Rentenversicherung.

Julia Werner, M.A., Wissenschaftliche Mitarbeiterin. Studium der Soziologie, Europäischen Ethnologie und Slavistik in Würzburg. Danach Wissenschaftliche Mitarbeiterin im Projekt „BASiD – Biographiedaten ausgewählter Sozialversicherungsträger in Deutschland“ am Forschungsdatenzentrum der Rentenversicherung (FDZ-RV) und aktuell im Projekt „GRV-Regio – Regionalisierung der Daten der Rentenversicherung“ am FDZ-RV, das der Regionalisierung des Datenangebots der Rentenversicherung
dient.

Heiko Müller, M.A., Studium der Soziologie, Politikwissenschaft und Philosophie in Würzburg. Aktuell Mitarbeiter der HA Hessen Agentur GmbH mit dem Aufgabengebiet Statistik.

Online-Bestellung

Keine Kommentare »

Band 4: Soziodemographische Standards für Umfragen in Europa

23.01.13 (Allgemein)

sowifome-band4.pngJürgen H.P. Hoffmeyer-Zlotnik, Uwe Warner:

Soziodemographische Standards für Umfragen in Europa

Die international vergleichende sozialwissenschaftliche Umfrageforschung benötigt Befragungsinstrumente, die in jedem an einem Projekt beteiligten Land das Gleiche messen. Daher ist es notwendig, harmonisierte Befragungsinstrumente zu standardisieren. Harmonisieren bedeutet, dass das Befragungsinstrument für den internationalen Einsatz aufbereitet wird. Standardisieren bedeutet, dass das Befragungsinstrument bei allen am Projekt beteiligten Teams mit den gleichen Stimuli erhoben wird. Vorgestellt wird ein standardisiertes sozialwissenschaftliches Messinstrument für den internationalen Vergleich zu den zentralen soziodemographischen Variablen, die in der Regel auch die unabhängigen Variablen sind. Darüber hinaus wird für die an einem international vergleichenden Survey beteiligten Gruppen – von der zentralen Projektkoordination über das nationale Forscherteam zu der nationalen Feldorganisation und deren Interviewer, zu den Befragten und der Datenaufbereitung – gezeigt, was diese im Umgang mit dem standardisierten Fragebogen zu leisten und zu beachten haben.

Das vorliegende Buch wendet sich an Forscher und Studenten, die an der international vergleichenden sozialwissenschaftlichen Umfrageforschung interessiert sind.

Inhaltsverzeichnis

Reinlesen

Schlüsselwörter: Umfrageforschung, internationaler Vergleich, sozio-demographische Variablen, Harmonisierung, Standardisierung

Prof. Dr. Jürgen H. P. Hoffmeyer-Zlotnik ist apl. Professor am Institut für Politikwissenschaft der Justus Liebig-Universität Gießen. Sein Arbeitsgebiet sind die Methoden der Datenerhebung in der Umfrageforschung, sein Forschungsschwerpunkt ist die Standardisierung und Harmonisierung soziodemographischer Variablen für die vergleichende Surveyforschung.

Dr. Uwe Warner ist Sozialforscher bei CEPS/INSTEAD, Centre d‘Etudes de Populations, de Pauvreté et de Politiques Socio-Economiques / International Network for Studies in Technology, Environment, Alternatives, Development in Esch/Alzette, Luxembourg. Sein Arbeitsgebiet ist die empirisch vergleichende Umfrageforschung.

Online-Bestellung

Keine Kommentare »

Band 3: Wachstumsmodelle

16.04.12 (Allgemein)

9783866186927.jpgJost Reinecke:

Wachstumsmodelle

In der Paneldatenanalyse werden zunehmend Modelle verwendet, die sich nicht nur auf interindividuelle Zusammenhänge über die Zeit beschränken, sondern auch intraindividuelle Entwicklungsverläufe und Veränderungsprozesse schätzen können. Im Allgemeinen werden diese auf dem Strukturgleichungsansatz basierenden Modelle als Wachstumsmodelle bezeichnet. Die Schätzung dieser Modelle erfolgt in der Regel mit einem Strukturgleichungsprogramm (z. B. AMOS, EQS, LISREL, Mplus). Dieses Buch gibt eine verständliche Einführung in die Technik der Modellierung von Wachstumskurven und ist insbesondere für den inhaltlich orientierten Nutzer von Paneldatensätzen geeignet. Im Buch wird weitgehend auf die Darstellung mathematischer Ableitungen verzichtet. Kenntnisse im Umgang mit multivariaten Analyseverfahren (Faktorenanalyse, Strukturgleichungsmodelle) sollten vorhanden sein. Neben der Darstellung der unterschiedlichen Modellansätze kann der Leser die einzelnen Beispiele auch praktisch nachvollziehen. Das Datenmaterial und die Input-Files für das Programm Mplus stehen hierfür zur Verfügung.

Inhaltsverzeichnis

Reinlesen

Schlüsselwörter: Paneldatenanalyse, Psychologische Methodik, Sozialwissenschaftliche Methodik, Strukturgleichungsmodelle, Wachstumskurven

Jost Reinecke ist Professor für quantitative Methoden der empirischen Sozialforschung an der Fakultät für Soziologie der Universität Bielefeld. Seine Forschungsschwerpunkte sind Strukturgleichungsmodelle, Techniken zur Ersetzung fehlender Werte, kriminologische Längsschnittforschung, die Analyse gruppenbezogener Menschenfeindlichkeit sowie die statistische Modellierung von Rational Choice Theorien.

Material zum Download

Online-Bestellung

Keine Kommentare »