Content

3.5 Messtheoretische Basis in:

Christian Scholz

Personalmanagement, page 279 - 288

Informationsorientierte und verhaltenstheoretische Grundlagen

6. Edition 2013, ISBN print: 978-3-8006-3680-8, ISBN online: 978-3-8006-4869-6, https://doi.org/10.15358/9783800648696_279

Series: Vahlens Handbücher der Wirtschafts- und Sozialwissenschaften

Bibliographic information
3 Grundlagen260 Vahlens Handbücher – Scholz – Personalmanagement 6. Aufl. Herstellung: Frau Schmidt-Denzau 31.10.2013 Druckdaten Seite 260 Vahlens Handbücher – Scholz – Personalmanagement 6. Aufl. Herstellung: Frau Schmidt-Denzau 31.10.2013 Druckdaten Seite 261 für andere Unternehmen gibt es analoge Optionen: BMW beschäftigt in Deutschland 70.000 Personen, hat aber nach Angaben der Gewerkschaft immerhin schon 11.000 Leiharbeiter und 3.000 bis 5.000 Werkverträge, die befristet und schlechter bezahlt sind. Die Konsequenzen für Personalarbeit und Mitarbeiter sind dabei vielfältig: Themen wie Personalbeschaffung werden an Bedeutung verlieren und durch Konzepte wie Führung in virtuellen Teams ersetzt. Personalentwicklung bleibt bedeutsam, rutscht aber in die individuelle Verantwortung der externen Mitarbeiter, die sich um ihre Beschäftigungsfähigkeit selbst kümmern müssen. Gleichzeitig werden Arbeitsmärkte für alle Unternehmen globaler und Arbeitsleistungen in der ganzen Welt über „internationale Werkverträge“ einkaufbar. 3.5 Messtheoretische Basis Zur akzeptanzfördernden Professionalisierung im Personalmanagement gehören der kritische Umgang mit empirischen Studien sowie die bewusste und theoretisch saubere Generierung einer unternehmensbezogenen Informationsbasis. Voraussetzung dafür ist die Kenntnis der Ansätze zur Messung und Skalierung, zur Objektivität und Reliabilität sowie zur Validität als ultima ratio eines Personalmanagements. Diese methodischen Fragen (Abbildung 3.16) betreffen alle Felder und Ebenen im Personalmanagement in gleicher Weise und bilden deshalb eine gemeinsame Basis. 3.5 Messtheoretische Basis Daten- und Messproblematik Skalierung Gütekriterien Skalenniveau Skalierungs-verfahren Objektivität Reliabilität Validität Nominalskala Ordinalskala Intervallskala Ratioskala Retest Paralleltest Split-Half Inhaltsvalidität Konstruktvalidität kriterienbezogene Validität - Abbildungsvalidität - Prognosevalidität Rangfolge - Rangordnung - Paarvergleich Likert-Skala Guttmann-Skala Polaritätsprofil Abbildung 3.16 : Mess-, Skalierungs- und Validitätsaspekte 3.5 Messtheoretische Basis 261 Vahlens Handbücher – Scholz – Personalmanagement 6. Aufl. Herstellung: Frau Schmidt-Denzau 31.10.2013 Druckdaten Seite 260 Vahlens Handbücher – Scholz – Personalmanagement 6. Aufl. Herstellung: Frau Schmidt-Denzau 31.10.2013 Druckdaten Seite 261 3.5.1 Ablauf einer empirischen Studie Nach Karl Popper (1995), dem prägenden Wissenschaftstheoretiker der Neuzeit, ist „Wahrheit“ nicht zweifelsfrei zu entdecken. Bestenfalls ist eine Approximation möglich, indem eine Theorie solange für wahr gilt, bis ihre Aussagen widerlegt (falsifiziert) werden. Ziel einer empirischen Studie ist es, theoretische Aussagen angesichts der Realität zu überprüfen, indem ihre Falsifikation angestrebt wird. Ausgangspunkt für eine empirische Studie ist die Auswahl eines Problems. In dieser Erkundungsphase finden Literaturrecherchen, Informations- und erste Erkundungsgespräche statt, um das Problem so weit wie möglich zu konkretisieren. Auf diese Weise wird eine Einordnung der eigenen Fragestellung in einen theoretischen Rahmen und den wissenschaftlichen Forschungsstand ermöglicht. Ergebnis ist eine Theorie, aus der einzelne Hypothesen abgeleitet werden, die in der Begründungsphase Gegenstand der empirischen Überprüfung sind. Vor der Formulierung von Hypothesen ist die Theorie einer sorgfältigen Überprü fung zu unterziehen (vgl. Bortz 1993): • Die verwendeten Begriffe müssen eindeutig und präzise definiert sein, um eine zweifelsfreie Kommunikation zu ermöglichen. • Die Aussagen der Theorie sollten auf eine logische Struktur zurückgeführt werden, die einen möglichst hohen Informationsgehalt sichert. Hierzu werden Je- Desto- und Wenn-Dann-Sätze in einer Form formuliert, die ein möglichst hohes Falsifikationspotenzial besitzen. • Die theoretischen Aussagen müssen logisch konsistent sein. Zu vermeiden sind tautologische Sätze, die kein Falsifikationspotenzial beinhalten, und kontradiktorische, also widersprüchliche Sätze. Ebenso müssen die Aussagen logisch korrekt abgeleitet werden. • Sind verwandte Theorien zu dem ausgewählten Themenbereich vorhanden, ist die logische Vereinbarkeit zu überprüfen. • Die Theorien müssen empirisch überprüfbar sein. Die empirische Überprüfbarkeit ergibt sich nicht zwingend aus ihrer potenziellen Falsifizierbarkeit, sondern vielmehr aus den zur Verfügung stehenden wissenschaftlichen Instrumenten und Methoden. Der anschließenden Formulierung der Hypothesen ist besondere Aufmerksamkeit zu widmen: Zum einen, um mögliche Schwächen des theoretischen Ansatzes frühzeitig aufzudecken, zum anderen, um die statistischen Methoden frühzeitig und korrekt festlegen zu können. Ein nachträgliches Überprüfen von Hypothesen, die anhand des vorliegenden Datenmaterials formuliert wurden, gilt nicht nur als wissenschaftlich unseriös, sondern führt auch zu unabgesicherten Ergebnissen. Hypothesen werden der empirischen Überprüfung zugänglich gemacht, indem sie anhand möglicher Variablen und der Auswahl einer geeigneten Methode ope rationalisiert werden. Zur Datenerhebung stehen verschiedene Möglichkeiten zur Verfügung. Für den Bereich des Personalmanagements relevant sind insbesondere – Interviews/Tiefeninterviews, – schriftliche Befragungen, – Beobachtungen, 3 Grundlagen262 Vahlens Handbücher – Scholz – Personalmanagement 6. Aufl. Herstellung: Frau Schmidt-Denzau 31.10.2013 Druckdaten Seite 262 Vahlens Handbücher – Scholz – Personalmanagement 6. Aufl. Herstellung: Frau Schmidt-Denzau 31.10.2013 Druckdaten Seite 263 – Inhaltsanalysen sowie – Sekundäranalysen. Die Probleme der Messung und Skalierung der Daten werden gesondert im nächsten Abschnitt behandelt. Zur Auswertung des Datenmaterials steht mittlerweile umfangreiche Statistik-Software wie SPSS zur Verfügung. Zuvor sollten die Daten aber einer testtheoretischen Brauchbarkeitsprüfung unterzogen werden. Genügt das Datenmaterial den testtheoretischen Anforderungen, erfolgt mit Hilfe der deskriptiven Statistik zunächst eine quantitative Aufbereitung der Daten. Mittels der Inferenzstatistik werden dann die Hypothesen überprüft. Die Interpretation der Ergebnisse erlaubt die Überprüfung der zugrunde gelegten Theorie. Sind die Resultate nicht signifikant, Untersuchungsfehler aber auszuschließen, muss die ursprüngliche Theorie überprüft und unter Einbeziehung der Erfahrungen eventuell verändert werden. In der abschließenden Verwertungsphase werden die Ergebnisse der empirischen Untersuchung aufbereitet und in Publikationen oder Vorträgen zugänglich gemacht. Hierdurch werden in weiteren Untersuchungen die Falsifikation der Theorie und damit eine „bessere Annäherung an die Wahrheit“ im Popperschen Sinne ermöglicht. Abbildung 3.17 fasst den Ablauf einer empirischen Studie zusammen. Erklärung? Vergleich der empirischen Ergebnisse mit den Hypothesen („Hypothesentest“) Primärstudie Sekundärstudie („Reanalyse“ vorhandener Daten) Formulierung von Aussagen bzw. Hypothesen Suche nach Theorien/ theoretischen Erkenntnissen Suche nach empirischen Studien/empirischen Erkenntnissen Metaanalyse (z. B. Inhaltsanalyse, Metaanalyse i.e.S.), Analyse der Art der Forschung Ableitung (generalisierbarer Aussagen), Aktualisierung des Methodenwissens theoretisches bzw. empirisch beobachtetes Problem/Phänomen 1 2 3 4 5 6 7 8 Abbildung 3.17 : Ablauf einer empirischen Untersuchung (vgl. Kornmeier 2007, 195) 3.5 Messtheoretische Basis 263 Vahlens Handbücher – Scholz – Personalmanagement 6. Aufl. Herstellung: Frau Schmidt-Denzau 31.10.2013 Druckdaten Seite 262 Vahlens Handbücher – Scholz – Personalmanagement 6. Aufl. Herstellung: Frau Schmidt-Denzau 31.10.2013 Druckdaten Seite 263 3.5.2 Messung und Skalierung Grundbedingungen für eine sinnvolle (statistische) Auswertung von Daten ist die Kenntnis ihrer Skalenniveaus und die Berücksichtigung der sich daraus ergebenden Restriktionen. Das Skalenniveau bezieht sich auf die möglichen Ausprägungen eines betrachteten Merkmals und ihres Zusammenhangs. Üblich ist seit Langem eine Einteilung in vier Skalenniveaus (Eckey/Kosfeld/Türck 2008, 6): • Bei der Nominalskala (Variablen wie Nationalität, Geschlecht oder Studienfach) kann nur festgelegt werden, ob zwei Merkmalsausprägungen gleich oder ungleich sind. Eine eindeutige Rangfolge kann also nicht abgebildet werden. Typisch hierfür sind auch Ja/Nein-Fragen. • Bei der Ordinalskala dagegen ist die Bildung einer Rangfolge möglich, jedoch können die „Abstände“ zwischen den einzelnen Ausprägungen nicht miteinander verglichen werden. Mitarbeiterbeurteilungen mit Hilfe von semantischen Differentialen sind Beispiele für Ordinalskalen. • Bei der Intervallskala können die Ausprägungen eindeutig gemessen und einem Zahlenwert zugeordnet werden, wobei auch die Differenzen interpretierbar sind. Die Maßeinheit ergibt sich jedoch nicht durch das Merkmal selbst, sondern wird extern festgelegt (wie Intelligenzquotient oder Leistungsgrad). • Eine Ratioskala (Verhältnisskala) besitzt darüber hinaus einen absoluten Nullpunkt. Beispiele für ratioskalierte Merkmale sind das Lebensalter und die (quantitative) Produktionsleistung. Das Skalenniveau bestimmt die Auswahl der möglichen statistischen Auswertungs- und Darstellungsmethoden. Erst bei Daten mit höherem Skalenniveau können aussagekräftigere Verfahren wie Mittelwertbestimmung oder Korrelationskoeffizienten angewendet werden. Ratioskalen mit ihrem natürlichen Nullpunkt und ihrer hohen Aussagekraft stellen zwar ein wünschenswertes Ziel dar, hängen aber in ihrer Realisierbarkeit vom Messobjekt ab: Sind die entsprechenden Voraussetzungen gegeben, so werfen Ratio- und Intervallskalen kaum Probleme auf. Fehlt dagegen der physikalische oder logische Nullpunkt beziehungsweise sind die Größen nicht direkt vergleichbar, ist auf Ordinalskalen auszuweichen. Die Auswahl eines geeigneten Skalierungsverfahrens als Zuordnung von erhebbaren Phänomenen auf (Mess-)Skalen ist deshalb vor allem im Bereich der Ordinalska len von Bedeutung, da hier weder Intervalle noch Nullpunkte „natürlich“ vorliegen. Es wurden eine Reihe von Skalierungsverfahren entwickelt, die objektive und somit nachvollziehbare Zuordnungen erleichtern sollen (vgl. Atteslander 2010, 227–240). Die Bildung einer Rangfolge ist eine Möglichkeit zur Skalierung gegebener Alternativen. Sie lässt sich mit Hilfe der Rangordnung und des Paarvergleichs realisieren: • Die Bildung einer Rangordnung, beispielsweise einer Vorschlagsliste zur Beförderung, wird realisiert durch die Vergabe von Rangstufen. Hierbei handelt es sich um einen absoluten Maßstab, der die Alternativen in eine transitive Rangordnung bringt. Mit zunehmender Menge der zu bewertenden Alternativen wird die Bildung der Rangordnung schwieriger. 3 Grundlagen264 Vahlens Handbücher – Scholz – Personalmanagement 6. Aufl. Herstellung: Frau Schmidt-Denzau 31.10.2013 Druckdaten Seite 264 Vahlens Handbücher – Scholz – Personalmanagement 6. Aufl. Herstellung: Frau Schmidt-Denzau 31.10.2013 Druckdaten Seite 265 • Diese Schwierigkeit will die Methode der Paarvergleiche lösen. Hier stehen immer nur zwei Alternativen im direkten Vergleich. Beispielsweise führen die – Alternativen A, B, C zu den – Paarvergleichen A, B; A, C; B, C und mit der – Bewertung A > B; A > C; C > B zur – Präferenzordnung A > C > B. Bei einer Alternativenmenge besteht allerdings das Problem, dass Inkonsistenzen in der Beurteilung auftreten können und die Urteile nicht immer zu einer transitiven Rangfolge führen. Dies wäre beispielsweise bei den Bewertungen B > A; A > C; C > B der Fall. Das Polaritätsprofil ist eine weitere Methode zur Erfassung von Einstellungen. Es besteht aus Gegensatzpaaren zur Konkretisierung von Meinungen eines Beurteilenden zu einem bestimmten Stimulus. Als Beispiel für solche semantischen Differentiale bringt Übersicht 3.29 Gegensatzpaare zur Erfassung des Eindruckes, den eine Führungskraft (Stimulus) bei einem Mitarbeiter (Beurteiler) hervorruft. Stimulus: „Führungskraft XY“ fleißig X faul ausgeglichen X unruhig fürsorglich X gleichgültig hoch X tief großzügig X kleinlich gut X schlecht groß X klein begabt X unfähig uneigennützig X egoistisch sozial X unsozial hart X weich +3 +2 +1 0 –1 –2 –3 Übersicht 3.29 : Beispiel für Polaritätsprofil (nach Atteslander 2010, 234) Auch bei der Likert Skala handelt es sich um ein Verfahren zur Ermittlung von Einstellungen und Meinungen. Der Befragte wird aufgefordert, zu einer Reihe von Aussagen Stellung zu nehmen. Dabei hat er jeweils die Möglichkeit, seine Beurteilung in eine Skala entsprechend Übersicht 3.30 einzuordnen. Das Skalierungsverfahren der Guttman Skala beruht auf einer monoton ansteigenden Reihung von Fragen, bei denen der Befragte ab einer bestimmten Schwelle sein Antwortverhalten ändert. So kann die Einstellung (oder das Vorurteil) gegenüber ausländischen Arbeitnehmern mit folgenden Fragen erfasst werden (vgl. Atteslander 2010, 238): (1) Sind Sie der Meinung, dass ausländische Arbeitnehmer auch Menschen sind wie wir? (2) Würden Sie zulassen, dass Ihr Kind gemeinsam mit Kindern ausländischer Arbeitnehmer zur Schule geht? 3.5 Messtheoretische Basis 265 Vahlens Handbücher – Scholz – Personalmanagement 6. Aufl. Herstellung: Frau Schmidt-Denzau 31.10.2013 Druckdaten Seite 264 Vahlens Handbücher – Scholz – Personalmanagement 6. Aufl. Herstellung: Frau Schmidt-Denzau 31.10.2013 Druckdaten Seite 265 (3) Würden Sie ein Zimmer an einen ausländischen Arbeitnehmer vermieten? (4) Würden Sie in die Ehe Ihrer Tochter mit einem ausländischen Arbeitnehmer einwilligen? Die Abstufungen ergeben sich danach aus der Fragestufe der ersten Ablehnung (1, 2, 3, 4 oder keine Frage wird abgelehnt). 3.5.3 Objektivität, Reliabilität, Validität Objektivität bezeichnet den Grad der intersubjektiven Unabhängigkeit der Messergebnisse vom jeweils Untersuchenden. Bei Tests sind entsprechend den Testphasen drei Arten der Objektivität erforderlich, nämlich die Durchführungs-, Auswertungs- und Interpretationsobjektivität (vgl. Wilde 1951, 188; Neubauer/Höfner/Waldschütz 1978, 33). Reliabilität (Zuverlässigkeit) bezeichnet den formalen Aspekt der Messung und bezieht sich auf die Frage, ob unter gleichen Bedingungen immer das gleiche Ergebnis gefunden wird. Dies gilt unabhängig davon, ob und in welchem Ausmaß die Ergebnisse Rückschlüsse auf das untersuchte Zielobjekt zulassen (vgl. Ghiselli/Campbell/Zedeck 1981, 187–197). Nach der klassischen Testtheorie setzt sich ein beobachteter Wert (Testwert) aus dem wahren Wert und einem Fehler zusammen. Dieser Fehler kann auf zwei Komponenten zurückgeführt werden: auf eine konstante Fehlerkomponente, die im Messinstrument oder in der beteiligten Person ihren Ursprung hat, sowie auf einen zufallsabhängigen Fehler (Übersicht 3.31). Als reliabel gilt eine Messung dann, wenn Wiederholungen unter gleichen Bedingungen annähernd die gleichen Ergebnisse liefern, Abweichungen der Ergebnisse somit ausschließlich auf der Varianz der wahren Werte beruhen. Ein Reliabilitätskoeffizient von 0,9 bedeutet, dass sich 90 % der Varianz des Testwertes aus der Varianz des wahren Wertes erklären und nur 10 % aus den Fehlerkomponenten. Ab 0,9 wird ein Reliabilitätskoeffizient als hoch angesehen (vgl. Friedrichs 1990). Zur Reliabilitätsermittlung können drei Verfahren eingesetzt werden (vgl. Ghiselli/ Campbell/Zedeck 1981, 247–289): Aussage Skala Bei der Entlohnung sollten neben der Leistung auch die Fähigkeiten berücksichtigt werden. stimme stark zu –1– stimme zu –2– unentschieden –3– lehne ab –4– lehne stark ab –5– Die Leistungsbeurteilung sollte für die betroffenen Arbeitnehmer nachvollziehbar sein. stimme stark zu –1– stimme zu –2– unentschieden –3– lehne ab –4– lehne stark ab –5– … stimme stark zu –1– stimme zu –2– unentschieden –3– lehne ab –4– lehne stark ab –5– Übersicht 3.30 : Beispiel einer Likert-Skala 3 Grundlagen266 Vahlens Handbücher – Scholz – Personalmanagement 6. Aufl. Herstellung: Frau Schmidt-Denzau 31.10.2013 Druckdaten Seite 266 Vahlens Handbücher – Scholz – Personalmanagement 6. Aufl. Herstellung: Frau Schmidt-Denzau 31.10.2013 Druckdaten Seite 267 • Das Retest-Verfahren verlangt eine Durchführung des gleichen Tests von den gleichen Testpersonen zu zwei verschiedenen Zeitpunkten. Die auf diese Weise erhaltenen Ergebnisse werden miteinander korreliert. Diesem Verfahren liegen die Annahme der Konstanz der Kontextbedingungen sowie das Fehlen von Lerneffekten zugrunde. • Beim Paralleltest-Verfahren werden zwei unterschiedliche Tests durchgeführt. Für Test A soll die Reliabilität ermittelt werden. Test B ist ein äquivalenter, als reliabel angesehener Test. Dieser Test B schließt sich unmittelbar oder in zeitlich getrennter Abfolge an Test A an. Durch den Vergleich der beiden Messergebnisse wird auf die Reliabilität von Test A geschlossen. • Beim Split-half-Verfahren werden nach dem Test die Datensätze in zwei Hälften aufgeteilt. Unter der Annahme derselben Faktorstrukturen werden die Ergebnisse anschließend miteinander korreliert und die für den halben Test geltenden Reliabilitätskoeffizienten auf den ganzen Test hochgerechnet. Das Problem der Reliabilitätsermittlung beim Retest- sowie beim Paralleltest-Verfahren besteht darin, dass die Voraussetzungen für eine Bedingungskonstanz bei wiederholten Messungen kaum erfüllt werden können: Neben Einflussfaktoren wie Lernprozessen, Problemeinsicht oder Übung können Persönlichkeitsmerkmale (wie Einstellung zu Tests) kaum als konstant angesehen werden. Beim Split-half- Verfahren ist die identische Faktorstruktur der beiden Testhälften oft nicht zu erreichen. Validität (Gültigkeit) bezeichnet den materiellen Aspekt der Genauigkeit der Messung als Frage, ob das, was erhoben wird, auch intendiertes Ziel des Untersuchungsprozesses ist. Geprüft wird also, ob ein Schluss vom Messergebnis auf die Ausprägung der Zielvariablen zulässig ist (vgl. Cascio/Aguinis 2011, 141–142). Wie bei der Reliabilität müssen hier auch die Kontextbedingungen sowie die diagnostischen und prognostischen Zwecke des Tests einbezogen werden. So kann ein Test durchaus zweckspezifisch unterschiedliche Validitätskoeffizienten realisieren. Die Gesamtvarianz einer Messung teilt sich auf in die Varianz, die auf die Schwankungsbreite des „wahren“ Wertes zurückgeführt werden kann, sowie auf eine Varianz, die in den Fehlerkomponenten der Messung begründet liegt (Übersicht 3.32). Da beobachteter Wert = wahrer Wert + Fehler und somit Varianz des beobachteten Wertes = Varianz des wahren Wertes + Fehlervarianz soll gelten = Varianz des wahren Wertes Reliabilität Varianz des beobachteten Wertes Da = +X T E und somit = +2 2 2x T Es s s soll gelten = 2 T xx 2 x s r s X = beobachteter Wert rxx = Validitätskoeffizient T = wahrer Wert s2 = Varianz E = Fehler Übersicht 3.31 : Ableitung der Reliabilität 3.5 Messtheoretische Basis 267 Vahlens Handbücher – Scholz – Personalmanagement 6. Aufl. Herstellung: Frau Schmidt-Denzau 31.10.2013 Druckdaten Seite 266 Vahlens Handbücher – Scholz – Personalmanagement 6. Aufl. Herstellung: Frau Schmidt-Denzau 31.10.2013 Druckdaten Seite 267 Da Varianz des wahren Wertes = relevante Varianz + irrelevante Varianz und somit Varianz des beobachteten Wertes = relevante Varianz +irrelevante Varianz + Fehlervarianz soll gelten = relevante Varianz Validität Varianz des beobachteten Wertes Da = +2 2 2T TR TIs s s und somit = + +2 2 2 2x TR TI Es s s s soll gelten = 2 TR xy 2 x s r s x = beobachteter Wert I = irrelevanter Anteil T = wahrer Wert rxy = Reliabilitätskoeffizient E = Fehler s2 = Varianz R = relevanter Anteil Übersicht 3.32 : Ableitung der Validität Die „wahre“ Varianz kann weiter unterteilt werden in einen für die Messung als relevant einzustufenden Bestandteil und in einen irrelevanten, aber reliablen Bestandteil. Zur Beurteilung der Validität eines Messinstrumentes ist der Varianzanteil zu bestimmen, der sich auf den wahren, für den Zweck der Messung relevanten Teil der Gesamtvarianz bezieht. Der Zusammenhang zwischen der Validität und der oben diskutierten Reliabilität stellt sich folgendermaßen dar: Reliabilität ist notwendige, aber nicht hinreichende Bedingung für Validität. Weist eine Messung geringe Reliabilität auf, leitet sich also die Varianz der Messwerte nur in geringem Ausmaß aus wahren interindividuellen Unterschieden ab, so erlauben die Messwerte nur unsichere Schlussfolgerungen. Andererseits ist mit einer hohen Reliabilität noch keine Aussage über die Güte (untersuchungs-)zielbezogener Schlussfolgerungen getroffen. Reliabilität stellt somit die Untergrenze für die Validität dar. Dies lässt sich auch grafisch verdeutlichen (Abbildung 3.18): Das Quadrat in der Mitte stellt den wahren Wert dar, die blauen Punkte die jeweiligen Messwerte. Bei der ersten Grafik (links) liegt eine Konzentration auf einen Punkt vor. Innerhalb der Messung gibt es also keine großen Abweichungen; somit ist sie reliabel. Da die Messpunkte aber weit vom wahren Wert abweichen, ist sie nicht valide. Die zweite Grafik zeigt gleichverteilte Werte, wodurch die Messung letztlich („im Durchschnitt“) valide ausfällt. In der dritten Grafik gibt es sowohl eine systematische als auch eine zufällige Abweichung, reliabel nicht valide reliabel valide nicht reliabel valide nicht reliabel nicht valide Abbildung 3.18 : Zusammenhang zwischen Reliabilität und Validität (vgl. Trochim 2012) 3 Grundlagen268 Vahlens Handbücher – Scholz – Personalmanagement 6. Aufl. Herstellung: Frau Schmidt-Denzau 31.10.2013 Druckdaten Seite 268 Vahlens Handbücher – Scholz – Personalmanagement 6. Aufl. Herstellung: Frau Schmidt-Denzau 31.10.2013 Druckdaten Seite 269 wodurch die Messung weder reliabel noch valide ist. Lediglich die vierte Grafik erfüllt beide Messkriterien. Die Anwendung des Validitätskonzeptes erfordert aufgrund der damit verbundenen Komplexität eine Differenzierung nach Inhaltsvalidität, Konstruktvalidität und kriterienbezogener Validität, wobei letztere in Form der Abbildungs- und Prognosevalidität auftritt (vgl. Cascio/Aguinis 2011, 142–157): • Die Inhaltsvalidität (content validity) beschreibt, inwieweit die einzelnen Elemente eines Abbildungsinstrumentes eine repräsentative Stichprobe aller mit Hilfe dieses Abbildungsinstrumentes zu erfassenden Persönlichkeits- oder Verhaltensmerkmale darstellen. Wird ein Proband im Test mit Rechenaufgaben konfrontiert und vermag er diese gut zu lösen, so kann angenommen werden, dass er Rechenaufgaben der gleichen Art unter vergleichbaren Bedingungen in demselben Ausmaß lösen wird. Inhaltliche Validität wird einem Messinstrument im Regelfall durch Expertenurteil bescheinigt. • Die Konstruktvalidität beschreibt komplexe Merkmale („theoretische Konstrukte“) wie Intelligenz, Urteilsfähigkeit und Arbeitsleistung. Sie ist nicht direkt erfassbar. Die Validitätsbestimmung ist mit der Frage verbunden, inwieweit das betreffende Konstrukt in der Realität existiert und die vermutete Struktur aufweist. Oder prägnant gefragt: „is there really such a thing as …“? (Steers 1975, 551). Die Validierung erfolgt hier durch Einordnung in ein theoretisches Bezugssystem: Das Konstrukt wird definiert, die Interdependenzstruktur zu anderen Konstrukten abgeklärt und die Beziehung zu beobachtbaren Verhaltensweisen (über empirisch testbare Hypothesen) hergestellt. Neben dieser korrelationsstatistischen Vorgehensweise kann die Konstruktvalidierung auch über Expertenurteile sowie experimentelle Ansätze durchgeführt werden. • Die kriterienbezogene Validität beschreibt die statistische Beziehung der im Test erhobenen Ausprägungen zu den Ausprägungen einer Zielvariablen, dem so genannten Außen- oder Validitätskriterium. Dabei wird – entweder als Abbildungsvalidität (concurrent validity) von einem Indikator auf die Ausprägung der Zielvariablen zum Messzeitpunkt geschlossen oder aber – als Prognosevalidität (predictive validity) von einem Prädiktor auf eine zukünftige Ausprägung der Zielvariablen geschlossen (vgl. Ghiselli/Campbell/ Zedeck 1981, 267). Im ersten Fall wird bei der Validierung das Außenkriterium zeitgleich mit dem zu validierenden Messverfahren erhoben. Im zweiten Fall wird das Außenkriterium zu einem späteren Zeitpunkt erhoben und damit auf die Kriterienausprägung in der Zukunft abgestellt. Speziell die kriterienbezogenen Validitätsarten sind für das Personalmanagement von elementarer Wichtigkeit (Übersicht 3.33). 3.5.4 Zusammenführung Das Interesse in der personalwirtschaftlichen Praxis über Kenntnisse im Bereich der messtheoretischen Grundlagen nimmt tendenziell eher ab. Hinzu kommt, dass wenn empirische Untersuchungen durchgeführt werden, verstärkt einfache Korrelationen anstelle von Kausalitäten zum Einsatz kommen, wie nachfolgendes 3.6 Resümee und Vorschau 269 Vahlens Handbücher – Scholz – Personalmanagement 6. Aufl. Herstellung: Frau Schmidt-Denzau 31.10.2013 Druckdaten Seite 268 Vahlens Handbücher – Scholz – Personalmanagement 6. Aufl. Herstellung: Frau Schmidt-Denzau 31.10.2013 Druckdaten Seite 269 Beispiel belegt: Der Human-Potential-Index, ein vom Bundesministerium für Arbeit und Soziales mitentwickeltes Benchmark-Instrument soll Unternehmen ermöglichen, eine ganzheitliche Betrachtung ihrer HR-Prozesse und -Strukturen auf der Basis eines externen Benchmarks sowie der Überprüfung der Wirksamkeit der Instrumente in Bezug auf den wirtschaftlichen Unternehmenserfolg durchzuführen. Ein Ergebnis, was dabei in zahlreichen Publikationen zum Human-Potential-Index nachzulesen war: „41 Prozent des wirtschaftlichen Erfolgs sind durch die Indikatoren des Human-Potential-Index prognostizierbar.“ Diese Koinzidenz zwischen der Nutzung bestimmter personalwirtschaftlicher Instrumente und dem Unternehmenserfolg sagt aber nichts darüber aus, was Ursache und was Wirkung ist. Sie impliziert also keine Kausalität (vgl. Scholz/Sattelberger 2009). Aus praktischer Erfahrung liegt sogar die Vermutung nahe, dass die Kausalität genau entgegen der Annahme des Human-Potential-Index verläuft: Nur finanziell erfolgreiche Unternehmen sind überhaupt in der Lage, umfangreiche personalwirtschaftliche Instrumente einzusetzen und das Füllhorn der Wohltaten über die Mitarbeiter auszuleeren. Koinzidenz wird in diesem Beispiel klar mit Kausalität verwechselt. Hier müssen Personalverantwortliche in der Lage sein, solche Aussagen und Studienergebnisse zu hinterfragen, da die ansonsten daraus abgeleiteten Maßnahmen fatale Konsequenzen für das gesamte Unternehmen nach sich ziehen können. 3.6 Resümee und Vorschau Das Personalmanagement sieht sich verschiedenen Gegebenheiten gegenüber, die aufgrund ihres zentralen Charakters zwangsläufig die Basis für die Ausgestaltung der einzelnen Personalmanagementfelder sind: • Die ethische Basis bezieht sich auf die grundsätzlich sozialverträgliche und ethisch-moralische Umsetzung des Personalmanagements. • Die rechtliche Basis steckt den juristischen Rahmen ab. • Die organisatorische Basis liefert den aufbau- und ablauforientierten Bezug. • Die situative Basis beschäftigt sich mit umwelt- und unternehmensbezogenen Sonderfaktoren. 3.6 Resümee und Vorschau Personalmanagementfeld Abbildungsvalidität Prognosevalidität Personalbestand aktuelle Fähigkeitsprofile prognostizierte Fähigkeitsprofile Personalbedarf Anforderungsprofile zukünftige Bedarfsstrukturen Personalveränderung Personalentwicklung (Potenzial) Personalselektion, Personalentwicklung (Erfolg) Personaleinsatz Belastungs-, Beanspruchungsermittlung Eignungsprofile Personalführung Führungsmodelle Führungserfolg Übersicht 3.33 : Das Validierungsproblem im Personalmanagement

Chapter Preview

References

Zusammenfassung

Personalmanagement

Die Veränderung in der Arbeitswelt ist spürbar, die Globalisierung erlebbar, die Erosion der Personalabteilung sichtbar und das Humankapital immer erfolgskritischer. Diese Trends aufgreifend vermittelt Personalmanagement theoretisch fundierte Konzepte über alle Themenbereiche moderner Personalarbeit auf operativer, taktischer sowie strategischer Ebene. Dem Charakter als Lehr- und Handbuch entsprechend, werden die zentralen Ansätze nicht nur präsentiert, sondern in einen integrativen Zusammenhang gebracht. Neben einer informationsorientierten Perspektive wird dabei verstärkt die verhaltenswissenschaftliche Sichtweise in den Vordergrund gerückt.

Aus dem Inhalt:

– Aktualität, Methodik und Grundlagen des Personalmanagements

– Personalbedarfsbestimmung

– Personalbestandsanalyse

– Personalbeschaffung, -entwicklung, -freisetzung

– Personaleinsatz

– Personalkostenmanagement

– Personalführung

Studierende, Personalverantwortliche und Personalberater erhalten durch Personalmanagement umfassenden Einblick in aktuelle und zukünftige Herausforderungen der Personalarbeit: Dazu zählen neben theoretischen Grundlagen auch neueste empirische Erkenntnisse. Damit strebt dieses Standardwerk nach „Rigor & Relevance“, also nach konsequent-wissenschaftlicher Fundierung bei konsequent-praktischem Gestaltungsnutzen.