Content

Benchmarking in:

Anke Hanft

Bildungs- und Wissenschaftsmanagement, page 326 - 336

1. Edition 2008, ISBN print: 978-3-8006-3468-2, ISBN online: 978-3-8006-4405-6, https://doi.org/10.15358/9783800644056_326

Series: Vahlens Handbücher der Wirtschafts- und Sozialwissenschaften

Bibliographic information
314 4. Qualitätsmanagement und Evaluation Ziel ist die Entwicklung gemeinsamer Standards, ohne dass gemeinsame Qualitätssicherungsverfahren eingeführt werden müssen. Die Standards sind daher offen für verschiedene Qualitätssicherungsverfahren. Kritisiert wird an den ENQA-Standards ihr mangelnder Bezug auf die Forschung. Tatsächlich sind Akkreditierungs- und Zertifizierungsverfahren gegenwärtig auf Studium und Lehre begrenzt. 4.6. Benchmarking 4.6.1. Merkmale Der Begriff „Benchmark“ stammt aus der Landvermessung und bezeichnet Fixpunkte bei Höhen- und Richtungsvergleichen. Benchmarks sind somit Maßstäbe oder Normen, die als „Best Practices“ die Grundlage für einen Vergleich bilden. Dieser Vergleich ist Ausgangspunkt für einen Prozess, in dem den Ursachen unterschiedlicher Bewertungen nachgegangen und nach Ansatz- 6 Hochschulen sammeln, analysieren und nutzen Informationssysteme für die Durchführung ihrer Leistungen. QS-Maßnahmen, die zu Empfehlungen führen oder Maßnahmen festlegen, beinhalten auch ein Verfahren zur Umsetzung von Folgemaßnahmen (Follow-up). QS-Agenturen sind unabhängig in ihrer Ausübung, ihren Entscheidungen und Empfehlungen. 7 Hochschulen veröffentlichen regelmäßig aktuelle und objektive Informationen zu ihren Studien und Abschlüssen. Externe QS-Maßnahmen werden regelmäßig durchgeführt. QS-Agenturen unterliegen selbst einer externen Qualitätssicherung. 8 QS-Agenturen veröffentlichen von Zeit zu Zeit einen Überblick über die Ergebnisse ihrer Evaluierungen. QS-Agenturen legen Rechenschaft über ihre Funktionsweise ab. Tab. 4.10: Standards und Richtlinien der ENQA (ESG), Quelle: Eigene Darstellung in Anlehnung an: Standards and Guidelines for Quality Assurance in the European Higher Education Area. S. 6–8, http://www.enqa.net/files/ENQA%20Bergen%20report.pdf. (Download: 8.3. 2007) Standards für interne Qualitätssicherungsmaßnahmen der Hochschulen Standards für externe Qualitätssicherungsmaßnahmen der Hochschulen Standards für Qualitätssicherungsagenturen 4.6. Benchmarking 315 punkten für Verbesserungen gesucht wird. Als Benchmarks sind daher möglichst quantifizierbare Leistungseinheiten zu identifizieren, die als „Best Practices“ zu Referenzmodellen der am Benchmarking beteiligten Unternehmen werden. Über den Vergleich der eigenen Leistungserstellung mit denen der besten Wettbewerber sollen Verbesserungspotenziale aufgedeckt und Ver- änderungsmaßnahmen initiiert werden. Die ersten systematischen Benchmarking-Aktivitäten lassen sich auf die 70er-Jahre des 20. Jahrhunderts datieren, als amerikanische Unternehmen unter der wachsenden japanischen Konkurrenz ihre Wertschöpfungsketten auf Schwächen analysierten und mit denen der Wettbewerber verglichen. Camp (1989) definiert Benchmarking als „die Suche nach besten Praktiken, die zu überlegener Leistung führen“. Dies soll durch den systematischen und zielorientierten Vergleich von Produkten und Dienstleistungen, von Organisationsstrukturen und Geschäftsabläufen verschiedener Unternehmen, Organisationen oder Unternehmenseinheiten geschehen, die aus der gleichen Branche, aber auch aus unterschiedlichen Branchen kommen können. Bei den Benchmarking- Objekten kann somit zwischen einem quantitativ angelegten Produkt-, Kostenund Leistungs-Benchmarking einerseits und einem qualitativen, auf die Untersuchung von Arbeitsabläufen, Strategien und Prozessketten ausgerichteten Prozess-Benchmarking andererseits unterschieden werden (Schreiterer 2001). Benchmarking kann kompetitiv angelegt sein, wenn eine Organisation sich an einer anderen misst, ohne diese an dem Vergleich zu beteiligen, oder kooperativ, wenn sich verschiedene Einrichtungen auf einen gemeinsamen und gleichberechtigten Vergleich verständigen und dabei auch vertrauliche Daten austauschen. Die beteiligten Unternehmen oder Organisationen müssen nicht aus einer Branche stammen. Oft ist es gerade der branchenübergreifende Vergleich, der große Lernpotenziale beinhaltet. Als generelle Kriterien für die Auswahl der Partner gelten Organisationstyp, Größe, regionale Nähe oder andere, im Wettbewerb wichtige Schlüsselfaktoren (Stratmann 2005, S. 4). Vor diesem Hintergrund lassen sich verschiedene Formen des Benchmarkings unterscheiden (Zink 2004, S. 303 ff.): • Beim internen Benchmarking werden Ergebnisse, Verfahren und Tätigkeiten innerhalb eines Unternehmens als Grundlage des Vergleichs herangezogen. Der Vergleich kann sich auf kleinere Verwaltungstätigkeiten, wie z.B. den Prozess der Rechnungsabwicklung, beziehen, aber auch ganze Abteilungen oder Bereiche umfassen. • Das Competitive Benchmarking umfasst den Vergleich direkter Wettbewerber, die Umfang und Inhalte des Benchmarkings einvernehmlich abstimmen. • Beim Functional Benchmarking werden verschiedene Funktionsbereiche innerhalb einer (oder einer ähnlichen) Branche verglichen. Ist dieser Vergleich auf die bestmögliche Umsetzung von Geschäftsprozessen oder Tätigkeiten bezogen, handelt es sich um ein Best Practice Benchmarking. • Beim Award Model Benchmarking erfolgt der Vergleich mit Kriterien und Standards, die in internationalen Excellence-Modellen, wie z.B. dem 316 4. Qualitätsmanagement und Evaluation EFQM-Modell, definiert sind. Die Benchmarks werden dabei durch die Beschreibungen fiktiver Unternehmen in den Selbstbeschreibungsbroschüren gesetzt. Der Erfolg eines Benchmarking-Prozesses wird entscheidend durch die Beachtung einiger zentraler Prinzipien bestimmt (Walgenbach/Hegele 2000, S. 197): • Akzeptanz bei allen Beteiligten. Dies ist eine wichtige Voraussetzung für die erfolgreiche Durchführung des Verfahrens und wird im Wesentlichen durch Transparenz, vertrauensvolle Zusammenarbeit und den Glauben an positive Veränderungen in Folge des Benchmarking-Prozesses gewährleistet. • Plausibilität und Nachvollziehbarkeit der Verfahren. Diese hat Vorrang vor der Erfüllung wissenschaftlicher Gütekriterien. Benchmarking ist an wissenschaftlichen Standards orientiert, im Vorgehen aber pragmatisch und ergebnisorientiert. • Beteiligungsorientierung. Die Motivation zur Beteiligung bei Mitarbeitern und Mitarbeiterinnen ist zu gewährleisten, da deren Know how eine wichtige Ressource im Benchmarking-Prozess darstellt. 4.6.2. Ablauf eines Benchmarking-Prozesses Ein Benchmarking-Prozess folgt prinzipiell einem ähnlichen Ablauf, gleich ob er auf Produkte (z.B. Weiterbildungsangebote), Prozesse (z.B. Prüfungsorganisation), Best-Practices (z.B. kürzeste Studiendauer), Strategien (Verringerung von Drop-Out-Quoten) oder Systeme (z.B. „kinderfreundliche Hochschule“) abzielt. Organisationen, die sich einem Benchmarking-Prozess unterziehen wollen, sollten sich in einem ersten Schritt verständigen über (Stratmann 2005, S. 1): • die Ziele des Vergleichs (z.B. wirtschaftlicher Ressourceneinsatz, Qualitätsverbesserung), • Objekte und Beobachtungsfelder des Vergleichs (z.B. Ressourceneinsatz, Prozesse, Ergebnisse, organisatorische Teilbereiche, Gesamtorganisation), • Verfahrensweisen des Vergleichs (z.B. Auswahl der Partner [intern – extern, einer – mehrere, funktional – kompetitiv], Festlegung des Verfahrensablaufs [Arbeitsschritte, Meilensteine], Festlegung der Bewertungskriterien und Ermittlung kritischer Kenngrößen zur Beurteilung von Ergebnis-, Strukturoder Prozessqualität). Weiterhin ist zu klären, welche Organisationen auf den zu untersuchenden Gebieten Bestleistungen erbringen und wie sie für einen Benchmarking-Prozess gewonnen werden können (vgl. Seghezzi 2003, S. 345). Es müssen Organisationen gefunden werden, deren Leistungen oder Prozesse vergleichbar und die als Benchmarking-Partner für alle beteiligten Seiten interessant sind. Das wechselseitige Interesse gilt als wichtige Voraussetzung für einen erfolgreichen Verlauf. 4.6. Benchmarking 317 Leistungen und Prozessabläufe der am Verfahren beteiligten Organisationen sind in gemeinsame kennzahlen- oder prozessorientierte Analysekriterien zu überführen und einer neutralen Bewertung zugänglich zu machen. Der Sammlung und Aufbereitung von Daten kommt daher hohe Bedeutung im Benchmarking-Prozess zu. Sie bildet die Voraussetzung für die Identifizierung von „Best Practices“. Die Ergebnisse der Datenanalyse werden dann auf ihre ursächlichen Faktoren zurückgeführt. Zu untersuchen ist, wie die als Referenzmodelle identifizierten Organisationen ihre herausragenden Leistungen erreichen und wie sie die als herausragend bewerteten Prozesse organisieren. In einem letzten Schritt sind Schlussfolgerungen aus dem Vergleich zu ziehen und Maßnahmen für verbesserte Problemlösungen einzuleiten. Die beteiligten Organisationen verständigen sich über Ziele und einzuleitende Veränderungsmaßnahmen. 4.6.3. Benchmarking in Hochschulen In den vergangenen Jahren gab es in Hochschulen mehrfach Kooperationen mit dem Ziel, die Qualität von Lehre und Forschung mithilfe des Benchmarkings zu verbessern. So die 2003 gegründete Initiative „Benchmarking G 21- Qualitätsinitiative großer Universitäten“, in der sich 15 deutsche Universitäten zusammengeschlossen haben, um Lösungen für ähnlich gelagerte Probleme zu suchen.26 Auch Technische Universitäten (Hünicken 2005) und Fachhochschulen haben sich zu Benchmarking-Aktivitäten zusammengefunden. Vom Hochschul-Informationssystem (HIS) wurden in den vergangenen Jahren spezielle Benchmarking-Verfahren für Hochschulverwaltungen entwickelt und zunächst in Niedersachsen, dann auch in anderen Bundesländern erprobt. Nach ersten Pilotprojekten sind mit einem kennzahlen- und einem prozessorientierten Benchmarking zwei alternative Verfahren entwickelt worden, die beide vorrangig auf die Effizienz und Effektivität der organisatorischen Leistungserstellung abzielen. Während beim kennzahlenorientierten Verfahren Produkte bzw. Produktbereiche im Mittelpunkt stehen, die anhand von Kennzahlen bezüglich Ressourceneinsatz und Ergebnissen (Input-Output-Vergleich) verglichen werden, zielt das prozessorientierte Verfahren auf die Analyse von Verwaltungsprozessen ab, die anhand von qualitativen Beschreibungen analysiert werden (Stratmann 2005, S. 3 f.). Als Produkt oder Produktbereich versteht HIS in Anlehnung an den Produktbegriff der KGSt „das Ergebnis eines Leistungsprozesses einer Organisationsein- 26 Vgl. Presseinformation der Universitäten FU Berlin, Bonn, Bochum, Dresden, Erlangen-Nürnberg, Frankfurt (Main), Freiburg, Göttingen, Hamburg, Heidelberg, Mainz, LMU München, Münster, Tübingen und Würzburg vom 15.7. 2003: Benchmarking G 21 – Qualitätsinitiative großer Universitäten. 318 4. Qualitätsmanagement und Evaluation heit in einem Verwaltungsbetrieb […], das die Einheit zugleich verlassen muss“ (Stratmann 2005, S. 3). Produkte oder Produktbereiche werden wiederum zu Service- bzw. Verwaltungseinheiten zusammengefasst, wie der Studierendenverwaltung, der Personalverwaltung, dem Bau- und Gebäudemanagement oder der Presse- und Öffentlichkeitsarbeit. Beim prozessorientierten Benchmarking verständigen sich die beteiligten Partner zunächst auf die Auswahl der zu vergleichenden Verwaltungseinrichtungen. Beide Verfahren folgen dem gleichen Ablaufschema: (vgl. Stratmann 2005, S. 7 ff.): Schritt 1: Erhebung relevanter Daten, Prozesse und Praktiken: Im kennzahlenbezogenen Benchmarking werden die produktbereichsbezogenen Jahresschätzungen des Personalaufwands sowie Basiszahlen zu den Verwaltungsleistungen (z.B. Fallzahlen) und Kenngrößen (z.B. Studierendenzahlen) für die zu untersuchenden Verwaltungsbereiche erfasst. Im prozessorientierten Benchmarking wird der zeitliche Ablauf eines Work-flow vom Beginn bis zum Ende in all seinen Aufgaben, deren Verknüpfungen und Schnittstellen zu anderen Bereichen dargestellt. Ressourceneinsatz und Ergebnisgrößen werden prozessbezogen ermittelt. Schritte 2/3: Plausibilität der Daten/Vergleich, Problem- und Ursachenanalyse: Im kennzahlenorientierten Benchmarking erfolgt im Anschluss an die Datenerhebung ein vertiefendes Vorort-Gespräch, an das sich die Auswertung und der Vergleich des erhobenen Materials anschließen. Im prozessorientierten Benchmarking findet die Auswertung und der Vergleich in einem gemeinsamen Workshop der beteiligten Einrichtungen statt. Die Bearbeitung identifizierter Problemfelder und deren Ursachenanalyse erfolgt gemeinsam und nimmt gegenüber dem kennzahlenorientierten Verfahren einen höheren Stellenwert ein. Schritte 4/5: Planung und Evaluierung von Maßnahmen als Ergebnis des Benchmarkings: Aus der Problem- und Ursachenanalyse können alle Beteiligten Verbesserungsmaßnahmen ableiten und ggf. gemeinsam diskutieren. Die Umsetzung der Maßnahmen kann auf Wunsch der Beteiligten in einer Evaluation überprüft werden (Schritt 5). Sowohl das kennzahlen- als auch das prozessorientierte Verfahren sind durch jeweils spezifische Stärken und Schwächen gekennzeichnet (vgl. Stratmann 2005, S. 9 ff.). So gilt als Stärke des kennzahlenorientierten Benchmarkings die Möglichkeit des strukturierten hochschulübergreifenden Vergleichs von Inputund Outputgrößen, die eine Identifikation von Schwachstellen ermöglicht und in eine kontinuierliche Erfassung der Dienstleistungen einmünden kann. Dem stehen allerdings eine Reihe von Schwächen gegenüber. Auf Grund seiner Zahlenfixierung besteht die Gefahr, dass die Analyse der eigentlichen Leistungsprozesse vernachlässigt wird und eine Beurteilung des eigenen Leistungsvermögens anhand von Durchschnittswerten erfolgt. Da kennzahlenorientierte Verfahren zudem eine Reihe methodischer Schwächen beinhalten, besteht die Gefahr, dass Ursachenanalysen auf die Aufdeckung methodischer Fehler fokussieren und das „Voneinander Lernen“, das im Zentrum eines Benchmarking-Prozesses stehen sollte, vernachlässigt wird. 4.6. Benchmarking 319 Als Stärke des prozessorientierten Benchmarkings gilt, dass es sich gezielt auf die zu Beginn des Benchmarking-Prozesses ausgehandelten Schlüsselbereiche konzentrieren kann. Da der Erfahrungsaustausch über Arbeitsorganisation und -abläufe im Mittelpunkt des Verfahrens steht, können Problembereiche besser identifiziert und Verbesserungspotenziale aufgezeigt werden. Dies erhöht die Wahrscheinlichkeit der Realisierung von Veränderungen. Die Stärken des Verfahrens beinhalten gleichzeitig seine Schwächen: Da die Auswahl der Benchmarking-Bereiche nicht auf Grundlage von Kennzahlen erfolgt, besteht die Gefahr, dass Prozesse gewählt werden, deren Optimierungspotenzial nur sehr gering ist. Weiterhin kann die qualitative Ausrichtung des Verfahrens dazu führen, eine strukturierte und systematische Vorgehensweise zu vernachlässigen und in einen unverbindlichen Erfahrungsaustausch ohne weiter reichende Konsequenzen einzutreten. Unter der Moderation und Begleitung des HIS wurde in vier süddeutschen Hochschulen ein Verwaltungs-Benchmarking durchgeführt, in dem wichtige Supportstrukturen im Verwaltungsbereich auf Optimierungspotenziale untersucht wurden. Im Mittelpunkt standen Supportprozesse in Studium und Lehre (Prüfungsverwaltung und -abwicklung), Personalmanagement (Einstellung wissenschaftlicher Mitarbeiter, Berufungsverfahren), Forschungsmanagement (Administration von Drittmittelprojekten) und Gebäudemanagement (Technischer Betrieb, Gebäudereinigung). Ziel war, durch die Identifikation und Optimierung von Geschäftsprozessen einen Beitrag zur Qualitätsentwicklung der Organisationen zu leisten (Stratmann et al. 2007). 4.6.4. Rankings Unter Rankings werden vergleichende Untersuchungen von Organisationen oder Organisationsbereichen verstanden, die in Form von Ranglisten und – häufig – einzelnen Rangplätzen der untersuchten Organisationen vorgelegt werden. Rankings können also aus einem Benchmarking-Prozess hervorgehen, stehen dort aber nicht im Vordergrund. Zumeist sind sie Ergebnis von quantitativen Untersuchungen, die gezielt mit der Absicht der Erstellung einer Rangfolge durchgeführt werden. In Deutschland sind Rankings seit Ende der achtziger Jahre vor allem als Hochschulrankings verbreitet. Seitdem werden sie regelmä- ßig durch verschiedene Presse-Publikationen wie Spiegel, Focus oder Stern veranlasst und publiziert. Auch das CHE führt in Zusammenarbeit mit Stiftung Warentest und Die Zeit seit 1998 ein eigenes Ranking durch, das mit inzwischen 30 gerankten Fächern zu den umfassendsten im deutschsprachigen Raum zählt. Auf große internationale Aufmerksamkeit stößt seit 2004 das Ranking der Jiaotong-Universität Shanghai, das weltweit Universitäten vergleicht. Eine Sonderstellung bei den Rankings nehmen in Deutschland die sogenannten Forschungsrankings ein. So veröffentlicht die Deutsche Forschungsgemeinschaft (DFG) in regelmäßigen Abständen eine nach Fachgebieten aufgeschlüsselte Liste der von ihr vergebenen Fördermittel, die, um einen objektiveren Ver- 320 4. Qualitätsmanagement und Evaluation gleich zwischen großen und kleinen Hochschulen zu ermöglichen, durch eine auf DFG-Mittel pro Professor bezogene Aufstellung ergänzt wird. Während das DFG-Ranking nur die von der DFG eingeworbenen Drittmittel erfasst, und daher, was die Bewertung der gesamten Forschungsleistungen anbelangt, als nur beschränkt aussagefähig gilt, differenziert das CHE-Forschungsranking bezogen auf sechzehn Fächer in den Natur-, Ingenieur-, Geistes- und Sozialwissenschaften nach mehreren Leistungsmerkmalen. Indikatoren sind die Höhe der Drittmittel, Publikationen (gewichtet nach Anzahl und Zitierhäufigkeit), Promotionen und Professorenurteil (Bewertung der Reputation), sowohl absolut als auch relativ auf die Anzahl der Professoren in der jeweiligen Hochschule. Mit Rankings wird das Ziel verfolgt, die Transparenz von Hochschulleistungen zu erhöhen, sie vergleichbar zu machen, um dadurch den Wettbewerb zwischen Hochschulen zu stärken und zu ihrer Profilbildung beizutragen (Giebisch 2001). Für Studierende stellen sie mittlerweile eine wichtige Orientierungshilfe bei der Wahl ihres Studienplatzes dar. Aber auch Arbeitgeber, Personal- und Berufsberater sowie die gesamte Öffentlichkeit bewerten die Qualität einer Hochschule zunehmend anhand ihrer Ranking-Ergebnisse. Politischen Entscheidern gelten Ranking-Ergebnisse als Grundlage für die Begründung von Mittelzuweisungen. Rankings unterscheiden sich teilweise erheblich hinsichtlich ihrer wissenschaftlichen Seriosität und Qualität, die insbesondere an den eingesetzten Methoden und Indikatoren festgemacht wird. So beruhen einige Rankings lediglich auf der subjektiven Einschätzung von Professoren, Studierenden und Arbeitgebern, während andere auch objektive Daten einbeziehen, wobei die Bereich Indikator Gewicht Qualität der Ausbildung 1. Alumni, die einen Nobelpreis oder wichtigen Mathematik-Preis gewonnen haben 10% Qualität des Personals 2. Wissenschaftler mit Nobel-Preis bzw. wichtigem Mathematik-Preis 20% 3. Häufig zitierte Forscher in 21 Fächern 20% Output in der Forschung 4. In Nature & Science publizierte Artikel 20% 5. Artikel im Web of Science (SCI Expanded & SSCI Expanded) 20% Größe der Institutionen 6. Akademische Leistung mit Blick auf die Größe 10% Tab. 4.11: Indikatoren Shanghai-Ranking Quelle: CHE: http://www.che.de/cms/?getObject=108&getName= Universit%E4t+Shanghai+Ranking&getLang=en (Download: 15.11. 2006) 4.6. Benchmarking 321 Auswahl der Daten, die Anzahl der Indikatoren und die Größe der erhobenen Stichproben erheblich schwanken. Das in den vergangenen Jahren sehr populär gewordene Shanghai Ranking umfasst lediglich sechs, stark forschungsbezogene Indikatoren (s. Tab. 4.11). Die starke Gewichtung von Nobelpreisen und naturwissenschaftlichen Forschungsergebnissen im Shanghai-Ranking führt dazu, dass traditionsreiche Universitäten gegenüber Neugründungen und solchen mit geisteswissenschaftlichen Schwerpunkten bevorzugt werden. Zudem bildet die Beschränkung auf sechs Indikatoren und die Art ihrer Gewichtung die Vielfalt des Hochschulsystems nur überaus begrenzt und teilweise verzerrt ab. So bleibt für Deutschland beispielsweise unberücksichtigt, dass sich die Grundlagenforschung vorrangig auf außeruniversitäre Forschungseinrichtungen konzentriert. Als relativ umfassend gilt das Ranking des CHE, das auf Grundlage eines aus neun Grundbausteinen bestehenden Indikatorenmodells nicht nur die Urteile von Studierenden und Hochschulangehörigen einbezieht, sondern auch eine Vielzahl fächerbezogener Daten auswertet. Einbezogen werden mit fächerbezogenen Differenzierungen: • Studienort und Hochschule, Indikatoren u.a.: Studierendenanteil am Studienort, Zahl der Wohnheimplätze, Semesterbeitrag, • Studierende, Indikatoren u.a.: Zahl der Studierenden, Studienanfänger im Fachbereich. • Studienergebnis, Indikatoren u.a.: mittlere Studiendauer, Durchschnittsnote der einzelnen Studiengänge. • Internationale Ausrichtung, Indikatoren u.a.: Teilnahme des Fachbereichs am European Credit Transfer System, Fremdsprachenangebot. • Studium und Lehre, Indikatoren u.a.: Betreuungsrelation, durchgeführte Evaluationen, Professoren- und Studierendenurteile zu Lehrangebot, Studienorganisation, Betreuung. • Ausstattung, Indikatoren u.a.: Zahl der PC-Arbeitsplätze, Professoren- und Studierendenurteile zur Ausstattung von Bibliothek, Laboren und Räumen. • Forschung, Indikatoren u.a.: Drittmitteleinwerbungen, Publikationen, Zitationen, Promotionen, Patente sowie die Beurteilung der Forschungssituation durch Professoren. • Gesamturteil Studierende, Indikator: das Urteil der Studierenden über ihre Studiensituation insgesamt. • Gesamturteil Professoren, Indikatoren: das Gesamturteil der Professoren über die Lehrbedingungen sowie die Empfehlungen einer Hochschule für ihr Fach (sog. „Professorentipp“). Im Unterschied zu anderen Untersuchungen vermeidet das CHE-Ranking die Verdichtung der Ergebnisse zu einer hochschulbezogenen Gesamtbewertung und stellt stattdessen die Leistungen einer Hochschule bezogen auf Fächer in verschiedenen Dimensionen dar. Es bietet daher mit Blick auf unterschiedliche 322 4. Qualitätsmanagement und Evaluation Präferenzen von Studierenden und Arbeitgebern eine bessere Orientierungshilfe als Rankings, deren Ergebnisse sich in pauschalen Gesamtbewertungen erschöpfen. Auf Grund der unterschiedlichen methodischen Vorgehensweise sind Ergebnisse von Rankings nur schwer vergleichbar und es ist nicht verwunderlich, dass die Platzierung von Hochschulen teilweise sehr unterschiedlich ausfällt. Die Akzeptanz von Rankings reicht entsprechend von genereller Ablehnung bis hin zu einer differenzierten Kritik an den eingesetzten Methoden. Der generelle Einwand, dass Studierende sich bei der Auswahl ihrer Hochschulen nicht von Rankings leiten lassen und sie somit überflüssig seien, lässt sich angesichts des wachsenden Wettbewerbs der Hochschulen um hoch qualifizierte Studierende heute kaum noch aufrecht erhalten. Bedeutsamer wiegt die Kritik an Auswahl und Anzahl der Indikatoren sowie deren Gewichtung. Hier sind Forderungen nach einem praktikablen und nicht zu aufwändigen Messverfahren mit denen nach möglichst objektiven, die Vielfalt des Hochschulsystems abbildenden Indikatorensets in Übereinstimmung zu bringen. Kritik an den Methoden bezieht sich vor allem auf die erhobenen Daten, die teilweise hohe Verfälschungsmöglichkeiten beinhalten, sowie auf die geringen Stichprobengrößen (Bayer 1999). Methodische Mängel werden in einigen Rankings über verfeinerte Messverfahren und die Hinzuziehung statistischer Daten verringert, können aber kaum vollständig ausgeräumt werden. Nicht einfach zu entkräften ist zudem die Kritik, dass teilweise marginale Unterschiede in den Bewertungen zu schlechteren Platzierungen in Rankings führen und die Vielfalt des Leistungsspektrums von Hochschulen in Gesamtbewertungen nicht zum Ausdruck gebracht werden kann. Berechtigt scheint vor diesem Hintergrund die Forderung nach einem Verzicht auf Gesamtbewertungen zugunsten eines fächerbezogenen Rankings. Dieses allerdings erweist sich auf Grund der mangelnden Vergleichbarkeit von Fächern und Fachbereichen schon heute als schwierig und wird mit wachsender Vielfalt des Fächerangebots im Bachelorund Mastersystem weiter erschwert. Um Ungerechtigkeiten auf Grund der teilweise geringen Unterschiede in den Bewertungen zu verringern, scheint auch die Forderung nach einem Verzicht auf Rangplätze zu Gunsten von Rang- oder Leistungsgruppen (Spitzen-, Mittel- und Schlussgruppe) nachvollziehbar. Auf Grund der anhaltenden Kritik an Rankings hat sich 2004 eine internationale Expertengruppe (International Ranking Expert Group, IREG) unter Beteiligung des CHE, dem UNESCO European Centre for Higher Education (UNESCO-CEPES) und dem Institute for Higher Education Policy auf Qualitätsprinzipien und Mindeststandards für Rankings in Hochschulen verständigt mit dem Ziel, die permanente Verbesserung und methodische Weiterentwicklung von Rankings zu fördern. Unter der Bezeichnung „Berlin Principles on Ranking of Higher Education Institutions“ wurden 16 Empfehlungen veröffentlicht, die Zwecke und Ziele von Rankings (A), das Design und die Gewichtung der Indikatoren (B), die Datenerhebung und -aufbereitung (C) sowie die Prä- 4.6. Benchmarking 323 sentation der Ergebnisse (D) betreffen und die an Rankings geübten Kritikpunkte entkräften sollen.27 Vom Wissenschaftsrat wurde zudem ein neuartiges, an internationalen Maßstäben ausgerichtetes Forschungsrating vorgeschlagen, das sowohl nach Fachgebieten differenziert als auch Raum für unterschiedliche Bewertungen nach verschiedenen Kriterien bietet. Im Unterschied zu Rankings erfolgt die Evaluation durch Gutachtergruppen, die Forschungsprofile der Einrichtungen und quantitative Daten anhand von neun Kriterien in den Dimensionen Forschung, Nachwuchsförderung und Wissenstransfer bewerten. Bewertungsgrundlage sind fachgebietsspezifische Forschungsprofile sowie bibliometrische Indikatoren. Das Verfahren wurde im Rahmen einer Pilotstudie in zwei Fachgebieten erprobt (Wissenschaftsrat 2004a). 27 Vgl. http://www.bildungsserver.de/zeigen_e.html?seite=1244, Download: 16.2. 2008. 5. Management organisatorischer Veränderungen 5.1. Organisatorischer Wandel in Bildungseinrichtungen Die aktuellen Veränderungen im Umfeld von Bildungseinrichtungen stellen hohe Anforderungen an ihre Entwicklungsfähigkeit und zwingen Entscheidungsträger dazu, Organisationsgröße, Zielsetzung und Funktionsweise der Einrichtungen auf den Prüfstand zu stellen (vgl. Bergquist 1998). Die aktive Bewältigung des organisatorischen Wandels ist daher eine zentrale Aufgabe von Entscheidungsträgern in Bildungseinrichtungen (vgl. Kezar 2001, S. 17 ff.) und ist Gegenstand der nachfolgenden Abschnitte. Dazu werden zunächst einige grundlegende Konzepte des Organisationswandels vorgestellt. Anschlie- ßend werden verschiedene Ansätze zur aktiven Bewältigung organisatorischer Veränderungsprozesse diskutiert und im Hinblick auf ihre Relevanz für das Management des Wandels in Bildungsorganisationen überprüft. 5.1.1. Was ist organisatorischer Wandel? Aus der Vielzahl möglicher organisatorischer Veränderungsansätze wird deutlich, dass der Begriff des organisatorischen Wandels sehr weit gefasst ist. Zur inhaltlichen Präzisierung schlägt Kezar (2001, S. 15 ff.) verschiedene Kategorien zur Systematisierung des Themenfeldes vor. Dazu zählen z.B. Auslöser des Wandels, Wandeltiefe, Zeitpunkt, Fokus, Reaktionszeit oder das Veränderungsziel. Auslöser für Wandel: Um die Nachhaltigkeit und Wirksamkeit von Veränderungsprojekten abschätzen zu können, ist es wichtig, sich über die Ursachen für den bevorstehenden Wandel Klarheit zu verschaffen (vgl. Rajagopalan/Spreitzer 1996). Oft sind Organisationen auf die Umsetzung der Maßnahme konzentriert und verlieren dabei schnell aus dem Blick, wozu die Maßnahme dient und welche Faktoren die Veränderung überhaupt ausgelöst haben (vgl. Kieser et al. 1998). Ein klares Verständnis über die Ursachen und Notwendigkeit des Wandels gilt als zentrale Information für alle Beteiligten, um eine möglichst breite Unterstützungsbasis zu erhalten und Widerstände gegen Wandel abzubauen (vgl. Lewin 1958). In der Literatur werden organisationsexterne und organisationsinterne Faktoren als zwei wesentliche Auslöser für Wandel unterschieden. Um ihre Legitimität gegenüber externen Anspruchsgruppen zu erhalten bzw. auszubauen, müssen Bildungsorganisationen besonders sensibel auf Veränderungen in ihrer Umwelt reagieren. Wichtige Veränderungen im Bildungswesen betreffen z.B. gesetzliche, demografische, finanzielle oder kulturelle Entwicklungen. Organisationsinterne Ursachen für Wandel können z.B. die Akkumula-

Chapter Preview

References

Zusammenfassung

Den Wandel begleiten

Neu im Bildungsmanagement

Die Beschäftigten in Bildungs- und Wissenschaftseinrichtungen sind gegenwärtig mit erheblichen Veränderungen konfrontiert. Der Wandel von bürokratischen Strukturen hin zu modernen unternehmerisch handelnden Bildungseinrichtungen vollzieht sich in einem Umfeld, das durch einen sich verschärfenden Wettbewerb gekennzeichnet ist. Dabei nimmt der Einfluss externer Interessengruppen zu und die öffentliche Aufmerksamkeit, was das Leistungsvermögen und den Umgang mit der neu gewonnenen Autonomie anbelangt, wächst. Von den Beschäftigten wird in Zukunft verlangt, erfolgreiche Bildungsangebote zu entwickeln mit dem Ziel, dass sich die Einrichtungen langfristig am Markt positionieren können. Dieses Buch soll einen Beitrag dazu leisten, die Arbeit in Bildungsorganisationen professionalisieren zu helfen. Studierenden und Praktiker auf dem tertiären und quartären Bildungsbereich werden Managementansätze und -konzepte vorgestellt, die ihnen bei der Entwicklung und Vermarktung von Angeboten Unterstützung leisten.

- Rahmenbedingungen des Bildungs- und Wissenschaftsmanagements

- Steuerungs- und Managementsysteme

- Management organisatorischer Kernprozesse

- Qualitätsmanagement und Evaluation

- Management organisatorischer Veränderungen

- Personalmanagement

Die Autorin

Prof. Dr. Anke Hanft ist Leiterin des Arbeitsbereichs Weiterbildung und Bildungsmanagement an der Fakultät Bildungs- und Sozialwissenschaften der Universität Oldenburg. Sie ist Herausgeberin der Zeitschrift "Hochschulmanagement" und Vorsitzende der internationalen Steuerungsgruppe der Österreichischen Qualitätssicherungsagentur (AQA).