Wenn 75 Prozent in der Spitzengruppe landen
Rankings versprechen, Transparenz zu schaffen bei der Studienortwahl. Statt tradiertes Wissen über das angebliche Renommee von Jura-Fakultäten wollen sie Fakten zur Studienqualität zu liefern. Aber ist das so? Es gibt eine Vielzahl an Rankings mit stark unterschiedlichen Methodiken. Am Beispiel des Rankings des Centrums für Hochschulentwicklung (CHE) soll erläutert werden, dass man an der Aussagekraft von Rankings durchaus stark zweifeln darf und dass auch der Blick in die USA, wo Rankings einen größeren Stellenwert haben, nicht hoffnungsvoll stimmt.
Das CHE-Ranking ist weithin bekannt, da es auf Zeit Online kostenlos abrufbar ist und sich auf die Fahnen schreibt, besonders die Perspektive der Studierenden in den Mittelpunkt zu stellen. Das CHE-Ranking nennt sich selbst "Deutschlands größtes Hochschulranking". Es erhob zuletzt Daten von 120.000 Studierenden und 3.000 Professor:innen – klingt viel, aber in Deutschland studieren etwa 2,9 Millionen Studierende und es lehren etwa 50.000 Professor:innen. Wie repräsentativ sind also die Umfragen und was wird wie genau abgefragt?
Professoren-Fragebogen des CHE-Rankings passt für Jura nicht
Für Jura basiert das CHE-Ranking auf einer Befragung der Fakultäten, der Studierenden, Professor:innen und der "Auswertung weiterer Datenquellen", zum Beispiel von den Studierendenwerken zur Miethöhe im Wohnheim. Die Methodik des Rankings stellt CHE grundsätzlich vorbildlich transparent dar, aber bei aller Transparenz gehen einige entscheidende Punkte unter.
Erstens zur Auswahl: Viele der erhobenen Daten sind sinnvoll, um die Studienqualität zu beurteilen. Während der Studierenden-Fragebogen mit Fragen zur Examensvorbereitung durchaus auf Jura passt, ist das beim recht dünnen Fragebogen für Professor:innen nicht der Fall.
Hier werden "Future Skills", Lernkompetenzen und Lehrformate wie Gamification und Inverted Classroom angesprochen, die sinnvoll auch in Jura eingesetzt werden können, aber über die Studien- und Lehrqualität wenig aussagen. Allgemeiner gesprochen: Bei der Fakultäts- und Professor:innenbefragung setzt CHE auf ein binäres Format – Veranstaltungstyp, Lehrformat usw. wird angeboten/wird nicht angeboten; das ermutigt die Ausfüllenden zum "Abhaken", ohne dass damit etwas über die Qualität gesagt wäre.
Wie repräsentativ ist das Ranking?
Zweitens zur Erhebung: In Jura gab es einen Rücklauf von nur 18 Prozent bei den Studierendenbefragungen. Das liegt noch im Durchschnitt aller Studiengänge – am besten schnitten die mit Umfragen vertrauten Wirtschaftspsychologen (FH) mit 33 Prozent ab. Solange eine Umfrage statistisch repräsentativ ist, ist eine geringe Stichproben zunächst kein Problem. Wie aber genau die Repräsentativität erzeugt wird, bleibt auch nach "Richtigstellung" durch das CHE noch unklar.
Wegen eines zu geringen Rücklaufs oder freiwilligen Ausstiegs wurden jedenfalls in Jura zehn von 45 Fakultäten (22 Prozent) nicht erfasst; das verzerrt die Gesamtwertung erheblich. Die Hochschulen sind durchaus in einer heiklen Situation, wie sie angemessen ihre Studierenden auffordern sollen, an Umfragen teilzunehmen, ohne unzulässig zu beeinflussen. Es besteht der strukturelle Anreiz, die eigene Fakultät eher positiv zu bewerten, weil deren Abschneiden und Renommee mit der eigenen Vita verknüpft ist.
Rankings sind nicht der Ort für Feedback. Das könnte man abstellen, indem der Fragebogen nicht ausdrücklich als Ranking geframt wird. Fakultäten sollten selbst die Studienzufriedenheit abfragen und könnten dann aggregierte Daten weitermelden. An den Fakultäten gibt es bereits durch die Evaluationen von Lehrveranstaltungen und Lehrberichte eine – noch ausbaufähige – Datengrundlage und Infrastruktur.
Nur self-reporting der Studierenden?
Drittens zur Auswertung: Das CHE-Ranking legt viel Wert darauf, verschiedene Perspektiven – von Fakultäten, Studierenden und Professor:innen – und Erkenntnisquellen – Werturteile und Fakten – miteinander zu kombinieren.
Allerdings ist nicht klar, wie die verschiedenen Datenpunkte miteinander ins Verhältnis gesetzt werden. Haben Fakultäts- und Professor:innenbefragung einen eigenständigen Wert oder sind es statistische Kontrollgrößen für die Studierendenbefragungen? Es bleibt der Eindruck, dass das CHE-Ranking immer noch vor allem auf self-reporting der Studierenden beruht.
75 Prozent der Unis liegen in der Spitzengruppe
Viertens zur Darstellung der Ergebnisse: Das CHE-"Ranking" stellt die meisten Ergebnisse – durchaus irreführend – nicht als Ranking, sondern als Rating dar. Dadurch umfasst die "Spitzengruppe" 24 von 45 Jura-Fakultäten, bei denen alle Kriterien (weit) überdurchschnittlich sind. Zehn Fakultäten (darunter auch die LMU, der Spitzenreiter in anderen Rankings) wurden nicht erfasst.
Mithin liegen 75 Prozent in der Spitzengruppe. Das Mittelfeld ist entsprechend schmal; eine Schlussgruppe gibt es nicht. Für eine insgesamt als "Ranking" bezeichnete Studie ist das ein wenig sinnvolles Ergebnis. Insgesamt schneiden alle Fakultäten sehr gut bis gut ab. Davon können die Studierenden – in Jura-Noten gedacht – nur träumen.
Ein Blick in die USA: Rankings als Existenzgrundlage
Ein Blick in die USA zeigt, dass methodische Bedenken gegen Rankings die Juristenausbildung tief erschüttern können und sich trotzdem wenig ändert. In den USA sind die Reputation von Universitäten (z.B. "Ivy League") und damit einhergehend Rankings überaus wichtig. Da ein Studienjahr mittlerweile ca. 110.000 US-Dollar kostet, muss der Return on Investment gegeben sein. Die Studienortwahl wird zu einer existenziellen Entscheidung.
Informell unterscheidet man in den USA die besten 14 Law Schools (sog. T14) und den Rest (sog. TTT, "Third Tier Toilet"). Beurteilt wird traditionell nach dem U.S. News & World Report Ranking. Für deutsche LL.M.-Bewerber:innen spielt dieses Ranking aber keine Rolle, da es im deutschen Markt kaum rezipiert wird.
Angeführt durch die Yale Law School, gefolgt von Harvard, Stanford, Berkeley und vielen anderen, boykottierten Law Schools das Ranking aus methodischen Bedenken. Das Ranking erhebt z.B. Daten über die Beschäftigung und Einkünfte nach dem Studium. Dadurch würden Anreize gesetzt, in der Anwaltschaft tätig zu sein statt im öffentlichen oder gemeinnützigen Sektor. U.S. News überarbeitete lange seine Methodik; zum Beispiel wurde die Bestehensquote im Bar Exam als Faktor aufgewertet. Das neue Ranking wich – gemessen an den üblichen Schwankungen – leicht von den Ergebnissen der Vorjahre ab.
Ende gut, alles schlecht?
Trotz methodischer Zweifel und begrenzter Aussagekraft des CHE-Rankings ist die Grundaussage des CHE-Rankings sicherlich zutreffend und auch erfreulich: Überall in Deutschland kann man gleich gut Jura studieren. Glaubt man allerdings der bisher größten Studie zur Reform der juristischen Ausbildung, kann man eher überall gleich schlecht Jura studieren.
Die iur.reform-Studie hat übrigens ihre eigenen methodischen Limitierungen; so gab es dort z.B. die Möglichkeit von Mehrfachabstimmungen. Gut und schlecht müssen sich jedoch nicht gegenseitig ausschließen: Während Jurastudierende danach überaus unzufrieden sind mit der Struktur des Jurastudiums, sind sie damit zufrieden, was die einzelnen Jura-Fakultäten aus diesem Rahmen machen.
Das CHE-Ranking ist weitgehend transparent und ausgefeilt, und trotzdem liefert es für Jura keine aussagekräftigen Ergebnisse. Der Vergleich mit dem U.S. News Ranking aus den USA zeigt, wie verschieden die Methodik ist: Beim U.S. News Ranking werden objektive Daten wie Bestehensquote und Beschäftigung nach dem Examen ins Verhältnis gesetzt mit subjektiven Einschätzungen von Rechtsanwält:innen, Richter:innen und Professor:innen. Bei CHE stehen dagegen die Selbsteinschätzungen von Studierenden im Fokus, die mit objektiven Daten lediglich abgeglichen werden. Während das U.S. News Ranking daher eher reputations- und ausbildungserfolgsorientiert ist, geht es beim CHE-Ranking eher um den studentischen Wohlfühlfaktor.
Und was ist mit dem Referendariat?
Eine Besonderheit der deutschen Juristenausbildung erfasst übrigens derzeit überhaupt kein Ranking: das Referendariat. Der Standort des Referendariats hat viel größere Auswirkungen als der Standort des Jurastudiums. Wie verschult die Arbeitsgemeinschaften sind, wie viele Klausuren im zweiten Examen zu schreiben sind und selbst der Prüfungsstoff, -formate und -gewichtung weichen erheblich voneinander ab – ganz zu schweigen von erheblichen Unterschieden bei Vergütung, Wartezeiten und Struktur des Referendariats.
Es gibt einen Teilnehmerschwund zwischen erstem und zweitem Examen. Die einzigen Erkenntnisquellen bisher sind die Berichte der Landesjustizprüfungsämter. In der aktuellen Diskussion zur Ausbildungsreform sollten wir das Referendariat nicht vergessen – auch hier bedarf es einer belastbaren Datengrundlage.
Ass. jur. Diana Liebenau, LL.M. (Harvard) ist Wissenschaftliche Mitarbeiterin am Lehrstuhl für Bürgerliches Recht, Recht des Geistigen Eigentums und Wettbewerbsrecht an der Ludwig-Maximilians-Universität München.
Auf Jobsuche? Besuche jetzt den Stellenmarkt von LTO-Karriere.
2023 M06 22
Jurastudium
Verwandte Themen:- Jurastudium
- Studium
- Instagram-Karriere-News
Teilen