Der Impact Factor wurde nicht zu dem Zweck kreiert, für den er heute meist verwendet wird. Entsprechend eignet er sich nicht optimal dazu, die Bedeutung der Arbeit eines Wissenschaftlers zu quantifizieren. Die Kennzahl entsprang ursprünglich der Idee, Universitätsbibliothekare bei der Einkaufsentscheidung zu unterstützen. In diesem Szenario werden zusätzlich zahlreiche weitere Kennzahlen wie Preis, Auflage, Nachfrage und Verfügbarkeit in Partnerbibliotheken zurate gezogen, wenn die Profis in den Büros der Bibliotheken versuchen, mit einem limitierten Budget die bedeutendsten Publikationen des jeweiligen Feldes zu erwerben. Für sie ist also wichtig zu wissen, wie viel Neues und wie viel Relevantes in jeder Ausgabe steckt. Dies kann über die durchschnittliche Anzahl an Zitaten näherungsweise nachvollzogen werden. Entscheidend ist, dass die Grundeinheit beim Einkauf die Ausgabe (im Normalfall eine Serie von Ausgaben) ist und nicht einzelne Artikel. Durchschnittswerte pro Artikel oder pro Ausgabe sind in diesem Zusammenhang daher eine sinnvolle Einheit. Dies trifft selbstverständlich nicht zu, wenn die Arbeit eines Forschenden evaluiert werden soll, in welchem Fall die Qualität eines einzelnen Papers relevant ist. Der Impact Factor wird nicht selten von wenigen Artikeln getrieben (oft Review Artikel ohne Neuerkenntnisse), die überdurchschnittlich viele Zitate auslösen, ohne, dass sich die hohe Qualität durch alle Artikel des Journals zieht.
Ein Neuling betritt die Bühne
Von ähnlichen Problemen wird auch der Eigenfactor (Zitate pro Journal) und der abgeleitete Article Influence Score (durchschnittliche Zitate pro Artikel) heimgesucht, weshalb wir unsere wichtigste Schlussfolgerung bereits an dieser Stelle anbringen können: Der Eigenfactor kann definitiv nicht die Kontroverse um den Impact Factor wegzaubern, indem er ein schlechtes Maß mit einem guten ersetzt. Als ob diese Behauptung noch zusätzlich unterstrichen werden müsste, kommt hinzu, dass beide Kennzahlen sich auf Zitate in Journals beschränken, welche in Thomson Reuters Web of Science indexiert sind. In einem anderen Punkt kann das neue Maß, das dem Urgestein Impact Factor seit 2007 Konkurrenz macht, aber echte Abhilfe leisten: Die Berechnungen basieren hier nämlich nicht auf einem simplen Zählen von Zitaten. Stattdessen hat ein Zitat in einem Nature Artikel mehr Einfluss als eine Erwähnung durch einen unbekannten Autoren in einem obskuren Journal (Nature wird hier übrigens berechtigterweise als Synonym für eine prestigeträchtige Publikation angeführt: Es ist sowohl in der Eigenfactor Skala als auch in puncto Impact Factor ganz vorne mit dabei). Die Eigenfactor Algorithmen sollen der Google Page Rank Logik ähnlich sein, wobei letztere als Firmengeheimnis gehütet wird und erstere hier im Detail erklärt werden.
Hausaufgaben entfallen weiterhin nicht
Letztlich kann der Schluss gezogen werden, dass der Article Influence Score die komplexere und wahrscheinlich sinnvollere Kennzahl hinsichtlich der Messung des Einflusses eines Journals ist. Allerdings fegt einen auch dieser neue Factor nicht wirklich vom Hocker, da ein „viel beachtetes Journal“ eben nicht mit einem „guten Autor“ gleichzusetzen ist. Wir wiederholen unser Mantra zum Mitsingen: Wenn Sie ein Bibliothekar sind, machen Sie ihre Hausaufgaben und beachten alle Aspekte der Kaufentscheidung; wenn Sie die Leistung eines Wissenschaftlers beurteilen müssen, machen Sie ihre Hausaufgaben und lesen dessen Arbeiten gründlich; wenn Sie ein Autor auf der Suche nach der optimalen Platzierung für Ihr Paper sind, machen Sie Ihre Hausaufgaben und überlegen sich genau, wer Ihren Artikel lesen würde und welche Journals sich an diese Zielgruppe richten! Kennzahlen – auch gute Kennzahlen – sind und bleiben eine Ergänzung zur nötigen Recherche, jedoch kein Ersatz.