Mittwoch, 6. September 2023

Zur Entwicklung des Wissenschaftssystems

 Michael Meyen:

"[...] Prestige bringen heute nur noch ganz bestimmte Publikationen. Das Stichwort ist hier Web of Science. Diese Oberfläche wurde vom Medienkonzern Thomson Reuters erfunden, der eine Weile auch den Science Citation Index hatte und beide Marken 2016 in die Firma Clarivate Analytics überführt hat – inzwischen an der Börse notiert und vorher eine Goldgrube für milliardenschwere Kapitalanleger. Was dort nicht gelistet ist, fällt bei den Rankings unter den Tisch, in Shanghai zum Beispiel oder beim H-Index.

Was ist das?

Inzwischen das Nonplusultra für jeden Wissenschaftler. Namensgeber ist Jorge Hirsch, ein Physiker. Seine Idee war offenbar verlockend: Ich verdichte jede Lebensleistung auf einen einzigen Wert und kann so alles mit jedem vergleichen. Der Medienforscher spielt plötzlich in der gleichen Liga wie Mediziner und Mathematiker. Das Prinzip kann man sich auf Google Scholar anschauen. Für einen hohen H-Index braucht man viele Publikationen, die möglichst oft zitiert werden. Diesen Index gibt es erst seit 2005. Er hat die Forschung komplett umgebaut.

Wie meinen Sie das?

Publiziert wird vorrangig da, wo mitgezählt wird – in Zeitschriften und Verlagen, die zum Web of Science gehören. Mein Buch wird dort zum Beispiel gar nicht erfasst. Viele wundern sich ja, wenn 20 und mehr Namen über einem kleinen Artikel stehen. Der H-Index sagt: Publiziert viel und mit möglichst vielen Kollegen. Zitiert euch selbst und die, die auch viel schreiben und euch dann einen Gefallen schulden. Meidet Nischenthemen und Sprachen, die im Web of Science nicht verstanden werden. Genau das passiert gerade. Auf Deutsch über deutsche Medienpolitik oder die Weimarer Republik zu schreiben, macht nach dieser Logik keinen Sinn. Eigentlich macht das auch auf Englisch keinen Sinn, weil sich die US-Amerikaner für andere Sachen interessieren." (Nachdenkseiten 30.8.23)

Dazu:

Zitationsanalyse (Wikipedia)

Daraus zur Geschichte:

"1927 begann das Geschwisterpaar Gross Zitate als bibliometrische Datenquelle zu benutzen. Anhand von Fußnoten wurde die Nennung der chemischen Fachzeitschriften ermittelt. Je häufiger eine Zeitschrift genannt wurde, umso höher wurde die Relevanz gewertet. Dabei fielen Gross & Gross eine ungleiche Verteilung auf. Diese besagt, dass einige wenige Zeitschriften vielfach mehr als Quelle angegeben worden sind, als andere Veröffentlichungen.[2]

Eugene Garfield schlug 1955 in seinem Artikel „Citation indexes for science“ 1955 vor, Zitationen wissenschaftlicher Veröffentlichungen systematisch zu erfassen und damit Zitationszusammenhänge deutlich zu machen.[3] 1963 erschien der erste gedruckte Science Citation Index, der 562 Fachzeitschriften des Jahres 1961 analysierte und 2 Millionen Zitate veröffentlichte. In Zusammenarbeit mit Irving H. Sher entstand daraus der „Journal Impact Factor“. Dieser ermittelt im Rückblick auf die 2 vorherigen Jahre, wie oft die Artikel einer Fachzeitschrift in einer anderen Zeitschrift zitiert wurden. Die Gesamtanzahl der veröffentlichten Artikel wird durch die errechnete Zahl geteilt und ergibt den entsprechenden Faktor.

Karl Erik Rosengren entwickelte 1966 die Co-citation-Relation. Wenn im Verlauf einer Debatte ein Autor mehrfach zitiert wird, erhöht sich sein Zitationszähler. Bei der gemeinsamen Nennung zweiter Autoren, wird die Relation der beiden verstärkt. Dieser Wert gibt Auskunft darüber, dass beide Autoren offensichtlich auf einem gemeinsamen Arbeitsgebiet forschen. Dieses Verfahren kann auch auf Dokumente und Begriffe angewandt werden.

Robert K. Merton veröffentlichte 1968 den Matthäus-Effekt. Dieser beschreibt, dass bekannte Autoren häufiger zitiert werden als unbekannte. Merton beobachte dabei, dass mit zunehmender Bekanntheit der zitierten Stelle, die Quelle bei weiteren Verwendungen nicht mehr oder nur noch der Autor genannt wird.

Alan Pritchard prägte 1969 den Begriff der Bibliometrie zur quantitativen Messung von wissenschaftlichen Publikationen. Dabei werden Bücher, Aufsätze und Zeitschriften anhand mathematischer und statistischer Methoden vermessen. So wird zum Beispiel ermittelt, wie oft ein Wissenschaftler Artikel in Zeitschriften veröffentlicht. Auch kommen die bisher vorgestellten Verfahren in der Bibliometrie zur Anwendung. Die Bibliometrie ist eine Teildisziplin der Szientometrie.[4]

1973 wurde erstmals der Social Sciences Citation Index veröffentlicht. Dies ist eine vom Institute for Scientific Information entwickelte interdisziplinäre, kostenpflichtige Zitationsdatenbank, die mehr als 3.100 meist englischsprachige Fachzeitschriften aus mehr als 50 sozialwissenschaftlichen Disziplinen betrachtet.

Henry Small und Irina Marshakova entwickelten 1973 die Zitationsanalyse.[5]

1976 wurde das Journal Citation Reports vom Institute for Scientific Information veröffentlicht. Mit dieser Anwendung ist die Recherche in verschiedenen Literatur- und Zitationsdatenbanken nach relevanter wissenschaftlicher Literatur möglich. Dieser Dienst existiert heute unter dem Namen „Web of Science“ und wird von Clarivate Analytics als kostenpflichtiges Webangebot betrieben.

Der Begriff „Szientometrie“ (engl. „Scientometrics“) stammt aus dem von Wassili Nalimow 1969 veröffentlichten gleichnamigen Buch. Derek de Solla Price begründete mit Eugene Garfield 1978 dieses Verfahren. Neben der Bibliometrie können auch weitere Informationen wie zum Beispiel die Anzahl der Universitätsabsolventen vermessen werden. Die Szientometrie wird der Infometrie und häufig auch den Wissenschaftswissenschaften zugerechnet.

Im gleichen Jahr entstand der Arts and Humanities Citation Index, der als kostenpflichtige Zitierdatenbank mehr als 1.100 Fachzeitschriften aus den Bereichen Kunst und  Geisteswissenschaft   listet.[6]

1985 veröffentlicht Terrence A. Brooks ein Buch, in dem er die verschiedenen Zitiermöglichkeiten und die Motivation, Zitierungen anzuwenden, vorstellt.[7]

China stellt 1988 die chinesischen Datenbank für wissenschaftliche und technische Veröffentlichungen (CSTPC) zur Verfügung, die die in chinesischen wissenschaftlichen Zeitschriften veröffentlichten Berichte auflistet.[8] [...]"

und zur Problematik solcher Indices:

"Da davon ausgegangen wird, dass gute Arbeiten häufiger zitiert werden, wird die Anzahl der Zitationen, die ein wissenschaftlicher Beitrag erfährt, oft als Maß für seine Qualität verwendet. Diese gängige Praxis ist jedoch nicht unproblematisch, da manchmal die inhaltliche Bewertung vernachlässigt zu werden droht und rein statistische Kriterien den Ausschlag geben. Die Tatsache, dass ein bestimmter Autor oft zitiert wird, kann unterschiedlichste Gründe haben und erlaubt nicht in jedem Fall eine Aussage über die Güte seines Beitrags. Auch kann es zur Bildung so genannter Zitierzirkel kommen („Zitierst du mich, zitier’ ich dich“), die das Ergebnis verfälschen (auch: Zitierkarussell, boshafter: Zitierkartell).

Konkrete Kritikpunkte von Zitationsanalysen

  • Der durch die Anzahl der Zitationen in wissenschaftlichen Aufsätzen gemessene Impact einer Arbeit ignoriert den Einfluss, den eine Arbeit möglicherweise in anderen Bereichen hat (zum Beispiel in der Industrie, die ihre Ergebnisse nicht publiziert).
  • Durch den Matthäus-Effekt werden häufig zitierte Arbeiten ohne Blick auf den Inhalt wiederum häufiger zitiert. Eine Studie von M. V. Simikin und V. P. Roychowdhury[9] deutet darauf hin, dass nur rund ein Viertel der zitierten Arbeiten von den Autoren überhaupt gelesen werden.
  • Manche Zitationen werden lediglich hinzugefügt, um den Impact Factor eines Autors oder eines Journals zu steigern. Auch Publikationen werden dahingehend optimiert, eine hohe Zahl von Zitationen zu erreichen, anstatt die Qualität zu optimieren.
  • Die Bedeutung von Artikeln in Fachzeitschriften und Proceedings und Monographien variiert je nach Fachgebiet deutlich. In Zitationsdatenbanken werden diese Unterschiede nicht berücksichtigt, so dass einzelne Fachgebiete unter- oder überbewertet werden.
  • Bei den meistzitierten Arbeiten handelt es sich oft um Ausnahmen, die vor allem zitiert werden, weil es üblich ist, diese Arbeiten zu zitieren. Andere Arbeiten mit ebenso großem Einfluss werden dagegen nicht mehr explizit zitiert, weil ihre Inhalte selbstverständlich geworden sind.
  • Die Berechnung des Impact-Faktors erfolgt immer zeitbezogen mit einer Frist von maximal 6 bis 8 Jahren (zwei PhD-Perioden), wobei im Schnitt nach den ersten zwei Jahren der Zitationspeak erreicht wird. Je nach Aktivität des Forschungsgebiets kann dieser Wert jedoch stark variieren, was zu Fehlern in der Berechnung des Impact Factors und Halbwertszeit der Zitationshäufigkeit führen kann. Ähnliche Fehler können entstehen, wenn die Periodik der Publikationsorgane unberücksichtigt bleibt.
  • Durch unterschiedliche Zitierweisen werden einzelne Arbeiten in Zitationsdatenbanken als unterschiedliche Veröffentlichungen behandelt. So wurde beispielsweise das berühmte Paper Initial sequencing and analysis of the human genome des Humangenomprojekts von 2001 im ISI zunächst mit unterschiedlichen Autoren aufgeführt, wodurch es nicht unter den meistzitierten Arbeiten auftauchte.
  • Manche nichtenglischsprachigen Fachzeitschriften erscheinen zusätzlich in einer englischen Ausgabe. Diese wird jedoch fälschlicherweise oft als eigenständige Zeitschrift gezählt.
  • Der gemessene Impact berücksichtigt nicht den Zweck, zu dem die Veröffentlichung zitiert wird. Beispielsweise kann eine Zitation dazu dienen, auf wissenschaftliche Irrtümer in der zitierten Veröffentlichung hinzuweisen.

Der Science Impact Index (SII) versucht, zu einem objektiven Maß für die Forschungsqualität von Wissenschaftlern zu kommen, indem er viele dieser Aspekte durch Gewichtung berücksichtigt."


Sieh auch:

Disziplinarverfahren gegen Meyen

Jan David Zimmermann: „Eine totalitäre Transformation“, nachdenkseiten 18.6.23

Keine Kommentare:

Kommentar veröffentlichen