Rankings

rankingstidsskriftsrankingstidsskriftsoversigter

Ranking bruges inden for forskningen til at indikere forskningskvalitet ud fra kvantitative metoder. Ud fra forskelige parametre bruges metoderne til at opbygge et hierarki over de videnskabelige tidsskrifter, universiteterne og forskerne. Et stigende krav fra politisk hold og fonde om at have et redskab til at sikre at penge gives til de bedste forskere/universiteter har givet et øget fokus på rankingsystemerne.

De videnskabelige tidsskrifter

Ranking af tidsskrifter er først og fremmest baseret på citationer. Ud over at artikler til de videnskabelige tidsskrifter skal igennem en peer review proces for at sikre en vis kvalitet, bliver de enkelte tidskrifter målt ud fra deres gennemslagskraft i forskningsfeltet, den såkaldte impact factor. Et tidsskrifts impact factor er beregnet ud fra det antal citationer en gennemsnitsartikel har modtaget i en given periode. Der findes 2 databaser, Journal Citation Reports (Thomson Reuters) og SCImago Journal & Country Rank (Scopus-Elsevier), hvor man kan finde den type information. De 2 databaser benytter ikke samme beregningsmetode, ligesom de ikke indekserer de samme tidsskrifter. Da forskellige forskningsfelter har forskellige publicerings- og citationstraditioner giver det ingen mening at sammenligne tidsskrifters impact factor på tværs af forskningsfelter.

Journal Citation Reports (JCR) skønnes stadigvæk at være den database, der har det mest anerkendte rankingsystem og som dækker de mest velanskrevne videnskabelige tidsskrifter inden for tekniske, naturvidenskabelige og sundhedsvidenskabelige områder, hvorimod både de samfundsvidenskabelige og humanistiske tidsskrifter ikke er dækket af databasen i tilstrækkelig grad til, at den kan bruges til at indikere et hierarki over disse forskningsfelters tidsskrifter. I denne database er Journal Impact Factor (JIF) et udtryk for det gennemsnitlige antal gange, artikler fra et specifikt tidsskrift publiceret enten i de 2 eller de 5 foregående år er blevet citeret i JCR-året. Databasen indeholder andre beregningsmetoder til at vise et tidsskrifts gennemslagskraft, men JIF skønnes stadigvæk at være den mest anvendte i forskningsmiljøerne.

SCImago Journal & Country Rank databasen indeholder også et rankingsystem over tidsskrifter, den såkaldte SJCindikator. SCImago Journal Rank (SJR) er baseret på algoritmen i Google PageRank™og udtrykker det gennemsnitlige antal vægtede citationer modtaget i det pågældende år af artikler i det specifikke tidsskrift i de 3 foregående år. SCImago indeholder ligeledes andre beregningsmetoder til at vise et tidsskrifts gennemslagskraft. Databasen har en bedre dækningsgrad af humanistiske og samfundsvidenskabelige tidsskrifter end JCR.

Universiteterne

Der udarbejdes internationale rankinglister over universiteterne. Rankinglisterne placerer de mellem 300-500 bedste universiteter ud af de ca. 17.000 på verdensplan ift. hinanden ud fra flere forskellige indikatorer og bruges i konkurrencen om at tiltrække de bedste forskere, studerende og samarbejdspartnere. De forskellige rankinglister udarbejdes på grundlag af forskellige indikatorer, så som anseelse blandt andre forskere, arbejdsgivere, antallet af citationer, antal af studerende per forsker, internationalisering m.v. De 2 væsentligste indikatorer til de fleste rankinglister er universitetets publicering i internationale tidsskrifter, som indekseres i Databaserne Web of Science og Scopus samt universiteternes anseelse. Anseelse beregnes ud fra data samlet hos forskere og samarbejdspartnere, bl.a. ud fra deres viden om et givet universitet. De mest anerkendte rankinglister er QS, Times Higher Education, Academic Ranking of World Universities, Performance Ranking of Scientific Papers for World Universities, Leiden og CHE

Forskerne

Ranking af forskere baserer sig ligeledes på citationer eller på h-indekset, som også indeholder citationer som et væsentligt element. H-indekset er udarbejdet af Jorge E. Hirsch i 2005. Med ønsket om et mere nuanceret billede af en forskers gennemslagskraft kalkulerer h-indekset (også kaldet Hirsch-indekset) både med antallet af publikationer og antallet af citationer. Det betyder, at en forsker med mange publicerede artikler, men som har modtaget få citationer eller en forsker med få meget citerede artikler har et svagt h-indeks. Det betyder til gengæld også, at nystartede/yngre forskere har et svagt h-indeks. Med det stigende fokus på kvantitative metoder til at ranke forskere er der udarbejdet andre systemer, som indregner andre faktorer, men citationer og h-indekset er indtil videre det mest anerkendte system til at indikere en forskers gennemslagskraft. De væsentligste citationsdatabaser er Web of Science og Scopus. I disse databaser er det muligt at få antallet af citatoner, som en forsker har modtaget, både beregnet med og uden selvcitationer, ligesom det er muligt at få forskerens h-indeks. Svagheden ved disse 2 databaser er, at de langt fra indekserer alle videnskabelige publikationer og det derfor ikke er muligt at finde alle forskere heri, ligesom det kan være vanskeligt at fastslå en forskers h-indeks, hvis forskeren har et almindeligt navn. Man kan bruge et lille program ”Publish or Perish” på Google Scholar-data, hvis man har en forsker, hvis publikationer ikke er indekseret i Web of Science eller Scopus og på den måde finde forskerens citationer og h-indeks. Når man angiver en forskers h-indeks, er det vigtigt at angive hvilke data, der ligger til grund, da Web of Science, Scopus og Google Scholar ikke indekserer samme publikationer, samme type af publikationer eller dækker samme tidsperiode.


  • 12.07.2013 Redigeret af Ditte Schjødt Svensson
  • 12.12.2012 Oprettet af Gudrun Hansen