Nature Editorial kritisiert Unausgewogenheit von sensationsheischenden Studien

Am 7. März 2017 erschien ein Nature-Editorial, das positiv überrascht. Nature geht darin auf ein Ranking der “besten und schlechtesten” Wissenschaftsseiten in der englischsprachigen Presselandschaft ein, die vom American Council on Science and Health angefertigt wurde. Die zwei Achsen des Rankings bestehen aus “evidence-driven” (faktenbasiert) und “compelling” (spannend lesbar). Nature und Science wurden in der absoluten Spitzenecke des Diagramms platziert. Das mag korrekt sein. Allerdings ist man in beiden Häusern stets bemüht, unliebsame und unbequeme Fakten aus den Heften fernzuhalten. Manuskripte von Klimaskeptikern haben bei diesen Journals keine Chance, egal wie hochwertig sie auch sein mögen. Die Türsteher weisen jegliche Einreichungsversuche bereits an der Tür ab. Am unteren Qualitätsende des Rankings finden wir die Daily Mail, die sich immer wieder traut, auch klimaskeptische Aspekte zu behandeln. Das gibt natürlich Punktabzüge.

Umso erfreulicher, dass die Nature-Herausgeber das Ranking äußerst skeptisch bewerten. Ein bestandenes Peer-Review ist noch lange keine Garantie, dass ein Ergebnis auch korrekt ist. Etliche Studien sind medial sensationsheischend und wenig ausgewogen. Nature erklärt, dass den Wissenschaftsblogs hier eine wichtige Rolle zukommt, indem sie Publikationen kritisch besprechen und mögliche Fehlerpunkte im Rahmen eines Post-Publication-Reviews benennen. Damit ist natürlich auch das Kaltesonne-Blog gemeint, in dem wir genau diese Funktion ausüben. Hier ein Auszug aus dem lesenswerten Editorial:

The judges’ criterion of evidence-based news is arguably problematic, as well. Many journalists could reasonably point to the reproducibility crisis in some scientific fields and ask — as funders and critics are increasingly asking — just how reliable some of that evidence truly is. Mainstream science reporters have typically taken peer review as an official stamp of approval from the research community that a published finding is sufficiently robust to share with their readers. Yet this kind of evidence-based reporting is only as reliable as the evidence it reports on. And many scientists would complain (even if only among themselves) that some published studies, especially those that draw press attention, are themselves vulnerable to bias and sensationalism.

This is one reason why the rise of the scientist (and non-scientist) as blogger, along with other forms of post-publication review, has been so valuable. Many scientists know about the problems with some fields of research. Many journalists do, too — articles on questionable practices from statistical fishing to under-powered studies are an increasing presence in most of the publications in the infographic. The relationship between science and media reporting is far from simple, and both sides should remember this.