Bij toeval, zo toont Keulemans aan, viel Stapels ontmaskering samen met de ontmaskering van de flauwekulligheid van het vleeshufteronderzoek. Op deze site maakte Jan van Rongen duidelijk hoe hij de Nijmeegse professor dr. Roos Vonk, de opdrachtgever van het hufteronderzoek, confronteerde met bewijs dat het onderzoek niet kon kloppen. Ze sloeg het in de wind. Merkwaardig, want daarmee veegde ze hooggeleerd elementaire statistiek van tafel. Ze zette dom door en kwam op het ongelukkige moment van Stapels totale ontmaskering met haar persbericht. Wist zij veel, terwijl ze beter had kunnen en moeten weten. Daarom kon wie eraan twijfelde in de pers en op de radio rekenen op haar knauwen. Onterecht zoals bleek. Schielijk noemde ze haar voormalige vriend en zeer gewaardeerde collega opeens een gemene leugenaar.
Stapel hangt. Terecht. Hij was als een verslaafde die leugen op leugen stapelde om aan dope te komen en kon de weg terug niet meer vinden. Nadat hij werd opgeknoopt aan de hoogste bomen, werd zijn lijf gevierendeeld. De delen worden nog steeds door de lanen gesleurd. Hij was het, niet de wetenschap zeggen zijn studenten en de journalist. Hij bleek een knappe leugenaar. Vonk bleek volstrekt incompetent. Een persoon bovendien die misbruik maakt van haar positie als hoogleraar om onwetenschappelijke privémeningen te verkopen aan het publiek. Waarom mocht zij wél blijven zitten?
Nederland werd door het prestigieuze wetenschappelijke tijdschrift Nature geprezen voor zijn snelle en open aanpak van de zaak Stapel, schrijft Keulemans.
Vanmiddag liep ik langs het Academiegebouw van mijn eigen Utrechtse universiteit. Het mooie motto rond het wapen trof me - sol iustitiae illustra nos (‘zon der gerechtigheid, verlicht ons’). Daar werd ik nou cynisch van. De Nijmeegse universiteit als geheel maakte een potje van gerechtigheid in de wetenschap.
Keulemans, er ligt nog meer werk op je te wachten. Als je tenminste recht wilt doen aan alle feiten.
Fotocredits: sol iustitiae illustra nos, Dick Veerman
Op 10 juni krijg je nieuwe kado-artikelen.
Als betalend lid lees je zoveel artikelen als je wilt, én je steunt Foodlog
Jan, ik denk dat we over bepaalde punten het roerend eens zijn. Op sommige punten nog niet. Laat ik met deze laatste beginnen. Je beschuldigt Roos Vonk van cherry picking. Ik vond slechts een persbericht over een onderzoek van een bachelor student Frank Kachanoff op de website van McGill in Canada. Ik zocht naar het onderzoek in wetenschappelijke databases: in PsycInfo en PubMed. Ik vond helemaal niets. Dit hele onderzoek lijkt nooit te zijn gepubliceerd. Als ik Roos Vonk zou zijn, dan zou ik ook meer gewicht toekennen aan gepubliceerde resultaten, dan aan ongepubliceerde resultaten, al was het alleen maar dat je in het eerste geval gedetailleerde info hebt over hoe het onderzoek is uitgevoerd en welke analyses er zijn gedaan.
Ik snap dan ook niet waarom je een persbericht schrijft/laat schrijven voordat er een artikel ligt. Een artikel dat men kan lezen en kritisch kan beoordelen. Was het vooringenomenheid van Vonk? Misschien. Jan, ik ben het eens dat de opzet zoals die beschreven stond in het persbericht nou niet bepaald blijk gaf van hoogstaand onderzoek. Zelfs al waren de data niet verzonnen, dan waren de conclusies nog steeds zonder meer aanvechtbaar.
Replicaties zijn niet zo zeldzaam binnen de psychologie en de medische wetenschappen als je zou denken. Als dat zo zou zijn dan zouden er ook geen meta-analyses mogelijk zijn. In zo'n meta-analyse worden de effectgroottes van verschillende studies gewogen en gemiddeld. Dat gewogen gemiddelde effect informeert de onderzoeker over de effectiviteit van een specifieke behandeling. Ze zijn zeer belangrijk voor het opstellen van nieuwe richtlijnen voor medische behandelingen. Lees nog eens wat held Ben Goldacre schrijft over Archie Cochrane en de Cochrane Collaboration in zijn boek Bad Science.
Rest de vraag: moet de kop van Vonk rollen vanwege haar slordig naar buiten brengen van onderzoek (eerst pers daarna peers)? Ik denk toch van niet.
@Remco, goed dat je antwoordt, maar ik ben het niet met je eens dat "Roos Vonk tot zover niets onwetenschappelijks deed". Ik zal mijn argumenten nog een keer bespreken.
(1) Roos Vonk had een mening en vond daarvoor steun in de literatuur bij één onderzoeker in Australië. Daar verwijst ze nu nog steeds naar. Er is echter meer, waaronder een recenter Canadees onderzoek dat het tegengestelde laat zien.
Dit schreef ik op 2 september aan Roos Vonk: ".... in nov. 2010 bericht dat het zien van rood vlees minder agressief maakt. Een onderzoek onder ruim 80 proefpersonen dat als een lopend vuurtje over de wereld ging, tot verbijstering van de Canadese onderzoeker, die slechts een undergraduate was – en dit was zijn bachelors-scriptie." Ze is er nooit op teruggekomen, maar bleef alleen dat Australische onderzoek noemen.
Door dat laatste onderzoek volledig te negeren is hier dus sprake van Cherry Picking, van vooringenomenheid en zelfs van een foute vraagstelling, gegeven deze voorkennis.
(2) Bij de vraagstelling is een onderzoek ontworpen. Dat ontwerp deugt al niet. De steekproeven zijn te klein en er zijn te veel (andere) variabelen. In onderzoek 2b zit een vraag die absoluut niet gesteld zou mogen worden in deze context. Een goed onderzoeker ziet zo iets. Waarschijnlijk heeft Stapel dus ook de hele opzet even er bij bedacht, en niet alleen de data verzonnen.
Ik ging in het begin (natuurlijk) uit van de gedachte dat de drie auteurs wel wat serieuzer over de opzet van de testen zouden hebben gesproken, en vond het van absoluut onvoldoende niveau voor 3 hoogleraren, maar dat was kennelijk naïef van mij. Roos Vonk stelde een onderzoeksvraag en deed daarna waarschijnlijk niets. Niet iets wetenschappelijks en niet iets onwetenschappelijks. Toen ze een maand later vier A4-tjes kreeg van Stapel, maakte ze er zonder enige controle en zonder veel nadenken een persbericht bij.
Dat iemand in de Sociale Psychologie co-auteur kan zijn door alleen maar een onderzoeksvraag te stellen was nieuw voor mij, maar daar lijkt het hier toch wel op.
Wat betreft de statistische significantie heb je me niet goed begrepen. Ik plaats echt serieuze vraagtekens bij de hele aanpak. 95% waarschijnlijkheid betekent dat er één op de twintig conclusies fout mag zijn. Erger nog, als verschillen niet al te groot zijn en de p's in de buurt van 0.05 liggen, dan ZAL 5% van de conclusies fout zijn. Dat is dan heel aanvaardbaar in procescontrole, maar niet als er mensenlevens mee gemoeid zijn.
Dus een onderzoek herhalen om meer zekerheid te krijgen? Ben Goldacre geeft in zijn boek een groot aantal voorbeelden waarbij dat zelfs in de medische wereld niet gebeurt.
Roos Vonk heeft een mening over vleeseters. In de bestaande literatuur vond ze een idee waarmee haar mening kon worden gestaafd. In plaats van heel hard te gaan roepen dat vleeseters hufters zijn en dat zij nu weet waarom dat zo is, besloot ze dit idee eerst te toetsen met een serie experimenten. Ze besloot samen te werken met een van de meest vooraanstaande sociaal psychologen ter wereld: Diederik Stapel. Het is dat wij nu weten dat Stapel een charlatan is, maar Roos Vonk deed tot zover niets onwetenschappelijks.
Waar Vonk de bocht uit vloog, is dat zij in een persbericht heel hard begon te roepen dat vleeseters hufters zijn voordat zij zelf de ruwe data had gezien en nog voordat er een wetenschappelijk artikel was geschreven en was beoordeeld door zogeheten peer reviewers. Ik vind dit erg onzorgvuldig, maar de eerlijkheid gebiedt te zeggen dat Vonk lang niet de eerste prof is die dit doet en ze zal ook niet de laatste zijn. Ja het was dom, maar het is bij lange na geen reden om iemand met een anderszins goede staat van dienst te ontslaan.
@Jan. Deugdelijke psychologen kennen heel goed het gevaar van 'spurious results' en zullen niet gauw op basis van 1 enkele statistisch significante studie denken dat ze de waarheid hebben ontdekt.
@pieternel - ik ben het niet helemaal met je eens. Deze drie jonge promovendi hadden wel wat meer te doen dan alle statistiek narekenen. Als promovendus heb je veel minder vrijheid dan als student. En dus minder tijd voor projecten die niets met je eigenlijke onderzoek te maken hebben.
Bij het narekenen van de statistiek (dat heb ik bij een aantal artikelen van Stapel ook geprobeerd) is steeds de grote handicap dat de oorspronkelijke data niet beschikbaar is. Veel kan je alleen op basis van de volledige data berekend worden, zoals Cronbach's alfa score. En met opmerkingen als: "deze getallen zijn wel erg onwaarschijnlijk" toon je fraude niet aan.
@Henk - neem de thriller "Over the High Side" van Nicolas Freeling (1971), over een man die alle schepen achter zich verbrandt en een wereld binnen gaat waarin zijn ratio de onze niet meer is. Aan het eind van dat boek weten we nog steeds niet precies wat hem dreef. Het is een verhaal van louter verliezers. Verander zijn drie dochters in drie promovendi en de commissaris van der Valk in Zeelenberg. Et voila, het verhaal was er al.
@Henk, wat serieuzer, dat gevoel over het ge- of misbruik van statistiek heb ik ook al heel lange tijd en is door deze affaire en de daaruit volgende discussies alleen maar versterkt. We hebben dus kennelijk collectief afgesproken dat de waarheid maar 95% waar hoeft te zijn, en dat we het een op de twintig keer mis mogen hebben. De praktijk om het te doen zoals we het doen kwam echter uit een praktische toepassing: kwaliteitscontrole. Stel je produceert schroefjes en de steekproeven (kwaliteitsmetingen) geven aan dat met 95% waarschijnlijkheid de machine niet meer goed is afgesteld. Dan wordt het opnieuw stellen van de machine wellicht goedkoper dan het weggooien van hele partijen die buiten de specificaties vallen.
Maar moeten we in de wetenschap dan ook alleen zo'n kosten-baten argument een rol laten spelen? Ik vind van niet. "Denken aan vlees maakt mensen hufteriger", dat was als idee al dermate ongebruikelijk, dat het m.i. eerst nodig is om een plausibel mechanisme te vinden. Daarna kun je de stelling proberen statistisch te onderbouwen, maar niet andersom.
De wetenschappelijke artikelen uit de sociale psychologie die ik nu gelezen heb vervullen mij met wantrouwen. Het statistisch "bewijzen" van feitjes zonder veel theorie-vorming, en ook niet uitnodigen tot een diepgaand vervolgonderzoek.
In de voedingswetenschappen zou hetzelfde fenomeen wel eens aan de hand kunnen zijn. In een inmiddels frauduleus gebleken onderzoek zijn twee glazen rode wijn per dag goed voor je, in andere onderzoeken zijn ze juist niet goed voor je, en in een heel groot onderzoek in de buurt van Kampen blijken alle matig drinkende bejaarden gemiddeld 5 jaar ouder te worden dan de niet-drinkers.
Maar waarom is het allemaal geen toeval? Kennelijk kunnen veel mensen niet omgaan met de gedachte dat ze niet alles onder controle hebben.
Het valt me eerlijk gezegd tegen hoe lang Stapel zijn gang heeft kunnen gaan. Is nu werkelijk niemand eerder zo nuchter geweest eens door te vragen? Ook de drie studenten vind ik nogal traag en schichtig. Ruim een jaar lang hadden zij vermoedens voordat ze ermee naar buiten kwamen. Hun verhaal verliest aan glans, doordat Roos Vonk hun primeur voor de neus wegkaapte.