Prof. Ton Kuylen (KUB) is opgeleid als economisch psycholoog en ontwikkelde zich tot datawetenschapper. Na een carrière bij ING waar hij gedrags- en creditscoringsmodellen bouwde, was hij een van de oprichters van C-motions, een bedrijf dat consumentengedrag in kaart brengt ten behoeve van marketingbeleid. Hij heeft veel praktische ervaring met modellen die succesvol kunnen voorspellen. Kun je de kennis die uit modellen komt vertrouwen? Ja en nee, zegt Kuijlen. Het hangt af van de voorwaarden die je aan het model en het gebruik daarvan stelt.
De afgelopen twee - drie jaar horen we vaak over modellen, zoals klimaat- en CO2-modellen, en RIVM-modellen. Met dit soort modellen beweert men1 het klimaat (i.c. de temperatuurstijging op aarde op lange termijn) of het aantal ziektegevallen in een pandemie te kunnen voorspellen, of greep te krijgen op het zogenaamde stikstofprobleem. Modellen2 gebruiken we in tal van situaties om greep te krijgen op een onzekere toekomst of onzekere situaties. Naast bovenstaande voorbeelden kun je denken aan marktontwikkelingsmodellen, kredietwaardigheidsmodellen of bevolkingsprognosemodellen. Het gebruik van zulke modellen dient om betere beslissingen te nemen, maar naarmate die modellen niet voldoen en de negatieve gevolgen van het gebruik groter (kunnen) zijn, is grote terughoudendheid geboden in het gebruik ervan.
Wat zijn modellen eigenlijk?
Een model is een beperkte, informatieve weergave van een achterliggend fenomeen, gemaakt door mensen. In ieder model vind je minimaal drie elementen terug:
Je kunt een eerste onderscheid maken tussen statistische modellen en blackbox-modellen. Later kom ik nog op een andere mogelijke indeling van modellen.
Een statistisch model is een formalisering van relaties tussen variabelen in de vorm van wiskundige vergelijkingen. Een statistisch model beschrijft hoe één of meer willekeurige (stochastische) variabelen samenhangen met één of meer andere variabelen. Het model is statistisch omdat de variabelen niet deterministisch maar stochastisch (toeval/kans) aan elkaar gerelateerd zijn.
Aan een statistisch model ligt een of andere (meer of minder uitgewerkte) theorie ten grondslag. Als je helemaal niet weet hoe iets in elkaar steekt, dan kun je er geen model van maken (tenzij je gebruik maakt van zogenaamde blackbox-modellen, zie hieronder).
Modellen kunnen variëren in de mate van exactheid en kwantificatie, van een puur mentaal model tot een volledig gespecificeerd statistisch model. Als je een (statistisch) model maakt, heb je een aantal (vereenvoudigde) veronderstellingen nodig, je definieert grensvoorwaarden, beginvoorwaarden, onder welke omstandigheden iets gebeurt, en je definieert een toepassingsgebied. Stel dat je een groeimodel wil maken, dan is het niet zo dat je ieder groeimodel in iedere situatie kunt toepassen. Een groeimodel in de marketing is iets heel anders dan een groeimodel in de biosfeer.
Stel, je hebt een aantal veronderstellingen gedefinieerd, grensvoorwaarden, beginvoorwaarden, omstandigheden en een toepassingsgebied. Op dit punt kan al van alles zijn misgegaan, waardoor een model niet werkt, namelijk:
Modellen maak je, zoals al gezegd, op basis van een theorie. De variatie reikt van de statistische modellen die je in marketing gebruikt tot klimaatmodellen. Een andere optie is een model afgeleid uit data – bijvoorbeeld met machine learning ( ML) en Artificial Intelligence (AI). Zelflerende software maakt een model; je weet van tevoren niet hoe dat eruitziet. Het (AI of ML) algoritme bepaalt zelfstandig en los van de gedachten van de maker wat de regels zijn waarmee hij het gedrag van de werkelijkheid kan voorspellen. Dit type modellen noemen we blackbox-modellen3.
Omdat blackbox-modellen worden afgeleid uit de data is het van bijzonder belang om te zorgen dat die modellen generaliseren. Dat wil zeggen: het resultaat moet niet het gevolg zijn van finetuning op de dataset waarop een algoritme ‘getraind’ is. Hoe meer variabelen je toevoegt en hoe langer je het model laat trainen op een bestaande dataset, hoe groter de kans op overfitting: wie te veel variabelen toelaat, modelleert de puistjes in plaats van het gezicht. Daarom worden bij AI en ML de datasets vaak in 3 delen gesplitst. Met de eerste set wordt het model ontwikkeld, met de tweede set getest, en het resultaat wordt losgelaten op een derde set, die door het model nog niet gezien is.
Door de drie datasets te scheiden kun je een model ontwikkelen en onderzoeken of het kan generaliseren en voorspellen, of niet.
Naast de indeling naar statistische modellen en blackbox-modellen kun je modellen ook anders indelen.
Systeemtheoretische modellen zoals klimaatmodellen
Systeemtheoretische modellen, bijvoorbeeld klimaatmodellen, zijn zeer complex. Het zijn eigenlijk chaotische systemen waar moeilijk mee te werken is, omdat er zoveel factoren bij betrokken zijn, die op een complexe manier samenhangen. Bovendien is sprake van grotendeels nog onbekende feedback-mechanismen. Het is lastig er iets mee te voorspellen, want als je aan plukje A trekt, gebeurt er iets waarvan je de gevolgen niet kunt overzien. Als je dit de volgende dag opnieuw doet, gebeurt er iets anders, wat je ook niet kunt overzien. Als je die gevolgen over een periode van 50 jaar op elkaar stapelt, dan kan de afwijking tussen voorspelling en realiteit enorm zijn.
In essentie is CO2 de centrale knop waaraan men draait bij klimaatmodellen. Er is geen goed onderbouwde onderliggende theorie. Wel zijn er allerlei aannames om de dominant veronderstelde rol van CO2 te ondersteunen en er zijn minstens 11 of 12 factoren waar klimaatmodellen geen rekening mee houden (en dus ook niet met hun onderlinge relaties) terwijl je ze wel als variabelen in het model zou mogen verwachten. Denk aan de energiestromen tussen oceaan en atmosfeer of de invloed van de vegetatie op de temperatuur. En al zouden deze 12 punten er wel in zitten: we kennen alle onderlinge relaties en die met andere variabelen niet. Als je in zo’n complex systeem aan één knop - CO2 - draait, vind je je eigen verstopte paasei terug, maar verder word je er niet veel wijzer van.
Conceptuele modellen
Conceptuele modellen worden ook wel mentale of verbale modellen genoemd. Je probeert je een beeld te vormen van hoe een deel van de werkelijkheid in elkaar zit. Als je hier echt iets mee wilt, dan moet je kwantificeren, dat wil zeggen: je moet vertalen naar een statistisch of wiskundig model. Dit vereist wel iets: je moet precies zijn in welke variabelen er zijn, hoe je ze meet, wat hun relatie is (lineair, niet-lineair, met feedback loops of niet), enzovoorts.
Belangrijk is dat een model generaliseert: dat het niet alleen met de data van vandaag, maar ook met die van morgen overweg kan.
Bij een conceptueel model heb je een theorie in verbale bewoordingen. Om dat conceptuele model te onderzoeken is een verdere vertaling nodig naar bijvoorbeeld een regressiemodel. En door het model te confronteren met de juiste data uit de werkelijkheid kun je onderzoeken of die je theorie ondersteunen. Je kunt enkel je eigen aannames in het model testen. Je weet dan of de data de denkwereld van het model ondersteunen, maar het kan best zo zijn dat bij verder onderzoek de theorie alsnog onjuist blijkt
Interactieve modellen
Interactieve modellen gebruiken bestaande modellen om te kijken hoe iets werkt in de praktijk. Je wilt bijvoorbeeld het effect van temperatuur op een proces onderzoeken dat je al redelijk goed kent. Door het interactieproces aan de hand van heel verschillende invoerdata te gebruiken, kun je een model verbeteren.
Als een model complex is, zoals een AI-model, dan weet je helemaal niet hoe de verbanden precies in elkaar steken liggen. Je weet ook niet wat de belangrijkere en de minder belangrijke ‘wegers’ in het systeem zijn. Zo’n model is dubbel persoonlijk: het model op zichzelf is jouw uitvinding, maar de interpretatie van de uitkomsten ook.
Het antwoord is ja, indien modellen op een wetenschappelijk integere manier zijn gebouwd en worden gebruikt:
Soms worden modellen, zonder dat deze aan wetenschappelijke eisen voldoen, toch gebruikt om heel ingrijpende zaken voor elkaar te krijgen. Zo weigert het RIVM bijvoorbeeld om inzicht te geven in (en verantwoording af te leggen over) het stikstofmodel Aerius. Hetzelfde geldt voor het Coronamodel om besmettingen te voorspellen. En dit gaat ook op voor de klimaatmodellen. We weten dus hier eigenlijk niet of de modellen wel doen, wat ze geacht worden te doen, hoewel er inmiddels door vooraanstaande deskundigen de nodige kritiek is geleverd op de die modellen. Waarbij het ook nog maar de vraag is of we weten of hetgeen het model geacht wordt te doen wel datgene is, wat we nu nodig hebben om onze problemen aan te pakken.
Noten
1. O.a. het RIVM zelf, Nederlandse politici, Timmermans van de EU, media, die vaak klakkeloos overnemen wat degenen die de modellen beheren hierover naar buiten brengen.
2. Meestal bedoelen we statische of simulatiemodellen.
3. In werkelijkheid zijn er ook bij blackbox-modellen manieren om informatie over het geproduceerde model te achterhalen.
Dit artikel afdrukken
Wat zijn modellen eigenlijk?
Een model is een beperkte, informatieve weergave van een achterliggend fenomeen, gemaakt door mensen. In ieder model vind je minimaal drie elementen terug:
- Input - de informatie die je in een systeem stopt
- Throughput - met die informatie moet iets worden gedaan (berekend)
- Output – er moet wat uitkomen.
Je kunt een eerste onderscheid maken tussen statistische modellen en blackbox-modellen. Later kom ik nog op een andere mogelijke indeling van modellen.
Een statistisch model is een formalisering van relaties tussen variabelen in de vorm van wiskundige vergelijkingen. Een statistisch model beschrijft hoe één of meer willekeurige (stochastische) variabelen samenhangen met één of meer andere variabelen. Het model is statistisch omdat de variabelen niet deterministisch maar stochastisch (toeval/kans) aan elkaar gerelateerd zijn.
Aan een statistisch model ligt een of andere (meer of minder uitgewerkte) theorie ten grondslag. Als je helemaal niet weet hoe iets in elkaar steekt, dan kun je er geen model van maken (tenzij je gebruik maakt van zogenaamde blackbox-modellen, zie hieronder).
Terzijde: je kunt gedrag voorspellen zonder solide theorie
Je kunt ook werken met bepaalde aannames, en nagaan of je met die aannames de werkelijkheid kunt benaderen. Iedereen heeft wel eens een zwerm vogels gezien, die opeens massaal een andere kant op gaat vliegen. We maken hier een aanname (maar hebben geen goed omschreven theorie), waarmee het gedrag van een zwerm vogels gesimuleerd kan worden, dat het lijkt op het gedrag in de werkelijkheid. Maar we weten niet echt hoe en waarom ze het doen, wanneer, enzovoort. Als je een aanname ziet als een model en je past als regel toe: ‘Kijk naar je buren voor en naast je en doe onmiddellijk hetzelfde’, dan werkt dat model. Zonder dat het zo hoeft te zijn dat de vogels naar hun buren kijken en hen nadoen. Misschien kijken ze wel naar de maan, we weten het niet. De vraag die hierbij speelt is of je interesse uitgaat naar het bouwen en valideren van een theorie, of dat je geïnteresseerd bent in het simpelweg voorspellen van gedrag. Het kan best zijn dat je een bepaald gedrag prima kunt voorspellen zonder dat er een solide theorie onder ligt.
Je kunt ook werken met bepaalde aannames, en nagaan of je met die aannames de werkelijkheid kunt benaderen. Iedereen heeft wel eens een zwerm vogels gezien, die opeens massaal een andere kant op gaat vliegen. We maken hier een aanname (maar hebben geen goed omschreven theorie), waarmee het gedrag van een zwerm vogels gesimuleerd kan worden, dat het lijkt op het gedrag in de werkelijkheid. Maar we weten niet echt hoe en waarom ze het doen, wanneer, enzovoort. Als je een aanname ziet als een model en je past als regel toe: ‘Kijk naar je buren voor en naast je en doe onmiddellijk hetzelfde’, dan werkt dat model. Zonder dat het zo hoeft te zijn dat de vogels naar hun buren kijken en hen nadoen. Misschien kijken ze wel naar de maan, we weten het niet. De vraag die hierbij speelt is of je interesse uitgaat naar het bouwen en valideren van een theorie, of dat je geïnteresseerd bent in het simpelweg voorspellen van gedrag. Het kan best zijn dat je een bepaald gedrag prima kunt voorspellen zonder dat er een solide theorie onder ligt.
Modellen kunnen variëren in de mate van exactheid en kwantificatie, van een puur mentaal model tot een volledig gespecificeerd statistisch model. Als je een (statistisch) model maakt, heb je een aantal (vereenvoudigde) veronderstellingen nodig, je definieert grensvoorwaarden, beginvoorwaarden, onder welke omstandigheden iets gebeurt, en je definieert een toepassingsgebied. Stel dat je een groeimodel wil maken, dan is het niet zo dat je ieder groeimodel in iedere situatie kunt toepassen. Een groeimodel in de marketing is iets heel anders dan een groeimodel in de biosfeer.
Stel, je hebt een aantal veronderstellingen gedefinieerd, grensvoorwaarden, beginvoorwaarden, omstandigheden en een toepassingsgebied. Op dit punt kan al van alles zijn misgegaan, waardoor een model niet werkt, namelijk:
- Je specificatie van het model kan verkeerd zijn;
- Je kunt verkeerde aannames doen;
- Je laat variabelen weg die ertoe doen;
- Je neemt variabelen mee die er niet toe doen;
- Je hebt relaties (bijv. lineair, versus niet-lineair) tussen variabelen niet juist gespecificeerd.
Hoe meer variabelen je toevoegt en hoe langer je het model laat trainen op een bestaande dataset, hoe groter de kans op overfitting: wie te veel variabelen toelaat, modelleert de puistjes in plaats van het gezichtHoe bouw je een model?
Modellen maak je, zoals al gezegd, op basis van een theorie. De variatie reikt van de statistische modellen die je in marketing gebruikt tot klimaatmodellen. Een andere optie is een model afgeleid uit data – bijvoorbeeld met machine learning ( ML) en Artificial Intelligence (AI). Zelflerende software maakt een model; je weet van tevoren niet hoe dat eruitziet. Het (AI of ML) algoritme bepaalt zelfstandig en los van de gedachten van de maker wat de regels zijn waarmee hij het gedrag van de werkelijkheid kan voorspellen. Dit type modellen noemen we blackbox-modellen3.
Omdat blackbox-modellen worden afgeleid uit de data is het van bijzonder belang om te zorgen dat die modellen generaliseren. Dat wil zeggen: het resultaat moet niet het gevolg zijn van finetuning op de dataset waarop een algoritme ‘getraind’ is. Hoe meer variabelen je toevoegt en hoe langer je het model laat trainen op een bestaande dataset, hoe groter de kans op overfitting: wie te veel variabelen toelaat, modelleert de puistjes in plaats van het gezicht. Daarom worden bij AI en ML de datasets vaak in 3 delen gesplitst. Met de eerste set wordt het model ontwikkeld, met de tweede set getest, en het resultaat wordt losgelaten op een derde set, die door het model nog niet gezien is.
Door de drie datasets te scheiden kun je een model ontwikkelen en onderzoeken of het kan generaliseren en voorspellen, of niet.
Naast de indeling naar statistische modellen en blackbox-modellen kun je modellen ook anders indelen.
Systeemtheoretische modellen zoals klimaatmodellen
Systeemtheoretische modellen, bijvoorbeeld klimaatmodellen, zijn zeer complex. Het zijn eigenlijk chaotische systemen waar moeilijk mee te werken is, omdat er zoveel factoren bij betrokken zijn, die op een complexe manier samenhangen. Bovendien is sprake van grotendeels nog onbekende feedback-mechanismen. Het is lastig er iets mee te voorspellen, want als je aan plukje A trekt, gebeurt er iets waarvan je de gevolgen niet kunt overzien. Als je dit de volgende dag opnieuw doet, gebeurt er iets anders, wat je ook niet kunt overzien. Als je die gevolgen over een periode van 50 jaar op elkaar stapelt, dan kan de afwijking tussen voorspelling en realiteit enorm zijn.
En al zouden deze 12 punten wil de modellen van het IPCC zitten, dan gaat het alsnog mis: we kennen alle onderlinge relaties en die met andere variabelen niet. Als je in zo’n complex systeem alleen aan de koolstofknop draait, vindt zijn eigen verstopte paasei terug, maar wordt er niet veel wijzer van.Het IPCC (Intergovernmental Panel on Climate Change) gebruikt ongeveer 100 klimaatmodellen, die niet alleen steevast de temperatuurstijging overschatten, ze hebben ook de temperatuur van de laatste 20 jaar niet kunnen voorspellen. De laatste 20 à 30 jaar is er immers een pauze geweest in de temperatuurstijging, en dat hebben die modellen helemaal niet gezien.
In essentie is CO2 de centrale knop waaraan men draait bij klimaatmodellen. Er is geen goed onderbouwde onderliggende theorie. Wel zijn er allerlei aannames om de dominant veronderstelde rol van CO2 te ondersteunen en er zijn minstens 11 of 12 factoren waar klimaatmodellen geen rekening mee houden (en dus ook niet met hun onderlinge relaties) terwijl je ze wel als variabelen in het model zou mogen verwachten. Denk aan de energiestromen tussen oceaan en atmosfeer of de invloed van de vegetatie op de temperatuur. En al zouden deze 12 punten er wel in zitten: we kennen alle onderlinge relaties en die met andere variabelen niet. Als je in zo’n complex systeem aan één knop - CO2 - draait, vind je je eigen verstopte paasei terug, maar verder word je er niet veel wijzer van.
Conceptuele modellen
Conceptuele modellen worden ook wel mentale of verbale modellen genoemd. Je probeert je een beeld te vormen van hoe een deel van de werkelijkheid in elkaar zit. Als je hier echt iets mee wilt, dan moet je kwantificeren, dat wil zeggen: je moet vertalen naar een statistisch of wiskundig model. Dit vereist wel iets: je moet precies zijn in welke variabelen er zijn, hoe je ze meet, wat hun relatie is (lineair, niet-lineair, met feedback loops of niet), enzovoorts.
Belangrijk is dat een model generaliseert: dat het niet alleen met de data van vandaag, maar ook met die van morgen overweg kan.
Bij een conceptueel model heb je een theorie in verbale bewoordingen. Om dat conceptuele model te onderzoeken is een verdere vertaling nodig naar bijvoorbeeld een regressiemodel. En door het model te confronteren met de juiste data uit de werkelijkheid kun je onderzoeken of die je theorie ondersteunen. Je kunt enkel je eigen aannames in het model testen. Je weet dan of de data de denkwereld van het model ondersteunen, maar het kan best zo zijn dat bij verder onderzoek de theorie alsnog onjuist blijkt
Interactieve modellen
Interactieve modellen gebruiken bestaande modellen om te kijken hoe iets werkt in de praktijk. Je wilt bijvoorbeeld het effect van temperatuur op een proces onderzoeken dat je al redelijk goed kent. Door het interactieproces aan de hand van heel verschillende invoerdata te gebruiken, kun je een model verbeteren.
Als een model complex is, zoals een AI-model, dan weet je helemaal niet hoe de verbanden precies in elkaar steken liggen. Je weet ook niet wat de belangrijkere en de minder belangrijke ‘wegers’ in het systeem zijn. Zo’n model is dubbel persoonlijk: het model op zichzelf is jouw uitvinding, maar de interpretatie van de uitkomsten ook.
Soms worden modellen, zonder dat deze aan wetenschappelijke eisen voldoen, toch gebruikt om heel ingrijpende zaken voor elkaar te krijgenZijn modellen te vertrouwen?
Het antwoord is ja, indien modellen op een wetenschappelijk integere manier zijn gebouwd en worden gebruikt:
- de eisen van de statistische methode(n) stemmen overeen met de data en het toepassingsdoel van het model;
- de herkomst van de data is bekend en de data zijn gevalideerd;
- de beperkingen en randvoorwaarden van het model zijn bekend en worden gerespecteerd;
- het model wordt toegepast binnen het domein waarvoor het ontwikkeld is;
- het model is robuust, dat wil zeggen dat het in verschillende omstandigheden toch goed blijft presteren. Je kijkt dan bijvoorbeeld of een kleine storing - in het model zelf of in z’n omgeving - een grote invloed kan hebben. Validiteit bij voorspellende modellen houdt onder meer in dat je nagaat onder welke omstandigheden de voorspellingen van het model wel of niet overeenstemmen met de werkelijkheid;
- het model wordt (bij gebruik over langere tijd) geëvalueerd op een juist werking. Immers: de data kunnen wijzigen, omstandigheden veranderen etc., waardoor de werking van een model in negatieve zin kan worden beïnvloed.
Soms worden modellen, zonder dat deze aan wetenschappelijke eisen voldoen, toch gebruikt om heel ingrijpende zaken voor elkaar te krijgen. Zo weigert het RIVM bijvoorbeeld om inzicht te geven in (en verantwoording af te leggen over) het stikstofmodel Aerius. Hetzelfde geldt voor het Coronamodel om besmettingen te voorspellen. En dit gaat ook op voor de klimaatmodellen. We weten dus hier eigenlijk niet of de modellen wel doen, wat ze geacht worden te doen, hoewel er inmiddels door vooraanstaande deskundigen de nodige kritiek is geleverd op de die modellen. Waarbij het ook nog maar de vraag is of we weten of hetgeen het model geacht wordt te doen wel datgene is, wat we nu nodig hebben om onze problemen aan te pakken.
Noten
1. O.a. het RIVM zelf, Nederlandse politici, Timmermans van de EU, media, die vaak klakkeloos overnemen wat degenen die de modellen beheren hierover naar buiten brengen.
2. Meestal bedoelen we statische of simulatiemodellen.
3. In werkelijkheid zijn er ook bij blackbox-modellen manieren om informatie over het geproduceerde model te achterhalen.
In Wat is ...? gaan we met bekende en minder bekende mensen op zoek naar wat hen motiveert om te ontdekken of we elkaar van daaruit weer kunnen vinden. De introductie tot de modellenreeks vind je hier. Waarom we dit doen lees je in De ontdekking van de ander.
Nog 3
Je hebt 0 van de 3 kado-artikelen gelezen.
Op 5 april krijg je nieuwe kado-artikelen.
Op 5 april krijg je nieuwe kado-artikelen.
Als betalend lid lees je zoveel artikelen als je wilt, én je steunt Foodlog
Lees ook
Helder verhaal. De vraag komt bij mij op: als je modellen niet kunt gebruiken voor een politiek doel, wat heb je er dan aan? Anders gezegd: onder welke voorwaarden kun je inzichten ontleend aan een model, gebruiken om beleid te maken?
Aerius heeft weer een nieuwe update. Dat schijnt nogal wat gevolgen te hebben voor piekbelasters en voor bedrijven in het grensgebied met Duitsland. Is Aerius alleen maar fantasie, of kun je er nog iets mee, op een integere manier?
PS, aanvulling. Een model is een hypothese die je kunt testen ? Je doet een voorspelling en die ga je nameten. Dat doet het IPCC toch ook? Hypothetisch voorbeeld: je voert de gegevens in van 2000 en doet een voorspelling voor het jaar 2015. Dan kijk je of je goed zit?
Ik ben heel blij met deze tekst omdat Ton - van wie ik in de jaren '90 van de vorige eeuw veel over het gebruik van modellen leerde - een breed overzicht geeft over systematisch gedachten ordenen en testen, zowel theoretisch (richting data), als empirisch (vanuit data) als in wisselwerking tussen die twee.
Deze tekst is boeiend om ruzie en pleidooien over wat we weten of nog niet te kunnen plaatsten.
Ik zou willen wijzen op:
1. het pleidooi van Annet Roodenburg voor meer vergelijkbaarheid (interoperability, zeggen we tegenwoordig) van data (implicaties van verzamelen, indelen en opslaan).
2. de discussie tussen Wouter de Heij en Gerard Cats naar aanleiding van de tekst van de laatste. Ze zetten die gisteren op twitter voort. Wouter zegt met zoveel woorden dat Gerard niet wil nadenken over het theoretische model over het gedrag van gasvormig stikstof in de feitelijke omgeving; Wouter wil een betere theorie onder de stikstofmodellen die in Nederland worden gehanteerd; idem trouwens Nico Gerrits die de bestaande theorie domweg afwijst omdat die in tegenspraak is met het chemische feit dat NH3 lichter is dan lucht en onmiddellijk zo hoog mogelijk opstijgt en alleen door binding met water kan neerslaan of niet opstijgen); Gerard houdt zich daarentegen vast aan wiskundige principes en accepteert onzekerheid (maw: hij vindt dat hij met onbekenden voldoende kan voorspellen, een beetje zoals de zwerm spreeuwen in het bovenstaande)
3. 1 en 2 als je daar samen over nadenkt. Annet zegt terecht dat data die niet op dezelfde manier zijn verzameld, opgeslagen en verwerkt nooit samen/niet zomaar als basis van kennis mogen worden gebruikt. Wouter zegt dat er nog een stap voor nodig is: stel dat de dataverzameling is gestandaardiseerd, zijn dan de uitkomsten van modellen kennis die de werkelijkheid benadert? Nee, zegt hij. Waar Annet als onderzoeker een probleem ervaart met de data, ervaart Wouter problemen met de theorieën van waaruit data worden verzameld en opgeslagen.
Maw: je kunt discussies hebben over de wiskundige/statistische kant van de zaak en je kunt discussies hebben over de theoretisch basis voor de input en variabelen van het model. In vrijwel alle discussies lopen die twee volledig door elkaar; dat helpt niet bij een beter begrip van het onderwerp waar de querulanten het nou echt over oneens zijn (ik durf te zeggen: dat weten ze soms zelf ook niet, wat tot boosheid ipv een goed gesprek kan leiden)
Vervolgens zegt Ton iets heel belangrijks: mensen zijn niet in staat om complexe modellen te maken die correct relaties tussen een veelheid van factoren kunnen weergeven omdat een model altijd naar het voorspellen van 1 factor is gevormd (CO2, NH3 zijn sprekende voorbeelden). Machines kunnen het wel met hun algoritmen en de blackbox-modellen die ze genereren zonder menselijke tussenkomst, maar je weet niet wat de data en variabelen betekenen. Ik ben even kwijt welke logicus het schreef in de tweede helft van de vorige eeuw: ze zijn als de zin 'ik hou van jou' die door mieren in het zand is geschreven. Staat daar wat jij leest of staat er iets dat geen enkele betekenis heeft?
Wie dacht dat mieren bijvoorbeeld de I van IK niet kunnen schrijven, komt bedrogen uit. Kijk maar (ook alle andere letters kunnen ze schrijven).
#1, modellen zijn geen vervanger voor politiek. Dat is het punt: we zullen in onzekerheid zelf moeten blijven beslissen, maar zijn op weg politieke besluiten door 'de wetenschap' te laten nemen (met verdekte vooronderstellingen waarover geen gesprek meer mogelijk is).
Omdat het bij de grote politieke vraagstukken doorgaans gaat om complexe vraagstukken betekent dat in de praktijk dat we een machine gaan laten beslissen die zinnen in het zand betekenis vindt hebben (zie de laatste zin van #2 ).
Steun vragen aan 'onderzoekers' (ik weiger het woord wetenschappers te gebruiken) is niet de weg om te gaan bij complexe vraagstukken.
Als tegenhangers van onderzoekers heb je ook ingenieurs, ontwerpers en adviseurs (vrijwel altijd in de private sector), die zou je scenario's kunnen laten maken. Dit is hoe de Shell's van deze wereld werken. Modellen maken, scenario's doorrekenen door diverse input parameters in de die modellen te stoppen. Ze worden dan "Descision Support Systems (DSS)" genoemd. Een publieke variant hiervan wordt "gamification" genoemd. In dat geval is er een openbaar model waar alle actoren vertrouwen in hebben, en kunnen de betrokken factoren aan de knoppen draaien (what if studies, inputs aanpassen). Beide takken van sport zijn 'vergeten' in het publieke systeem. Niet gek, want onze politiek is vergeten dat 'ingenieurs' dit als hun professie hebben, en ingenieurs zie je niet meer in Den Haag.
Politici en managers zullen ZELF materie-kennis / inhoudskennis moeten krijgen en vervolgens ook ZELF afwegingen moeten gaan maken. Wetenschap moet hoe dan ook NIET aan tafel zitten.
Vanwege uit/afspoeling en denitrificatie van stikstof is er voor natuurgebieden ook een (vervolg) model nodig die in kaart brengt in welke mate stikstof schadelijk is, ná de depositie van stikstof . Voor ieder natuurgebied gaat men er vanuit dat er een standaard schade door stikstof is. En een standaard schade kan er niet zijn. Door uit/afspoeling en denitrificatie van stikstof zal schade door stikstof variabel zijn. En mogelijk ook helemaal geen schade wanneer er door uit/afspoeling en denitrificatie evenveel stikstof uit een natuurgebied verdwijnt dan er door depositie bijkomt.
Maar grondmonsters nemen en daar een vervolgmodel op baseren.