Vanuit de werkplaats AI verkennen we hoe bij digitale tweelingen modellen en data gedeeld kunnen worden. In deze blog gaan we dieper in op hoe je modellen kunt delen.

De eerste vraag om te beantwoorden is: Wat verstaan we onder modellen?

Wanneer je het over modellen en AI hebt, wordt meestal naar deep learning neurale netwerken gekeken (zie de introductie op kunstmatige intelligentie). In dit artikel hanteren we echter een bredere blik.

Wij beschouwen alle software die - getraind op een dataset- voorspellingen kan doen over de werkelijkheid, als een relevant model voor onze doeleinden. Daarin zit een glijdende schaal van deep learning neurale netwerken naar klassieke statistische (bijvoorbeeld regressie analyse) en wiskundige (bijvoorbeeld data assimilatie) technieken. Hieronder vallen ook agent gebaseerde modellen, genetische algoritmen en simulated annealing.

Soorten modellen

Tijdens een workshop met makers van modellen hebben we gediscussieerd over de manieren waarop modellen (waaronder AI modellen) worden ontsloten en hergebruikt.

Daarvoor hebben we de volgende drie categorieën gebruikt

Eigenlijk zijn dit drie verschillende manieren waarop je het ontsluiten en gebruik van modellen in de context van een digitale tweeling kunt bekijken. Daarbij ga je van een grove granulariteit naar het heel fijnmazig beschouwen van een model en wat daarvan deelbaar is. Vanuit de feedback in de workshop hebben we een eerste beeld waar behoefte aan is in het werkveld.

In dit document beschrijven we de driedeling in meer detail, de feedback daarop vanuit de workshop en afsluitend de lessen en vervolgvragen die er zijn.

 

Data producerend model

Een data producerend model is een op zichzelf staand product dat meerdere functionaliteiten combineert. Het is gericht op maximale ontzorgen van de gebruiker en eist een minimum aan expertise van de gebruiker.

Het wordt gemaakt door iemand of een organisatie met expertise van zowel het domein waarin het model wordt toegepast als van de modelleer (AI) techniek die wordt gebruikt.

Binnen de scope vallen zowel het maken van het rekenmodel zelf, als ook het selecteren van de data die als input in het model wordt gebruikt, het draaien van het model als een dienst (deployment), de validatie van de uitkomsten van het model tegen meetresultaten in de echte wereld en het beschrijven hiervan zodat gebruikers deze validatie kunnen controleren en zodat gebruikers een beeld hebben voor welke doeleinden het model gevalideerd toegepast kan worden.

Voorbeelden zijn de modellen van de ondergrond in de BRO. Deze modellen zijn voor eindgebruikers direct raadpleegbaar op het BRO loket. Je kan daar voor iedere locatie in het dekkingsgebied van een model opvragen wat het model voorspelt aan eigenschappen van de ondergrond. Daarnaast kan je een totstandkomingsrapport en een kwaliteitsrapport krijgen van ieder model waarin wordt uitgelegd hoe het tot stand is gekomen, hoe het is gevalideerd en wat de betrouwbaarheid is. Met die informatie kan een gebruiker zich een beeld vormen of het model voor zijn beoogde toepassing geschikt is.

 

Rekenmodel

Een rekenmodel is de losse kern van een data producerend model. Dus alleen het rekenmodel zelf, dus zonder de data selectie, validatie en deployment. Het is een model dat wel toegespitst is op een bepaald gebruiksdoel/domein. De gebruiker hiervan maakt alleen hergebruik van de modelleer expertise van de aanbieder en heeft zelf genoeg domeinkennis om het model toe te passen. De gebruiker doet zijn eigen data selectie en validatie voor zijn specifiek toepassing en zorgt zelf voor een plek waar het model kan draaien.

Voorbeeld hiervan is bijvoorbeeld een model zoals Deltares dit aanbiedt Delft3D Flexible Mesh Suite . Dit is een model suite voor een specifieke toepassing die je als een software pakket download en waar je als gebruiker je eigen input datasets in kan stoppen. Het bevat al wel een grote set met gevalideerde toepassingen, daarin wijkt het af van het Rekenmodel zoals gepresenteerd in de workshop. Een korte (niet noodzakelijk representatieve) zoektocht levert op dat bij losse rekenmodellen vaak al wel de validatie meegeleverd wordt wanneer dit mogelijk is.

 

Modellen toolbox

De modellen toolbox biedt alleen generieke bouwblokken waarmee een model gemaakt kan worden. Het is niet toegespitst op een domein. Het vereist van de gebruiker zowel modelleerkennis als domeinkennis om tot een goed resultaat te komen.

Bouwblokken zijn kant en klare stukken code/functionaliteit om modelleringstechnieken toe te passen bijvoorbeeld Neurale netwerken, simulated annealing, data assimilatie, et cetera. Voorbeelden zijn onder meer de deep learning toolkit van Matlab of software aangeboden door het Netherlands e-science center. Dit zijn stukken software waarmee een modelleur sneller en eenvoudiger zijn model kan opzetten door hergebruik te maken van bewezen generieke implementaties van modelleer technieken.

 

Workshop Feedback en voorlopige conclusies

Tijdens de workshop kwam naar voren dat de meeste modellenmakers de behoefte hebben om op een grof granulariteitsniveau - zoals bij een data producerend model - modellen te delen. Bij het zoeken naar passende voorbeelden van het rekenmodel viel op dat niet alleen het voorbeeld van Deltares maar ook andere modellen die lijken op het rekenmodel worden aangeboden met validatie. Het lijkt dus verstandig om in de driedeling de definitie van Rekenmodel daar op aan te passen aangezien dit beter overeenkomt met de praktijk. Duidelijk was dat er in de context van digitale tweelingen weinig behoefte was aan delen op het laagste granulariteitsniveau, de modellentoolbox. Modelleurs weten over het algemeen wat er aan technieken beschikbaar is en hebben geen ondersteuning nodig om die te vinden.

Wat in de workshop en latere discussies naar voren komt is dat het delen van modellen niet makkelijk is. Het kan op veel manieren misgaan. Vaak zit hem dat niet in de techniek maar eerder in semantiek en governance. Nadere studie van deze aspecten is wenselijk.

Zie het artikel Inspiratie delen data en modellen

Tags: AI, Onderzoek