Wetenschap moet AI leren en durven gebruiken

De wetenschap moet af van haar koudwatervrees voor het gebruik van AI, vinden Janine Janssen, Rick van der Kleij en Ander de Keijzer. In plaats van AI angstig af te wijzen, kan ze beter kaders ontwikkelen voor verstandig gebruik ervan.

In vergaderzalen en Teams‑calls merken we het steeds vaker: zodra het gesprek op AI komt, daalt het volume. ‘We gebruiken het een beetje…’ klinkt het dan, alsof iemand een bekentenis doet. Dat vinden wij een gevaarlijke reflex. Wij gebruiken AI en vinden dat we dat openlijk moeten zeggen. Niet om hip te doen, maar omdat wetenschap alleen geloofwaardig is als je laat zien hóé je werkt.

In die oefenruimte worden de contouren zichtbaar van wat AI wel en niet kan

Onlangs verscheen De prijs van het vuur. Technologie en geweld in afhankelijkheidsrelaties. De auteur (Janine Janssen, red) wist aanvankelijk weinig van AI en begon voorzichtig, door haar eigen teksten te laten samenvatten. Juist in die ogenschijnlijk simpele stap begint het leren. Je ziet onmiddellijk waar de nuance vervlakt, waar accenten verschuiven, en waar de structuur verbetert. In die oefenruimte worden de contouren zichtbaar van wat AI wel en niet kan. Precies de kennis die nodig is om het gereedschap goed te gebruiken.

Gulden middenweg

Rond AI zien we in de praktijk twee begrijpelijke, maar ineffectieve reflexen. Verlamming in de zin van liever niet aanraken, want straks gaat er iets mis en overschatting in de vorm van de overtuiging dat AI alles kan en dat je het denken kunt uitbesteden. Tussen die uitersten ligt het professionele midden. Daar staat vakmanschap voorop, blijft de mens verantwoordelijk en wordt technologie bewust en begrensd ingezet.

Zorgen die je alleen wegneemt door precies te laten zien wat je doet

Soms worden reviewers onrustig als we in een methodesectie eerlijk beschrijven dat we AI hebben gebruikt, bijvoorbeeld bij literatuurverkenningen. Hun zorgen zijn begrijpelijk. Ze vrezen dat AI bepaalt wat er wel en niet aan literatuur wordt geselecteerd voor verdere analyse, dat teksten of data in een open cloud belanden, of dat AI-fouten maakt.

Zorgen die je alleen wegneemt door precies te laten zien wat je doet. In onze praktijk betekent dat het volgende:

  • beslissingen blijven bij mensen
  • AI ondersteunt alleen bij ordening, structurering of het terugvinden van passages
  • we gebruiken geen losse consumentenapps maar enterprise‑omgevingen met geregeld eigenaarschap, toegang en bewaartermijnen
  • we leggen vast hoe we controle hebben gehouden en eventuele hallucinaties of fouten hebben gecorrigeerd.

Transparantie

Transparantie lijkt vanzelfsprekend, maar is het nog niet. Net als veel collega’s hebben we momenten gekend waarop we twijfelden of we wel moesten opschrijven dat we AI hadden gebruikt. Niet omdat we er stiekem mee wilden werken, maar omdat we aanvoelden hoe beladen het onderwerp is.

De vraag verschuift dan van óf AI mag naar hoe je netjes, controleerbaar en navolgbaar blijft

Die aarzeling is het probleem. Immers, als onderzoekers zich ongemakkelijk voelen bij het benoemen van hun werkwijze, ontstaat er een cultuur waarin transparantie wordt ontmoedigd in plaats van gestimuleerd. Wanneer we open zijn over onze werkwijze, verandert het gesprek. De vraag verschuift dan van óf AI mag naar hoe je netjes, controleerbaar en navolgbaar blijft.

Transparantie is borstklopperij noch schuldbekentenis, maar een noodzakelijke beschrijving van waar technologie heeft geholpen, onder welke randvoorwaarden dat gebeurde, en waar we haar bewust niet hebben ingezet.

Ook in het (academisch) onderwijs is zichtbaarheid belangrijk. Studenten gebruiken AI toch. Door het gebruik bespreekbaar te maken, leren ze het verschil tussen hulp en afhankelijkheid, tussen suggestie en beslissing, tussen snelheid en zorgvuldigheid. Het resultaat? Rust en scherpte. Wie weet hoe er gewerkt is, hoeft niet te gissen naar verborgen stappen of risico’s. En het debat verschuift van geruchten naar methodologische kwaliteit.

Vooringenomendheid

Een recente review van een artikel van een van ons laat zien hoe de twee reflexen - verlamming en overschatting - elkaar kunnen versterken.[i] De reviewer prees onze openheid over AI-gebruik, maar concludeerde niettemin dat de resultaten skewed (vertekend, red) zouden zijn en dat de hele studie opnieuw moest worden gedaan. De reden? Twijfels over databeveiliging, ethiek en de rol van AI.

Die twijfels waren gebaseerd op een foutieve aanname van de reviewer. We zouden een open cloudservice hebben gebruikt. In werkelijkheid werkten we met gesloten, lokaal draaiende software binnen een streng beheerde infrastructuur.

Dat AI was gebruikt wekte wantrouwen. De implementatie deed er niet meer toe

De foutieve aanname is overigens minder relevant dan het onderliggende mechanisme. Dat AI was gebruikt wekte wantrouwen. De implementatie deed er niet meer toe. AI wordt in dit soort reacties beoordeeld als een mysterieus black‑box-systeem dat per definitie controle ondermijnt. Dat is een misvatting. AI heeft geen intenties. Het is een tool en net als elke wetenschappelijke tool kun je hem verantwoord of onverantwoord inzetten.

Andere discussie

We moeten het debat niet voeren langs de lijnen of AI gebruikt mag worden, of AI gevaarlijk is of dat AI-resultaten automatisch onbetrouwbaar maakt. We moeten het daarentegen hebben over de vraag onder welke voorwaarden AI verantwoord ingezet kan worden. Welke transparantie-eisen horen daarbij; hoe moeten review‑richtlijnen geactualiseerd worden; welke documentatie moeten uitgevers vragen en hoe kunnen we onderscheid maken tussen risicovolle en gecontroleerde vormen van AI‑gebruik?

De oplossing was nooit om technologie te weren, maar om kaders te ontwikkelen

Bij statistische software, digitale databanken, referentietools en cloudopslag zagen we dezelfde reflexen: scepsis, ethische zorgen, technofobie. De oplossing was nooit om technologie te weren, maar om kaders te ontwikkelen. Wij verdedigen dan ook de stelling dat AI niet uit wetenschappelijk onderzoek moet worden geweerd maar verantwoord moet worden ingepast. Dat vraagt om transparantie, methodologische scherpte en een update van bestaande beoordelingskaders.

De vraag is niet meer óf AI een rol heeft in onderzoek. De vraag is veeleer hoe we ervoor kunnen zorgen dat die rol ethisch, transparant en methodologisch verantwoord is. Wetenschap blijft betrouwbaar en begrijpelijk als we blijven opschrijven wat we doen, mét AI als hulpmiddel, zichtbaar en onder menselijk gezag.

Janine Janssen is lector Geweld in afhankelijkheidsrelaties aan Avans Hogeschool en de Politieacademie. Zij is hoogleraar Criminologie & Rechtsantropologie aan de Open Universiteit en hoofd onderzoek van het Landelijk Expertise Centrum Eer Gerelateerd Geweld van de nationale Politie. Rick van der Kleij is gepromoveerd psycholoog en werkt als senior onderzoeker bij TNO en als lector Cyberweerbare Organisaties aan Avans Hogeschool. Ander de Keijzer is lector Applied Responsible Artificial Intelligence aan Avans Hogeschool.

[i] Artikel is nog onder review op 11-5-26

 

Foto: Andrea Piacquadio via Pexels.com