Kindermishandeling aanpakken met digitale technologie

Het aantal slachtoffers van kindermishandeling en huiselijk geweld blijft onverminderd hoog. Zouden digitale technologieën kunnen helpen verhoogde risico’s op mishandeling te detecteren? Docentonderzoeker Eef Dooren ziet kansen, zij het onder voorwaarden en vanuit bepaalde ethische overwegingen.

Kindermishandeling en huiselijk geweld vormen mondiaal een hardnekkig, ogenschijnlijk onoplosbaar probleem met verstrekkende gevolgen voor de slachtoffers, hun omgeving en de samenleving als geheel. De WHO schat dat er circa een miljard kinderen jaarlijks slachtoffer zijn, in Nederland wordt het aantal slachtoffers op circa 3 procent van alle kinderen geschat.

Dit artikel wil inzicht verschaffen in de potentie van digitale technologieën bij het verminderen van kindermishandeling en stilstaan bij de voorwaarden en ethische overwegingen.

Moderne digitale technieken hebben potentie

Gekscherend wordt wel eens gezegd dat Google eerder weet dat iemand zwanger is dan de persoon zelf. De kracht van digitale technologieën ten opzichte van menselijke vermogens is dat er meer en gevarieerdere data kunnen worden geanalyseerd. De kracht is ook dat het mogelijk wordt om meer en andere patronen in diezelfde data te herkennen (Henman, 2020).

Binnen het sociale domein zijn veel data aanvankelijk bedoeld voor andere doeleinden

Ook binnen het sociale domein worden volop data gegenereerd – zoals gegevens die worden opgeslagen binnen scholen en hulpverleningsinstanties, maar ook medische gegevens bij de huisarts of in het ziekenhuis. De constante en relatief hoge prevalentie van kindermishandeling en huiselijk geweld én de potentie van moderne technologieën roepen de vraag op of er in al deze data inzichten kunnen worden opgedaan, waarmee risico’s op mishandeling beter kunnen worden ingeschat. Internationaal zijn hier al voorzichtige pogingen toe gedaan. De reacties op en de discussies over deze pogingen maken echter duidelijk dat het belangrijk stil te staan bij voorwaarden en ethische kwesties.

Kwalitatief goede data zijn noodzakelijk

Eén van de belangrijkste uitdagingen in het gebruik van nieuwe digitale technologieën bij (het voorkomen van) kindermishandeling kan gekoppeld worden aan het gezegde ‘garbage in, garbage out’. Voor het herkennen en juist voorspellen van betekenisvolle patronen zijn kwalitatief goede data noodzakelijk.

Binnen het sociale domein zijn veel data aanvankelijk bedoeld voor andere doeleinden. Bovendien worden ze lang niet altijd systematisch en volledig geregistreerd (Leslie, Holmes, Hitrova, & Ott, 2020). Het is dus maar de vraag in hoeverre bestaande datasets direct geschikt zijn om te gebruiken voor onderzoek naar of inschatting van risico’s rondom kindermishandeling.

 De kans was groter dat zij werden aangemerkt als een groep met verhoogd risico op kindermishandeling

Daarnaast kan het gebruik van niet-representatieve of onvolledige datasets – onbedoeld – negatieve en zelfs stigmatiserende consequenties hebben voor kwetsbare groepen. Ter illustratie: in Nieuw-Zeeland is in 2012 onderzoek gedaan naar het inschatten van risico’s op kindermishandeling door middel van het analyseren van grootschalige databases, waaronder een over het krijgen van uitkeringen.

In de gebruikte databases waren de Maori vaker vertegenwoordigd, omdat zij relatief vaker in armoede leven. Gevolg was daardoor dat de kans groter was dat zij werden aangemerkt als een groep met een verhoogd risico op kindermishandeling. Dit roept begrijpelijkerwijs vragen op ten aanzien van de sociale (on)rechtvaardigheid (Keddell, 2015).

Algoritmische gevolgen voor kwetsbare groepen

De kwaliteit van de gebruikte algoritmische modellen is minstens even belangrijk en ook hier bestaat het gevaar van stigmatisering. De keuzes voor datasets, algoritmes en parameters worden door mensen gemaakt. Het is niet ondenkbaar dat eventuele vooroordelen en aannames (‘bias’) onbewust in het model sluipen (Gillingham, 2019).

Om dit tegen te gaan zijn ethische modellen ontwikkeld die eerlijkheid en transparantie beogen. Een model moet eerlijk – dus geen vooroordelen versterken – en transparant zijn (Lanier et al., 2020). Hoe transparanter men is over de gemaakte keuzes, des te groter is de kwaliteit van een algoritmisch model.

De mate van transparantie wordt echter bemoeilijkt doordat bij technologieën, zoals bijvoorbeeld machine learning, het proces van leren volledig geautomatiseerd is. De gebruikte algoritmes maken het soms zelfs voor ervaren programmeurs moeilijk om te weten wat er exact in de zogeheten black box gebeurt. En om dus helder te hebben op basis waarvan een model tot een bepaalde uitkomst komt (Church & Fairchild, 2017).

Daar komt nog bij dat de werelden van de ICT en van het sociale domein behoorlijk gescheiden zijn. Om een inschatting te kunnen maken of een model eerlijk en transparant is, is het noodzakelijk dat ook de sociale professionals (enige) kennis hebben van de werking van modellen (Lanier et al., 2020). Hier is in de praktijk nog nauwelijks sprake van.

Kinderen die wel degelijk slachtoffer kunnen zijn, worden over het hoofd gezien

Een andere uitdaging vormen de vals positieve en vals negatieve voorspellende uitkomsten die inherent zijn aan het gebruik van algoritmische modellen. Foutieve voorspellingen kunnen bij kindermishandeling en huiselijk geweld echter forse gevolgen hebben. Kinderen die wel degelijk slachtoffer kunnen zijn, worden over het hoofd gezien en families kunnen onterecht ‘beschuldigd’ worden. Een onterecht aangegeven hoge risicoscore kan invloed hebben op hoe het gezin door instanties wordt gezien en hoe men het gezin benadert. Hulpverleners zouden zich verplicht kunnen voelen om in te grijpen in het gezin en gezinnen kunnen zich verplicht voelen om hulp te accepteren die men eigenlijk niet nodig heeft (De Haan & Connolly, 2014).

De nodige stappen moeten nog worden gezet

Moderne digitale technologieën hebben de potentie een bijdrage te leveren aan het wicked problem kindermishandeling. Ook binnen het sociale domein worden meer data gegenereerd dan mensen kunnen analyseren en kunnen digitale technologieën dus uitkomst bieden. Kritisch toezien op mogelijke toepassingen is echter geboden.

Vooroordelen en het mogelijk stigmatiseren van kwetsbare groepen liggen op de loer, digitalisering kan dit zelfs versterken. Borging van transparantie en eerlijkheid van gebruikte modellen kan hierin uitkomst bieden, evenals begrip van de werking en de onderliggende keuzes voor modellen. Hierin zijn echter vooralsnog de nodige stappen te zetten.

Een eerste stap zou kunnen zijn om de dialoog tussen het technologische en sociale domein op gang te brengen. Zo kunnen experts binnen het sociale domein de werking van de modellen leren begrijpen en technologische experts zicht krijgen op wat uitkomsten van modellen voor hulpverleners, kinderen en gezinnen betekenen.

Eef Dooren-Sulsters is docent filosofie, ethiek en onderzoek aan de Fontys Hogeschool. 

 

Foto: Cottonbro (Pexels.com)