‘We leven in een interessante tijd: voor het eerst in de geschiedenis wordt de mens geconfronteerd met een andere intelligentie. Die neemt niet de sciencefiction-achtige vormen aan die je in films ziet – aliens, de Terminator, robots die de macht overnemen – maar is wel overal om ons heen. We hebben dagelijks te maken met algoritmes die ons beïnvloeden en van alles voor ons bepalen. Ze ordenen onze tijdlijn op sociale media en geven suggesties op Netflix, maar worden ook bijvoorbeeld door de overheid gebruikt om criminaliteit op te sporen.
Het interessante, en misschien ook wel zorgwekkende, is dat we van veel algoritmes niet precies weten hoe ze werken. Door machine learning kunnen algoritmes namelijk hun eigen regels maken. Je voedt ze met grote hoeveelheden data, en dan leren ze zichzelf regels aan over hoe naar die data te kijken. Maar hoe ze redeneren en waarom ze doen wat ze doen, is onduidelijk. Hoe moeten we omgaan met deze nieuwe vorm van intelligentie in ons midden? Dat is een van de grote uitdagingen van deze tijd, waarbij een belangrijke rol is weggelegd voor geesteswetenschappers.’
‘Algoritmes zijn niet onfeilbaar, wij mensen moeten hun fouten kunnen corrigeren. Ken je het verhaal van Stanislav Petrov? Dat was een Sovjet-luitenant die in de jaren 80 mogelijk een kernoorlog heeft voorkomen door een besluit van een computersysteem te overrulen. Op een dag meldde het waarschuwingssysteem van de Sovjets dat de VS vijf raketten hadden afgevuurd op de Sovjetunie. Petrov oordeelde dat het loos alarm moest zijn – terecht, zo bleek later – en besloot de melding te negeren. Als het algoritme zelf had mogen beslissen, was de Sovjetunie een nucleaire tegenaanval begonnen, met alle gevolgen van dien.’
Dit is een extreem voorbeeld, maar er zijn ook veel andere voorbeelden van algoritmes die fouten maken of handelen op een manier die we niet ethisch vinden. Denk bijvoorbeeld aan het algoritme waar de Belastingdienst gebruik van maakte om fraude met de kinderopvangtoeslag op te sporen. Dat bleek discriminerend te zijn voor mensen met een dubbele nationaliteit. Of een ander voorbeeld, dat onlangs in het nieuws was: een tool van Twitter om portretfoto’s uit te snijden bleek geen gezichten met een donkere huidskleur te herkennen. Dat soort fouten zit niet zozeer in de algoritmes zelf, maar heeft te maken met de data waarmee algoritmes worden gevoed. Geef je ze een dataset met voornamelijk witte gezichten, dan zullen ze gezichten met een andere kleur niet goed leren herkennen.’
Waarom worden journalisten, historici en archiefwetenschappers zo weinig geraadpleegd in de discussie over nepnieuws?
‘Algoritmes worden getraind op basis van datasets uit de maatschappij, uit de menselijke cultuur, en dat is een van de redenen waarom geesteswetenschappers nodig zijn. Om beoordelingsfouten in een algoritme te kunnen vinden moet je namelijk echt inzicht hebben in de data waarmee we die algoritmes voeden, en waar de problemen zitten in die data. Kennis van culturele concepten is daarbij onmisbaar. Stel bijvoorbeeld dat je de algoritmes waarmee de politie criminaliteit opspoort wilt ontdoen van koloniale bagage. Dan moet je wel weten wat kolonialisme precies inhoudt, en hoe dat zich manifesteert in de datasets waarmee die algoritmes worden getraind. Daarom kunnen algoritmes niet worden gecorrigeerd door een programmeur alleen, maar zijn bijvoorbeeld historici en cultuurwetenschappers hard nodig.
Onderzoek naar de ethische kant van AI is belangrijk. Een computerwetenschapper heeft, over het algemeen, vooral interesse in hoe algoritmes beter kunnen presteren. Daar zijn allerlei criteria voor in de informatica, maar het is vaak minder belangrijk waarom een algoritme doet wat het doet in een bepaalde context. Dat is precies wat wij geesteswetenschappers juist wél proberen uit te vinden. We willen leren begrijpen hoe algoritmes werken, en dat vergelijken met hoe wij erover denken. We willen de context begrijpen van de gegevens waarmee we onze algoritmes voeden.’
‘Een andere reden waarom de geesteswetenschappen belangrijk zijn in deze tijd, heeft te maken met een ander groot probleem: nepnieuws. Wij geesteswetenschappers zijn als geen ander in staat om bronnen kritisch te beoordelen. We hebben daar een lange traditie in en hebben heel geavanceerde mechanismen ontwikkeld om authenticiteit van bronnen te waarborgen. Waarom worden journalisten, historici en archiefwetenschappers zo weinig geraadpleegd in de discussie over nepnieuws?
Ik denk dat dat is omdat in de internetindustrie het idee heerst dat alles gedaan moet worden door algoritmes. Als je Mark Zuckerberg vraagt hoe je het probleem van nepnieuws moet oplossen, zou hij zeggen: laten we daar een mooi algoritme voor ontwikkelen. Maar volgens mij vertrouwen mensen er te veel op dat algoritmes dit probleem voor ons kunnen oplossen. In plaats daarvan zou iedereen veel meer getraind moeten worden in het beoordelen van bronnen en het consumeren van informatie.’
‘Uiteraard kunnen de geesteswetenschappen ook op allerlei manieren de vruchten plukken van AI. Denk alleen al aan databases en zoekmachines. Iedereen die langer met geesteswetenschappen bezig is dan ik – een jaar of 15 – herinnert zich nog de tijd waarin je naar bronnen op zoek moest en artikelen nog niet digitaal kon vinden. Tegenwoordig hebben we geweldige zoekmachines die veel van dat werk voor ons doen.
Maar er zijn ook uitdagingen bij het inzetten van AI voor geesteswetenschappelijk onderzoek. Ten eerste is de data waar wij geesteswetenschappers in geïnteresseerd zijn over het algemeen niet beschikbaar in makkelijk toegankelijke digitale formaten. Zo werk ik al een tijd aan een project waarbij we materialen over de Holocaust, zoals brieven en documenten van overheden, wereldwijd willen samenbrengen. Deze documenten zijn opgeslagen in traditionele archieven en zijn natuurlijk nooit gemaakt voor computer-consumptie. Het kost veel tijd om dat soort data te verwerken tot iets waar computers mee uit de voeten kunnen. Die uitdaging wordt vaak over het hoofd gezien.
De tweede grote uitdaging is dat AI op zoek is naar grote patronen, terwijl geesteswetenschappers vaak juist geïnteresseerd zijn in kleine details. Dat is in mijn ogen de heilige graal, het ontwikkelen van een type AI dat hiervoor geschikt is. Ik vind dat we de geesteswetenschappen niet moeten aanpassen aan de AI, zoals de politiek soms suggereert, maar de AI aan de geesteswetenschappen.’
Als je niet begrijpt hoe algoritmes werken, hoe kun je je er dan toe verhouden?
‘Tegelijkertijd denk ik ook dat geesteswetenschappers veel te leren hebben op het gebied van AI. Het zou voor iedereen een goed idee zijn om een beetje te leren programmeren. In de curricula van humanities-studies moet hier tijd voor worden ingeruimd, vind ik. Want om algoritmes te kunnen corrigeren, moet je wel iets weten over hoe ze in elkaar zitten.
Wij mensen leren gedurende ons leven de fijne kneepjes van hoe we met andere mensen om moeten gaan en wie wel en beter niet kunnen vertrouwen. Dat moeten we ook leren in de omgang met die andere intelligentie, AI. Ik ben vergeten wie het zei, maar ik vond het een mooie uitspraak: ‘programme or be programmed’. Zo is het precies. Als je niet begrijpt hoe algoritmes werken, hoe kun je je er dan toe verhouden?’
Tobias Blanke is sinds augustus 2019 universiteitshoogleraar op de leerstoel Humanities and AI. Daarvoor was hij hoogleraar Social and Cultural Informatics aan de afdeling Digital Humanities van King’s College London en een van de directeuren van de European Digital Research Infrastructure for the Arts and Humanities (DARIAH). Blanke is een van de vier universiteitshoogleraren aan de UvA op het gebied van AI. Met het instellen van deze vier leerstoelen wil de universiteit een extra impuls geven aan het AI-onderzoek en -onderwijs aan de UvA.