Voor de beste ervaring schakelt u JavaScript in en gebruikt u een moderne browser!
Je gebruikt een niet-ondersteunde browser. Deze site kan er anders uitzien dan je verwacht.
‘Verantwoorde digitale transformaties’ is een van de vier thema’s binnen het programma Themagerichte samenwerking. Dit programma geeft invulling aan de ambitie uit het Instellingsplan om onderzoek en onderwijs te vernieuwen via samenwerking, zowel tussen disciplines binnen de UvA als met externe partners. Het thema ‘verantwoorde digitale transformaties’ gaat over ethische, juridische en sociale aspecten van digitale technologieën, algoritmes, systemen en platformen, en hun weerslag op vertrouwen, afhankelijkheid en gelijkheid in de samenleving.

Projecten

Vanuit het programma themagerichte samenwerking zijn de ambities voor dit thema vertaald naar concrete onderzoeksprojecten. In de zomer van 2022 zijn budgetten toegekend voor opstartprojecten. Deze projecten zijn inmiddels succesvol afgerond. In april 2023 zijn budgetten toegekend voor zogenoemde midsize en seed grant projecten.

Seed grant projecten brengen UvA-wetenschappers van verschillende faculteiten samen om te werken aan kleinschalige, innovatieve, interfacultaire onderzoeksprojecten of de voorbereiding van subsidievoorstellen.

Midsize projecten bouwen voort op bestaande onderzoekssamenwerking tussen UvA-wetenschappers van verschillende faculteiten. Ook is sprake van samenwerking met een of meer niet-academische partners.

Onderstaand volgt een overzicht van projecten voor het thema verantwoorde digitale transformaties.

Midsize projecten
  • Gegevens delen via een gegevensintermediair

    Verkenning van juridische en technische mechanismen die het mogelijk maken om veilig gegevens uit te wisselen tussen bedrijven en de overheid, en daarbij de rechten en belangen van alle partijen in acht te nemen.

    Bedrijven die grote hoeveelheden gegevens verzamelen, lijken terughoudend om relevante gegevens te delen. Als gevolg daarvan kan het openbare instellingen ontbreken aan informatie die nodig is om hun openbare taken te vervullen, zoals bij wet is voorgeschreven. In reactie hierop heeft de EU digitale soevereiniteit hoog op haar beleidsagenda geplaatst met de Data Act en de Data Governance Act.

    In dit interdisciplinaire onderzoeksproject zullen het Instituut voor Informatierecht (IViR) en het Instituut voor Informatica (IvI) gezamenlijk de juridische en technische dimensies onderzoeken van het delen van gegevens tussen bedrijven en overheden ("B2G") via "data-intermediairs". Een data-intermediair, een betrouwbare derde partij met een eigen data governance, kan mogelijk helpen om negatieve prikkels weg te nemen en het vertrouwen in B2G-gegevensuitwisseling te versterken.

    Samen met maatschappelijke partners willen de onderzoekers:

    • de mogelijkheden, overwegingen en valkuilen begrijpen van het inschakelen van een data-intermediair om het delen van B2G-gegevens betrouwbaarder, verantwoordelijker en duurzamer te maken;
    • een geschikte data-intermediair ontwikkelen en testen voor een concrete, gemeentelijke use case;
    • afhankelijk van de resultaten, komen tot inzichten voor wetgevers, voor regelgeving en voor ontwerpers van data-intermediairs.

    De gemeente Amsterdam investeert in dit project, zowel in geld als in natura, door te helpen bij het identificeren van relevante beleidsdomeinen en praktische use cases om B2G via gegevensbemiddeling te testen en toe te passen. Met IvI ondersteunt AMdEX fieldlab de technische ontwerponderdelen van het project, terwijl andere maatschappelijke partners helpen het burgerperspectief op een zinvolle manier te integreren.

    Projectteam:

    • Dr. Heleen Janssen (FdR)
    • Dr. Balázs Bodó (FdR)
    • Dr. Thomas van Binsbergen (FNWI)
    • Dr. Ana Oprescu (FNWI)
  • ‘Een Gebarenstrand aan de Taalzee’: gepersonaliseerd en op schaal gebarentaal leren

    In 2021 is Gebarentaal Nederland (NGT) bij wet erkend als een van de officiële talen van het land.  Om de maatschappelijke participatie van dove burgers te verhogen, schrijft de wet voor dat het gebruik van NGT in de Nederlandse samenleving moet worden vergroot. Het huidige project wil daaraan bijdragen. Het betreft een samenwerking tussen de UvA en Prowise, een organisatie die de digitale taal-leertool Taalzee aanbiedt, die door meer dan 2.000 basisscholen in Nederland wordt gebruikt.

    Wij zullen een leeromgeving creëren voor NGT, “Gebarenstrand”. Deze zal worden geïntegreerd in “Taalzee” en daardoor beschikbaar komen voor meer dan 300.000 kinderen in Nederland. Dit zal niet alleen bijdragen tot een grotere bekendheid van NGT in de Nederlandse samenleving, maar het zal ook een uniek venster bieden op hoe kinderen een visuele taal als NGT leren.

    Tot nu toe heeft taalverwervingsonderzoek zich voornamelijk gericht op gesproken talen. Onze digitale leeromgeving zal uitgebreide acquisitiegegevens opleveren voor NGT. Dit zal ons in staat stellen fundamentele vragen in gebarentaallinguïstiek en digitaal leren aan te pakken, wat op zijn beurt verfijningen van zowel online als offline leerprogramma's voor gebarentaal mogelijk zal maken. Het project zal dus een aanzienlijke wetenschappelijke en maatschappelijke impact hebben.

    Projectteam:

    • Abe Hofman (FMG)
    • Beyza Sümer (FGW)
    • Floris Roelofsen (FNWI)
  • De digitalisering van illegale stedelijke markten

    Dit project heeft tot doel de effecten van de digitalisering van illegale stedelijke economieën te begrijpen en risico’s in deze processen te beperken.

    De alledaagse activiteiten die verband houden met illegale stedelijke economieën, en met name illegale drugsmarkten, hebben lange tijd een sterk territoriale basis gehad, met aanbod en consumptie geconcentreerd in specifieke, vaak gemarginaliseerde gebieden. Naarmate illegale transacties worden gedigitaliseerd – waarbij kopers drugs kopen via telefoon-apps in plaats van via straatdealers – lijkt de verkoop van drugs steeds meer op andere vormen van ultrasnelle leveringsdiensten, met ingrijpende gevolgen voor de risico's die aan deze transacties zijn verbonden.

    Dit project probeert mechanismen te identificeren waarmee de digitalisering van drugstransacties de risico's voor verschillende bevolkingsgroepen verergert of verkleint, waaronder verslaving en blootstelling aan crimineel of staatsgeweld. Het doet dit door middel van een vergelijkende benadering, waarbij deze mechanismen worden bestudeerd in Amsterdam en Rio de Janeiro, steden met gevestigde lokale drugsmarkten, maar met contrasterende benaderingen op het gebied van drugsbeleid en politie.

    Projectteam:

    • Prof. dr. Rivke Jaffe (FMG)
    • Prof. dr. Thomas Poell (FGW)
    • Dr. Wouter van Gent (FMG)
    • Dr. Laura Dupin (VBO)
Seed grant projecten
  • Data met oog voor duurzaamheid en privacy

    In dit project onderzoeken we het gebruik van privacy-verbeterde gegevens om een besluitvormingskader te creëren dat rekening houdt met energieverbruik/efficiëntie en privacy-/informatieverlies.

    Synthetische gegevens zijn privacy-verbeterde gegevens die vergelijkbaar zijn met de originele dataset, maar vrij van de letterlijke inhoud van de originele dataset. De vraag is of het vanuit het oogpunt van energieverbruik en informatieverlies beter is synthetische gegevens te gebruiken in plaats van geanonimiseerde gegevens. Dit seed grant project zal resulteren in een aanbevelingssysteem voor dergelijke beslissingen (zie Google Maps alternatieve groene routes).

    Dit project sluit aan bij het thema Verantwoorde digitale transformaties en raakt het thema duurzame welvaart: we onderzoeken de economische context van onze technische resultaten om te begrijpen hoe de samenleving de afweging tussen privacy en klimaatimpact ziet.

    Wij innoveren door methoden van design space exploration te combineren met narratieven van gebruikers. In het tijdperk van een data-economie is regelgeving nodig die de privacy en veiligheid van gegevens garandeert en tegelijkertijd een duurzame infrastructuur voor de gegevens, het gegevensgebruik en de gegevensopslag ondersteunt. Daartoe bevorderen we een dialoog tussen business, governance en software engineering die nodig is om gezamenlijk tot oplossingen te komen.

    Projectteam:

    • Ana Oprescu, assistent-professor FNWI
    • Ans Kolk, hoogleraar FEB
    • Kristina Irion, assistent-professor FdR
  • Synthetische gegevens voor verantwoorde digitale transformatie om dierproeven te verminderen en de opname van nieuwe medische behandelingen te verbeteren: een toepassing bij acute ischemische beroerte

    De integratie van nieuwe medische behandelingen in de klinische praktijk is suboptimaal, vergt veel middelen en is tijdrovend. In-silico/computationele modellering kan waardevol zijn om preklinische dierproeven en daaropvolgende klinische proeven te verfijnen, te verminderen en zelfs gedeeltelijk te vervangen door de ontwikkeling van nieuwe en gepersonaliseerde behandelingen.

    In een grootschalig, door de EU gefinancierd consortium hebben we een in-silico-onderzoeksplatform ontwikkeld en gevalideerd voor de beoordeling van de behandeling van patiënten met een acute ischemische beroerte – de meest invaliderende ziekte ter wereld. Dit platform combineert gegevens- en kennisgestuurde computationele behandelmodellen met “synthetische patiënten” die ontwikkeld zijn met behulp van een grote database met beroertes.

    Wij zijn van mening dat er grote waarde zit in tools die patiënten-data generaliseren en zo “synthetische patiënten” creëren die relevant zijn voor bredere populaties en verschillende ziekten. Met onze samenwerking tussen Amsterdam UMC, Informatica Instituut en de Faculteit der Geesteswetenschappen willen we een dialoog tot stand brengen tussen technisch en maatschappelijk onderzoek over de mogelijkheden van het gebruik van synthetische gegevens en oplossingen om de toepasbaarheid ervan uit te breiden met behulp van kunstmatige intelligentie.

    Projectteam:

    • Praneeta. R. Konduri (FdG)
    • Dr. Erik Bekkers (FNWI)
    • Dr. Randon Taylor (FGw)
  • HUE: een brug slaan tussen AI-representaties en door mensen te begrijpen verklaringen

    Bij het overwegen van verklaringen voor het gedrag van een AI-model, bijvoorbeeld verklaringen van het type "wat vond het model belangrijk bij het produceren van deze output", kan confirmation bias ons doen geloven dat een machine betrouwbaar is omdat een paar verklaringen overeenkomen met onze overtuigingen. Om deze situaties te voorkomen, zal het project HUE proberen confirmation bias te verminderen door te onderzoeken hoe verklaringen aansluiten bij concepten die door mensen begrepen kunnen worden. Als onze methode succesvol is, kunnen we AI 'doorlichten' en controleren of het voldoet aan onze eisen, of juist schadelijk gedrag vertoont. Dit werk bouwt voort op een bestaand conceptueel raamwerk en zal verschillende disciplines met elkaar verbinden door het raamwerk te testen en uit te breiden van medische AI naar Natural Language Processing en Computer Vision. De toepassing op medische use cases is al interessant voor industriële partners.

    Projectteam:

    • Giovanni Cinà (FdG)
    • Sandro Pezzelle (FNWI)
  • Inzicht in de human-in-the-loop: gedragsinzichten om verantwoorde AI-tools te ontwikkelen (HUMAINE)

    Dit interdisciplinaire project onderzoekt hoe human-in-the-loop (HITL)-interventies verantwoord ontwerpen van kunstmatige intelligentie (AI)-systemen kunnen bevorderen. EU-regelgeving verplicht private en publieke instellingen HITL-raamwerken te implementeren in AI-besluitvorming. Critici beweren echter dat HITL vaak genoeg is opgezet om te falen en wordt gebruikt als schaamlap om vooraf bepaalde beslissingsresultaten te legitimeren. Om dit probleem aan te pakken, zullen gevestigde onderzoekers op het gebied van humane AI en gedragsethiek samenwerken om gecontroleerde experimenten uit te voeren met behulp van de machine behavior-benadering. Het hoofddoel is om een AI-sandbox-model te ontwikkelen dat empirische inzichten kan bieden in het ontwerpen en implementeren van HITL voor effectieve en verantwoorde AI-besluitvorming.

    Project team:

    • Prof. Dr. Shaul Shalvi (FEB)
    • Dr. Christopher Starke (FMG)
Opstartprojecten
  • Towards an AI4Society Sandbox

    Dit thema is van start gegaan met het project ‘Towards an AI4Society Sandbox’. Middels sandboxing, een manier om een veilige productie- of gebruikersomgeving na te bootsen, worden de juridische, maatschappelijke en ethische implicaties van toekomstige scenario’s besproken, ontwikkeld en getest. Dit ‘moonshot project’ onderzoekt hoe een Sandbox-testomgeving moet worden vormgegeven om ervoor te zorgen dat AI-technologieën daadwerkelijk voldoen aan onze maatschappelijke waarden.

    De onderzoekers vormen een interdisciplinair team dat aan de slag gaat met testcases op het gebied van digitale infrastructuur, AI-regelgeving en de impact van AI-gedreven applicaties. Samen met de stuurgroep zetten zij de eerste stap in het ontwerpen van een collaboratief, interfacultair AI4Society Sandbox platform, en zetten zij een netwerk en community van stakeholders op bestaande uit onderzoekers, studenten, burgers, ambtenaren en beleidsmakers.

    Debraj Roy (FNWI) onderzoekt een reeks mechanismen om de langetermijnimpact van digitale transformatie op ongelijkheid, polarisatie en uitsluiting in onze samenleving te begrijpen. Hij ontwikkelt een rekenkundig raamwerk dat richtlijnen kan geven voor algoritmes die collectief voordeel opleveren.

    Tanja Ahlin (FMG) onderzoekt het ontwerp en gebruik van sociale robots voor oudere volwassenen. Met behulp van etnografische methoden onderzoekt zij hoe sociale robots informatie verzamelen door interactie met hun gebruikers en wat er gebeurt met de verkregen data. Centraal in deze casestudy staat de vraag: moeten AI-systemen - vooral als ze zich richten op mensen met verschillende niveaus van cognitieve vermogens (beperkingen) zoals dementie - gereguleerd worden en zo ja, hoe?

    Rocco Bellanova (FGw) werkt aan 'The European Union's regulation of AI in the field of public security'. High-tech oplossingen op het gebied van terrorismebestrijding, surveillance en profilering hebben een enorme impact op de openbare veiligheid en samenlevingen. Het definiëren van solide verantwoordingsprincipes voor de regulering van AI is van cruciaal belang. De EU speelt een sleutelrol bij het bevorderen van een regelgevend kader. Dit project concentreert zich daarom op het nieuwe mandaat van Europol, het Europees Agentschap voor Politie samenwerking, en op zijn initiatieven met betrekking tot technologische innovatie evenals het bestuur hiervan.

    Joanna Strycharz (FMG) richt zich op personalisatie-algoritmen die gebruikt worden in online communicatieplatforms. Via de studie van de black box van algoritmische communicatie werkt ze mee aan het ontwikkelen van een AI4Society Sandbox. Haar focus ligt hierbij op sandboxing en de impact van personalisatie-algoritmen op individuen en de samenleving.

Meer informatie

Bezoek de website Responsible Digital Transformations voor meer informatie over dit thema en de bijbehorende community.

Stuurgroep

De stuurgroep voor het thema ‘Verantwoorde digitale transformaties’ bestaat uit de volgende leden:

Contact

Neem voor meer informatie over de themabenadering voor ‘verantwoorde digitale transformaties’ contact op met themamanager dr. Christine Erb (e-mail: m.c.erb@uva.nl).