Industry Wire

Geplaatst door Open Universiteit

Oratie: Kunnen we AI veilig maken?

AI-assistenten zoals ChatGPT maken ondanks hun indrukwekkende prestaties af en toe heel basale fouten, die schade kunnen toebrengen aan mensen. Wat kunnen we doen om AI veiliger te maken? Natasha Alechina, hoogleraar Safe and Responsible AI bij de faculteit Bètawetenschappen van de Open Universiteit, onderzoekt deze vraag in haar oratie getiteld: ‘Can we make AI safe?’

Zij spreekt haar oratie uit op vrijdag 1 november 2024 om 16.00 uur aan de Open Universiteit in Heerlen.

Is AI-veiligheid een probleem?

Artificial Intelligence heeft de afgelopen tien jaar snelle vorderingen gemaakt en speelt een steeds belangrijkere rol in de maatschappij. De meeste vorderingen zijn te danken aan de ontwikkeling van deep learning en de toenemende beschikbaarheid van enorme hoeveelheden data en rekenkracht.

Eerdere benaderingen van AI maakten veel meer gebruik van symbolische benaderingen, waarbij code werd geschreven door menselijke programmeurs. Dit is moeilijk voor complexe taken, maar dit maakt het makkelijker om aan te tonen dat het AI-systeem veilig is.

Veiligheid

Echter, de toepassing van machine learning-technieken loopt vast in veiligheidskritische gebieden: robotvoertuigen hebben een onaanvaardbaar ongevallenpercentage en menselijke piloten zijn nog niet te vervangen door zelfvliegende vliegtuigen. Alechina: ‘Het probleem is dat we niet weten wat systemen die gebaseerd zijn op leren, hebben geleerd.’

Language Learning Models (LLM’s), waarvan ChatGPT een voorbeeld is, hebben de neiging om dingen te verzinnen. Dit worden ook wel hallucinaties genoemd. ‘De oorzaak hiervan is dat LLM’s niet factive zijn, met andere woorden, ze weten het verschil niet tussen waarheid en onwaarheid’.

Wat kunnen we doen?

ChatGPT is een voorbeeld van een generatieve AI. Dit is een vorm van artificial intelligence die geautomatiseerd content creëert, op basis van ‘prompts’ (vragen of verzoeken van gebruikers). Generatieve AI is moeilijker van tevoren te beperken, tijdens de training.

Het is wel mogelijk om formele verificatietechnieken toe te passen óp de gegenereerde content. Als generatieve AI bijvoorbeeld een medisch behandelplan produceert, is het mogelijk om te verifiëren of het voldoet aan de richtlijnen die zijn voorgeschreven.

Toekomstvisie

In haar toekomstige onderzoek is Alechina van plan om veilige generatieve AI te ontwikkelen. Ze wil hierbij de flexibiliteit en het gemak van het genereren van inhoud met generatieve AI en leren in het algemeen combineren met de nauwkeurige formele garanties die door symbolische benaderingen worden geboden. Ze hoopt door deze twee verschillende benaderingen samen te brengen, dat een meer robuust, betrouwbaar, veilig en vertrouwd AI gaat ontstaan.

Over Natasha Alechina

Prof. dr. Natasha Alechina is sinds 1 september 2023 hoogleraar Safe and Responsible AI aan de faculteit Bètawetenschappen van de Open Universiteit. Ze is een van de docenten van de cursus AI en maatschappij. Haar hoogleraarschap aan de Open Universiteit combineert zij met haar functie als universitair hoofddocent aan de faculteit Bètawetenschappen aan de Universiteit Utrecht, waar zij de cursus Logics for Safe Artificial Intelligence geeft binnen de master AI.

Alechina studeerde filosofie en promoveerde aan de staatsuniversiteit van Moskou. Daarna promoveerde zij in 1995 met het proefschrift ‘Modal Quantifiers’ aan de Universiteit van Amsterdam binnen de faculteit Wiskunde en Informatica. Zij werkte van 1996 tot 1998 als onderzoeker aan de University of Birmingham en van 1998 tot 2019 eerst als universitair docent en daarna als universitair hoofddocent aan de School of Computer Science van de University of Nottingham.

Zij werkte sinds 2019 bij de Universiteit Utrecht, waar zij onder andere voorzitter van de Onderwijs Advies Commissie voor de Master AI en coördinator van de Special Interest Group on Autonomous Intelligent Systems binnen the Human-Centered AI Focus Area was.

Haar onderzoek richt zich op logica en haar toepassingen in kunstmatige intelligentie en computerwetenschap, met de nadruk op het ontwerpen van veilige en correcte agentprogramma’s en multi-agent AI-systemen.

De oratie op vrijdag 1 november 2024 is live te volgen via ou.nl/live.

Dit artikel is een ingezonden bericht en valt buiten de verantwoordelijkheid van de redactie.

Deel dit bericht