kunstmatige intelligentie AI ethiek
Foto: Pexels.com / Karolina Grabowska

Het TU Delft Digital Ethics Centre gaat de World Health Organization (WHO) adviseren op het gebied van ethische aspecten en wet- en regelgeving rondom AI in de zorg. Op 6 maart kreeg het Delftse onderzoekscentrum een accreditatie. Het is nu officieel een samenwerkingspartner van de WHO op het gebied van Ethics and Governance of AI in Healthcare.

De gezondheidszorg staat wereldwijd onder druk, en de inzet van AI in de zorg biedt enorme kansen. Maar de integratie en implementatie van AI in de zorg gaat niet zonder slag of stoot. Sterker nog: slechts twee procent van alle AI-innovaties wordt ook echt gebruikt, blijkt uit onderzoek. Innovaties sluiten vaak niet  goed aan op de  praktijk, zorgpersoneel omarmt ze niet, er ontstaan ethische dilemma’s of AI bevat nog biases die discriminatie kunnen veroorzaken.

Ethische principes voor gebruik AI

Bij het gebruik van AI in de zorg is het uiterst belangrijk om zowel ethische principes als zorgnormen en -waarden te handhaven. Hiervoor zijn internationale richtlijnen opgesteld, maar deze moeten nog vertaald worden naar de praktijk. Daar gaat het TU Delft Digital Ethics Centre nu bij helpen. “AI heeft de transformerende kracht om de gezondheidszorg een nieuwe vorm te geven en mensen in staat te stellen hun eigen gezondheid te bewaken. Het technische en academische partnerschap met het Digital Ethics Centre van de TU Delft is cruciaal om ervoor te zorgen dat de voordelen van AI iedereen wereldwijd bereiken via ethisch bestuur, rechtvaardige toegang en gezamenlijke actie”, aldus Alain Labrique, Director Department of Digital Health and Innovation bij de WHO.

Ethisch fundament nodig

Michel van Genderen, internist-intensivist en universitair docent bij het Erasmus MC: “AI kan de zorg alleen verbeteren als we een goed ethisch fundament hebben. Dat moeten we op orde hebben. Dankzij de bijzondere samenwerking tussen het WHO, TU Delft en Erasmus MC, en ook softwarebedrijf SAS, kunnen we AI verantwoord en transparant toepassen in de kliniek. Een voorbeeld is een lopend project binnen het Erasmus MC: waarbij AI helpt bepalen wanneer een patiënt veilig ontslagen kan worden na grote oncologische chirurgie. Als we voldoen aan alle randvoorwaarden dan kan zo’n AI model niet alleen zorgen voor een veiliger ontslag van patiënten, maar ook dat ze gemiddeld vier dagen eerder naar huis kunnen en er sprake is van een halvering van heropnames.”

Twintig jaar onderzoek

Het TU Delft Digital Ethics Centre is het resultaat van bijna twintig jaar onderzoek naar digitale ethiek en verantwoorde innovatie, het is op dit gebied één van de koplopers in de wereld. “Wij hebben samen met de WHO al kaders opgesteld voor verantwoord gebruik van AI en Generatieve AI in de zorg,” vertelt Stefan Buijsman, universitair hoofddocent Responsible AI TU Delft. Pilots die bedacht worden in Delft, kunnen nu in de praktijk worden getest. Buijsman: “Het is belangrijk dat we kunnen zien of wat wij bedenken, ook werkt in de dagelijkse praktijk van het ziekenhuis. Wij kunnen de ethische kaders uitwerken en technologische oplossingen bedenken die erbij passen, in Erasmus MC kunnen ze die valideren en behoeftes uit de praktijk identificeren.”

Opzet

Het Responsible and Ethical AI in Healthcare Lab (REAiHL) is een samenwerking tussen Erasmus MC, TU Delft en softwarebedrijf SAS en heeft de DataHub van het Erasmus MC als standplaats. Hier werken wetenschappers, artsen en datascientists samen  aan richtlijnen voor het ontwikkelen en implementeren van ethisch verantwoorde en klinisch relevante AI in de zorg. REAiHL is een ICAI lab (Innovation Center for Artificial Intelligence); een onderzoekssamenwerking tussen industriële, overheids- of non-profit-partners en kennisinstituten.

Bron: Persbericht TU Delft / FMT