Kunstmatige intelligentie dringt door tot een breed scala gebieden en is gericht op het transformeren van werk en maatschappij. Dossier Artificial intelligence van Social Europe, gepubliceerd in samenwerking met de Friedrich Ebert Stiftung en het Weizenbaum Institut, gaat in op de mogelijkheden en uitdagingen van kunstmatige intelligentie of AI – Artificial Intelligence. Het gaat vooral om beantwoording van de vraag wat er politiek gezien gedaan moet worden om de transformatie te laten gebeuren voor het algemeen belang.
AI roept een dystopie van robots op die werknemers uit het arbeidsproces verdringen. Sommigen hebben grootschalige arbeidsvervanging voorspeld, anderen vragen zich af of zo’n van tevoren vastgestelde uitkomst kan worden verondersteld: of er banen verloren gaan en hoe die worden veranderd, hangt af van de vraag of werknemers betrokken zijn bij de te nemen beslissingen. Soortgelijke zorgen gelden voor kwesties in verband met aanwerving en toezicht op werknemers: gaan AI-gegevens een ‘toezichtkapitalisme’ dienen of kan het de werknemers helpen bij het uitvoeren van hun taken als zij meer macht hebben bij het beïnvloeden van de uitkomst?
Privacy en burgervrijheid
AI roept bredere vragen op over de huidige en de toekomstige maatschappij waarin we leven. Marktonderzoeksinstituten voorzien enorme voordelen op het gebied van efficiëntie, maar zijn deze geloofwaardig en zo ja, wie zal profiteren van die voordelen, en hoe? Feministen en antiracisten hebben hun bezorgdheid geuit over het feit dat algoritmen waarvan AI afhankelijk is, onbewust maatschappelijke vooroordelen van hun menselijke auteurs bevatten.
Kwesties als privacy en burgervrijheid omvatten ook het eigenaarschap en het beheer van de door AI verkregen gegevens. Op het spel staat ook hoe het onderwijs zodanig kan veranderen dat burgers mondig worden in plaats van vervreemd door AI. Dan is er ook nog de kwestie klimaatverandering en biodiversiteit.
Interview met Elena Espositie
Het laatste deel van het dossier is gewijd aan een interview met sociologe Elena Esposito door Florian Butollo. Zij stelt voor onze aandacht meer te richten op AI als communicatiepartner in plaats van als een intelligente machine.
Butollo’s eerste vraag aan Esposito: Artificiële intelligentie zou antwoorden geven op vragen als de juiste belastingniveaus, behoorlijke stadsplanning, management van bedrijven en de beoordeling van sollicitanten. Zijn de capaciteiten van AI om te voorspellen en te beoordelen beter dan die van de mens? Wil de beschikbaarheid van enorme hoeveelheden gegevens zeggen dat de wereld voorspelbaarder wordt?
Esposito: Algoritmen kunnen oneindig meer gegevens verwerken en bepaalde taken nauwkeuriger en betrouwbaarder uitvoeren dan menselijke wezens. Dat is een groot voordeel dat we ook in gedachten moeten houden als we de grenzen benadrukken die er zijn en die fundamenteel zijn. Wat algoritmen voor alles doen is leren op basis van beschikbare gegevens de toekomst te voorspellen d.m.v. projectie van structuren van de huidige situatie, met inbegrip van vooroordelen en wanverhoudingen.
Dat levert ook problemen op, van ‘overfitting’*) zoals we dat noemen. Dat treedt op wanneer het systeem op een overdreven manier wordt aangepast aan voorbeelden uit het verleden. Daardoor verliest het het vermogen de empirische verscheidenheid van de wereld vast te leggen. Het heeft bijvoorbeeld door oefening en ervaring zo goed geleerd te reageren op rechtshandige gebruikers dat het een linkshandige persoon als mogelijke gebruiker niet herkent.
Algoritmen lijden ook aan een specifieke blindheid, vooral met betrekking tot cirkelvorming waardoor voorspellingen invloed hebben op de toekomst die ze geacht worden te voorspellen. In veel gevallen wordt de door de modellen voorspelde toekomst geen werkelijkheid, niet omdat ze het mis hadden maar juist omdat ze correct waren en werden toegepast. Denk bijvoorbeeld aan de verkeersprognoses in de zomer voor de zogenaamde ‘smart departures’: zwarte, rode of gele dagen. De modellen voorspellen dat er op 31 juli om 12 uur ’s middags files zullen zijn op de snelweg. Het is beter om twee uur in de ochtend te gaan rijden. Als we de goede en betrouwbare voorspellingen volgen, zullen we allemaal in de file staan op de snelweg, ’s morgens vroeg om twee uur – tegen de voorspelling in.
Deze cirkelvorming heeft invloed op alle voorspellingsmodellen: als je de voorspelling volgt, neem je het risico op vervalsing. Het is moeilijk om verrassingen te voorspellen, en teveel vertrouwen op algoritmische modellen dreigt de ruimte voor uitvinden en een transparante toekomst te beperken.
Op de vraag aan Esposito of zij politieke gevaren ziet in teveel vertrouwen in AI en of de huidige belangstelling voor het onderwerp een teken van verlies van onze soevereine maatschappij is, antwoordt zij: De politieke gevaren zijn er, maar ze worden niet direct bepaald door middel van technologie. De mogelijkheden van algoritmen kunnen leiden tot zeer verschillende politieke resultaten en risico’s. Van de hype over personalisering die leidt tot het ontwikkelen van autonomie van individuele gebruikers tot het tegendeel ervan, het Chinese ‘maatschappelijke krediet’-stelsel.
Lees het hele interview met Elena Esposito en de bijdragen van achttien auteurs van het Dossier Artificial intelligence, Social Europe Publishing, 1 augustus 2020: https://www.socialeurope.eu/wp-content/uploads/2020/08/Artificial_intelligence_dossier.pdf
Dossier Artificial intelligence, Social Europe i.s.m. Friedrich-Ebert Stiftung en Weizenbaum Institut: https://www.socialeurope.eu/book/artificial-intelligence
Sociaal Europa (SE), voorheen Social Europe Journal, is een toonaangevende Europese uitgever van digitale media, alsmede een forum voor debat en innovatief denken en is gericht op versterking van de democratische praktijk door bij te dragen aan onderzoek en openbare discussies over urgente politieke en economische kwesties w.o. werkgelegenheid en arbeid.
Wat zijn de consequenties voor werk en banen als machines voor ons denken?, Blog Beroepseer, 14 mei 2020: https://beroepseer.nl
Noot
*) Overfitting is bij het machineleren een tekortkoming, een modelleringsfout. Overfitting van het model neigt over het algemeen tot het maken van een te complex model ter verklaring van de eigenaardigheden in de onderzochte data. Een overfitted model bevat meer parameters dan door de gegevens kan worden gerechtvaardigd. Het is overmatig uitgerust met veel meer gegevens dan nodig is.