Experts waarschuwen voor gevaren kunstmatige intelligentie. Zijn de zorgen terecht?

Al in 2015 maken experts zich zorgen over de gevolgen van kunstmatige intelligentie  (artificiële intelligentie – AI). Waarschuwingen voor de gevaren  monden al snel uit in schrikbeelden en doemscenario’s. In maart 2023 kwam daar nog eens de oproep bij van vooraanstaande tech-experts de ontwikkeling van de meest geavanceerde AI-systemen een half jaar stil te leggen. Ze publiceerden een open brief op de site van het Future of Life Institute (FLI) op 22 maart. De teller wijst aan dat 27.567 mensen de brief hebben ondertekend. Hun namen staan vermeld onder de open brief die begint met: “We call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4”. De pauze van zes maanden zou kans bieden aan experts en ontwikkelaars om gezamenlijk veiligheidsprotocollen voor verantwoorde AI-ontwikkeling samen te stellen, te laten controleren door onafhankelijke externe deskundigen en toe te passen. Alleen die AI-systemen mogen ontwikkeld worden als er zekerheid is dat hun effecten positief zullen zijn en de risico’s beheersbaar.

Lauren Challis op Considerati

De commentaren op de oproep lieten niet lang op zich wachten. Op de site van Considerati – adviesbureau voor de digitale wereld – wijst medewerkster Lauren Challis erop dat critici zich afvragen of de open brief de juiste koers kiest. Deze zou zich beperken tot AI die al in ontwikkeling is en krachtiger is dan GPT-4: “Daarmee wordt er niet gekeken naar de schade en de risico’s van al bestaande AI-systemen, zoals bias en misinformatie. Bovendien ligt het gevaar van AI vaak zowel in de technologie zelf als in de manier waarop deze wordt geïmplementeerd. Tenslotte, de termijn van zes maanden die wordt voorgesteld lijkt ook onrealistisch om de gestelde doelen te behalen, en er wordt voorbij gegaan aan wetgeving zoals de AI-act*) die al langere tijd in ontwikkeling is. Het lijkt alsof de boodschap van het FLI aansluiting vindt op een voorstel voor een nieuw artikel in de AI Act.

Op 14 maart presenteerden de Europese co-rapporteurs Tudorache en Benifei een eerste draft van een nieuw artikel voor de AI Act over general purpose AI (GPAI). Hierin stellen zij voor om de vereisten van high-risk AI ook toe te passen op GPAI, vanwege het potentieel voor significante schade die deze systemen kunnen veroorzaken. Voorbeelden van dergelijke GPAI-systemen zijn de bekende large language models, zoals ChatGPT en Stable Diffusion, waar FLI ook op wijst. Er bestaat duidelijk veel belangstelling en bezorgdheid over de implicaties en mogelijke risico’s van deze systemen, en het is duidelijk dat er meer discussie en regelgeving nodig is om ervoor te zorgen dat ze op een verantwoorde manier worden gebruikt. Deze kwestie lijkt de gemoederen hoog te houden, zowel in Brussel als in Silicon Valley”.

Wim Naudé in ESB

Naar aanleiding van de open brief sprak vakblad voor economen ESB met Wim Naudé, AI-expert bij de Organisatie voor Economische Samenwerking en Ontwikkeling (OESO). Redacteur Rik Leijsen vraagt hem waar de auteurs bang voor zijn?

Naudé: “De auteurs vrezen GPT4, de nieuwste versie van een taalmodel gebaseerd op artificial intelligence (AI). Het is onduidelijk hoe dit model is getraind. De vrees is dat het model zichzelf dermate snel kan ontwikkelen dat het slimmer wordt dan de mens. Dan zou het einde nabij kunnen zijn voor de mensheid, volgens deze wetenschappers. Zo kan AI de mensheid als een bedreiging zien, en aan hen de oorlog verklaren. Of de dreiging loopt via een AI lock-in, waarbij AI de overheid overneemt en wereldwijd wetten aanneemt die men nooit meer kan veranderen. Ook is er een situatie denkbaar uit The Matrix, waarbij de AI stimulansen verschaft, en zo menselijk gedrag kan beïnvloeden”.

Zijn de zorgen terecht in jouw ogen?

“Filosofisch gezien wel. Maar deze oproep lijkt juist ook te zijn ingegeven door de tegenvallende resultaten van AI. Het is niet de eerste open brief van deze groep prominenten uit Silicon Valley. In 2015 publiceerden zij op de website van Future of life een open brief, waarin zij juist meer onderzoek naar AI bepleitten. Zij dachten dat de opbrengsten van AI immens zouden zijn, en dat het bijvoorbeeld de mondiale armoede zou kunnen oplossen. Nu dat acht jaar later lijkt tegen te vallen, wegen de baten volgens hen kennelijk niet meer op tegen de risico’s.

Maar je zou de oproep ook kunnen zien als een publiciteitsstunt: de tech-industrie staat onder zware druk. De auteurs proberen met de oproep enerzijds aan te geven hoe krachtig hun creatie is – door ervoor te waarschuwen. Anderzijds willen ze met de oproep aangeven hoe deugdzaam ze zijn.
Ik denk zelf echter niet dat AI al een existentieel risico met zich meebrengt – er is nog geen enkele beschaving aan zijn eigen technologie ten onder gegaan”.

Noot
*) The Artificial Intelligence Act: https://artificialintelligenceact.eu/
Europees akkoord AI Act: EU-akkoord over sterke, goedwerkende markt voor kunstmatige intelligentie, Rijksoverheid, 12 december 2022: www.rijksoverheid.nl/

Referenties

Een pauze voor de grote AI-labs?, door Lauren Challis, Considerati, 31 maart 2023: www.considerati.com/nl/kennisbank/een-pauze-voor-ai-labs.html

‘Resultaten kunstmatige intelligentie vallen tegen’, door Rik Leijsen, ESB, 20 april 2023: https://esb.nu/resultaten-kunstmatige-intelligentie-vallen-tegen/

Pause Giant AI Experiments: An Open Letter, Future of Life Institute, 22 maart 2023: https://futureoflife.org/open-letter/pause-giant-ai-experiments/

Artificial Intelligence, Future of life: https://futureoflife.org/cause-area/artificial-intelligence/

ChatGPT dreigt AI Act te vertragen, door Alfred Monterie, Computable, 7 maart 2023: www.computable.nl

 

Actualiteitencongres Artificial Intelligence op 16 juni 2023

Het AI-congres staat stil bij de impact van AI-technologieën en bijbehorende wetgeving op organisaties en individuen. Vanuit verschillend perspectief – wetgeving, toezichthouder en business – wordt ingegaan op AI-toepassingen, de kansen en risico’s en algoritmen.
Het congres wordt georganiseerd door Considerati en opleidingscentrum Outvie.

Vrijdag 16 juni 2023 van 9.00 – 16.30 uur, met aansluitend borrel
Plaats van het congres: Van der Valk Hotel in Utrecht.

Volledig programma en meer info op Outvie: https://outvie.nl/conferenties/artificial-intelligence-impact-update/ (Niet meer beschikbaar).

U P D A T E

ChatGPT zaait argwaan en wantrouwen, door Miro Lucassen, Algemene Onderwijsbond, 12 januari 2024: www.aob.nl/actueel/artikelen/chatgpt-zaait-argwaan-en-wantrouwen/

 

 

Afbeelding bovenaan is van Alexandra Koch

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.

Nieuwsbrief ontvangen?

Wij houden u graag op de hoogte van actuele ontwikkelingen binnen Stichting Beroepseer.  Wilt u onze nieuwsbrief ontvangen? Dan kunt u zich hieronder aanmelden.

Contact

Adres:
Multatulilaan 12
4103 NM Culemborg

Email:
info@beroepseer.nl

© Stichting beroepseer