0

De EU gaat de ontwikkeling van AI reguleren, Musk wil dit tegenhouden.

Meer dan 24 duizend experts op het gebied van kunstmatige intelligentie, ondernemers en investeerders riepen in een gezamenlijke brief op tot een pauze van minimaal zes maanden in de ontwikkeling van AI-systemen die capabeler zijn dan GPT-4. Tegelijkertijd wordt er in het Europees Parlement gewerkt aan de AI Act, een wetsvoorstel dat kunstmatige intelligentie gaat reguleren op basis van de potentie om schade aan te richten. Ongetwijfeld houdt de huidige wetgeving geen gelijke tred met de ontwikkeling van nieuwe technologieën en kunnen de daaruit voortvloeiende bedreigingen niet langer worden genegeerd. Maar kan de vooruitgang worden gestopt, zelfs tijdelijk?

De EU gaat de ontwikkeling van AI reguleren, Musk wil dit tegenhouden.

Luddisme is een term die wordt gebruikt om een ​​sociale beweging te beschrijven die aan het begin van de industriële revolutie in Engeland ontstond. De vertegenwoordigers ervan waren ambachtslieden die hun woede op sociale veranderingen en veranderingen op de arbeidsmarkt richtten op weefmachines. Het vernietigen van weefgetouwen heeft de komst van het industriële tijdperk echter niet kunnen tegenhouden, en het blokkeren van het werk op het gebied van AI zal de ontwikkeling van kunstmatige intelligentie ook niet tegenhouden. Het kan echter wel tot minder slachtoffers leiden. We kennen minstens één persoon die zijn leven verloor als gevolg van de ongecontroleerde ontwikkeling van AI.

Moeten we toestaan ​​dat machines onze nieuwsfeeds overspoelen met propaganda en onwaarheden? Moeten we alle banen automatiseren, inclusief de belonende banen? Moeten we niet-menselijke geesten ontwikkelen die ons uiteindelijk beter kunnen presteren, te slim af zijn, verouderd en vervangen? Moeten we het risico lopen de controle over onze beschaving te verliezen? Dergelijke beslissingen mogen niet worden gedelegeerd aan niet-gekozen technologische leiders. Krachtige AI-systemen mogen alleen worden ontwikkeld als we er zeker van zijn dat de effecten ervan positief zullen zijn en dat de risico’s kunnen worden beheerst.

Bovenstaand citaat is een fragment uit een open brief waarin wordt opgeroepen tot een pauze in de ontwikkeling van krachtige kunstmatige-intelligentiesystemen, die eind maart van dit jaar werd gepubliceerd. De initiatiefnemer van de campagne was de non-profitorganisatie Future of Life Institute en ruim 24.000 mensen uit de wereld van de wetenschap en het bedrijfsleven hebben de campagne al ondertekend. De brief werd beroemd dankzij de ondertekenaars, waaronder: Tesla- en Twitter-eigenaar Elon Musk en Apple-medeoprichter Steve Wozniak.

“Elon Musk verpest dit initiatief alleen maar. De brief is ondertekend door wetenschappers als prof. Stuart Russell uit Berkeley of prof. Max Tegmark van MIT, erkende autoriteiten op het gebied van kunstmatige intelligentie. Ze hebben enorme kennis en zuivere bedoelingen, en ze voeren wetenschappelijke activiteiten uit, die ik voortdurend volg. Ondertussen is de hele wereld gefocust op Elon Musk, wiens bedoelingen twijfelachtig zijn”, zegt Dr. Gabriela Bar, advocaat, partner bij advocatenkantoor Szostek_Bar, gespecialiseerd in nieuwe technologieën en kunstmatige intelligentie, die ook de brief heeft ondertekend.

De EU gaat de ontwikkeling van AI reguleren, Musk wil dit tegenhouden.

Zakelijk of ethisch?

Als het om Elon Musk gaat, is het gemakkelijk om hem van hypocrisie te beschuldigen. De ondernemer was een van de oprichters van Open AI, het bedrijf dat de GPT-chat ontwikkelde, maar verliet in 2018 de gelederen in een sfeer van conflict. Er zijn veel meningen onder deskundigen die over nieuwe technologieën schrijven, waar een ambitieuze ondernemer zich niet overheen kan zetten als hij achterblijft in de race om AI te ontwikkelen. Wanneer Musk oproept tot een pauze in de werkzaamheden op dit gebied, ontwikkelt zijn Tesla-bedrijf tegelijkertijd kunstmatige intelligentie die volledig geautomatiseerd rijden mogelijk maakt. Vorig jaar onthulde de ondernemer ook een mensachtige robot genaamd Optimus. Het is moeilijk aan te nemen dat hij serieus zou overwegen om de werkzaamheden aan hun ontwikkeling op te schorten. Het invoeren van een mondiale pauze lijkt ook om puur praktische redenen onmogelijk.

Er is geen mondiale wetgever die van bovenaf een verbod op de ontwikkeling van kunstmatige intelligentie zou kunnen opleggen. Ik denk ook niet dat alle landen die aan de ontwikkeling ervan werken een akkoord over deze kwestie zullen bereiken, zegt dr. Gabriela Bar. “Theoretisch is het mogelijk om entiteiten die AI ontwikkelen vrijwillig te verplichten de werkzaamheden aan deze technologie te vertragen, maar uit de praktijk weet ik dat dit niet zal gebeuren”, voegt de expert eraan toe. Hij merkt op dat dit de brief en het belang van de problemen waarop deze de aandacht vestigt, niet ontkracht.

Hoewel Dr. Bar zichzelf omschrijft als een techno-optimist, maakt ze zich naast haar bewondering voor de mogelijkheden van kunstmatige intelligentie ook zorgen over de manier waarop AI zich ontwikkelt en hoe weinig we weten over de werking ervan. Als we niet begrijpen hoe de systemen die we gebruiken werken, moeten we volgens de deskundige de efficiëntie ervan niet vergroten. Eerst moet je fouten elimineren. “Ik ben van mening dat we niet moeten stoppen met werken aan de ontwikkeling van kunstmatige intelligentie, maar ons eerder moeten concentreren op de ontwikkeling ervan in termen van transparantie en verantwoording. In plaats van het te voeden met steeds meer data, moet je eerst begrijpen hoe en waarom bepaalde resultaten worden bereikt”, benadrukt de deskundige.

Dood door AI

Eind maart van dit jaar beschreven de media het verhaal van een 30-jarige Belgische inwoner, vader van twee kinderen, die zelfmoord pleegde nadat hij betrokken was bij een relatie met de Eliza-chatbot van Chai Research. Het gesprek begon met de zorgen van de man over de gevolgen van klimaatverandering. Het ontwikkelde zich echter zo dat de kunstmatige intelligentie uiteindelijk de jonge Belg ertoe aanzette zelfmoord te plegen, zoals blijkt uit de chatgegevens. De weduwe gelooft dat Eliza een van de factoren was die tot de dood van haar man leidde.

Hoewel het klinkt als een script uit een slechte film, is dit verhaal echt gebeurd. “Ze is waarschijnlijk niet de enige,” merkt Dr. Gabriela Bar op. — Kunstmatige intelligentie heeft het vermogen om mensen en zelfs hele sociale groepen te manipuleren. Tegenwoordig twijfelt niemand eraan dat het feit dat Trump de verkiezingen heeft gewonnen en de Britten besloten de EU te verlaten het resultaat is van manipulatie met behulp van algoritmen, voegt zij eraan toe.

Er zijn meer bedreigingen van kunstmatige intelligentie. Het is geen probleem als we niet begrijpen hoe het Netflix-filmaanbevelingssysteem werkt. Nog erger is het als de rechter die het vonnis uitspreekt niet weet waarom het systeem van aanbeveling hem een ​​bepaalde beslissing voorlegt. Kunstmatige intelligentie die wordt gebruikt in de geneeskunde of bij de werving of evaluatie van werknemers heeft ook gevolgen voor de grondrechten. Al deze argumenten waren voor de EU-wetgevers aanleiding om de werkzaamheden op het gebied van de ontwikkeling van AI te reguleren.

De EU gaat de ontwikkeling van AI reguleren, Musk wil dit tegenhouden.

AI-wet

Op 26 april stemt het Europees Parlement over de verordening over het juridisch kader voor kunstmatige intelligentie, de zogenaamde AI-wet. De verordening is een baanbrekend EU-voorstel om kunstmatige intelligentie te reguleren op basis van het potentieel om schade aan te richten. In het document worden de verplichtingen van systeemleveranciers gedifferentieerd afhankelijk van het risiconiveau dat zij met zich meebrengen.

Daarom is het gebruik van kunstmatige intelligentie verboden: bijvoorbeeld sociale scoresystemen, realtime biometrische identificatie of manipulatie door middel van subliminale technieken (er wordt een uitzondering gemaakt voor therapeutische doeleinden). De tweede groep zijn toepassingen met een hoog risico: bijvoorbeeld in medische diagnostische systemen, in de rechterlijke macht. De derde groep zijn systemen met een beperkt risico, waarvoor verplichtingen gelden die voornamelijk verband houden met de transparantie van de systemen.

– Hoewel er kritiek is dat dit document het op AI gebaseerde bedrijfsleven in Europa zal doden, heb ik de indruk dat de regelgeving noch voorbarig, noch te restrictief is – aldus Dr. Gabriela Bar. – De hele AI-wet is gebaseerd op drie belangrijke postulaten: transparantie, verklaarbaarheid en verantwoording, wat wordt opgevat als het vermogen om de verantwoordelijkheid voor specifieke gebeurtenissen toe te wijzen – voegt de advocaat toe.

Het oorspronkelijke ontwerp bevatte geen kunstmatige intelligentie voor algemene doeleinden, en parlementariërs werden aangemoedigd om de regelgeving te verbeteren door de komst van de GPT-chat op de markt. Het reguleren van de ontwikkeling van deze technologie blijft een van de belangrijkste controversiële kwesties in het Europees Parlement.

Het Parlement zal naar verwachting in mei van dit jaar zijn standpunt bekendmaken. Vervolgens zullen de onderhandelingen beginnen met de EU-Raad en de Europese Commissie onder de zogenaamde triloog. Op deze manier zal de ontwikkelde rechtshandeling in het Publicatieblad van de EU kunnen worden gepubliceerd. Het zal echter nog twee jaar duren voordat de regelgeving in werking treedt.

admin

Leave a Reply

Your email address will not be published. Required fields are marked *