0

AI zou tot burgeroorlogen kunnen leiden, waarschuwt Japan

“De sociale orde kan instorten” in het tijdperk van kunstmatige intelligentie. Twee toonaangevende Japanse bedrijven waarschuwen het land, maar ook de wereld, dat de ontwikkeling van AI meer kwaad dan goed kan doen. Zijn dit legitieme zorgen?

AI zou tot burgeroorlogen kunnen leiden, waarschuwt Japan

Nippon Telegraph and Telephone (NTT) is een Japans telecommunicatiebedrijf dat werd opgericht als een staatsmonopolie op het gebied van telecommunicatie en later werd omgevormd tot een particulier bedrijf waarin de Japanse overheid nog steeds een aanzienlijk aandeel heeft. Yomiuri Shimbun is op zijn beurt een van de grootste en invloedrijkste dagbladen in Japan, met de grootste oplage van het land (de ochtendoplage bedraagt ongeveer 6 miljoen exemplaren). De krant heeft vaak een prominente rol gespeeld en speelt nog steeds een belangrijke rol bij het vormgeven van de publieke opinie en de politiek in Japan.

Beide entiteiten zijn een samenwerking aangegaan en hebben een manifest uitgebracht waarin wordt opgeroepen tot de introductie van nieuwe wetten die de ontwikkeling van generatieve kunstmatige intelligentie (hierna: GenAI) beperken. Dit verwijst naar technologieën zoals de populaire ChatGPT-tool.

Volgens deze bedrijven, zonder passende wet- en regelgeving, vooral met betrekking tot GenAI, kunnen democratie en de sociale orde instorten.

Japanse bedrijven benadrukken de nadelen van AI

Het manifest wijst op de groeiende zorgen van Amerikaanse bondgenoten over AI-oplossingen die bedrijven wereldwijd, vooral in de VS, de afgelopen jaren dynamisch hebben ontwikkeld.

Het manifest van de Japanse bedrijven erkent de potentiële voordelen van GenAI in termen van productiviteitsverbetering, maar hanteert over het algemeen een sceptische benadering van deze technologie. Er wordt gesteld dat AI-instrumenten al “de menselijke waardigheid beginnen te schaden” omdat ze soms zijn ontworpen om de aandacht van gebruikers te trekken, zonder rekening te houden met moraliteit of nauwkeurigheid. Voorbeelden hiervan zijn AI-beïnvloeders, mensen die door technologie zijn gegenereerd en door mensen worden beheerd, maar in de praktijk niet bestaan, of een tv-presentator die ook een creatie van AI is.

Als AI niet wordt gereguleerd, kunnen “in het ergste geval de democratie en de sociale orde instorten, met als gevolg oorlogen”, aldus het manifest.

De bedrijven benadrukken dat Japan onmiddellijk maatregelen moet nemen, waaronder wetgeving om verkiezingen en de nationale veiligheid te beschermen tegen misbruik van GenAI.

Wereldwijd wordt er al gewerkt aan het reguleren van AI. Een nieuwe EU-wet verplicht fabrikanten van AI-modellen om veiligheidsbeoordelingen uit te voeren en toezichthouders op de hoogte te stellen van ernstige incidenten. Het verbiedt ook het gebruik van emotieherkennende AI op scholen en werkplekken. De VS, het VK en Japan hebben ook overheidsinstituten opgericht om richtlijnen voor AI-ontwikkeling op te stellen.

AI zou tot burgeroorlogen kunnen leiden, waarschuwt Japan

Zorg voor de samenleving

NTT en Yomiuri benadrukken dat hun manifest is ingegeven door bezorgdheid over het publieke debat. Beide bedrijven behoren tot de politiek meest invloedrijke entiteiten in Japan. Ze gaven aan dat hun managementteam sinds vorig jaar de impact van generatieve AI bestudeert in een groep onder leiding van onderzoekers van Keio University.

De nieuws- en redactionele pagina’s van Yomiuri benadrukken vaak de zorgen over kunstmatige intelligentie. In een redactioneel artikel uit december werd de instroom van nieuwe AI-producten van Amerikaanse technologiebedrijven opgemerkt: “AI-modellen kunnen mensen leren hoe ze wapens kunnen maken of discriminerende ideeën kunnen verspreiden.” Ze noemden ook de risico’s van geavanceerde deepfake-technieken die nepvideo’s creëren waarin politici woorden in de mond worden gelegd die ze nooit hebben gezegd.

NTT begon in maart klanten een groot “tsuzumi”-taalmodel aan te bieden, vergelijkbaar met OpenAI’s ChatGPT, maar ontworpen om minder verwerkingskracht te gebruiken en beter te presteren in Japanssprekende contexten. Een NTT-woordvoerder zei dat GenAI-technologie “bijzondere risico’s met zich meebrengt als deze kwaadwillig wordt gebruikt om de publieke opinie te manipuleren.”

Beide bedrijven brachten ook persberichten uit waarin ze verklaarden: “Aangezien generatieve AI gebruiksvriendelijke interfaces en ervaringen biedt, wordt verwacht dat dit de werkproductiviteit zal verbeteren. De nauwkeurigheid van door AI gegenereerde resultaten kan momenteel echter niet volledig worden gegarandeerd en onbeperkt gebruik van generatieve AI zou verschillende problemen kunnen veroorzaken voor de mensheid en de samenleving. De mensheid moet maatregelen nemen om de controle en het gebruik van generatieve AI vanuit technologisch en institutioneel perspectief in evenwicht te brengen.”

Bedrijven stellen voor om de ontwikkeling van GenAI op de volgende manier aan te pakken:

  1. Het is noodzakelijk om de ongecontroleerde relatie tussen AI en de aandachtseconomie (de zogenaamde economie waarin de meest waardevolle hulpbron de aandacht van de consument is – red.) aan te pakken.
  2. Er zijn wettelijke beperkingen nodig om discussieruimtes te garanderen die vrijheid en waardigheid beschermen, en de introductie van technologie om daarmee samenhangende kwesties op te lossen.
  3. Invoering van effectief bestuur, inclusief wetgeving.

AI zou tot burgeroorlogen kunnen leiden, waarschuwt Japan

De angsten zijn enigszins overdreven

Hoewel de bezorgdheid over GenAI belangrijk is, kan deze als enigszins overdreven worden beschouwd. Bovenal biedt AI een enorm potentieel om de efficiëntie en innovatie in veel sectoren te verbeteren, van de geneeskunde tot het onderwijs, wat zou kunnen leiden tot een algehele toename van het sociale welzijn. Bovendien wordt deze technologie steeds vaker ontworpen met ingebouwde ethische mechanismen die misbruik moeten voorkomen en verantwoord gebruik moeten bevorderen.

Technologiebedrijven over de hele wereld introduceren ook hun eigen ethische AI-beleid, wat aangeeft dat de particuliere sector zich bewust is van de potentiële risico’s.

Momenteel komt een groot deel van de bezorgdheid over AI voort uit een gebrek aan begrip en kennis over de technologie in de samenleving, wat kan worden gecorrigeerd door middel van passende voorlichtings- en onderwijsprogramma’s. Overheids- en internationale regelgeving die al in ontwikkeling is, heeft tot doel een juridisch kader te creëren dat bescherming biedt tegen de ongewenste effecten van AI, terwijl er tegelijkertijd ruimte blijft voor innovatie.

Historisch gezien heeft elke nieuwe technologie zowel uitdagingen als voordelen met zich meegebracht, en samenlevingen hebben zich doorgaans aangepast door optimaal gebruik te maken van de nieuwe hulpmiddelen.

admin

Leave a Reply

Your email address will not be published. Required fields are marked *