0

Wordt kunstmatige intelligentie niet slimmer? Ze heeft bijna geen brandstof meer

Op het eerste gezicht lijkt het internet een oneindig grote database van gegevens en informatie. Voor bedrijven die kunstmatige intelligentie-algoritmen willen trainen, blijkt dit echter niet het geval te zijn. Sommigen van hen gaan tegen de stroom in en gebruiken auteursrechtelijk beschermde inhoud zonder formele toestemming, terwijl anderen besluiten te betalen voor het verstrekken van trainingsmateriaal. Er zijn ook entiteiten die uit principe kunstmatige intelligentie de toegang tot gegevens blokkeren.

Wordt kunstmatige intelligentie niet slimmer? Ze heeft bijna geen brandstof meer

Kunstmatige intelligentie begint op marktbeperkingen te stuiten. De eerste is het auteursrecht. Tools als ChatGPT en Gemini genereren tekst of afbeeldingen door eerst veel door mensen gegenereerde inhoud te absorberen, vervolgens bepaalde patronen te identificeren en iets nieuws (en vergelijkbaars) te creëren. Bedrijven als OpenAI, Google en Meta zijn er al in geslaagd hun algoritmen te ‘voeden’ met romans, conceptcontracten, filmscripts, fotosessies en songteksten.

Hoewel AI veel gemak biedt en de efficiëntie vergroot, is en mag het gebruik van andermans werk niet gratis zijn. Nieuwsorganisaties, romanschrijvers, muziekuitgevers en anderen wier auteursrechtelijk beschermde werken in grote taalmodellen werden gebruikt als onderdeel van chatbottraining, eisen een deel van de winst.

Sommigen hebben al deals gesloten met OpenAI om hun werk te gebruiken. Anderen klagen AI-makers aan bij Amerikaanse rechtbanken. De uitkomst van deze rechtszaken zal een test zijn van het principe van ‘redelijk gebruik’, dat in bepaalde omstandigheden het gebruik van boeken, krantenartikelen, songteksten en ander auteursrechtelijk beschermd materiaal toestaat zonder de makers ervan te betalen.

De lawine aan rechtszaken is echter slechts een van de problemen waarmee AI-platforms momenteel worden geconfronteerd. Het blijkt dat zelfs als we over de juiste toestemmingen beschikken, er soms simpelweg niet genoeg gegevens zijn om een ​​specifieke tool nauwkeurig te trainen.

Wordt kunstmatige intelligentie niet slimmer? Ze heeft bijna geen brandstof meer

AI kan niet aan de eisen voldoen

Wanneer we AI-algoritmen bevragen over relatief eenvoudige of veelvoorkomende zaken, zullen tools als ChatGPT of Gemini geen probleem hebben om het juiste antwoord te geven. Ze slaagden erin om gevoed te worden met een voldoende groot pakket aan data, zodat de individuele algoritmen goed werden getraind.

In het geval van minder populaire zoekopdrachten zijn er echter beperkingen. Onlangs bleek de AI-tool van Meta een probleem te hebben. De tool biedt de mogelijkheid om afbeeldingen te maken van tekstopdrachten, maar we ontdekten dat er grote problemen waren met het concept van ‘interraciale koppels’. Wanneer we afbeeldingen willen maken van stellen of vrienden met verschillende raciale achtergronden, gebeuren er fouten.

Zo vroeg CNN bijvoorbeeld om een afbeelding van een Aziatische man met een blanke vrouw, maar de tool genereerde een aantal afbeeldingen van een Aziatische man met een Aziatische vrouw. Hetzelfde gebeurde toen de website vroeg om een afbeelding van een Aziatische vrouw met een blanke echtgenoot. De Verge-website was de eerste die melding maakte van het rassenprobleem en benadrukte dat de tool zich bijvoorbeeld “niet kan voorstellen” dat een Aziatische man met een blanke vrouw.

Veel van deze vragen waren ook onrealistisch om te testen. De AI weigerde eenvoudigweg mee te werken en presenteerde de boodschap: “deze afbeelding kan niet worden gegenereerd. Probeer alstublieft iets anders.”

Dit is slechts één voorbeeld van wanneer AI niet kan werken zoals we zouden willen. De reden hiervoor is echter geen vooringenomenheid of kunstmatige blokkering; er zijn simpelweg niet genoeg gegevens voor de algoritmen om een ​​bepaalde techniek onder de knie te krijgen en nichevragen nauwkeurig te beantwoorden.

Adobe betaalt voor AI-trainingsvideo’s

Het trainen van AI om afbeeldingen te genereren is moeilijk, maar het maken van video’s is nog moeilijker. Vooral omdat een bedrijf, zodra het een contract voor toegang tot inhoud tekent, dit vaak op exclusieve basis doet. De reden is simpel: niemand wil dat hun AI-tool video’s genereert die hetzelfde zijn of verwarrend veel lijken op die van de tool van een concurrent.

Adobe wil als bedrijf dat software aanbiedt voor videobewerking en -montage, of – breder – voor creatief werk, niet achterblijven. OpenAI traint zijn Sora AI al en laat periodiek zien dat de video’s die het ontwikkelt indrukwekkend zijn. Adobe kan en kan het zich niet veroorloven een startup-aanpak te gebruiken voor het trainen van AI-algoritmen. Toen aan het hoofd technologie bij OpenAI werd gevraagd of Sora per ongeluk materiaal van YouTube gebruikte (waar ze niet mee zou hebben ingestemd), antwoordde ze dat ze ‘het niet wist’.

Wordt kunstmatige intelligentie niet slimmer? Ze heeft bijna geen brandstof meer

Adobe wil geen problemen krijgen met de wet en is dus niet van plan zijn systemen te trainen op het gebied van inhoud waartoe het geen toegang heeft en geen passende toestemmingen heeft. Er zijn echter niet genoeg gratis materialen, dus kwam het bedrijf tot de conclusie dat, aangezien het zijn eigen AI moet trainen om video’s te genereren, het de creatie van materialen die daadwerkelijk nodig zijn en ontbrekende materialen zal uitbesteden.

Het resultaat? Adobe betaalt maximaal $7 per minuut origineel videomateriaal dat voldoet aan de verwachtingen van het bedrijf en voor AI-trainingsdoeleinden. Er zijn verschillende trainingsmaterialen nodig, vaak waarbij mensen alledaagse activiteiten uitvoeren, zoals wandelen of basisemoties tonen. Clips van mensen die interactie hebben met verschillende objecten, zoals smartphones of fitnessapparatuur, zijn ook welkom.

Als we aan dit alles het feit toevoegen dat veel websites AI-tools ook beginnen te verbieden geschreven inhoud te verwerken, ontstaat er langzaam een ​​grote uitdaging voor bedrijven die kunstmatige intelligentie ontwikkelen. Het trainen van algoritmen wordt steeds moeilijker en duurder. Het is moeilijk te zeggen hoe bedrijven die AI ontwikkelen steeds hogere kosten zullen kunnen dragen – en voor hoe lang.

admin

Leave a Reply

Your email address will not be published. Required fields are marked *