AI-startup Anthropic heeft aangekondigd dat de nieuwste versie van zijn Claude-familie van AI-modellen, Claude 3, blijk geeft van ‘begrip op menselijk niveau’. Dit is een zeer gewaagde uitspraak, aangezien we te maken hebben met generatieve AI en een chatbot, en niet met de zogenaamde algemene kunstmatige intelligentie. In de praktijk is Claude nauwkeuriger dan ChatGPT. Het probleem is echter dat ChatGPT al miljoenen gebruikers heeft gekregen die eraan gewend zijn geraakt.
Vergeleken met eerdere versies is Claude 3 ontworpen om complexere zoekopdrachten met een grotere nauwkeurigheid en beter begrip van de context af te handelen. De nieuwste modellenfamilie is ook beter in het analyseren en voorspellen, het creëren van content, het genereren van programmeercode en het voeren van gesprekken in talen als Spaans, Japans en Frans.
Binnen Claude vinden we drie versies van AI: Claude 3 Haiku, Claude 3 Sonnet en Claude 3 Opus. De Opus-versie is het meest nauwkeurig.
Meer, nauwkeuriger en sneller. De ontwikkeling van AI wint aan kracht
Sinds 2022 is het tempo van de ontwikkeling van AI-systemen aanzienlijk versneld, en dit jaar kunnen we al aanzienlijke vooruitgang zien bij alle technologiegiganten. Google heeft het Gemini-model uitgebracht, OpenAI introduceert al GPT-4 Turbo (de presentatie vond een paar maanden geleden plaats) en Microsoft heeft het GPT-4-model in zijn producten geïntegreerd en Copilot aangeboden in Windows- of Office-applicaties, nu simpelweg genoemd “Microsoft365”. Meta werkt aan de ontwikkeling van het LLaMA-model en heeft al enige vooruitgang geboekt, al gaat de concurrentie momenteel vooral tussen ChatGPT en Google’s Gemini.
Concurrentie is zeker aan te raden. Hierdoor voelen technologiemakers de druk om hun producten snel te verbeteren, en profiteren consumenten van het feit dat er geen monopolist is die zeer hoge prijzen zou opleggen. De generatieve AI-markt groeit zeer dynamisch: in 2032 zal deze naar verwachting 1,3 biljoen dollar waard zijn.
Anthropic is een ander bedrijf dat een stukje van de ‘kunstmatige intelligentie’-taart wil krijgen. Hoewel het nog steeds in de startfase verkeert, heeft het al aanzienlijke financiële steun gekregen. Amazon heeft verklaard dat het maar liefst 4 miljard dollar zal toewijzen aan de ontwikkeling van deze AI, en als onderdeel van deze samenwerking zal Anthropic zijn tools integreren met de Amazon Web Services (AWS)-cloud en deze gebruiken om zijn eigen AI-modellen te testen.
Maar dat is niet het einde. Google ondersteunt ook de ontwikkeling van het bedrijf en trekt 2 miljard dollar uit voor de ontwikkeling ervan. Ook hier draait het allemaal om de cloud: Anthropic zal naast AWS ook gebruik maken van Google Cloud.
Beide partijen profiteren van de samenwerking met cloudproviders. Anthropic hoeft niet te betalen voor middelen, dat wil zeggen rekenkracht, verbruikte elektriciteit en IT-specialisten. Op hun beurt voorzien Amazon en Google zichzelf van toegang tot AI-oplossingen die hun klanten in de toekomst zullen gebruiken. Microsoft doet precies hetzelfde met OpenAI en gebruikt de Azure-cloud om verschillende AI-diensten aan te bieden.
Te weinig, te laat
OpenAI heeft laten zien dat in de wereld van de technologie het van groot belang is om de eerste te zijn, vooral in de tijd van vandaag. ChatGPT debuteerde eind november 2022 en kreeg binnen een paar maanden tientallen miljoenen gebruikers. Later, in maart 2023, werd een veel betere, verbeterde versie van ChatGPT-4 uitgebracht. Tot nu toe heeft het zulke hoogwaardige en bevredigende resultaten opgeleverd dat veel gebruikers de noodzaak niet zullen inzien om GPT-4 door iets anders te vervangen. Vooral omdat de prijzen van individuele diensten vergelijkbaar zijn.
Sommige bedrijven hebben al partnerschappen met OpenAI opgezet en zijn bezig met het implementeren of hebben al geschikte AI-oplossingen geïmplementeerd. OpenAI-technologie wordt niet alleen door Microsoft gebruikt, maar ook door onder meer Salesforce, Shopify, Duolingo, Slack en Coca-Cola. Gevestigde partnerschappen geven de maker van ChatGPT een sterke positie op de markt, en overeenkomsten met bedrijven zijn vaak moeilijk te veranderen zodra de juiste procedures en training zijn geïmplementeerd en uitgevoerd.
Maar het is niet alleen de timing die niet optimaal is. Het door Amazon gesteunde bedrijf demonstreert om de een of andere reden niet voldoende de mogelijkheden van zijn kunstmatige intelligentie. Het delen van technische documentatie of het opscheppen over benchmarkresultaten is niet voldoende om de aandacht van de gemiddelde gebruiker te trekken. Voor ontwikkelaars die AI-producten ontwikkelen zijn dit waardevolle argumenten, maar voor consumenten lijken ze te abstract. Berichten als ‘vakkennis op bachelorniveau’ of ‘redeneren op masterniveau’ spreken niet op dezelfde manier tot de verbeelding als kant-en-klare en aantrekkelijke beelden gegenereerd door AI, of boeken geschreven met behulp van algoritmen door mensen die de inhoud zelden langer lezen dan sms-berichten.
Om de een of andere reden kiezen AI-leveranciers echter voor dit soort richting bij het informeren over nieuws, en Google beweert bijvoorbeeld dat zijn AI ‘het langste contextvenster heeft van alle grote basismodellen’ – dit betekent de hoeveelheid informatie die het AI-model kan onthouden, zodat de gebruiker er vervolgens naar kan verwijzen.
Het Opus-model van startup Anthropic laat een tweevoudige verbetering zien in de nauwkeurigheid bij het beantwoorden van open vragen en is ook ontworpen om nauwkeurige fragmenten te bieden van de inhoud waarop het zijn antwoorden baseert, zodat gebruikers informatie in bronmateriaal gemakkelijker kunnen verifiëren. Bovendien zullen ze minder snel vragen beantwoorden die in strijd zijn met de regelgeving.
Momenteel is het Sonnet-model beschikbaar via claude.ai en wordt de Opus aangeboden aan Claude Pro-abonnees.
Anthropic rekent op de interesse van klanten met specifieke behoeften
Hoewel het niet goed presteert in laboratoriumtests, lijkt Haiku het meest interessante Anthropic-model te zijn. Het heeft nog geen releasedatum, maar het bedrijf heeft aangekondigd dat het contextvensters tot 200.000 tokens kan ondersteunen.
Eén token bestaat uit ongeveer vier tekens. Daarom kan worden aangenomen dat Claude 3 met het Haiku-model in staat is om tijdens één sessie met de gebruiker de inhoud van de helft van een gemiddeld boek op te roepen. We kunnen het dus ‘voeden’ met een grote kennisbasis en vervolgens vragen stellen die ernaar verwijzen. Het bedrijf beweert ook dat zijn model invoergegevens van meer dan 1 miljoen tokens kan accepteren en deze nu beschikbaar kan stellen aan geselecteerde zakelijke klanten die meer rekenkracht nodig hebben.
Ter vergelijking: de nieuwste Gemini-modellen van Google kunnen tot 1 miljoen tokens verwerken, terwijl GPT-4-modellen contextvensters hebben van maximaal ongeveer 128.000 tokens.
Anthropic beveelt Haiku aan voor klantinteracties, contentmoderatie en taken zoals voorraadbeheer, terwijl Sonnet, zegt het bedrijf, “taken perfectioneert die snelle reacties vereisen, zoals het ophalen van kennis en verkoopautomatisering.”
Opus is gericht op het plannen en implementeren van complexe activiteiten, waaronder onderzoeks- en ontwikkelingstaken zoals brainstormen, het genereren van hypothesen en zelfs het ontdekken van medicijnen, evenals geavanceerde analyses en diagrammen, financiën en markttrends.