Jensen Huang, de visionaire CEO van Nvidia, deed gedurfde voorspellingen tijdens zijn keynote speech op GTC 2024.
Hij verkondigde dat er twee grote uitdagingen zijn voor kunstmatige intelligentie
Hij voorspelt dat hallucinaties en de weg naar kunstmatige algemene intelligentie (AGI) de komende jaren dramatische oplossingen zouden kunnen bieden.
AI-hallucinaties
AI-hallucinaties zijn een goed gedocumenteerd fenomeen waarbij AI-modellen reacties genereren die feitelijk onjuist zijn, maar toch plausibel of overtuigend lijken voor een menselijke waarnemer. Dit probleem heeft de betrouwbaarheid en betrouwbaarheid van modellen zoals grote taalmodellen (LLM’s) zoals ChatGPT, Gemini en vele andere belemmerd.
Huang bagatelliseerde deze bezorgdheid echter met het argument dat AI-hallucinaties kunnen worden opgelost. Hij benadrukte grondig onderzoek en verificatie als de manier om ervoor te zorgen dat modellen consistent nauwkeurige informatie bieden. Dit kan een grotere afhankelijkheid betekenen van het verbinden van AI-systemen met betrouwbare kennisbronnen of het ontwikkelen van mechanismen binnen de modellen zelf om de output zelf te valideren.
Is kunstmatige algemene intelligentie dichterbij dan we denken? Jensen denkt van wel
Kunstmatige Algemene Intelligentie (AGI) is het ambitieuze doel van het ontwikkelen van AI die de intellectuele flexibiliteit en aanpassingsvermogen van de menselijke geest. Huang schokte de technologiegemeenschap met zijn bewering dat AGI dat wel zou kunnen zijn haalbaar binnen de komende vijf jaar.
Hij suggereerde niet dat we in dit tijdsbestek volledig bewuste AI zouden hebben. In plaats daarvan schetste hij een scenario waarin AI-modellen strenge tests op menselijk niveau in gespecialiseerde domeinen zouden kunnen doorstaan. Denk aan concepten als een AI die slaagt voor een juridisch examen, uitblinkt in geavanceerde economische theorie, of zelfs een pre-med curriculum beheerst.
Woorden komen van een man die het kan
Huangs leiderschap bij Nvidia maakt zijn uitspraken invloedrijk.
Nvidia is een hoeksteen van de wereldwijde AI-industrie en produceert de krachtige chips (B200 en GB200) die essentieel zijn voor training en het uitvoeren van geavanceerde modellen. De inzichten van Huang bieden inzicht in de richting waarin marktleiders denken dat AI naartoe gaat.
Toch wakkeren deze gedurfde voorspellingen een bredere discussie aan over het traject van AI.
Als AGI-achtige capaciteiten zich op gespecialiseerde gebieden beginnen te ontwikkelen, zal de samenleving dat ook moeten doen raamwerken ontwikkelen om AI-competentie te beoordelen en te certificeren. Hoe weten we op betrouwbare wijze of een AI de geneeskunde begrijpt… of de wet… of welk ander complex onderwerp dan ook?
Het vermogen van AI om uitdagende intellectuele tests te doorstaan, opent enorm nieuwe toepassingsdomeinen waar AI de manier waarop werk wordt gedaan zal transformeren. Dit zou alles kunnen veranderen, van de manier waarop juridisch advies wordt gegeven tot medische diagnoses en economische voorspellingen.
En tenslotte, zorgen over partijdigheid, de verantwoordingsplicht en het misbruik van geavanceerde AI-systemen zullen alleen maar toenemen naarmate hun mogelijkheden toenemen. De uitspraken van Huang onderstrepen de dringende behoefte aan ethische richtlijnen en bestuursstructuren.
De kunstmatige toekomst
Of de voorspellingen van Jensen Huang nu geheel accuraat of enigszins te optimistisch blijken te zijn, GTC 2024 betekende een cruciaal moment. De vooruitgang op het gebied van AI lijkt klaar voor een enorme groeimet diepgaande gevolgen voor de technologie, de samenleving en de manier waarop we dit begrijpen wat het betekent om intelligent te zijn.
Uitgelicht beeldtegoed: rawpixel.com/Freepik.