Kan kunstmatige intelligentie zich dingen voorstellen? Verbeelding is een complex proces. Als we stilstaan bij het aantal elementen waaruit een denkbeeldig scenario kan bestaan, is het gemakkelijker om een idee te krijgen van hoe diepgaand deze mentale procedure kan zijn.
Een team van onderzoekers van de University of Southern California, VS, presenteerde een project dat AI een vergelijkbare kwaliteit wil geven, om systemen te implementeren die nieuwe concepten kunnen creëren op basis van bekende elementen.
Een nieuw systeem waarmee kunstmatige intelligentie zich kan voorstellen
Op het eerste gezicht klinkt het idee om een kunstmatige-intelligentiesysteem te trainen met ‘menselijke capaciteiten’ misschien vreemd. Dit heeft echter een praktisch, interessant en benaderbaar doel.
Het verbeeldingsproces wordt over het algemeen gedefinieerd als een creatief proces waarin, op basis van eerder waargenomen elementen, nieuwe mentale beelden worden geconstrueerd. Als we dit naar het AI-vlak brengen, zou een systeem dat bijvoorbeeld een groot aantal medicijnformules beheerst, hun componenten en functies kunnen ontleden om nieuwe recepten te kunnen testen.
Dergelijke mechanismen zijn al eerder gepresenteerd, maar beperkt in hun werking tot een bepaalde context, zoals het zojuist genoemde voorbeeld van drugs. In tegenstelling tot die, kan de AI die door USC-onderzoekers is ontwikkeld, worden geëxtrapoleerd naar verschillende toepassingen. Dit betekent dat dit systeem in verschillende scenario’s in staat moet zijn om zijn eigen regels en variabelen te definiëren, om zoveel mogelijk combinaties van attributen te configureren.
Om deze veelzijdigheid te bereiken, gebruikten de onderzoekers een mechanisme dat vergelijkbaar is met het mechanisme dat wordt gebruikt bij het genereren van diepe vervalsingen. Net als in het geval van deze bedrogen audiovisuele stukken, kan een algoritme het gezicht en de gebaren van een persoon identificeren, om ze na te bootsen met een digitaal vervangen gezicht; in het geval van deze kunstmatige intelligentie zou het systeem de componenten van elk geanalyseerd scenario kunnen herkennen.
In een gesprek met zijn studiehuis illustreerde student Yunhao Ge, onderdeel van het team achter deze ontwikkeling, dit proces op basis van de film Transformers. “Het kan de vorm aannemen van een Megatron-auto, de kleur en pose van een gele Bumblebee-auto en de achtergrond van Times Square in New York. Het resultaat zal een gekleurde Bumblebee Megatron Car zijn, die op Times Square rijdt, ook al is dit monster niet gezien tijdens de trainingssessie,” merkte hij op.
In hetzelfde geval merkte een ander lid van dit team, professor Laurent Itti, op dat “deep learning al onovertroffen prestaties en beloften heeft laten zien op veel gebieden, maar te vaak is dit gebeurd door oppervlakkige mimiek en zonder een dieper begrip van de afzonderlijke attributen die maak elk object uniek”, eraan toevoegend dat “deze nieuwe benadering van ontwarring voor het eerst echt een nieuw gevoel van verbeelding in AI-systemen ontketent, waardoor ze dichter bij het menselijk begrip van de wereld komen.”
Met dit soort systemen zouden zelfrijdende auto’s zoveel mogelijk scenario’s kunnen bedenken op basis van weers- en omgevingsfactoren, waardoor hun veiligheid wordt vergroot. En dus, naarmate er behoeften worden geïdentificeerd die compatibel zijn met wat dit systeem biedt, zou de catalogus met mogelijke toepassingen kunnen blijven groeien.
Details van dit onderzoek werden openbaar gemaakt in een paper getiteld “Zero-Shot-synthese met groepsgesuperviseerd leren“, uitgebracht op de International Conference on Learning Representations van dit jaar.