De komende iOS 18 AI-update zorgt voor opwinding, met een aanzienlijke focus op lokaal draaiende “On-Device” LLM-modellen.
Rapporten suggereren dat de update nieuwe AI-functies zal introduceren, mogelijk gemaakt door een “volledig op het apparaat” groot taalmodel (LLM), ontwikkeld door Apple.
Verwerking op het apparaat belooft aanzienlijke voordelen voor iPhone- en iPad-gebruikers op het gebied van privacy en snelheid.
De LLM achter de iOS 18 AI-functies
Een LLM is een complex AI-systeem dat is getraind op enorme hoeveelheden tekstgegevens. Met deze training kan de LLM taal begrijpen en erop reageren op een manier die menselijke gesprekken nabootst.
Deze AI-functies in de komende iOS 18-update zullen LLM’s gebruiken om verschillende taken uit te voeren, zoals het genereren van tekst, het vertalen van talen en zelfs het creëren van verschillende creatieve inhoud.
Interessant is dat rapporten van 9to5Mac ontdekte codereferenties in iOS 17.4 die duidden op een model op het apparaat met de codenaam “Ajax”. Dit suggereert dat Apple al een tijdje aan deze technologie werkt, mogelijk zelfs vóór de huidige update. Bovendien geven rapporten aan dat Apple naast het on-device-model ook server-gehoste versies van Ajax zou kunnen ontwikkelen.
Waarom verwerking op het apparaat voor iOS 18 AI-functies?
Traditioneel zijn AI-functies op mobiele apparaten afhankelijk van cloudgebaseerde LLM’s. Dit betekent dat gebruikersgegevens voor verwerking naar externe servers moeten worden verzonden. Het besluit van Apple om een LLM op het apparaat te ontwikkelen suggereert een stap af van deze aanpak.
Er zijn twee belangrijke voordelen aan deze aanpak op het apparaat:
- Verbeterde privacy: Door gebruikersgegevens op het apparaat zelf te bewaren, kan Apple ervoor zorgen dat gevoelige informatie op de telefoon of tablet blijft en niet naar de cloud wordt verzonden. Dit zou met name aantrekkelijk kunnen zijn voor gebruikers die zich zorgen maken over gegevensprivacy met de nieuwe AI-functies.
- Verhoogde snelheid: Het verwerken van gegevens op het apparaat zelf kan veel sneller gaan dan het verzenden naar een externe server en wachten op een antwoord. Dit zou kunnen leiden tot een responsievere en vloeiendere gebruikerservaring voor de AI-aangedreven functies in de komende update.
Specifieke details over Apple’s on-device LLM zijn nog geheim. Volgens Mark Gurman is er echter in de “Aanzetten”-nieuwsbrief, zou de verwerkingskracht die nodig is om de LLM uit te voeren de mogelijkheden ervan kunnen beperken tot nieuwere iPhone-modellen, mogelijk de iPhone 16 en hoger.
Het is ook vermeldenswaard dat Apple in de toekomst voor sommige functies mogelijk nog steeds gebruik maakt van cloudgebaseerde AI. Rapporten suggereren dat ze mogelijk partnerschappen onderzoeken met bedrijven als Google of Baidu om binnen de update grootschalige hardware-infrastructuur te benutten voor specifieke cloud-aangedreven AI-taken.
Dit is nog een verhaal in ontwikkeling. We zullen waarschijnlijk meer te weten komen over de on-device LLM van Apple en de mogelijkheden ervan wanneer de nieuwe iOS-update officieel wordt onthuld, hoogstwaarschijnlijk op WWDC in juni 2024.
Uitgelicht beeldtegoed: Richard Hadiwijaya/Ontsplashen
Source: Gurman meldt: iOS 18 AI zal een “On-Device” LLM bevatten