Apple blijft op volle snelheid werken aan kunstmatige intelligentie. Ten slotte lanceerde het een nieuwe reeks open-source kunstmatige intelligentiemodellen genaamd OpenELM (.
Met als doel gebruikers de kracht en functies van kunstmatige intelligentie te bieden zonder de noodzaak van cloudservers, stelt Apple dat het belangrijkste kenmerk van deze modellen is dat ze op het apparaat kunnen werken.
In de tussentijd hebben we onlangs de uitspraken en details van Bloomberg’s Mark Gurman over AI LLM in iOS 18 met u gedeeld. Hier is alles wat we weten over de nieuwe modellen voor kunstmatige intelligentie.
Wat is OpenELM?
OpenELM bestaat uit acht modellen. Vier zijn vooraf getraind, terwijl andere kunnen worden aangepast met specifieke instructies en invoer. De modellen zijn relatief klein (270 miljoen tot 3 miljard parameters) en geoptimaliseerd om op apparaten te draaien.
Apple gebruikt een op lagen gebaseerde schaalstrategie om de nauwkeurigheid en efficiëntie van de modellen te verbeteren.
Aan de andere kant biedt het gebruik van OpenELM-modellen veel voordelen:
- AI-verwerking op het apparaat: Met OpenELM-modellen kunnen AI-functies rechtstreeks op het apparaat worden uitgevoerd zonder dat er cloudservers nodig zijn. Dit verhoogt zowel de privacy als de gegevensbeveiliging aanzienlijk.
- Lagere kosten: Verminderde afhankelijkheid van cloudservers resulteert in kostenbesparingen.
- Snellere reactietijden: Gegevensverwerking op het apparaat zorgt voor snellere responstijden en een soepelere gebruikerservaring.
- Meer onderzoek en ontwikkeling: OpenELM-modellen zijn open source, waardoor onderzoekers en ontwikkelaars ze kunnen bestuderen en verbeteren. Dit versnelt de vooruitgang van AI-technologie en de ontwikkeling van toepassingen van de volgende generatie.
Apple heeft het volgende gemaakt stelling over de nieuwe taalmodellen:
De reproduceerbaarheid en transparantie van grote taalmodellen zijn van cruciaal belang voor het bevorderen van open onderzoek, het waarborgen van de betrouwbaarheid van de resultaten en het mogelijk maken van onderzoek naar gegevens- en modelvooroordelen, evenals naar potentiële risico’s. Daartoe brengen we OpenELM uit, een geavanceerd open taalmodel. OpenELM maakt gebruik van een laagsgewijze schaalstrategie om parameters binnen elke laag van het transformatormodel efficiënt toe te wijzen, wat leidt tot verbeterde nauwkeurigheid. Met een parameterbudget van ongeveer een miljard parameters vertoont OpenELM bijvoorbeeld een verbetering van 2,36% in nauwkeurigheid vergeleken met OLMo, terwijl er twee keer minder pre-trainingtokens nodig zijn.
Onze release wijkt af van eerdere praktijken die alleen modelgewichten en gevolgtrekkingscode bieden, en vooraf trainen op privé-datasets, en bevat het volledige raamwerk voor het trainen en evalueren van het taalmodel op openbaar beschikbare datasets, inclusief trainingslogboeken, meerdere controlepunten en pre-training configuraties. We geven ook code vrij om modellen naar de MLX-bibliotheek te converteren voor gevolgtrekking en afstemming op Apple-apparaten. Deze uitgebreide release heeft tot doel de open onderzoeksgemeenschap te versterken en de weg vrij te maken voor toekomstige open onderzoeksinspanningen.
Als u meer wilt weten over OpenELM, kunt u dit ook controleren gedetailleerd verslag.
De plannen van Apple omvatten onder meer het beschikbaar maken van OpenELM-modellen in het iOS 18-besturingssysteem. Er wordt verwacht dat iOS 18 aanzienlijke AI-gerichte verbeteringen zal bevatten en een groot taalmodel zal draaien (LLM) op het apparaat.
OpenELM-modellen worden beschouwd als een belangrijke stap voor de toekomst van kunstmatige intelligentie. Met nieuwe modellen wordt verwacht dat AI privéer, veiliger en toegankelijker wordt.
De stap van Apple zou belangrijk kunnen zijn bij het verspreiden van kunstmatige intelligentie en de integratie ervan in elk aspect van het dagelijks leven.
Uitgelichte afbeeldingscredits: Keming Tan / Unsplash
Source: Apple brengt een nieuwe reeks open source AI-modellen uit, genaamd OpenELM