Slechts een maand na het verlaten van OpenAI kondigde Ilya Sutskever de oprichting aan van Safe Superintelligence Inc (SSI). Andere oprichters zijn onder meer Daniel Gross, een voormalig partner bij Y Combinator, en Daniel Levy, een voormalig ingenieur bij OpenAI.
Vorige maand deelden we het vertrek van OpenAI-medeoprichter en voormalig hoofdwetenschapper Ilya Sutskever van OpenAI met u, wat voor opschudding zorgde op sociale media en de technische wereld.
Sutskever verklaarde dat zijn nieuwe project betekenisvol voor hem was en beloofde de details te delen. Deze langverwachte details komen eindelijk aan het licht. Hier zijn alle details.
Waarom heeft Ilya Sutskever Safe Superintelligence (SSI) opgericht?
Sutskever was een van de bestuursleden die afgelopen november stemden om Sam Altman, CEO van OpenAI, af te zetten vanwege communicatie- en vertrouwensproblemen. Daarom hebben deze kwesties bij OpenAI mogelijk een belangrijke rol gespeeld bij zijn beslissing om het bedrijf te verlaten. Als gevolg hiervan heeft Sutskever dat nu gedaan Veilige superintelligentie.
In een bericht op de X-platformverklaarde Safe Superintelligence Inc. dat het tot doel heeft “veiligheid en capaciteiten samen te benaderen als technische problemen die moeten worden opgelost door revolutionaire technische en wetenschappelijke doorbraken.”
Superintelligentie is binnen handbereik.
Het bouwen van veilige superintelligentie (SSI) is het belangrijkste technische probleem van onze tijd.
We zijn ‘s werelds eerste directe SSI-lab begonnen, met één doel en één product: veilige superintelligentie.
Het heet Veilige Superintelligentie…
— SSI Inc. (@ssi) 19 juni 2024
Het bedrijf zegt echter dat zijn enige focus betekent dat het niet wordt afgeleid door managementoverhead of productcycli en dat zijn bedrijfsmodel er een is waarin veiligheid, zekerheid en vooruitgang vrij zijn van commerciële druk op de korte termijn.
Safe Superintelligence heeft kantoren in Palo Alto, Californië en Tel Aviv. Het bedrijf heeft echter geen investeerders of details over zijn bedrijfsmodel bekendgemaakt. Gezien het feit dat OpenAI begon als een non-profitorganisatie en later veranderde in een dochteronderneming met winstoogmerk, valt de financieringsaanpak van Safe Superintelligence nog te bezien. Toch verklaarde Daniel Gross in een interview met Bloomberg dat Safe Superintelligence zich geen zorgen hoeft te maken over het aantrekken van kapitaal.
Safe Superintelligence Inc., het nieuwe bedrijf van voormalig OpenAI-hoofdwetenschapper Ilya Sutskever, richtte zich op het ontwikkelen van “veilige superintelligentie“, zorgt voor opwinding in de wereld van kunstmatige intelligentie. Het toekomstige werk van het bedrijf en de stappen richting het bereiken van het doel van “veilige superintelligentie‘zal nauwlettend in de gaten worden gehouden.
Uitgelichte afbeeldingscredits: Open AI
Source: Ilya Sutskever richtte Safe Superintelligence (SSI) op een maand nadat hij OpenAI verliet