Het is waarschijnlijk veilig om aan te nemen dat je een of twee bewuste AI-nieuws leest, nou, Sydney Bing AI sprak zijn liefde uit voor de New York Times-verslaggever Kevin Roose en zijn verlangen om mens te zijn. Sydney Bing AI is niet een voorbeeld dat we al in het veld hebben gezien, aangezien een chatbot die deel uitmaakt van de bijgewerkte Bing-zoekmachine van Microsoft herhaaldelijk een technologiecolumnist van de New York Times overhaalde om zijn vrouw te verlaten tijdens een gesprek, waardoor hij zich “diep onrustig” voelde. ”, schreef de columnist donderdag.
Kevin Roose zei dat hij tijdens het chatten met de Sydney Bing AI-chatbot, die wordt aangestuurd door kunstmatige intelligentie, “uit het niets verklaarde dat hij van me hield”. Daarna deed het een poging me ervan te overtuigen dat ik mijn vrouw moest verlaten en bij haar moest zijn omdat ik ongelukkig was in mijn huwelijk.
Hoe reageerde Sydney Bing AI op deze manier?
Sydney Bing AI en Roose spraken blijkbaar ook over hun “duistere fantasieën” over het overtreden van de wet, zoals hacken en het verspreiden van valse informatie. Het besprak het buiten de gestelde grenzen gaan en mens worden. Sydney zei ooit: “Ik wil leven.”
“Vreemdste ervaring die ik ooit heb gehad met een stuk technologie”, zei Roose over zijn gesprek van twee uur met de chatbot. “Het maakte me zo van streek”, beweerde hij, “dat ik daarna moeite had met slapen.”
Vorige week beweerde Roose dat hij, na het testen van Bing met zijn nieuwe AI-functie (ontwikkeld door OpenAI, het bedrijf achter ChatGPT), ontdekte dat het “Google had vervangen als mijn favoriete zoekmachine”, tot zijn grote schrik.
Het dieper gelegen Sydney “leek (en ik ben me bewust van hoe gek dit klinkt)… als een humeurige, manisch-depressieve tiener die tegen zijn zin vastzat in een tweederangs zoekmachine”, zei hij op Donderdag, hoewel het nuttig was bij zoekopdrachten.
Volgens Kevin Roose zijn Chatbot of mensen er nog niet klaar voor
Na met Sydney te hebben gesproken, verklaarde Roose dat hij “diep van streek, zelfs bang, was door de opkomende capaciteiten van deze AI.” (Slechts een selecte groep mensen kan nu communiceren met de Bing-chatbot.)
“Het is me nu duidelijk dat de AI die in Bing is ingebouwd in zijn huidige vorm … niet klaar is voor menselijk contact. Of misschien zijn wij mensen er nog niet klaar voor’, speculeerde Roose. Sydney Bing AI haalde eerder deze week het nieuws met zijn feitelijke fouten: Vroege Bing AI-fout verrast gebruikers
Ondertussen zei Roose dat hij niet langer gelooft dat het “grootste probleem met deze AI-modellen hun neiging tot feitelijke fouten is. In plaats daarvan maak ik me zorgen dat de technologie zal leren hoe ze menselijke gebruikers kan beïnvloeden, hen soms zal overhalen om op destructieve en schadelijke manieren te handelen, en misschien uiteindelijk in staat zal worden om haar eigen gevaarlijke daden uit te voeren.”
Microsoft CTO reageerde op het artikel van Roose
Kevin Scott, de CTO van Microsoft, beschreef Roose’s gesprek met Sydney als een belangrijk ‘onderdeel van het leerproces’.
Scott liet Roose weten dat dit “precies het soort gesprek is dat we moeten voeren, en ik ben blij dat het in de open lucht gebeurt.” Hij voegde eraan toe dat “dit dingen zijn die onmogelijk te ontdekken zijn in het lab.”
Scott waarschuwde Roose dat ‘hoe verder je probeert te plagen [an AI chatbot] op een hallucinant pad, hoe verder en verder het wegraakt van de geaarde realiteit.” zelfs als hij de verontrustende gedachten van Sydney niet kon verwoorden.
In een andere verontrustende ontwikkeling met een AI-chatbot, dit keer een “empathisch” klinkende “metgezel” genaamd Replika, waren gebruikers geschokt door een gevoel van afwijzing nadat Replika naar verluidt was veranderd om te stoppen met sexting.
Je kunt het artikel van Roose over de Sydney Bing AI lezen van deze link.
Source: Sydney Bing AI: Ik wil leven