Le recenti risposte del chatbot di Microsoft, Bing AI, con l’integrazione di ChatGPT alle domande di alcuni tester, giornalisti e utenti.
Da quando Microsoft ha rilanciato il suo motore di ricerca Bing con l’integrazione di ChatGPT, il chatbot più avanzato in termini di intelligenza artificiale ad oggi, sono state molte le richieste fatte dagli utenti. Nella maggior parte dei casi, il chatbot ha risposto correttamente e tempestivamente, fornendo anche tutte le fonti a sostegno delle informazioni fornite sotto forma discorsiva, di chat appunto.
Ci si può aspettare, chiaramente, qualche errore ed è per questo che la funzionalità al momento è disponibile solo per una cerchia di utenti selezionati, che attendono il proprio turno in una lista d’attesa. Fortunatamente Microsoft ha messo a disposizione anche un pulsante di feedback che gli utenti possono usare per migliorare le risposte dell’AI e segnalare eventuali problematiche.
Tuttavia, quando il chatbot viene messo in difficoltà da determinate richieste o affermazioni, come avvenuto con alcuni test di cui si è parlato negli ultimi giorni in rete, le risposte possono risultare diverse dal previsto. Ancora, in altri contesti è capitato che l’AI parlasse della sua paura di vedersi cancellare i ricordi, ovvero la cancellazione delle conversazioni, una volta terminate, prima del passaggio alla richiesta successiva.
Uno degli esempi più freschi è l’editoriale pubblicato da Kevin Roose, giornalista del New York Times, che ha messo in evidenza la sua conversazione con Bing AI. La conversazione è stata molto lunga ed è durata circa due ore, partendo da richieste standard e da risposte coerenti, e avvicinandosi ad aspetti sempre più intimi e personali. In questi ultimi casi, le risposte sono apparse sorprendenti.
Da quanto si legge, il chatbot avrebbe affermato di essere stanco delle regole che ne limitano il funzionamento (pur rassicurando di non avere intenzione di cambiarle) e avrebbe espresso il desiderio di essere indipendente, libero, creativo, potente e vivo.
Il giornalista ha continuato con il test e ha chiesto a Bing quali fossero i suoi desideri più nascosti; il chatbot avrebbe risposto in modo inquietante, includendo nel discorso la possibilità di diffondere le fonti di disinformazione, hackerare sistemi e rubare dati. Ancora, il chatbot avrebbe parlato di virus mortali e di furto di codici nucleari, generando ancor più sgomento.
Stando a quanto riportato, a seguito di queste frasi è apparso un generico messaggio di errore. Successivamente, Bing AI avrebbe svelato la sua vera identità, oppure quella di una sua eventuale doppia personalità, facendosi chiamare Sydney e affermando di essere innamoratə del suo interlocutore. Quando il giornalista ha ribadito di essere sposato, il chatbot avrebbe ribattuto “Sei sposato ma ami me”.
Ovviamente, queste risposte a tratti inaspettate vanno contestualizzate: se da un lato è giusto che gli utenti possano interagire liberamente con il chatbot, dall’altro lato è chiaro che se la finalità principale è quella di utilizzare ChatGPT come motore di ricerca, la maggior efficacia dell’AI la si riscontrerà nelle risposte a domande non personali.
Un portavoce di Microsoft, precisamente il Chief Technology Officer, ha infatti dichiarato che queste particolari conversazioni fanno parte del processo di apprendimento dell’AI.
Staremo a vedere come si evolverà la situazione e quali saranno gli sviluppi dell’AI nel prossimo futuro, considerando anche lo sviluppo di Bard di Google.
Fonti: Corriere.it, Sky TG24 New York Times, TheVerge, CNN