All’inizio di quest’anno, OpenAI ha svelato una modalità vocale migliorata per l’ultima versione di ChatGpt, chiamata Omnia. A differenza delle voci robotiche di assistenti digitali come Alexa o Siri, questa nuova opzione ha dimostrato di poter suonare realistica. Può rispondere in tempo reale, gestire le interruzioni, emettere suoni di risatina quando gli utenti scherzano e valutare lo stato emotivo di un oratore in base al suo tono. C’era però un problema: durante la dimostrazione iniziale, la voce è apparsa fin troppo simile a quella di Scarlett Johansson, attrice che ha interpretato un’intelligenza artificiale nel film “Her”.
Detto fatto: per evitare lunghe e costose procedure giudiziali, OpenAI ha pensato bene di eliminare quella voce dalle tonalità di “Sky“, il nome dato all’audio conversazionale, così da poter distribuire la novità a tutti gli utenti iscritti ad un piano a pagamento Plus.
Cosa cambia per OpenAI
La modalità avanzata sarà, almeno inizialmente, disponibile per un piccolo gruppo di abbonati, con l’intenzione di estenderla a tutti gli utenti Plus entro l’autunno. Sebbene ChatGpt abbia già una modalità vocale di base, questa versione rappresenta un significativo balzo in avanti. Potrebbe trasformare ChatGpt da un semplice chatbot AI in un assistente personale virtuale, consentendo agli utenti di impegnarsi in conversazioni naturali come farebbero con un amico. Da qui alla trasposizione su uno speaker domestico o uno schermo simile agli Echo con Alexa il passo è breve.
La rinnovata facilità di interazione potrebbe aumentare il coinvolgimento e presentare una sfida agli assistenti virtuali esistenti di aziende come Apple e Amazon. Tuttavia, l’introduzione solleva importanti domande: ChatGpt riuscirà a comprendere in modo coerente gli utenti, compresi quelli con difficoltà di linguaggio? Una voce simile a quella umana non porterà a fidarsi eccessivamente dell’AI, anche quando commette errori?
Supporto multilingua
OpenAI aveva inizialmente pianificato di lanciare la modalità vocale avanzata a giugno, ma l’ha posticipata per garantire la sicurezza e l’efficacia dello strumento. Negli ultimi mesi, l’azienda ha testato le capacità vocali dell’AI con oltre 100 tester di diversa provenienza linguistica e geografica, coprendo 45 lingue diverse in 29 regioni. Per garantire la sicurezza, OpenAI ha limitato la modalità vocale a quattro opzioni preimpostate create in collaborazione con doppiatori, impedendo l’utilizzo di altre cadenze e tonalità. Inoltre, la startup bloccherà le richieste di generare musica o altri audio protetti da copyright e includerà le stesse protezioni della modalità testo di ChatGpt per evitare di produrre contenuti illegali o dannosi.
Addio Scarlett
Un cambiamento importante rispetto alla demo di maggio è la rimozione della voce somigliante a quella di Scarlett Johansson. Sebbene OpenAI abbia chiarito che la voce era stata creata con un attore diverso, ha deciso di sospenderne l’uso “per rispetto” dopo che l’attrice aveva chiesto ufficialmente alla compagnia di riferire la musa ispiratrice di Sky. Il lancio della modalità vocale avanzata di ChatGPT segue il recente annuncio di OpenAI di testare un motore di ricerca basato sulla sua tecnologia. Un modo per sfidare il predominio di Google nel mercato del web, ampliando la gamma di strumenti rivolti ai consumatori.