Generative AI Insights è la rubrica curata da Recomb, il think tank dedicato all’esplorazione dell’impatto e del potenziale dell’AI generativa in vari aspetti della vita umana. Recomb studia l’AI generativa da tutte le angolazioni: professionale, etica, tecnica, legale, economica, ambientale, sociale, educativa e culturale. Per leggere tutti gli articoli della rubrica Generative AI Insights su Key4biz clicca qui..
Quando Apple ha svelato le sue nuove funzionalità di AI questa settimana, è emerso molto sulla partnership con OpenAI, che metterà ChatGPT su milioni di iPhone. Tuttavia, Apple e Google collaboravano dietro le quinte da mesi, con Google che concedeva ad Apple l’accesso ai suoi data center per addestrare i nuovi modelli di AI del produttore di iPhone. Per anni, Apple ha fatto affidamento sui servizi cloud di Google e Amazon per archiviare dati per i suoi prodotti, inclusi i backup di iCloud che spesso vengono memorizzati nei data center di Google.
Quando si trattava di addestrare i modelli di AI che alimentano la nuova “Apple Intelligence”, Apple ha richiesto un accesso aggiuntivo alle unità di elaborazione tensoriale (TPU) di Google. Questi chip, progettati specificamente per l’intelligenza artificiale, sono offerti da Google come alternativa alle unità di elaborazione grafica (GPU) di Nvidia. La richiesta di Apple ha creato una frenesia all’interno di Google, con tecnici che lavoravano per garantire la consegna in tempo. La collaborazione evidenzia quanto Apple sia ancora indietro nella corsa all’AI generativa.
Le caratteristiche più impressionanti dei modelli di AI richiedono enormi data center, che aziende come Microsoft, Google e Amazon hanno costruito nel corso degli anni. Di conseguenza, Apple deve fare maggiore affidamento su questi rivali mentre si addentra nella corsa all’AI. La documentazione tecnica di Apple accenna alla partnership con Google, menzionando che i suoi modelli di AI sono stati addestrati utilizzando una combinazione di TPU e GPU sia cloud che on-premise. Gli utenti che proveranno le nuove funzionalità di AI di Apple noteranno che gran parte del lavoro sarà eseguito direttamente sul dispositivo. Tuttavia, compiti più intensivi saranno affidati a data center speciali con nuovi siliconi progettati da Apple. Questi server potrebbero trovarsi nei data center di Google, anche se non è stato confermato.
Le guerre dell’AI stanno costringendo le aziende tecnologiche a stabilire relazioni cruciali e talvolta inaspettate. Martedì, Microsoft e Oracle hanno annunciato un accordo per dare a Microsoft accesso ai server cloud di Oracle per gestire alcuni carichi di lavoro di OpenAI. In precedenza, OpenAI operava esclusivamente sui server di Microsoft. Apple è aperta a future collaborazioni, come suggerito dall’esecutivo Craig Federighi, che ha menzionato la possibilità di integrare modelli AI di Google Gemini nei dispositivi iOS in futuro.
Per maggiori informazioni, clicca per l’articolo originale.
Amazon ha un modo segreto per raccogliere dati da GitHub di Microsoft e alimentare il suo modello di AI
Amazon necessita di enormi quantità di dati di alta qualità per creare potenti modelli di AI. Considerando GitHub come una miniera di preziosi metadati di codifica, Amazon ha ideato una strategia per accelerare la raccolta di dati nonostante le limitazioni della piattaforma. Secondo un memo interno ottenuto da Business Insider, il gruppo di Intelligenza Artificiale Generale (AGI) di Amazon ha delineato la necessità di “metadati quantitativi e qualitativi da GitHub” per avanzare nei suoi sforzi di addestramento dell’AI. Tuttavia, i limiti di scraping dei dati di GitHub, che consentono solo 5000 richieste all’ora per account, rappresentano un ostacolo significativo.
Con oltre 150 milioni di repository pubblici su GitHub, i metodi tradizionali avrebbero richiesto anni per accumulare dati sufficienti. In risposta, Amazon ha proposto una soluzione alternativa: incoraggiare i suoi dipendenti a creare più account GitHub e condividere le loro credenziali di accesso. Utilizzando una rete di account contemporaneamente, Amazon mira a condensare ciò che sarebbe stato un lavoro pluriennale in poche settimane. Sebbene le azioni di Amazon possano non costituire tecnicamente un furto in senso legale, sollevano preoccupazioni etiche riguardo alla privacy dei dati, al permesso e all’uso appropriato delle risorse della piattaforma. Il memo fornisce istruzioni dettagliate su come i dipendenti dovrebbero creare e gestire questi account per garantire la conformità con le linee guida legali e di sicurezza.
Questo include l’uso di email di lavoro Amazon, tipi specifici di token GitHub e la configurazione di permessi appropriati per l’accesso ai dati. Amazon sostiene che il suo approccio sia stato approvato dai suoi team legali e di sicurezza, suggerendo che l’azienda sta cercando di operare entro i limiti legali. Tuttavia, la legalità di tali azioni potrebbe ancora essere messa in discussione, specialmente se GitHub o gli utenti coinvolti le percepiscono come violazioni.
La necessità di dati da GitHub da parte di Amazon è cruciale per avanzare nelle sue capacità di intelligenza artificiale. I modelli di AI, come quelli usati per comprendere il linguaggio umano o fare previsioni, richiedono grandi quantità di dati diversificati per apprendere efficacemente. GitHub, essendo un hub per milioni di progetti software open-source, fornisce una vasta gamma di codice e informazioni che possono addestrare questi algoritmi di AI.
Tuttavia, l’uso di dati da piattaforme come GitHub solleva questioni etiche. Le aziende devono affrontare problemi di privacy degli utenti, proprietà dei dati e conformità con le regole della piattaforma. L’approccio di Amazon, pur approvato internamente, evidenzia il dibattito continuo su come le aziende tecnologiche dovrebbero utilizzare e proteggere responsabilmente le informazioni digitali.
Per maggiori informazioni, clicca per l’articolo originale.
L’intelligenza artificiale sta rapidamente diventando una parte integrante della vita dei bambini
L’intelligenza artificiale sta rapidamente diventando una parte integrante della vita dei bambini. Questa primavera, il distretto scolastico unificato di Los Angeles, il secondo più grande degli Stati Uniti, ha introdotto una nuova “amica educativa” chiamata Ed. Questo chatbot, rappresentato da un piccolo sole sorridente, è in fase di test in 100 scuole ed è accessibile 24 ore su 24 attraverso un sito web, rispondendo a domande su corsi, voti e attività opzionali.
Il sovrintendente Alberto M. Carvalho ha sottolineato l’importanza di padroneggiare l’AI, per evitare di esserne sopraffatti. Il distretto ha anche un corso obbligatorio sulla Cittadinanza Digitale nell’Era dell’AI per studenti dai 13 anni in su. Tuttavia, mentre Ed è accolto positivamente dai bambini, che amano ricevere stelle d’oro per gli esercizi completati, molti di loro non comprendono appieno cos’è l’AI.
I bambini stanno diventando nuovamente cavie per una nuova generazione di tecnologia digitale, proprio come nei primi giorni dei social media. Diversi gruppi di età sperimentano l’AI in modi differenti: i più piccoli possono ascoltare storie della buonanotte generate da ChatGPT, mentre gli adolescenti possono incontrare chatbot nelle app quotidiane. Compagnie come Google, Apple e Meta stanno integrando modelli di AI generativa nei loro prodotti, come Google Search, iOS e Instagram.
Su Snapchat, un’app utilizzata dal 60% degli adolescenti americani, è presente un chatbot chiamato My AI. Nonostante i potenziali benefici, ci sono preoccupazioni riguardo all’uso di questi strumenti per i compiti scolastici, alla diffusione di informazioni errate e alla privacy. Inoltre, l’AI può alimentare nuove forme di crudeltà adolescenziale, come la creazione di foto false e dannose.
Recenti indagini mostrano che i giovani hanno opinioni contrastanti sull’AI: alcuni la vedono come un’opportunità per potenziare la creatività, altri temono la perdita di posti di lavoro e la diffusione di disinformazione. È cruciale che i genitori parlino con i loro figli dell’AI e che i bambini vengano consultati nello sviluppo delle normative su questa tecnologia, per garantire un futuro digitale sicuro e responsabile.
Per maggiori informazioni, clicca per l’articolo originale.