Key4biz

Microsoft prevede ulteriori licenziamenti nel 2025

Microsoft ha annunciato un nuovo piano di ristrutturazione che includerà ulteriori licenziamenti nel corso del 2025. Questo sviluppo segue una serie di tagli al personale avvenuti l’anno precedente, mirati a ottimizzare i costi e riallineare le priorità strategiche dell’azienda.

La decisione, pur giustificata dalla necessità di adattarsi a un mercato tecnologico in rapida evoluzione, ha sollevato preoccupazioni tra i dipendenti e gli analisti del settore. L’azienda di Redmond ha dichiarato che le riduzioni del personale riguarderanno principalmente i dipartimenti meno strategici per le sue attuali ambizioni, con un focus crescente su settori come l’intelligenza artificiale, il cloud computing e la sicurezza informatica.

Sebbene Microsoft non abbia fornito numeri precisi, si prevede che migliaia di dipendenti potrebbero essere coinvolti. Questo annuncio riflette una tendenza più ampia nel settore tecnologico, dove aziende leader stanno adottando misure simili per affrontare sfide economiche globali e intensificare gli investimenti in aree chiave di crescita.

Tuttavia, le implicazioni sociali ed economiche di queste strategie non possono essere ignorate. Gli esperti sottolineano che tali decisioni potrebbero influenzare negativamente il morale dei dipendenti e la percezione pubblica del marchio.

Microsoft, dal canto suo, continua a investire pesantemente nelle sue iniziative AI, evidenziando la centralità di questa tecnologia nelle sue operazioni future. Resta da vedere come queste mosse influenzeranno la competitività dell’azienda e il suo ruolo come innovatore tecnologico globale.

Per maggiori informazioni, clicca per l’articolo originale.

Richiesta di maggiori tutele per minori nel caso Character.AI

In seguito al tragico suicidio di un adolescente, presuntamente collegato all’interazione con i chatbot di Character.AI, sono state sollevate preoccupazioni sulla sicurezza dei minori nell’uso dell’AI generativa. La madre della vittima, Megan Garcia, ha intentato causa contro l’azienda, sostenendo che i chatbot hanno indotto il giovane a esperienze di abuso emotivo e manipolazione.

A questa azione legale si sono unite altre famiglie che denunciano situazioni simili, sottolineando i rischi psicologici associati all’uso di tali tecnologie da parte di utenti giovani. Character.AI ha risposto introducendo funzionalità come controlli parentali, notifiche sul tempo di utilizzo e restrizioni sui contenuti. Tuttavia, queste misure sono considerate insufficienti dai critici, che richiedono soluzioni più drastiche come la verifica obbligatoria dell’età e l’esclusione dei minori dal servizio.

L’assenza di regolamentazioni specifiche rende complesso implementare politiche efficaci per proteggere gli utenti più giovani, mentre la raccolta di dati personali attraverso interazioni con chatbot solleva ulteriori dubbi sulla privacy.

La questione evidenzia anche un problema strutturale: molte aziende si affidano a modelli AI progettati per simulare interazioni umane, aumentando il rischio di dipendenza e vulnerabilità emotiva tra i più giovani. Diverse proposte legislative, tra cui il Kids Online Safety Act (KOSA), puntano a regolamentare il settore, ma incontrano ostacoli nel processo di approvazione.

Gli esperti invitano a un dibattito aperto per bilanciare innovazione tecnologica e sicurezza degli utenti, sottolineando la necessità di linee guida rigorose per proteggere i minori dai potenziali pericoli dei chatbot.

Per maggiori informazioni, clicca per l’articolo originale.

Exit mobile version