L’integrazione sempre più pervasiva dell’AI nei processi di selezione del personale sta trasformando radicalmente la ricerca di lavoro, generando disillusione nei candidati e sfide inedite per i datori di lavoro.
I candidati utilizzano chatbot e generatori automatici per inviare centinaia di domande in pochi minuti, mentre le aziende adottano sistemi automatizzati per scremare curricula, organizzare colloqui e comunicare con gli utenti.
Questo ha reso il processo impersonale e spesso frustrante, con esperienze che vanno da colloqui gestiti da robot fino a convocazioni ignorate dai team umani. Allo stesso tempo, aumentano i casi di candidati falsi: alcuni impiegano deepfake per superare test tecnici e simulare identità digitali.
Start-up come Vidoc Security Lab stanno cercando di rendere i propri processi “AI-proof”, introducendo controlli personali, colloqui in presenza e test anti-AI. La crescente affidabilità degli strumenti generativi, come ChatGPT o Claude, complica l’identificazione di candidati realmente qualificati.
Anche i recruiter più esperti faticano a distinguere chi usa l’AI per supporto da chi ne abusa, delegando completamente la propria presentazione professionale. In parallelo, emergono rischi legali e discriminatori: l’Equal Employment Opportunity Commission ha emesso linee guida e diversi stati americani, come Colorado e Illinois, stanno approvando normative per regolamentare l’uso etico degli algoritmi. Nonostante ciò, il settore del recruiting AI-based è destinato a raddoppiare entro il 2032, spinto da una domanda crescente di soluzioni scalabili.
Alcuni professionisti invocano il ritorno a metodi più umani, come le referenze personali e l’analisi manuale dei CV, mentre altri temono che l’intero ecosistema stia diventando insostenibile, penalizzando i candidati sinceri e mettendo in crisi la fiducia nel sistema. Il futuro del lavoro, in bilico tra automazione e autenticità, richiede nuove strategie per valorizzare la componente umana senza soccombere all’efficienza algoritmica.
Per maggiori informazioni, clicca per l’articolo originale.
Startup per la scoperta di farmaci con AI, sostenuta da Google, raccoglie 600 milioni di dollari
Isomorphic Labs, spin-off londinese di Google DeepMind nata nel 2021, ha ottenuto un finanziamento esterno da 600 milioni di dollari nel suo primo round ufficiale di raccolta fondi. La startup, che impiega tecnologie di AI nella scoperta di nuovi farmaci, ha attratto capitali da Thrive Capital, tra gli investitori principali, segnalando un crescente interesse verso le applicazioni dell’intelligenza artificiale nel campo delle scienze della vita.
Fondata da Demis Hassabis, anche CEO di DeepMind, l’azienda ha sviluppato la terza versione avanzata di ‘AlphaFold’, un modello di AI in grado di prevedere la struttura di quasi tutte le proteine conosciute, contribuendo in modo determinante alla ricerca biofarmaceutica. I fondi raccolti saranno destinati al potenziamento della ricerca e sviluppo, nonché all’espansione del team di talenti.
Secondo quanto dichiarato da Hassabis, l’azienda punta ad avviare sperimentazioni cliniche su farmaci progettati interamente con AI entro la fine del 2025. Questo traguardo rappresenterebbe una svolta nell’integrazione tra machine learning e biotecnologie, posizionando Isomorphic Labs come attore strategico in un settore in rapida trasformazione.
L’interesse degli investitori per realtà emergenti come Isomorphic riflette la tendenza globale delle grandi aziende tech a includere soluzioni basate su AI nei propri ecosistemi, non solo per scopi digitali, ma anche in ambiti ad alto impatto come la salute pubblica e la medicina di precisione.
Per maggiori informazioni, clicca per l’articolo originale.
Come evitare che la forza lavoro abusi dell’AI
L’adozione sempre più diffusa di strumenti basati su AI all’interno delle aziende ha portato a nuove sfide legate all’eccessivo affidamento su tali tecnologie. L’uso abituale e incontrollato può generare dipendenza, ridurre la capacità critica dei lavoratori e introdurre gravi rischi di sicurezza.
Zac Engler, CEO della società di consulenza Bodhi AI, evidenzia che la mancanza di una strategia chiara e l’assenza di formazione adeguata possono favorire l’emergere del fenomeno della ‘shadow AI’, ovvero l’utilizzo non autorizzato di strumenti AI da parte dei dipendenti. Questo comportamento, oltre a essere diffuso (il 75% dei lavoratori intervistati da Perplexity usa quotidianamente l’AI), può esporre l’organizzazione a violazioni di dati e decisioni errate.
Uno studio congiunto di Carnegie Mellon University e Microsoft ha dimostrato che l’uso eccessivo dell’AI può compromettere il pensiero critico degli utenti. Per mitigare questo rischio, Engler suggerisce di trattare l’AI come uno strumento di supporto alle decisioni, e non come un sostituto del giudizio umano.
È essenziale identificare le aree in cui l’intervento umano resta cruciale, come nei processi decisionali strategici, lasciando all’AI i compiti più ripetitivi e a basso impatto. Tra le raccomandazioni operative spiccano la definizione di soglie di affidabilità (confidence thresholds) per valutare l’attendibilità delle risposte generate dai modelli AI e l’adozione di una governance chiara sull’utilizzo delle tecnologie intelligenti.
Secondo Engler, il successo nell’era dell’AI dipenderà dalla capacità di ‘cavalcare l’onda’, bilanciando innovazione e controllo.
Per maggiori informazioni, clicca per l’articolo originale.