Key4biz

La ginnastica ai Giochi Olimpici utilizzerà un sistema di giudizio AI sviluppato da Fujitsu

Un rivoluzionario sistema di giudizio basato su AI sarà introdotto nelle competizioni di ginnastica ai prossimi Giochi Olimpici. Sviluppato dalla collaborazione tra Fujitsu, la Federazione Internazionale di Ginnastica (FIG) e il Japan Sports Science Institute (JSS), questo innovativo sistema mira a garantire una valutazione più precisa e imparziale delle performance degli atleti.

La tecnologia utilizza sensori 3D e algoritmi avanzati per analizzare i movimenti ginnici in tempo reale, fornendo un feedback immediato e dettagliato sui vari aspetti delle esibizioni, come l’esecuzione tecnica e la difficoltà degli esercizi. Questo approccio hi-tech non solo promette di ridurre significativamente gli errori umani, ma anche di elevare il livello di trasparenza e giustizia nelle competizioni.

I dati raccolti dai sensori vengono elaborati da potenti computer che, grazie all’AI, sono in grado di interpretare con grande precisione ogni movimento degli atleti. Questo sistema non sostituirà completamente i giudici umani, ma fungerà da supporto per migliorare la loro valutazione, integrando il giudizio umano con un’analisi oggettiva e dettagliata.

La FIG spera che questa innovazione possa migliorare l’affidabilità del giudizio nelle competizioni di ginnastica, riducendo le controversie e aumentando la fiducia degli atleti e del pubblico nei risultati delle gare. L’introduzione di questa tecnologia rappresenta un passo significativo verso l’integrazione dell’AI nello sport, dimostrando come l’innovazione tecnologica possa migliorare la qualità e l’equità delle competizioni sportive.

Per maggiori informazioni, clicca per l’articolo originale.

‘La sicurezza AI delle Olimpiadi provoca una reazione contro la sorveglianza di massa’

Le imminenti Olimpiadi hanno scatenato una polemica riguardo l’uso della sicurezza AI, sollevando preoccupazioni sulla sorveglianza di massa. Le autorità stanno implementando tecnologie avanzate di riconoscimento facciale e di tracciamento comportamentale per garantire la sicurezza dell’evento, ma questo ha sollevato timori riguardo alla privacy e ai diritti civili.

Gli attivisti e gli esperti di privacy sostengono che tali misure potrebbero portare a un uso eccessivo e ingiustificato della sorveglianza, con potenziali abusi e discriminazioni. Alcuni critici temono che la tecnologia possa essere utilizzata anche dopo le Olimpiadi, creando un precedente per una sorveglianza permanente e invasiva. Le discussioni sulla bilancia tra sicurezza e privacy sono diventate un punto focale, mettendo in luce le implicazioni etiche e legali dell’adozione di queste tecnologie AI.

Mentre i sostenitori affermano che tali misure sono necessarie per prevenire minacce e garantire la sicurezza dei partecipanti e degli spettatori, gli oppositori chiedono trasparenza, regolamentazione e protezioni più forti per i dati personali.

Per maggiori informazioni, clicca per l’articolo originale.

Il deepfake del CEO di Ferrari mostra la crescente minaccia delle truffe AI che impersonano dirigenti

Un recente tentativo di truffa ai danni di Ferrari NV ha evidenziato la crescente minaccia rappresentata dall’uso dei deepfake per impersonare dirigenti aziendali. Un esecutivo di Ferrari ha ricevuto messaggi su WhatsApp da un numero non riconosciuto, apparentemente inviati dal CEO Benedetto Vigna, che parlavano di una grande acquisizione e richiedevano discrezione e la firma di un accordo di non divulgazione.

Sebbene l’imitazione della voce di Vigna fosse convincente, l’esecutivo ha notato alcune intonazioni meccaniche che hanno destato sospetti, portando alla fine della chiamata e all’avvio di un’indagine interna da parte di Ferrari.

Questo caso segue altri tentativi simili, come quello che ha coinvolto il CEO di WPP Plc, Mark Read, e un altro in cui una multinazionale ha perso 26 milioni di dollari a causa di una truffa deepfake a Hong Kong. Gli esperti avvertono che i criminali stanno perfezionando queste tecnologie, rendendole sempre più accurate e difficili da individuare.

Alcune aziende, come CyberArk, stanno già addestrando i propri dirigenti a riconoscere quando vengono truffati da bot. Le truffe deepfake rappresentano una minaccia crescente e richiedono una maggiore consapevolezza e preparazione da parte delle aziende per proteggersi da tali attacchi.

Per maggiori informazioni, clicca per l’articolo originale.

Exit mobile version