Kochava, che si definisce leader nel mercato della data analytics delle mobile app, si trova invischiata in una battaglia legale con la Federal Trade Commission (FTC) americana che potrebbe causare grossi cambiamenti nel mercato e nell’approccio del Congresso all’intelligenza artificiale e alla privacy.
La posta in gioco è alta perché l’acquisizione segreta dei dati di Kochava e le pratiche di analisi assistite dall’intelligenza artificiale sono comuni nel mercato globale dei dati sulla posizione. Oltre a numerosi broker di dati meno conosciuti, il mercato dei dati mobili comprende attori più grandi come Foursquare e scambi di dati come AWS Data Exchange di Amazon. La denuncia modificata recentemente aperta dalla FTC contro Kochava chiarisce che c’è del vero in ciò che Kochava pubblicizza: può fornire dati per “Qualsiasi canale, qualsiasi dispositivo, qualsiasi pubblico” e gli acquirenti possono “Misurare tutto con Kochava”.
In modo separato la FTC sta pubblicizzando un accordo appena raggiunto con il broker di dati Outlogic, in quello che definisce il “primo divieto in assoluto sull’uso e la vendita di dati sensibili sulla posizione”. Outlogic deve distruggere i dati sulla posizione in suo possesso e le è vietato raccogliere o utilizzare tali informazioni per determinare chi va e viene da luoghi sensibili, come centri sanitari, rifugi per senzatetto e per abusi domestici e luoghi religiosi.
Raccolta dati senza consenso?
Secondo la FTC e le proposte di class action contro Kochava per conto di adulti e bambini, la società raccoglie segretamente, senza preavviso o consenso, e ottiene in altro modo grandi quantità di dati personali e sulla posizione dei consumatori. Quindi, analizza i dati utilizzando l’intelligenza artificiale, che le consente di prevedere e influenzare il comportamento dei consumatori in modi estremamente vari e invasivi, e li mette in vendita. Kochava nega le accuse della FTC.
La FTC sostiene che Kochava vende una “visione a 360 gradi” sugli individui e si fa pubblicità dicendo che può “collegare dati precisi di geolocalizzazione con email, dati demografici, dispositivi, famiglie e canali”.
In altre parole, Kochava prende i dati sulla posizione, li aggrega con altri dati e li collega alle identità dei consumatori. I dati venduti rivelano informazioni precise su una persona, come visite a ospedali, “cliniche di salute per la riproduzione, luoghi di culto, rifugi per senzatetto e per violenza domestica e strutture di recupero dalle dipendenze”. Inoltre, vendendo dati così dettagliati sulle persone, la FTC afferma che “Kochava consente ad altri di identificare gli individui e di esporli a minacce di stigma sociale, stalking, discriminazione, perdita di posti di lavoro e persino violenza fisica”.
La legge non sta al passo
Secondo gli esperti, la legge Usa non riesce a tenere il passo con la regolamentazione dei dati disponibili in commercio o con la governance dell’intelligenza artificiale.
La maggior parte delle normative Usa sulla privacy sono state concepite prima dell’avvento dell’AI generativa, e non esiste una legge federale generale che affronti l’elaborazione dei dati basata sull’intelligenza artificiale. Ci sono iniziative del Congresso per regolamentare l’uso dell’intelligenza artificiale nei processi decisionali, come assunzioni e condanne. Ci sono anche sforzi per garantire trasparenza pubblica sull’uso dell’intelligenza artificiale. Ma il Congresso deve ancora approvare la legislazione.
La causa della Federal Trade Commission contro Kochava si inserisce quindi in un contesto di regolamentazione minima dei broker di dati.
Cosa rivelano i documenti del contenzioso
Secondo la FTC, Kochava raccoglie e poi vende segretamente i suoi dati “Kochava Collective”, che includono dati precisi di geolocalizzazione, profili completi dei singoli consumatori, dettagli sull’utilizzo delle app mobili dei consumatori e “segmenti di pubblico” di Kochava.
La FTC afferma che i segmenti di pubblico di Kochava possono essere basati su “comportamenti” e informazioni sensibili come identità di genere, affiliazione politica e religiosa, razza, visite agli ospedali e alle cliniche per aborti e informazioni mediche delle persone, come le mestruazioni e l’ovulazione, e persino i trattamenti contro il cancro. Selezionando determinati segmenti di pubblico, i clienti Kochava possono identificare e rivolgersi a gruppi estremamente specifici. Ad esempio, ciò potrebbe includere le persone che si identificano come “altro” o tutte le donne incinte che sono afroamericane e musulmane. La FTC afferma che i segmenti di pubblico selezionati possono essere ristretti a un’area geografica specifica o, in teoria, anche a un edificio specifico.
Attraverso l’identificazione, la FTC spiega che i clienti di Kochava sono in grado di ottenere nome, indirizzo di casa, indirizzo e-mail, stato economico e stabilità e molti più dati sulle persone all’interno di gruppi selezionati. Questi dati vengono acquistati da organizzazioni come inserzionisti, assicuratori e campagne politiche che cercano di classificare e prendere di mira in modo ristretto le persone. La FTC afferma inoltre che può essere acquistato da persone che vogliono danneggiare gli altri.
Come Kochava acquisisce dati così sensibili
La FTC sostiene che Kochava acquisisce i dati dei consumatori in due modi: attraverso i kit di sviluppo software di Kochava che fornisce agli sviluppatori di app e direttamente da altri broker di dati. I kit di sviluppo software forniti da Kochava sarebbero installati in oltre 10mila app a livello globale, per raccogliere frotte di dati rimandati poi a Kochava senza che il consumatore venga informato o acconsenta a questa raccolta dei dati.
Un’altra causa contro Kochava in California sostiene accuse simili di raccolta e analisi clandestina di dati e che Kochava vende feed di dati personalizzati basati su informazioni estremamente sensibili e private adattate esattamente alle esigenze dei suoi clienti.
L’intelligenza artificiale affossa la privacy
La denuncia della FTC illustra anche come i progressi degli strumenti di intelligenza artificiale stiano consentendo una nuova fase nell’analisi dei dati. La capacità dell’AI generativa di elaborare grandi quantità di dati sta rimodellando ciò che può essere fatto e imparato dai dati mobili in modi che invadono la privacy. Ciò include la deduzione e la divulgazione di informazioni sensibili o altrimenti protette dalla legge, come cartelle cliniche e immagini.
L’intelligenza artificiale offre la capacità di conoscere e prevedere praticamente qualsiasi cosa su individui e gruppi, anche comportamenti molto sensibili. Permette inoltre di manipolare il comportamento individuale e di gruppo, inducendo decisioni a favore di utenti specifici dello strumento di intelligenza artificiale.
Questo tipo di “manipolazione coordinata dall’intelligenza artificiale” può soppiantare la tua capacità decisionale a tua insaputa.
Privacy in bilico
La FTC applica le leggi contro le pratiche commerciali sleali e ingannevoli e nel 2022 ha informato Kochava che la società stava violando le norme. Entrambe le parti hanno avuto alcune vittorie e sconfitte nel caso in corso. Il giudice distrettuale B. Lynn Winmill, che sta supervisionando il caso, ha respinto il primo reclamo della FTC e ha richiesto alla FTC ulteriori elementi. La commissione ha presentato una denuncia modificata che ha fornito accuse molto più specifiche.
Winmill non si è ancora pronunciata su un’altra mozione di Kochava per archiviare il caso della FTC, ma a partire dall’archiviazione del caso del 3 gennaio 2024, le parti stanno procedendo. È prevista una data del processo nel 2025.
Per ora, è probabile che aziende, attivisti della privacy e politici stiano tenendo d’occhio questo caso. Il suo risultato, combinato con la legislazione proposta e l’attenzione della FTC sull’intelligenza artificiale generativa, sui dati e sulla privacy, potrebbe comportare grandi cambiamenti per quanto riguarda il modo in cui le aziende acquisiscono i dati, i modi in cui gli strumenti di intelligenza artificiale possono essere utilizzati per analizzare i dati e quali di essi possono essere legalmente utilizzati per esigenze sempre più dettagliate.