Ars Artificialis: una rubrica a cura di Nicola Grandis. Parlare e dialogare sulla migliore approssimazione di Arte Artificiale realizzata sin qui dall’uomo, quella che comunemente viene definita Intelligenza Artificiale. Per leggere tutti gli articoli clicca qui.
Nonostante il Prof Yoshua Bengio l’avesse definita come “la regolamentazione minima che uno Stato dovrebbe avere” la Senate Bill 1047, pur avendo superato il voto delle due camere dello Stato della California, ha ricevuto il veto del Governatore Newsom.
La SB1047 era stata concepita come una regolamentazione per i Frontiers Models, modelli da 10^25 Flops ed oltre. Parliamo di modelli come Claude di Anthropic, ChatGPT di OpenAI, Gemini di Google e pochi altri.
Gli scienziati si sono subito divisi in due fazioni:
- quelli impegnati solo nella Ricerca, tutti a favore.
- quelli con forti interessi in proprie Startup, SpinOff, Contratti, tutti contrari.
Anche le aziende si sono subito divise:
- quelli senza fondi per allenare modelli simili, tutti a favore
- coloro implicati nella costruzione di modelli di questo tipo, come azienda, VC o altro, tutti contrari
Dunque, in modo sbalorditivo ed imprevedibile, pare che la ragione del denaro abbia prevalso.
Per chi abbia la voglia di leggerla l’approccio della SB 1047 era molto interessante. Come un po’ in tutte le cose del mondo (gli aerei, le auto, le armi, le bombe, i farmaci, il nucleare, etc) non voleva regolare gli effetti o gli utilizzi di qualcosa, ma direttamente la produzione di qualcosa. Un approccio per molti versi più stringente, vincolante e responsabilizzante del nostro opinionato AI-ACT.
Con un giro di parole edulcorato, diverse postille e diverse azioni-palliativo (ben 17) il governatore rifiuta di firmare perché rimanda il tema ad una norma federale e non del solo Stato della California. I maliziosi sono liberi di pensare che non abbia firmato perché, come dice lo stesso governatore, 32 delle top 50 Tech Firms più importanti del mondo hanno sede da lui e sarebbe impensabile penalizzarle anche solo di rimbalzo.
Brutta vicenda. Politicamente gestita male.
Volendo salvare qualcosa, tra i palliativi c’è la AB 2885 by Assembly member Rebecca Bauer-Kahan, una norma sulla definizione di AI. Probabilmente sussurrata da Berkeley e da Fei-Fei Li, la nonna dell’AI, molto elegante:
(1) “Artificial intelligence” means an engineered or machine-based system that varies in its level of autonomy and that can, for explicit or implicit objectives, infer from the input it receives how to generate outputs that can influence physical or virtual environments.
(2) “Automated decision system” means a computational process derived from machine learning, statistical modeling, data analytics, or artificial intelligence that issues simplified output, including a score, classification, or recommendation, that is used to assist or replace human discretionary decisionmaking and materially impacts natural persons …
Già dividere i due concetti sopra, merita un applauso e la definizione (1) è molto più precisa di quella compresa nell’art 3 del nostro AI ACT. La (2) non l’abbiamo nemmeno contemplata.
Per legge serve una licenza per costruire bombe, ci arriveremo anche per certi tipi di AI.