L’intelligenza artificiale, inizialmente relegata a fenomeno fantascientifico, è oggi parte nelle nostre vite. L’evoluzione storica della stessa, che nasce dall’abaco, passando per Alan Turing fino a giungere a ChatGPT, ha tutti i presupposti per velocizzarsi sempre di più nei prossimi anni. I sistemi di intelligenza artificiali ci accompagnano nella quotidianità permettendoci di svolgere con più semplicità le attività quotidiane.
Al contempo, sono evidenti i rischi legati al mondo del lavoro e alla tutela dei diritti della persona. Di conseguenza, come in parte svolto dal c.d. AI Act, è necessario che il legislatore affronti l’evoluzione tecnologica al fine di non limitarne il progresso nel rispetto dei diritti fondamentali degli individui.
Nell’attuale situazione normativa sostanziale, l’intelligenza artificiale ha la capacità di incidere sia nel diritto civile ed in particolare nel diritto dei contratti e della responsabilità extracontrattuale, che nel diritto penale, sia comune che militare.
In relazione al diritto penale comune, il dibattito si è soffermato sui reati commessi da e mediante i sistemi di intelligenza artificiale.
Nel diritto processuale penale, invece, in prospettiva antedelictum o postdelictum nelle fasi di policing, profiling e sentencing, i dati generati automaticamente possono porsi in contrapposizione con i principi costituzionali a garanzia dei diritti e libertà personali. Tale intromissione della tecnologia nel mondo del diritto, soprattutto nel penale, nel quale sono in gioco i diritti e le libertà dei cittadini, presenta aspetti indubbiamente positivi ma allo stesso tempo rischiosi per la tutela dei diritti fondamentali: è necessario un bilanciamento degli interessi in gioco.
Per il diritto sostanziale ci si imbatte nelle problematiche relative alla personalità giuridica, alla responsabilità penale e alla possibilità di istituire nuove fattispecie in linea con l’evoluzione tecnologica.
Fino a pochi anni fa, le macchine erano integralmente progettate dal programmatore: non si avevano margini di discrezionalità in capo al dispositivo e tutto poteva essere previsto ex ante e controllato dall’umano garantendo il rispetto del modello di imputazione della responsabilità indiretta dell’uomo permettendo di muovergli un rimprovero, almeno a titolo di colpa. La macchina si atteggiava come mero strumento nelle mani del reo.
Oggi, l’intelligenza artificiale ha permesso un quid pluris ai robot, in grado di agire sulla base di scelte discrezionali non sempre prevedibili ex ante dal programmatore grazie ai meccanismi di machine learning.
In tal modo si rischia di sgretolare il brocardo ripreso dal diritto penale degli enti: machina delinquere non potest.