INNOVAZIONE E GIUSTIZIA La sfida dell'IA al diritto penale, che dovrà ripensare gli schemi classici

Dai droni capaci di uccidere per le strade urbane, alle auto senza conducente sino ai software che eseguono. L'intelligenza artificiale può essere l'autore di un reato? I giuristi si interrogano

CRISTIANO CUPELLI 10 APR 2023 ilfoglio.it lettura2’

Come dimostra il dibattito su potenzialità, limiti e rischi di ChatGPT, l’intelligenza artificiale, permeando settori sempre più estesi della quotidianità, determina l’insorgere di delicate questioni giuridiche, che hanno iniziato a interessare anche il diritto penale, storicamente più refrattario alle innovazioni tecnologiche. Una conferma la si può trarre da due recenti provvedimenti di matrice sovranazionale: la risoluzione del Parlamento europeo dello scorso ottobre sull’utilizzo della IA da parte delle autorità di polizia e giudiziarie in ambito penale e il c.d. AI Act, una proposta di regolamento europeo che stabilisce regole armonizzate sull’intelligenza artificiale.

Uno dei punti più controversi investe il possibile coinvolgimento di un sistema di IA quale autore di un reato. Gli esempi non mancano: dai droni capaci di uccidere per le strade urbane, alle auto senza conducente coinvolte nella causazione di incidenti a danno di cose o persone sino ai software che eseguono, in collaborazione o addirittura in sostituzione dell’uomo, compiti sempre più avanzati e che talvolta possono interferire negativamente con la condotta umana. La casistica stimola un interrogativo, che a sua volta chiama in causa questioni più generali: in episodi simili, qualora si riscontri un fatto di reato, al di fuori dei casi in cui a rispondere sia chiamato il programmatore, il produttore o l’utilizzatore del software (allorquando, cioè, il sistema non rappresenti altro che uno strumento in mano all’uomo attraverso il quale, in ragione delle enorme potenzialità asservibili a scopi criminali, il reato possa essere realizzato), può davvero un sistema di ultima generazione assumere le vesti di soggetto attivo del reato? Seppure non manca chi, facendo leva sul fatto che i sistemi di IA, perlomeno quelli più evoluti e sofisticati, sono capaci di agire in autonomia, di assumere ed eventualmente attuare decisioni proprie, che non erano prevedibili dai loro programmatori, offre una risposta affermativa (ipotizzando, in un parallelismo con la disciplina della responsabilità degli enti, una colpa di programmazione), le principali perplessità, allo stato, ruotano sulla difficoltà di ravvisare, in capo a una macchina, il tradizionale requisito della colpevolezza.

Si tratta, come è noto, dell’espressione più intensa del coinvolgimento soggettivo dell’autore nel fatto, la cui presenza comporta la possibilità di muovere un rimprovero e che presuppone la ravvisabilità, in capo al soggetto, di imputabilità, dolo o colpa, conoscenza (o per lo meno conoscibilità) della legge penale violata e assenza di cause di esclusione della colpevolezza. Ebbene, ci si chiede: questi elementi, originariamente concepiti e tradizionalmente riferiti solo all’umano, possono ascriversi a una macchina? Si può ipotizzare una colpevolezza robotica, in assenza, fra l’altro, di requisiti certi quali l’autocoscienza, il libero arbitrio, l'autonomia morale? Si può parlare di “capacità di intendere e di volere” in relazione a un software o configurare in capo a esso una colpa o addirittura un dolo? Ancora: quali sanzioni potranno essere comminate a tali sistemi e soprattutto, nel caso, saranno in grado di assolvere quelle funzioni, orientative e rieducative, che la Costituzione riconosce alla pena? E all’esito di quale tipo di processo?

Quando gli interrogativi superano le certezze, l’unica certezza è che occorre muoversi con cautela. Il che, tuttavia, non giustifica la sottovalutazione del tema: se il diritto penale vuole continuare ad assolvere il proprio ruolo, deve mettersi nelle condizioni di affrontare consapevolmente le sfide, complesse ma ineludibili, dello sviluppo tecnologico, ripensando schemi classici e proponendo, senza stravolgere princìpi consolidati di garanzia, modelli nuovi di incriminazione e paradigmi di tutela aperti alle spinte di un futuro che bussa alla porta.

Cristiano Cupelli, ordinario di Diritto penale Università di Roma Tor Vergata

Solo gli utenti registrati possono commentare gli articoli

Per accedere all'area riservata