Verso il superamento del “legal risk” europeo: intelligenza artificiale e approccio proporzionale al rischio – Maria Carla Canato
Il legislatore europeo, con l’adozione dell’AI Act, ha assunto un ruolo centrale nella definizione di un nuovo “nucleo di valori costituzionali” per la tutela dei diritti nel contesto dell’intelligenza artificiale. Questo assetto regolatorio, pur limitato e auspicabilmente rivedibile, pone l’interprete e il penalista di fronte a un nuovo metodo di indagine sulla responsabilità “indiretta” dell’uomo rispetto ai danni causati dalle macchine autonome, orientato specificamente a una valutazione del rischio di tipo normativo. L’AI Act dimostra che le sfide poste dall’intelligenza artificiale devono considerare un rapporto tra rischi e benefici collettivi, dove è l’uomo – e non la macchina – a effettuare il giudizio di bilanciamento tra i valori in gioco. Da un lato, si ribadisce la centralità del controllo umano e l’inutilità teorica di ricorrere a meccanismi di responsabilità diretta del sistema di IA; dall’altro, si evidenzia l’opportunità di individuare aree di “rischio consentito”, in una logica rispettosa della responsabilità personale ai sensi dell’art. 27 della Costituzione. In questa prospettiva, la tutela giuridica nell’intelligenza artificiale, in linea con la giurisprudenza sovranazionale, riaffermerebbe il ruolo di extrema ratio del diritto penale.
The European legislator, with the adoption of the AI Act, has assumed a central role in defining a new “core of constitutional values” for the protection of rights in the context of artificial intelligence. This regulatory framework, though limited and hopefully revisable, places interpreters and criminal lawyers before a new method of investigating the “indirect” responsibility of humans for damages caused by autonomous machines, specifically oriented towards a normative risk assessment. The AI Act demonstrates that the challenges posed by artificial intelligence must consider the relationship between collective risks and benefits, where it is the human – not the machine – who makes the judgment of balancing the values at stake. On the one hand, the centrality of human control and the theoretical impracticality of resorting to direct responsibility mechanisms for AI systems are reiterated; on the other hand, the opportunity to identify areas of “permissible risk” is highlighted, in a logic respectful of personal responsibility pursuant to Article 27 of the Constitution. From this perspective, legal protection in the realm of artificial intelligence, in line with supranational jurisprudence, would reaffirm the role of criminal law as an extrema ratio.