Decisione umana e decisione robotica. Un’ipotesi di responsabilità da procreazione robotica – Maria Beatrice Magro

L’impossibilità di interpretare o spiegare il modello decisionale degli agenti artificiali dotati di AutoML pone seriamente in discussione il sistema della responsabilità penale a titolo di colpa (eventuale) dell’utente umano a causa dell’agire non programmato e non prevedibile (se non in termini generici ed eventuali) del loro comportamento, che sfugge ad un tempestivo controllo umano. In questa prospettiva, la tesi provocatoria – almeno fino ad adesso – della responsabilità penale diretta delle entità artificiali dotate dello status morale e giuridico di agenti deve confrontarsi con l’idea della totale fungibilità funzionale (se non della superiorità) della decisione robotica rispetto quella umana, e con le difficoltà di concepire una coscienza artificiale (di accesso e fenomenica) che rifletta anche solo lontanamente l’architettura della mente umana. Perciò, sorge spontanea la domanda se lo sviluppo di future IA “forti” possa essere anche parzialmente contrastato da barriere di diritto penale. Piuttosto che ipotizzare una responsabilità diretta a carico dei robot intelligenti, si fa strada l’ipotesi di tratteggiare una responsabilità a carico dell’agente umano per aver creato o programmato un’entità artificiale non benefica, insuscettibile di controllo umano, che potenzialmente possa cagionare reati o eventi dannosi. Ciò non significa ostacolare l’evoluzione scientifica con anacronistici divieti penali, ma solo che dovremmo astenerci dal progettare e immettere nell’ambiente aperto e dinamico quegli agenti artificiali che sostituiscono totalmente la decisione umana; significa attivare e predisporre meccanismi tecnologici che non affievoliscano la capacità di controllo (e autocontrollo) umano a causa del supporto robotico, ma che la sollecitino, la potenzino, la supportino.

Scarica l’articolo in formato .pdf