ChatGPT e il diritto processuale penale: un esperimento tra luci, ombre e (troppe) reticenze

Quale entusiasta dell’intelligenza artificiale e delle sue potenzialità, ho letto con grande interesse l’articolo su SistemaPenale di Diego Amidani, sull’esperimento condotto con ChatGPT, a cui è stato somministrato un vero e proprio esame di diritto penale e di diritto processuale penale.

A quanto pare, si è testato il modello su vari aspetti del processo, di primo grado e d’appello e sulla sua capacità di redigere atti giuridici, con risultati non proprio positivi.

Limiti di ChatGPT: tra allucinazioni e terminologia impropria

È stato evidenziato come ChatGPT abbia mostrato criticità evidenti, tra cui la produzione di informazioni inesatte (“allucinazioni”), l’uso di terminologia giuridica impropria (ad esempio, utilizza “verdetto” anziché “sentenza”) e una limitata comprensione degli istituti. Si è fatto notare, fra le altre, che ChatGPT commette gravi strafalcioni o imprecisioni (a.e. non conosce esattamente i termini per proporre appello ex art. 585 c.p.p.).

L’omissione di GPT-4: un’opportunità mancata

Tuttavia, ciò che più colpisce è il modo in cui l’esperimento si concentra quasi esclusivamente sulle mancanze di ChatGPT, lasciando poco spazio alla riflessione sul suo potenziale miglioramento e sulle opportunità offerte dalle versioni successive.

Nonostante questi limiti, occorre considerare che il progresso tecnologico è un processo continuo e che ignorare la differenza tra versioni, come GPT-3 e GPT-4, può falsare il giudizio.

GPT-4, infatti, è un modello significativamente migliorato, con una capacità di elaborazione e di comprensione più avanzata rispetto al suo predecessore. Questo dettaglio non è secondario: la tecnologia evolve rapidamente, e GPT-4 potrebbe risolvere molte delle problematiche evidenziate nell’articolo. Omettere questa prospettiva significa non comprendere a fondo l’evoluzione e il potenziale delle IA generative. Facendo le stesse domande proposte nell’articolo ad una versione GPT-4, si ottengono con evidenza risposte diverse – seppur non sempre corrette.

Se il giudizio su ChatGPT si basa unicamente su versioni superate, è inevitabile che l’esperimento appaia come un fallimento.

Perché non dobbiamo sottovalutare il potenziale dell’IA generativa

In ogni caso, il vero punto debole dell’analisi svolta è l’assenza di visione prospettica. Ogni tecnologia in fase iniziale presenta limiti e, proprio come accade con i veicoli elettrici rispetto ai primi prototipi, il miglioramento è inevitabile. L’articolo avrebbe dovuto evidenziare anche le possibilità di miglioramento, che non sono ipotetiche, ma già in atto.

ChatGPT ha mostrato limiti? Certo, non è ancora in grado di sostituire un avvocato o un giudice, ma questo è solo il primo passo di molti. Criticarlo senza considerare i miglioramenti attesi dalle versioni più avanzate è come giudicare un veicolo elettrico del 2024 con i parametri di un’auto del 2000: un errore metodologico che rischia di portare a conclusioni distorte.

Conclusioni: la necessità di una visione prospettica per il futuro legale

Le critiche, per quanto ben argomentate, si dimostrano eccessivamente caute e prive di quella visione d’insieme che un esperimento di tale portata avrebbe meritato.

Il miglioramento delle IA generative è inarrestabile, e l’articolo, pur interessante, pecca di un conservatorismo, a tratti persino miope. Se avessimo avuto la stessa diffidenza verso internet negli anni ’90, probabilmente oggi saremmo ancora sommersi dalle scartoffie e dalle interminabili ricerche manuali.

Chi guarda con estremo scetticismo le capacità embrionali dell’IA rischia di perdere un’opportunità di evoluzione cruciale per il settore giuridico. Come scrisse Voltaire:

“Il dubbio è scomodo, ma la certezza è un’illusione pericolosa”.