IL MAGAZINE DEDICATO ALLE
INVESTIGAZIONI & SCIENZE FORENSI

di:  

intelligenza artificiale interrogatori

Intelligenza Artificiale negli interrogatori: quando l’AI crea falsi ricordi

L’impiego dell’AI è in continua espansione, influenzando diversi ambiti della società, incluso quello legale e investigativo. Di recente, si è iniziato a considerare l’utilizzo dell’Intelligenza Artificiale negli interrogatori per interrogare i testimoni di un crimine. Tuttavia, questa applicazione presenta rischi significativi. Si teme, infatti, che strumenti come ChatGPT o altre piattaforme di AI possano indurre gli interrogati a generare ricordi totalmente errati. Sebbene la tecnologia possa sembrare promettente, i pericoli legati alla sua applicazione in un contesto così delicato come quello forense non possono essere ignorati.

L’Intelligenza Artificiale negli interrogatori: quali sono i rischi?

L’utilizzo dell’Intelligenza Artificiale per interrogare i testimoni di un crimine potrebbe sembrare un passo avanti dal punto di vista tecnologico, ma introduce preoccupazioni legate alla veridicità delle testimonianze raccolte. Secondo una recente ricerca del MIT Medialab, l’AI tende a formulare domande suggestive e talvolta manipolatorie. Questo porta i testimoni a ricordare eventi o situazioni che non si sono mai verificati, ma che sono stati “costruiti” dalle domande stesse.

Stando ai dati, il 36,4% degli interrogati, dopo aver visionato un video, sarebbero stati fuorviati nell’interazione con le chatbot. L’utilizzo dell’AI era in grado di amplificare falsi ricordi di 1,7 volte di più rispetto alle persone interrogate con un tradizionale questionario.

Questo fenomeno è particolarmente allarmante in un contesto legale, dove l’accuratezza dei ricordi è fondamentale per il corretto svolgimento del processo giudiziario. Il cervello umano, infatti, può essere facilmente condizionato da immagini virtuali o dalla formulazione di domande che suggeriscono risposte preconfezionate. Tale interferenza cognitiva può portare alla creazione di falsi ricordi, che comprometterebbero gravemente la verità processuale.

Come funziona la memoria umana?

Alcuni studi di psicologia hanno dimostrato che la memoria umana non funziona come una registrazione perfetta degli eventi, ma piuttosto come un processo di ricostruzione. Ogni volta che cerchiamo di ricordare un evento passato, riattiviamo vari dettagli, contesti e impressioni, ricomponendo i fatti nella nostra mente. Per questo motivo, descrivere un evento richiede uno sforzo di ricostruzione che può essere influenzato da fattori diversi esterni.

Nel caso degli interrogatori, dove sono richiesti numerosi dettagli, l’uso di sistemi come ChatGPT potrebbe portare confusione nel testimone, facendogli ricordare eventi mai accaduti o distorcendo quelli realmente vissuti. L’interrogato potrebbe inconsapevolmente inserire informazioni suggerite o sollecitate dal sistema AI, compromettendo la sua testimonianza.

Intelligenza Artificiale negli interrogatori: impatto sulla giustizia

Se la testimonianza di una persona venisse alterata o manipolata dall’Intelligenza Artificiale, le conseguenze potrebbero essere devastanti. Una testimonianza falsata potrebbe portare alla condanna di una persona innocente, compromettendo non solo il caso specifico, ma anche l’integrità dell’intero sistema giudiziario.

L’uso dell’AI negli interrogatori comporta dunque un pericolo elevato, poiché non garantisce né la veridicità né l’imparzialità delle informazioni raccolte. È quindi essenziale stabilire linee guida etiche rigorose sull’uso di questi strumenti in ambito legale e assicurare una formazione adeguata ad avvocati e investigatori, affinché comprendano appieno i rischi associati a queste tecnologie.

Inoltre, un altro problema riguarda l’assenza di empatia e comprensione emotiva da parte dell’Intelligenza Artificiale. Durante un interrogatorio, gli esseri umani sono in grado di cogliere aspetti emotivi, linguistici e comportamentali che una macchina non può interpretare. Questo limita la capacità di valutare correttamente la credibilità di un testimone. A ciò si aggiunge il rischio di bias algoritmici, derivanti dai dati utilizzati per addestrare l’AI, che potrebbero riflettere pregiudizi e stereotipi, e aggravare ulteriormente le distorsioni nella raccolta delle testimonianze.

Serve cautela e una formazione adeguata

L’introduzione dell’Intelligenza Artificiale negli interrogatori rappresenta una sfida complessa che richiede un’attenta valutazione. Sebbene l’AI possa velocizzare determinati processi, i rischi legati alla creazione di falsi ricordi e alla manipolazione delle testimonianze sono troppo gravi per essere ignorati. L’assenza di empatia e la possibilità di bias algoritmici sollevano questioni fondamentali circa l’equità del processo legale.

Per evitare che l’uso dell’AI comprometta l’integrità della giustizia, è necessario stabilire rigorose linee guida etiche e garantire una formazione adeguata agli operatori del diritto. Solo attraverso un approccio ponderato e consapevole sarà possibile integrare l’AI senza compromettere i principi fondamentali su cui si basa il sistema giudiziario, assicurando che la tecnologia sia al servizio della giustizia e non una minaccia per essa.

CONDIVI QUESTO ARTICOLO!

Iscriviti alla newsletter

    La tua email *

    Numero di cellulare

    Nome *

    Cognome *

    *

    *

    Inserisci sotto il seguente codice: captcha