ABSTRACT: In questa talk parlerò dell'utilizzo dell'AI sia come strumento per facilitare la commissione di reati (ad esempio attraverso l'utilizzo di social engineering nella commissione di frodi bancarie), che come strumento investigativo all'interno del procedimento penale (ad esempio attraverso l'utilizzo di sistemi di sorveglianza speciali), che come supporto ai giudici nella determinazione della pena e nella stesura delle sentenze. Infine tratterò delle possibili discriminazioni che l'utilizzo acritico di sistemi di AI può determinare nell'amministrazione della giustizia, distinguendo tra discriminazioni matematico/statistiche e sociali (come succede anche nella valutazione del credit score nella richiesta di mutui).
BIO: Dopo l'abilitazione alla professione forense, Carlotta Capizzi ha lavorato in una delle maggiori società di consulenza mondiali, occupandosi in particolar modo di sistemi di pagamento digitale e antifrode. Attualmente si occupa di compliance ICT all'interno di un importante gruppo bancario italiano, con particolare focus alle normative relative al pacchetto di finanza digitale UE (DORA, FIDA e AI Act). Di recente ha pubblicato un articolo relativo ai sistemi di sorveglianza speciale, basati sull'AI, sperimentati a Trento e Rovereto e approfondito l'interconnessione tra AI e diritto penale.
1 of 20
Download to read offline
More Related Content
AI nel diritto penale, dalle indagini alla redazione delle sentenze
1. AI nel diritto penale
Dalle indagini alla redazione delle sentenze
Carlotta Maria
Capizzi
Speck and Tech
20.05.2024
3. AI & Reati
AI & Indagini
Discriminazione
AI & Sentenze
Introduzione
1
4. AI e Commissione di reati
I sistemi di AI ( LLM) possono essere utilizzati per facilitare la
commissione di truffe (i.e. phishing) grazie alla loro capacità di
customizzare i messaggi.
2
5. AI e Commissione di reati
• Scrivono testi ma non elaborano un pensiero critico.
• Generic Pretrained Transformer,
• Common Crawl e art. 15 GDPR: sistemi nati con
scopi di ricerca (caso OpenAI);
• Art. 10 AI Act: i dati usati e raccolti dagli LLM devono
essere rilevanti, rappresentativi, privi di errori e
completi.
Large Language Models
6. AI e Commissione di reati
Phishing: forma di Social Engineering definita
dalla ricezione di comunicazioni non desiderate
volte ad estorcere denaro o installare malware;
Deep-Fake: Software che crea foto, suoni o video
relativi a persone reali ma non corrispondenti a
eventi, suoni o conversazioni reali.
Phishing e Deep-Fake
8. AI e Indagini
• Strumenti sia di prevenzione del crimine che d’identificazione dei
sospettati
• Le città di Trento e Rovereto hanno provato dei sistemi di
sorveglianza «digitale»
3
9. AI e Indagini 1/2
Sorveglianza: un sistema di
gestione dei rischi e di controllo
sociale con funzione general
preventiva.
Sorveglianza speciale: sistemi
basati AI che sono in grado di inviare
e rielaborare dati in tempo reale,
direct deterrence.
2
1
1
2
10. AI e Indagini 2/2
• Acquisizione di filmati per
finalità di sicurezza urbana;
• Installazione microfoni sulla
pubblica via;
• Dati analizzati in modo
automatizzato per rilevare
eventi di rischio.
• Raccolti anche messaggi,
commenti e post pubblicati sui
social network;
• I dati analizzati al fine di
raccogliere messaggi e
commenti di odio, per
individuare possibili rischi e
minacce per la sicurezza.
Marvel Protector
11. AI e Indagini 2/2
ü mancanza di una base giuridica;
ü Insufficienza delle tecniche di anonimizzazione dei dati;
ü Insufficiente trasparenza nella redazione delle informative;
ü Omessa valutazione d’impatto preventiva.
Garante della Privacy
12. AI e Pericolosità sociale
• AI utilizzata come ausilio ai giudici per la determinazione della
pericolosità sociale degli imputati;
• La pena inflitta varia al variare della pericolosità sociale.
4
13. AI e Pericolosità sociale 1/2
CODICE PENALE AI
Il giudice deve tener conto, altresì,
della capacità a delinquere del
colpevole, desunta:
1) dai motivi a delinquere e dal
carattere del reo;
2) dai precedenti penali e
giudiziari e, in genere, dalla
condotta e dalla vita del reo,
antecedenti al reato;
3) dalla condotta contemporanea o
susseguente al reato;
4) dalle condizioni di vita
individuale, familiare e sociale del
reo.
• Calcola il rischio di recidiva di
attraverso l’analisi congiunta di
dati come: Genere, età e
etnia.
• Il grado di probabilità di
commissione di nuovi reati
deriva dall’analisi dei
precedenti penali dei
condannati per lo stesso reato.
14. AI e Pericolosità sociale 2/3
Fair Trials ha ideato un questionario, che si
propone di calcolare il rischio di essere
classificato come socialmente pericoloso.
16. AI e Discriminazione
• L’utilizzo dei risultati prodotti da sistemi di AI corrono il rischio di
essere affetti da bias di vario tipo. A sua volta, l’utilizzo di risultati
affetti da bias comporta il rischio di discriminazione di
determinate categorie di soggetti (tendenzialmente minoranze);
• PredPol e COMPAS
5
17. AI e Discriminazione
ü Determina quali siano le zone
più pericolose;
ü “Nutrito” attraverso i dati
statistici relativi al numero
di reati commessi in ogni
zona della città.
üAumento della pericolosità = aumento
del numero di agenti;
üAumento del numero di agenti =
aumento dei reati;
üAumento dei reati = aumenti della
pericolosità;
üAumento degli agenti = diminuzione
degli agenti in altre aree
PRED POL
18. AI e Discriminazione
ü Determinazione della
pericolosità sociale:
ü la comparazione delle
precedenti condanne per
lo stesso reato.
COMPAS
ü Ignora le modalità di
commissione dei reati (i.e.
elementi oggettivi);
ü Si basa su sentenze che
potrebbero essere risultato di
profilazione etnica;
ü Ignora alcune delle
circostanze rilevanti per il
codice penale.
19. Conclusione
Supporto nell’analisi dei dati relativi ai livelli di
criminalità di un territorio
Supporto nell’eliminazione di alcuni bias
cognitivi (i.e. giudici stanchi/affamati)
Rischio di circoli viziosi di alimentazione dei
sistemi di AI con dati inquinati
Rischio di discriminazione delle minoranze
6