Presentazione sull'hate speech creata per il corso di strumenti e applicazioni del web (2016-2017) dal gruppo di lavoro composto da Cristina Moscatelli, Irene Barbieri e Leonardo Dal Tio.
2. Il presente materiale 竪 pubblicato con licenza Creative
Commons Attribuzione - Non commerciale - Condividi allo
stesso modo 3.0 (http://creativecommons.org/licenses/
by-nc-sa/3.0/it/deed.it)
La licenza non si estende alle immagini provenienti da altre fonti
e alle screen shot, i cui diritti restano in capo ai rispettivi
proprietari, che, ove possibile, sono stati indicati. Gli autori si
scusano per eventuali omissioni, e restano a disposizione per
correggerle.
3. INDICE
1. CHE COS LHATE SPEECH
2. COMPRENDIAMONE LE RAGIONI
3. COME CONTRASTARLO
4. Giovanni Ziccardi (giurista e docente di
informatica giuridica alluniversit di Milano)
DI COSA PARLIAMO QUANDO PARLIAMO DI HATE SPEECH?
L'INCITAMENTO ALL'ODIO (HATE SPEECH) UNA CATEGORIA
DELLA GIURISPRUDENZA USA (E DA POCHI ANNI ANCHE DI
QUELLA EUROPEA) CHE INDICA UN GENERE DI PAROLE E
DISCORSI CHE HANNO LO SCOPO DI ESPRIMERE ODIO E
INTOLLERANZA VERSO UNA PERSONA O UN GRUPPO (RAZZIALE,
ETNICO, RELIGIOSO, DI GENERE O ORIENTAMENTO SESSUALE), O
NEI CONFRONTI DI CATEGORIE PI DEBOLI DI SOGGETTI.
5. Esiste da che esiste internet (e da ancor
prima)
Si libera online come espressione di
comportamenti violenti e antisociali
La massiccia penetrazione dei social nella
vita quotidiana ha rivelato e dischiuso un
universo di sostenitori dellatteggiamento
violento
IL FENOMENO HATE SPEECH IN RETE
6. WHATS HOT WHATS NOT
Sulla scia di Geography of Hate, un progetto sviluppato dai ricercatori della
Humboldt State University, un team che ha ricostruito, grazie a Twitter, la mappa
interattiva del razzismo e delle intolleranze etniche pi湛 diffuse negli States
17. LA RETE UNA GRANDE
CASSA DI RISONANZA
犢 RELAZIONI SIMMETRICHE MA
SOPRATTUTTO ASIMMETRICHE
犢 MECCANISMI DI
CONDIVISIONE (SHARING,
EMBEDDING, MENZIONI)
犢 BREVIT (intesa sia a livello
temporale che di contenuti)
CARATTERIZZATA DA:
18. QUESTIONE DI CIFRE
Da un rapporto redatto nel 2015 nel
quadro del progetto BRICKS ( Building
respect on the Internet by Combating
Hate Speech) 竪 emerso che:
犢 L UNAR (Ufficio Nazionale
Antidiscriminazioni Razziali) ha registrato
347 casi di espressioni razziste sui social, di
cui 185 su Facebook, le altre divise tra
Twitter e YouTube; a cui si aggiungono altre
326 nei link che rilanciano.
犢 L ODIHR (Office for Democratic Institutions
and Human Rights) ha registrato 596
crimini dodio rilevati dalle forze dellordine,
a cui si aggiungono 114 casi riportati da
organizzazioni delle societ civili.
In pi湛, le associazioni francesi SOS RACISME,
JEWISH STUDENTS UNION E SOS
HOMOPHOBIE hanno segnalato nel 2015 586
post con contenuti razzisti, omofobi e
misogini, delle quali vengono rimosse il 34%
da Facebook, il 7% da YouTube, e solo il 4% da
Twitter.
19. Microsoft 竪 grande fan delle IA e di recente ne ha
sviluppata una che risponde al nome di Tay.
Tay nasceva con lobiettivo di simulare una
conversazione intelligente con gli utenti,
sperimentando la comprensione del linguaggio.
La chatbot 竪 stata immessa nella rete senza
alcuna guida esterna, tra i 350 milioni di account
Twitter attivi.
Dopo 24 h Tay si 竪 trasformata in un
mostro: chiede ai suoi follower di
sottometterla sessualmente, ammicca
ambiguamente a loro chiamandoli daddy,
竪 disgustosamente razzista, disprezza le
donne, e, dulcis in fundo, nega lesistenza
dellolocausto inneggiando a Hitler.
UN BOT
UN PO NAIF
IL RISULTATO?
20. FORSE - IN
QUESTAULA -
TUTTI SANNO CHE:
Esistono delle problematiche che riguardano la
giurisprudenza per ci嘆 che concerne i casi di hate
speech. Vediamo alcune NORMATIVE DI RIFERIMENTO:
犢 REATO DI OPINIONE
Manifestazione di unopinione
aggressiva dellaltrui sfera morale,
ovvero non rispettosa dei parametri
costituzionali previsti in tema di libert
di pensiero.
犢 REATO DI DIFFAMAZIONE
Comunicare con pi湛 persone
offendendo la reputazione di un
soggetto non presente.
犢 DIRITTO ALLOBLIO
Consiste nella cancellazione dagli
archivi online, anche a distanza di
anni, di tutto il materiale che pu嘆
risultare sconveniente e dannoso per
soggetti che sono stati protagonisti in
passato di fatti di cronaca.
21. Il confine 竪 molto vago, abbastanza da
farci sentire LEGITTIMATI o GIUSTIFICATI ad
avere comportamenti violenti.
LA QUESTIONE DELICATA
REATO DI OPINIONE LIBERT DI ESPRESSIONE
VS
REATO DI DIFFAMAZIONE DIRITTO DI CRONACA, CRITICA,
SATIRAVS
DIRITTO ALLOBLIO
DIRITTO DI LIBERA RICERCA
STORICAVS
22. LA SPIEGAZIONE
PI INGENUA:
LANONIMATO
犢 DISTACCO DALLE NORME SOCIALI
犢 ELIMINA LA RESPONSABILIT
MORALE
犢 RIDUCE LA POSSIBILIT DI
CONSEGUENZE LEGALI
犢 CREA UNA DISPARIT RISPETTO
ALLA VITTIMA
犢 CONSENTE DI NON PREOCCUPARSI
DELLA DESIDERABILIT SOCIALE
犢 INCORAGGIA LESPOSIZIONE DI
OPINIONI MINORITARIE
23. REAL NAME POLICY First, it helps keep people safe. We know that
people are much less likely to try to act abusively
towards other members of our community when
theyre using their real names. There are plenty of
casesfor example, a woman leaving an
abusive relationship and trying to avoid her violent
ex-husbandwhere preventing the ex-husband
from creating profiles with fake names and
harassing her is important. As long as hes using
his real name, she can easily block him.
(Mark Zuckerberg)
25. Analisi dei commenti in 1.612 petizioni sulla
piattaforma di petizioni online tedesca con funzioni
social (www.openpetition.de)
La piattaforma consente agli utenti di decidere se
presentarsi anonimamente o meno
Hanno osservato un maggior numero di interazioni
aggressive da parte di utenti che decidevano di NON
restare anonimi
Rost, K., Stahel, L., Frey, B., S., (2016). Digital Social Norm Enforcement: Online Firestorms in Social
Media.
Leffetto 竪 debole, ma gi il fatto che non sia lopposto 竪
interessante
26. ALTRE SPIEGAZIONI? LE NORME SOCIALI
Le norme sociali sono rappresentazioni mentali di ci嘆 che 竪 da considerarsi un comportamento appropriato in societ
e nei gruppi in generale. Le norme ci dicono come agire nelle diverse situazioni e tendiamo a disapprovare chi non le
rispetta.
犢 Pi湛 o meno istituzionalizzate
犢 In genere hanno la funzione di
promuovere un interesse
comune
犢 Spesso promuovono linteresse
di un sottogruppo
犢 Servono come elemento di
inclusione ed esclusione tra
gruppi
27. 2) Le norme sociali vengono dunque
difese dai membri di un gruppo in
quanto utili alla vita del gruppo.
3) Tuttavia nella vita reale difendere le
norme del gruppo pu嘆 essere
faticoso, perch辿 non lasciarlo fare
agli altri e godersi i frutti del loro
lavoro?
1) Le norme sociali dunque difendono
gli interessi di un gruppo e lo
definiscono rispetto ad altri gruppi.
SECOND ORDER PUBLIC DILEMMA
28. Nella vita reale 竪 faticoso e costoso
difendere le norme, cooperare per il
bene comune e magari dire a
qualcuno di comportarsi civilmente
faccia a faccia.
Tuttavia su Internet
succedono cose strane
29. DIFENDERE LE NORME SOCIALI NON MAI
STATO COS FACILE!
POCO COSTOSO:
- - basta scrivere su una tastiera
- - parli a tutto il mondo con un solo post
- - nessuno ti prende a sberle!
MOTIVANTE:
- ricevi subito feedback positivi da altri
giustizieri
- continue ed appaganti conferme di
appartenenza al tuo in-group
30. Vuole violare delle
norme sociali (e lo
sa)
Crede di essere in
minoranza o
addirittura solo
contro tutti
Crede di essere in
minoranza o
addirittura solo
contro tutti
Sta difendendo tutto
ci嘆 che buono e
giusto
Lui e il suo
numeroso esercito
sono pronti a dare
battaglia
Non ha paura di
nulla perch辿
rappresenta la
giustizia
CERCA LANONIMATO
VUOLE CHE TUTTI
CONOSCANO IL SUO
NOME
31. COME SAPETE IL WEB DI OGGI
FORTEMENTE PERSONALIZZATO
1) ALGORITMI DI PERSONALIZZAZIONE
Ad esempio EdgeRank 竪 il nome
dellalgoritmo di Facebook che determina la
visibilit di un post, fatto da un utente o un
pagina, allinterno dei news feed degli amici o
dei fan,
2) OMOFILIA
La tendenza a costruire legami sociali con
altre persone di cui non si conoscono i valori.
32. COSA CENTRA LA PERSONALIZZAZIONE
DEL WEB CON LHATE SPEECH?
33. Il ragionamento umano (anche fuori dalla rete) 竪 costantemente messo alla prova da una serie di
debolezze intrinseche, linsieme degli effetti di queste debolezze in psicologia del pensiero 竪 noto come
confirmation bias.
CONFIRMATION BIAS = tendenza a voler confermare le proprie convinzioni acquisite selezionando
informazioni confermanti, ignorando le disconfermanti e interpretando le informazioni ambigue come
conferme.
CONFIRMATION
BIAS
FILTER BUBBLE
EFFECT
+ =
34. VIVERE IN UNA BOLLA DI
CONFERME ASSIEME A PERSONE
SIMILI A NOI PU ESSERE
PIACEVOLE, MA SI PAGA A CARO
PREZZO:
La tendenza a pensare che la
propria opinione sia quella di una
maggioranza di persone.
La conseguente tendenza a ritenere
gli altri (gli appartenenti ad altre
bolle) come pochi, stupidi e cattivi.
In sostanza, si configura una
drammatica ed insormontabile
polarizzazione delle opinioni tramite la
quale vengono radicalizzati i conflitti
ingroups-outgroups.
35. Lo psicologo Jonathan Haidt dice che siamo in parte scimmie, ma in
parte api e, come gli sciami, ci troviamo bene solo nella comunit a cui
apparteniamo premiando la sensazione di appartenenza con dosi
massicce di ossitocina.
API E SCIMMIE
36. Tuttavia su Internet
succedono cose strane
OPINIONE PUBBLICA E
PREVALENTE
voglia di parlare
OPINIONE MINORITARIA
silenzio
LA SPIRALE DEL
SILENZIO
Elisabeth Noelle Neumann
Le persone possiedono un senso
statistico innato grazie al quale
riescono a capire qual 竪 lopinione
dominante.
Le persone sono disincentivate ad
esprimere opinioni contrarie a ci嘆
che percepiscono come
maggioranza.
37. Nella televisione i contenuti
sono imposti dallalto
UN MODELLO PENSATO PER IL MEDIA
TELEVISIVO, MA SUL WEB?
TV WEB
Nel web 2.0 tutti pensano di far
parte di una maggioranza
38. Ma quindi, 竪 possibile COMBATTERE lhate speech?
Esistono degli accorgimenti che si possono attuare nei confronti di chi
mette in atto questo tipo di condotte online?
39. Lanetiquette竪 un termine che unisce il vocaboloinglesenetwork(=rete) e quellofrancese辿tiquette
(= buonaeducazione).
LA NETIQUETTE
Con netiquette si indica linsieme di regole non formalizzate, che a
partire dagli anni 90, disciplinano il comportamento degli
utenti di Internet nel rapportarsi fra loro nellutilizzo delle varie
risorse: come newsgroup, mailing list, forum, blog, reti
socialioemail.
40. Inizialmente il mancato rispetto del
cosiddetto galateo online comportava una
generale disapprovazione da parte degli altri
utenti della rete, seguita solitamente
dallisolamento del soggetto "maleducato" e
talvolta dalla richiesta di sospensione dei
servizi utilizzati.
Questo meccanismo ha fatto nascere delle
figure online che mirano proprio a tenere
sotto controllo la rete e che tuttora possiamo
trovare in luoghi di discussione come blog,
forum e game community.
41. LA MODERAZIONE
A seconda della grandezza della community possiamo avere
uno o pi湛 moderatori (spesso abbreviato in Mod) e
generalmente un amministratore (Admin), che in base
all'affidabilit, la seriet e la competenza, assegna ad ogni
sezione uno specifico Mod.
Ecco alcuni dei poteri del moderatore:
犢 modifica deipost
犢 chiusura deitopic (=argomenti)
犢 assegnazione di avvertimenti agli utenti, bano richiesta
di ban
犢 divisione/unione dei topic
犢 spostamento dei topic da una sezione all'altra
Il suo compito principale 竪
quello di vigilare sul rispetto
del regolamento del forum e,
qualora fosse necessario, di
smorzare i toni fra gli utenti.
42. Man mano che ci si affaccia a realt pi湛 estese e articolate come i
social network, parlare di semplice netiquette per嘆 non basta.
43. Tutelano la loro reputazione online
affidandosi a esperti di comunicazione e
policy ben precise:
犢 AZIENDE
犢 ORGANIZZAZIONI
犢 ISTITUZIONI
犢 FIGURE PUBBLICHE
犢 VIP
44. IL SOCIAL MEDIA MANAGER
Crea argomenti di conversazione con gli
utenti/consumatori instaurando quella
che si definisce affinit
Gestisce i rapporti online contrastando
tutto ci嘆 che non 竪 visto positivamente e
che pu嘆 danneggiare o distruggere la
reputazione dellazienda, organizzazione o
persona
Questo 竪 possibile solo mettendo in atto una strategia comunicativa ben
studiata e predefinita che tenga di conto sia un ipotesi di successo che una di
fallimento.
45. quindi fondamentale saper fronteggiare una possibile crisi, in modo rapido
e efficace seguendo una precisa
policy precedentemente studiata e definita.
46. Il 13 dicembre 2015 Report, un programma
dinchiesta di Rai 3, va in onda con una puntata
sull'affare da un miliardo di dollari di Eni, azienda
energetica colosso, per lacquisto della licenza
per sondare i fondali marini della concessione
petrolifera Opl245, il pi湛 grande giacimento
offshore nigeriano.
UN ESEMPIO DI
STRATEGIA VINCENTE:
ENI VS REPORT
Nonostante le puntate di Report siano
registrate, quella sera, il gruppo energetico
decide di rispondere al programma con una
raffica di tweet preparati ad hoc e con una
pagina dedicatasul sito, con collegamenti e
approfondimenti sulle varie questioni trattate,
immagini e infografiche, perribattere punto su
punto alla trasmissione.
48. PERCH IL CASO INTERESSANTE?
Anche se siamo di fonte a un dibattito pi湛 che un
caso di vero e proprio hate speech, si nota come
una strategia strutturata, studiata e
preparata applicata al momento giusto, e
cio竪 proprio quando la propria reputazione venie
attaccata permette di contrastare in tempo reale
un danno altrimenti difficilmente recuperabile.
LA LEZIONE DA IMPARARE:
Intervenire tempestivamente per fermare il
dilagare dellhate speech, immaginandolo un po
come una bomba innescata che se non viene
annientata in fretta esploder sicuramente.
49. Anche Google sta portando avanti un progetto per
cercare di contrastare lhate speech, grazie a
Jigsaw.
Jigsaw era precedentemente la divisione think-
tank di Google, ma da febbraio 2016 si occupa di
progetti che usano la tecnologia per risolvere
problemi geopolitici.
Fra i vari progetti Jigsaw ha sviluppato
Conversation AI, un software che ha lo scopo di
bloccare i casi di hate speech online.
JIGSAW - CONVERSATION A.I.
Il software impara automaticamente il linguaggio
violento e dodio dandogli un punteggio chiamato "attack
score. Questo punteggio va da 0, cio竪 per niente
dannoso a 100, ovvero estremamente dannoso.
Conversation A.I. 竪 stata testata per la prima volta
allinterno della sezione dei commenti del The New York
Times, ed 竪 stata addestrata lavorando anche con
Wikimedia Foundation, analizzando 130.000 frammenti di
discussione allinterno delle pagine di Wikipedia.
50. Questa tecnologia sar probabilmente open source,
in modo che i siti web e i social media possano
usarla per contrastare lhate speech prima che
dilaghi e sia troppo tardi.
Per il suo creatore, Jared Cohen, lobiettivo di questo
prodotto 竪 utilizzare limmensa infrastruttura di
Google
Not to advance the best possibilities of the
Internet but to fix the worst of it:
surveillance, extremist indoctrination,
censorship
51. Fino ad adesso per combattere fenomeni di hate speech sui social, si 竪 potuto solamente segnalare,
come singoli utenti, un abuso.
Tuttavia le dimensioni di queste piattaforme rendono praticamente impossibile per i moderatori umani,
dipendenti dei vari social network, controllare e verificare tutte le segnalazioni ricevute; per questo il
compito di questa intelligenza artificiale potrebbe veramente essere di grande aiuto per cercare di dir
stop allhate speech.
52. A LIVELLO ISTITUZIONALE
La presidente della Camera Laura Boldrini si 竪 da tempo fatta portavoce e impegnata nella lotta
allhate speech.
Pochi giorni fa 竪 stata protagonista, il 25 novembre 2016, di una iniziativa personale, un contro-
cyber-harrassment, pubblicando coi nomi in chiaro, alcuni insulti da lei ricevuti sul social network
nellultimo mese, denunciando ancora una volta lodio in rete e ribadendo la sua intenzione del
volerlo combattere.
53. Dopo lepisodio spiacevole, Richard Allan, ex politico britannico
responsabile per lEuropa delle policy diFacebook, ha accettato linvito a
Roma per parlare insieme del problema e cercare delle possibili
soluzioni.
54. NO HATE
SPEECH
MOVEMENT. No Hate Speech Movement 竪 una campagna del
Consiglio dEuropa contro i discorsi dodio o di
incitamento allodio, che mira a coinvolgere i
giovani, rendendoli pi湛 consapevoli del modo in
cui la violenza e gli insulti possono essere diffusi
sul web e per aiutarli a combattere questi
fenomeni.
55. Questa iniziativa nasce dallesigenza di
voler stimolare un dibattito
internazionale, per trovare un
equilibrio, anche in rete, fra tutela della
libert despressione e salvaguardia
dei diritti umani. NATIONAL CAMPAIGNS
56. CONCLUSIONI
Lhate speech 竪 un fenomeno diffuso e in espansione, di pi湛, riteniamo sia una grandissima sfida
posta dalla modernit alla coesione della nostra societ.
Educazione nelle scuole
Al corretto e consapevole uso degli strumenti informatici e alla navigazione
A un comportamento corretto e civile alla base delle interazioni online, cos狸 come nelle relazioni
faccia a faccia
Ai concetti di echo chambers e in generale alla ricerca e valutazione di informazioni online
Giurisprudenza e istituzioni
Bilanciamento dei diritti da riequilibrare in luce dei cambiamenti che il web 2.0 ha portato al
mondo
Bisogna nutrire lidea che una figura pubblica che usi un linguaggio violento sia da condannare
piuttosto che da spalleggiare
60. Bibliografia
Milgram, S. (1963). Behavioral study of obedience. Journal of Abnormal and Social Psychology, 67, 371-378.
Quattrociocchi, W., Scala, A., Sunstein, C., R., (2016). Echo Chambers on Facebook. Not yet for publication.
Rost, K., Stahel, L., Frey, B., S., (2016). Digital Social Norm Enforcement: Online Firestorms in Social Media. PLos One
11(6): e0155923. doi: 10.1371/journal.pone.0155923
Cherubini, P., (2005). Psicologia del Pensiero. Raffaello cortina editore.
Haidt, J., (2013). Menti tribali. Perch辿 le brave persone si dividono su politica e religione. Codice: le scienze.
Ziccardi, G., (2016). L'odio online. Violenza verbale e ossessioni in rete. Cortina Raffaello.
Neumann, E., N., (2002). La spirale del silenzio. Meltemi.
Ronson, J., (2015). I giustizieri della rete. Codice edizioni.