Ora abbiamo bisogno di un modello che possa definirlo, perché non esiste ancora una definizione chiara.
È vero e, allo stesso tempo, noi esseri umani facciamo un ottimo lavoro fingendo che questa definizione esista davvero. Nella vita quotidiana in magistratura. Non è perfetto, ma di solito sappiamo se qualcosa è discutibile o meno.
Anche termini come bianco, nero e immigrati verranno scoperti come discorsi di odio?
Non si tratta solo di una parola, si tratta anche di tenere conto del contesto.
La modella riesce a gestire il sarcasmo?
Sì, i modelli linguistici moderni possono gestirlo molto bene.
Beh, non allarmarti se vedono il doppio strato di sarcasmo, riconoscono molto bene i fischietti dei cani.
Penso che usare un modello non possa mai funzionare. Sarebbero migliori modelli concorrenti per piattaforme diverse.
Sono completamente d’accordo, la diversità è importante.
Altrimenti, una parola verrà presto inserita nella lista nera (quella parola oggigiorno è anche un discorso di incitamento all’odio) e non sarai più in grado di esprimerla da nessuna parte.
Non devi preoccuparti di questo, la tecnologia di oggi non dipende da una sola parola. I vecchi sistemi di filtraggio funzionavano con elenchi fissi di parole vietate. Il punto è che i nuovi sistemi lo fanno meglio perché guardano non tanto alle parole che usi, ma a come le usi.
Se chiami cagna il cane del vicino, non c’è niente di sbagliato. Se chiami il vicino in questo modo…
Il modello terrà conto anche del sigillo di stagno della lettera? Il termine oggi considerato dispregiativo probabilmente non esisteva all’epoca. In questo caso l’attuazione retrospettiva non sarebbe appropriata.
Penso che dipenda da come desideri utilizzare il modello e da cosa stai cercando di ottenere. Se non vuoi leggere certe cose, non vorrai leggerle se sono già scritte. Se vuoi sapere cosa pensavano gli uni degli altri in passato, vuoi anche sapere se qualcosa era considerato odio o meno.
Il termine oggi considerato dispregiativo probabilmente non esisteva all’epoca.
Se si tratta solo del termine, questi filtri dovrebbero gestirlo molto bene perché possono guardare oltre quel termine e raggiungere il messaggio sottostante.
La cosa complicata qui è che dobbiamo anche chiederci chi trova il termine offensivo/non offensivo e quali sono le conseguenze. Mezzo secolo fa picchiare i bambini era socialmente accettabile, anche se erano figli di sconosciuti. Oggi crediamo che picchiare i bambini non sia mai la soluzione migliore. Questo significa che non hanno mai amato i loro figli prima? No certo che no. Ciò rende accettabile giustificare la violenza perché era “nel passato”? No, non quello.
Possiamo guardare indietro e dire che il comportamento in quel momento era sbagliato, anche se dietro c’erano buone intenzioni.
Lo stesso vale per gli insulti. Il fatto che alcune opinioni fossero perfettamente normali cento anni fa non le rende innocenti. Guardando indietro, possiamo ancora concludere che alcuni termini o punti di vista erano offensivi, anche se all’epoca la società li vedeva in modo diverso.
“Specialista televisivo. Amichevole fanatico del web. Studioso di cibo. Drogato estremo di caffè.”