(fonte: Alberto Puliafito, Internazionale)
I modelli linguistici di intelligenza artificiale devono evitare di produrre testi che violino la legge. Devono anche evitare di usare linguaggio inappropriato. Ma tra la fine di novembre e l’inizio di dicembre del 2024 abbiamo scoperto che, in alcuni casi, devono anche evitare di scrivere certi nomi di persona. […]
Però la lista dei nomi proibiti per ChatGpt esiste: Brian Hood, Jonathan Turley, Jonathan Zittrain, David Faber sono tutti nomi che bloccano lo strumento. Così come il nome di Guido Scorza, componente del collegio del garante per la protezione dei dati personali in Italia.
“Ho semplicemente esercitato nei confronti della OpenAi, la società che gestisce ChatGpt”, dice Scorza “il diritto di opposizione che la vigente disciplina europea riconoscere a tutti gli interessati – ovvero le persone cui si riferiscono i dati personali – per ottenere che un trattamento iniziato in assenza di loro consenso, venga interrotto dal titolare del trattamento. Chiunque, almeno se vive in Europa, può fare altrettanto semplicemente attraverso la piattaforma utilizzata per l’erogazione del servizio ChatGpt, ottenendo, ritengo, lo stesso risultato”. […]
Per leggere tutto l’articolo di Alberto Puliafito, clicca qui: Internazionale
Spunti per la discussione
Ma ha senso “togliersi da ChatGpt”? E cosa comporta?
Il dubbio espresso dal giornalista sul proibire dei nomi da ChatGpt è come lui stesso spiega nell’articolo:
“quando si evita di nominare figure pubbliche per timore di sbagliare o violare diritti, si rischia di erodere il valore stesso delle tecnologie che abbiamo inventato: paradossalmente, ciò può anche alimentare confusione e dubbi sulla neutralità o efficacia di questi sistemi.”
Ultimamente siamo molto incuriosite dall’IA e dalle sue implicazioni, vi proponiamo quindi questo articolo che contiene parecchi spunti di riflessione e discussione (chiedete all’IA di suggerirvi qualche idea da discutere in classe!)