#echochamber, #filterbubble, #bias

Bufale, disinformazione, bolle personalizzate sono alcuni dei nuovi mostri generati o amplificati da algoritmi e meccanismi selettivi di social network e motori di ricerca.

Lo intuivamo, ma negli ultimi tempi abbiamo avuto le conferme scientifiche: approviamo e rilanciamo quel che ci piace e che si accorda con le nostre idee o i nostri pregiudizi, non quel che potrebbe essere valido, verificato o dimostrato. E i social media amplificano e velocizzano questo fenomeno. Le casse di risonanza (le echo chamber) sono sempre più attive e autoreferenziali. Così notizie false, bufale, e intolleranze anche feroci si propagano rapidamente, e non pare esserci rimedio. Spesso poi ci illudiamo di essere vaccinati su questi comportamenti, ma poi ci accorgiamo di vivere in una specie di bolla protetta, costruita magari con altri intenti, che ci isola da altri mondi. Sì, perché quegli splendidi algoritmi così efficienti nel consigliare o raccomandare quel che più ci piace ed è in sintonia con le nostre preferenze hanno anche questo effetto e questo potere, anche se eticamente discutibile. Allora: possono i nostri comportamenti, le parole che usiamo, le notizie che commentiamo avere l’effetto di raddrizzare la situazione? Può esistere un’etica per gli algoritmi? La si può definire o almeno suggerire?

Scopri come ricevere le videoregistrazioni.

 

sala Oceania
sabato 18 febbraio
h 9.00 < 10.50

Coordinatore:

Rodolfo Baggio

Docente al Master in Economia del Turismo

Daniele Chieffi

Social media manager di Eni, giornalista, scrittore

Lercio

Sito satirico

Martina Pennisi

Giornalista presso Corriere della Sera

Neil Perri

Esperto di bufale, autore presso “BUTAC – Bufale Un Tanto Al Chilo”

Walter Quattrociocchi

Coordinatore del CSSLab dell’IMT di Lucca

Michele Rinaldi

Social Media Team Manager Assorel

È possibile iscriversi ad un solo panel per ogni sessione oraria.

Vieni da fuori?

Con Civado Italy trovi l’hotel ad un prezzo convenzionato

Scrivi un’email a info@civadoitaly.com.