Notizie, e Commento
di Marco Poli
Brendan Carr, prossimo Presidente della Commissione federale per le comunicazioni – una figura simile a quello che era il Ministro delle Comunicazioni italiano, le cui funzioni sono confluite nel Ministero dello Sviluppo economico – lo aveva anticipato, e a molti di noi sembrava persino troppo bello [1]:
Dobbiamo smantellare il cartello della censura e ripristinare il diritto alla libertà di parola per i comuni cittadini americani. |
E poi :
Zuckerberg chiude il programma di fact-checking di Meta e strizza l'occhio a Trump
"Troppi errori e troppa censura". Il Ceo di Meta smantella il sistema di fact-checking di Facebook e Instagram. Poi tende la mano a Trump e attacca l'Ue
|
[2] |
E ...
sì, ha fatto piacere pure a me vedere quella puttana di Mark Zuckerberg fare dietrofront adeguandosi alla linea politica della imminente amministrazione Trump II, dichiarando che Meta smantellerà la collaborazione con i fact-checker e permetterà una maggiore libertà di parola sulle proprie piattaforme social.
Ma le società proprietarie e gli utenti europei occidentali dovranno fare i conti con il Digital Services Act ( DSA ) della tossica e degradante UE [3][4].
1
Martedì 7 gennaio, il CEO di Meta Mark Zuckerberg ha pubblicato un post sulla sua bacheca di Instagram nel quale annuncia un ribaltamento della politica censoria dei social network da lui amministrati ( Facebook, Instagram, e Threads ) in favore della libertà di espressione tante volte repressa negli ultimi anni [5].
Nella newsroom di Meta è apparso un pezzo firmato dal Chief Global Affairs Officer della holding, Joel Kaplan.
Posto la traduzione in lingua italiana :
trad.
Più libertà di parola e meno errori
Conclusioni
● A partire dagli Stati Uniti, stiamo terminando il nostro programma di verifica dei fatti di terze parti e stiamo passando a un modello basato sulle Note della Community.
● Consentiremo più libertà di parola eliminando le restrizioni su alcuni argomenti che fanno parte del discorso mainstream e concentrando la nostra applicazione su violazioni illegali e di elevata gravità.
● Adotteremo un approccio più personalizzato ai contenuti politici, in modo che le persone che vogliono vederne di più nei loro feed possano.
Le piattaforme di Meta sono costruite per essere luoghi in cui le persone possono esprimersi liberamente. Ciò può essere caotico. Sulle piattaforme in cui miliardi di persone possono avere voce, tutto il buono, il cattivo e il brutto sono in mostra. Ma questa è libera espressione.
Nel suo discorso del 2019 alla Georgetown University, Mark Zuckerberg ha sostenuto che la libertà di espressione è stata la forza trainante del progresso nella società americana e in tutto il mondo e che inibire la parola, per quanto ben intenzionate siano le ragioni per farlo, spesso rafforza le istituzioni e le strutture di potere esistenti invece di dare potere alle persone. Ha affermato: "Alcune persone credono che dare voce a più persone stia alimentando la divisione anziché unirci. Più persone in tutto lo spettro credono che raggiungere i risultati politici che ritengono importanti sia più importante che ogni persona abbia voce. Penso che sia pericoloso".
Negli ultimi anni abbiamo sviluppato sistemi sempre più complessi per gestire i contenuti sulle nostre piattaforme, in parte in risposta alla pressione sociale e politica per moderare i contenuti. Questo approccio è andato troppo oltre. Per quanto ben intenzionati siano stati molti di questi sforzi, si sono espansi nel tempo al punto che stiamo commettendo troppi errori, frustrando i nostri utenti e troppo spesso ostacolando la libera espressione che ci siamo prefissati di consentire. Troppi contenuti innocui vengono censurati, troppe persone si ritrovano ingiustamente rinchiuse nella "prigione di Facebook" e spesso siamo troppo lenti a rispondere quando succede.
Vogliamo risolvere questo problema e tornare a quell'impegno fondamentale per la libera espressione. Oggi stiamo apportando alcune modifiche per restare fedeli a quell'ideale.
Fine del programma di verifica dei fatti di terze parti, passaggio alle note della comunità
Quando abbiamo lanciato il nostro programma di verifica dei fatti indipendente nel 2016, eravamo molto chiari sul fatto che non volevamo essere gli arbitri della verità. Abbiamo fatto quella che pensavamo fosse la scelta migliore e più ragionevole al momento, ovvero affidare quella responsabilità a organizzazioni di verifica dei fatti indipendenti. L'intenzione del programma era di far sì che questi esperti indipendenti fornissero alle persone maggiori informazioni sulle cose che vedono online, in particolare le bufale virali, in modo che potessero giudicare da sole cosa vedevano e leggevano.
Non è così che sono andate le cose, soprattutto negli Stati Uniti. Gli esperti, come tutti gli altri, hanno i loro pregiudizi e le loro prospettive. Ciò si è manifestato nelle scelte che alcuni hanno fatto su cosa verificare e come. Nel tempo abbiamo finito per avere troppi contenuti verificati che le persone avrebbero capito essere discorsi e dibattiti politici legittimi. Il nostro sistema ha determinato conseguenze reali sotto forma di etichette intrusive e distribuzione ridotta. Un programma concepito per informare è diventato troppo spesso uno strumento di censura.
Stiamo cambiando questo approccio. Chiuderemo l'attuale programma di verifica dei fatti di terze parti negli Stati Uniti e inizieremo invece a passare a un programma di Note della comunità. Abbiamo visto questo approccio funzionare su X, dove danno potere alla loro comunità di decidere quando i post sono potenzialmente fuorvianti e necessitano di più contesto, e le persone con una vasta gamma di prospettive decidono quale tipo di contesto è utile che altri utenti vedano. Pensiamo che questo potrebbe essere un modo migliore per raggiungere il nostro intento originale di fornire alle persone informazioni su ciò che stanno vedendo, e meno incline a pregiudizi.
● Una volta che il programma è attivo e funzionante, Meta non scriverà Note della comunità né deciderà quali mostrare. Sono scritte e valutate dagli utenti che contribuiscono.
● Proprio come su X, le Note della comunità richiederanno un accordo tra persone con una gamma di prospettive per aiutare a prevenire valutazioni parziali.
● Vogliamo essere trasparenti su come i diversi punti di vista informano le Note visualizzate nelle nostre app e stiamo lavorando sul modo giusto per condividere queste informazioni.
● Le persone possono registrarsi oggi (Facebook, Instagram, Threads) per avere l'opportunità di essere tra i primi contributori di questo programma non appena sarà disponibile.
Abbiamo in programma di introdurre gradualmente le Note della comunità negli Stati Uniti nei prossimi due mesi e continueremo a migliorarle nel corso dell'anno. Mentre effettuiamo la transizione, ci libereremo del nostro controllo di fact-checking, smetteremo di declassare i contenuti fact-checked e, invece di sovrapporre avvisi interstiziali a schermo intero su cui devi cliccare prima di poter vedere il post, useremo un'etichetta molto meno invadente che indica che ci sono informazioni aggiuntive per coloro che che vogliono vederlo.
Consentire più libertà di parola
Nel tempo, abbiamo sviluppato sistemi complessi per gestire i contenuti sulle nostre piattaforme, che sono sempre più complicati da far rispettare. Di conseguenza, abbiamo applicato eccessivamente le nostre regole, limitando il dibattito politico legittimo e censurando troppi contenuti banali e sottoponendo troppe persone a frustranti azioni di applicazione.
Ad esempio, a dicembre 2024, abbiamo rimosso milioni di contenuti ogni giorno. Sebbene queste azioni rappresentino meno dell'1% dei contenuti prodotti ogni giorno, pensiamo che una o due su 10 di queste azioni possano essere state errori (ad esempio, il contenuto potrebbe non aver effettivamente violato le nostre policy). Ciò non tiene conto delle azioni che intraprendiamo per contrastare attacchi spam avversari su larga scala. Abbiamo in programma di espandere i nostri report sulla trasparenza per condividere regolarmente i numeri sui nostri errori in modo che le persone possano monitorare i nostri progressi. Come parte di ciò, includeremo anche maggiori dettagli sugli errori che commettiamo quando applichiamo le nostre policy antispam.
Vogliamo annullare il mission creep che ha reso le nostre regole troppo restrittive e troppo inclini a un'applicazione eccessiva. Ci stiamo liberando di una serie di restrizioni su argomenti come immigrazione, identità di genere e genere che sono oggetto di frequenti discorsi e dibattiti politici. Non è giusto che certe cose possano essere dette in TV o in aula al Congresso, ma non sulle nostre piattaforme. Queste modifiche alle policy potrebbero richiedere alcune settimane per essere pienamente implementate.
Cambieremo anche il modo in cui applichiamo le nostre policy per ridurre il tipo di errori che rappresentano la stragrande maggioranza della censura sulle nostre piattaforme. Finora, abbiamo utilizzato sistemi automatizzati per analizzare tutte le violazioni delle policy, ma ciò ha comportato troppi errori e troppi contenuti censurati che non avrebbero dovuto esserlo. Quindi, continueremo a concentrare questi sistemi sulla lotta alle violazioni illegali e di elevata gravità, come terrorismo, sfruttamento sessuale dei minori, droga, frode e truffe. Per violazioni delle policy meno gravi, faremo affidamento sulla segnalazione di un problema da parte di qualcuno prima di intraprendere qualsiasi azione. Inoltre, declassiamo troppi contenuti che i nostri sistemi prevedono possano violare i nostri standard. Stiamo eliminando la maggior parte di queste declassamenti e richiediamo una maggiore sicurezza che il contenuto violi il resto. E adatteremo i nostri sistemi per richiedere un grado di sicurezza molto più elevato prima che un contenuto venga rimosso. Come parte di queste modifiche, sposteremo i team di fiducia e sicurezza che scrivono le nostre policy sui contenuti e revisionano i contenuti dalla California al Texas e ad altre località degli Stati Uniti.
Spesso alle persone viene data la possibilità di presentare ricorso contro le nostre decisioni di applicazione e chiederci di dare un'altra occhiata, ma il processo può essere frustrantemente lento e non sempre porta al risultato giusto. Abbiamo aggiunto personale extra a questo lavoro e in più casi, ora richiediamo anche a più revisori di raggiungere una determinazione per rimuovere qualcosa. Stiamo lavorando su modi per rendere più semplice il recupero degli account e testare la tecnologia di riconoscimento facciale e abbiamo iniziato a utilizzare modelli di linguaggio di grandi dimensioni (LLM) AI per fornire una seconda opinione su alcuni contenuti prima di intraprendere azioni di applicazione.
Un approccio personalizzato ai contenuti politici
Dal 2021, abbiamo apportato modifiche per ridurre la quantità di contenuti civici che le persone vedono, post su elezioni, politica o questioni sociali, in base al feedback che i nostri utenti ci hanno dato, ovvero che volevano vedere meno di questi contenuti. Ma questo è stato un approccio piuttosto diretto. Inizieremo a reintrodurli gradualmente su Facebook, Instagram e Threads con un approccio più personalizzato, in modo che le persone che desiderano vedere più contenuti politici nei loro feed possano farlo.
Stiamo testando continuamente il modo in cui forniamo esperienze personalizzate e abbiamo recentemente condotto dei test sui contenuti civici. Di conseguenza, inizieremo a trattare i contenuti civici delle persone e delle Pagine che segui su Facebook più come qualsiasi altro contenuto nel tuo feed e inizieremo a classificare e mostrarti tali contenuti in base a segnali espliciti (ad esempio, apprezzare un contenuto) e segnali impliciti (come la visualizzazione di post) che ci aiutano a prevedere cosa è significativo per le persone. Consiglieremo anche più contenuti politici in base a questi segnali personalizzati e stiamo ampliando le opzioni che le persone hanno per controllare la quantità di questi contenuti che vedono.
Questi cambiamenti sono un tentativo di tornare all'impegno per la libera espressione che Mark Zuckerberg ha esposto nel suo discorso di Georgetown. Ciò significa essere vigili sull'impatto che le nostre politiche e i nostri sistemi stanno avendo sulla capacità delle persone di far sentire la propria voce e avere l'umiltà di cambiare il nostro approccio quando sappiamo di sbagliare.
|
[6] |
1.1
Vittoria ?
Mezza-vittoria ?
Sì ...
possiamo anche pensare di avere vinto mezza battaglia, se siamo in vena di ottimismo.
Cioè ...
''noi'' ...
abbiamo vinto ?
Dove per ''noi'' intendo la minoranza degli utenti che dissentono e hanno agito tenace controinformazione in questi anni.
Il Potere sta mutando la strategia operativa che riguarda i social, e la guerra sarà ancora lunga.
1.2
Il punto positivo potrebbe essere questo :
● meno censura, e note allegate ai post che saranno scritte e valutate dagli utenti che contribuiranno al programma;
le note dovrebbero consigliare una contestualizzazione delle informazioni presenti nei post.
Un paio di punti negativi :
● rileggete il capoverso ''Stiamo testando continuamente il modo in cui forniamo esperienze personalizzate'' ... in pratica, ci dice che verrà potenziato l'effetto echo chamber;
● nella UE, l'espressione ''concentrando la nostra applicazione su violazioni illegali'' può significare ''infrazione del regolamento DSA''.
|