Numerosi studi scientifici dimostrano la tossicità di X per gli utilizzatori e per la democrazia in generale.
Danni al benessere degli utenti di X
Il feed di notizie “Per te” è una delle principali fonti di informazione per gli utenti di X. Tuttavia, questo feed di notizie è fortemente sbilanciato verso i contenuti tossici. I ricercatori del Centro nazionale francese per la ricerca scientifica (CNRS) hanno dimostrato->https://www-nature-com.inshs.bib.cnrs.fr/articles/s41598-023-43980-4] che è arricchito del +49% in termini di contenuti tossici (insulti, attacchi personali, oscenità, ecc.) rispetto a ciò che producono le vostre sottoscrizioni (misurate all’inizio del 2023). Per alcuni account, l’aumento della tossicità dell’ambiente percepito può raggiungere il +200%!
Ciò significa che X sta mettendo in evidenza il peggio del vostro ambiente sociale, influenzando così le vostre percezioni. Si noti che Musk ha esplicitamente peggiorato la situazione; prima del suo arrivo, l’amplificazione era “solo” del +32%.
È stato dimostrato che un cambiamento nel News Feed degli utenti ha un impatto diretto sul loro stato emotivo e sul modo in cui si esprimono. Quando la percentuale di messaggi positivi si riduce, gli utenti producono meno messaggi positivi e più messaggi negativi. È stato anche misurato che l’uso di Twitter è legato a una diminuzione del benessere e a un aumento dell’indignazione.
Lesione della coesione sociale.
L’amplificazione dell’ostilità e gli effetti degli algoritmi che raccomandano contenuti e persone agli utenti hanno un effetto complessivo sulle strutture sociali.
È stato misurato che X aumenta la polarizzazione politica e l’ostilità tra gruppi, il che ovviamente non aiuta il dibattito e danneggia la coesione sociale [4, 5].
Proliferazione della disinformazione e dei discorsi incitanti all’odio
Una mancata moderazione su un social network come X può avere conseguenze estremamente gravi, come si è già visto su altri social network.
Ad esempio, Amnesty International ha dimostrato che la mancata moderazione di Facebook ha facilitato la brutale campagna di pulizia etnica del 2017 contro i musulmani Rohingya in Birmania, come anche le gravi violazioni dei diritti umani contro la popolazione tigrina in Etiopia dal 2020 al 2022..
Sotto Elon Musk, il team di moderazione é stat decimato e dei conti precedentemente censurati per incitazione alla violenza, e promozione del nazismo ou homophobie sono stati ristabiliti.
X accetta pienamente di non voler più combattere la disinformazione. Ad esempio, l’azienda ha sospeso la sua politica di lotta alla disinformazione sulla pandemia di covid-19. Se scoppia una nuova pandemia e X è ancora al centro dell’informazione globale, il costo umano sarà considerevole.
X ha anche eliminato il “badge di certificazione” che veniva usato per certificare l’autenticità di un account. Questo è stato trasformato in une badge che indica che un account ha pagato per ottenere visibilità su X. Le conseguenze sono state immediate e non solo in ambito politico: un falso account che si spacciava per l’azienda farmaceutica Eli Lilly ha annunciato che l’insulina prodotta dal gruppo era gratuita. Quel giorno Lilly ha perso il 4,37% della sua capitalizzazione di mercato.
Selezione di pubblicazioni scientifiche
- [1] Kramer, Adam D. I., Jamie E. Guillory, et Jeffrey T. Hancock. 2014. « Experimental Evidence of Massive-Scale Emotional Contagion through Social Networks ». Proceedings of the National Academy of Sciences of the United States of America 111 (24): 8788‑90. https://doi.org/10.1073/pnas.1320040111.
- [2] Bouchaud, Paul, David Chavalarias, et Maziyar Panahi. 2023. « Crowdsourced Audit of Twitter’s Recommender Systems ». Scientific Reports 13 (1): 16815. https://doi.org/10.1038/s41598-023-43980-4.
- [3] Chavalarias, David, Paul Bouchaud, et Maziyar Panahi. 2024. « Can a Single Line of Code Change Society? The Systemic Risks of Optimizing Engagement in Recommender Systems on Global Information Flow, Opinion Dynamics and Social Structures ». Journal of Artificial Societies and Social Simulation 27 (1): 9. https://www.jasss.org/27/1/9.html.
- [4] Oldemburgo de Mello, Victoria, Felix Cheung, et Michael Inzlicht. 2024. « Twitter (X) Use Predicts Substantial Changes in Well-Being, Polarization, Sense of Belonging, and Outrage ». Communications Psychology 2 (1): 1‑11. https://doi.org/10.1038/s44271-024-00062-z.
- [5] Yarchi, Moran, Christian Baden, et Neta Kligler-Vilenchik. 2021. « Political Polarization on the Digital Sphere: A Cross-platform, Over-time Analysis of Interactional, Positional, and Affective Polarization on Social Media ». Political Communication 38 (1‑2): 98‑139. https://doi.org/10.1080/10584609.2020.1785067.