Anjana Susarla ha conseguito una laurea triennale in Ingegneria meccanica presso l'Indian Institute of Technology di Chennai; una laurea specialistica in Economia aziendale presso l'Indian Institute of Management di Calcutta… Leggi di più
Anjana Susarla ha conseguito una laurea triennale in Ingegneria meccanica presso l'Indian Institute of Technology di Chennai; una laurea specialistica in Economia aziendale presso l'Indian Institute of Management di Calcutta… Leggi di più
I governi e gli osservatori di tutto il mondo hanno ripetutamente ha sollevato preoccupazioni circa il potere monopolistico delle grandi aziende tecnologiche e il ruolo che le aziende svolgono nella diffusione di disinformazione. In risposta, le aziende Big Tech hanno cercato di anticipare le normative regolandosiCon l'annuncio di Facebook che il suo Il Consiglio di sorveglianza prenderà una decisione In merito alla possibilità che l'ex presidente Donald Trump possa riaccedere al suo account dopo che l'azienda lo ha sospeso, questa e altre iniziative di alto profilo intraprese dalle aziende tecnologiche per contrastare la disinformazione hanno riacceso il dibattito su come dovrebbe essere un'autoregolamentazione responsabile da parte delle aziende tecnologiche. La ricerca mostra tre modi principali in cui l'autoregolamentazione dei social media può funzionare: de-prioritizzare l'engagement, etichettare la disinformazione e verificare l'accuratezza tramite crowdsourcing.
Le aziende tecnologiche potrebbero adottare un sistema di etichettatura dei contenuti per identificare se una notizia è verificata o meno. Durante le elezioni, Twitter ha annunciato un politica di integrità civica in base al quale i tweet etichettati come contestati o fuorvianti non sarebbero consigliato dai loro algoritmiLa ricerca dimostra che l'etichettatura funziona. Gli studi suggeriscono che applicare etichette ai post dei media controllati dallo Stato, come quello del canale mediatico russo RT, potrebbe mitigare gli effetti della disinformazione. In un esperimento, i ricercatori hanno assunto lavoratori temporanei anonimi per etichettare i post affidabiliI post sono stati successivamente pubblicati su Facebook con etichette annotate dagli operatori del crowdsourcing. In quell'esperimento, gli operatori del crowdsourcing provenienti da tutto lo spettro politico sono stati in grado di distinguere tra fonti mainstream e fonti di notizie iperpartitiche o false, suggerendo che le folle spesso riescono a distinguere bene tra notizie vere e false. Gli esperimenti hanno anche dimostrano che gli individui con una certa esposizione a fonti di notizie in grado di distinguere tra notizie vere e false. Altri esperimenti ha scoperto che fornire un promemoria sull'accuratezza di un post ha aumentato la probabilità che i partecipanti condividessero post accurati più di quelli inaccurati. Nel mio lavoro, ho studiato come le combinazioni di annotatori umani, o moderatori di contenuti, e algoritmi di intelligenza artificiale – quella che viene definita intelligenza umana nel ciclo – può essere utilizzato per classificare i video relativi all'assistenza sanitaria su YouTubeSebbene non sia possibile far sì che i professionisti sanitari guardino ogni singolo video di YouTube sul diabete, è possibile disporre di un metodo di classificazione che coinvolga l'uomo nel processo. Ad esempio, io e i miei colleghi abbiamo reclutato esperti in materia per fornire feedback agli algoritmi di intelligenza artificiale, il che si traduce in valutazioni migliori del contenuto di post e video. Le aziende tecnologiche hanno già adottato approcci simili. Facebook utilizza un combinazione di fact-checker e algoritmi di rilevamento delle somiglianze per filtrare la disinformazione relativa al COVID-19. Gli algoritmi rileva duplicazioni e chiude le copie di post fuorvianti.
In definitiva, le aziende di social media potrebbero utilizzare una combinazione di de-prioritizzazione dell'engagement, partnership con le organizzazioni giornalistiche e rilevamento della disinformazione tramite intelligenza artificiale e crowdsourcing. È improbabile che questi approcci funzionino isolatamente e dovranno essere progettati per funzionare insieme. Le azioni coordinate facilitate dai social media possono sconvolgere la società, da mercati finanziari A politicaLe piattaforme tecnologiche svolgono un ruolo straordinariamente importante nel plasmare l'opinione pubblica, il che significa che hanno un responsabilità verso il pubblico per governarsi efficacemente. Le richieste di regolamentazione governativa delle Big Tech stanno crescendo in tutto il mondo, compresi gli Stati Uniti, dove un recente sondaggio Gallup ha mostrato peggioramento degli atteggiamenti verso le aziende tecnologiche e un maggiore sostegno alla regolamentazione governativa. La Germania nuove leggi sulla moderazione dei contenuti spingere le aziende tecnologiche a una maggiore responsabilità per i contenuti condivisi sulle loro piattaforme. Una serie di normative in Europa mirato a ridurre le tutele di responsabilità di cui godono queste piattaforme e proposte di regolamentazione negli Stati Uniti volte a ristrutturare le leggi su Internet apporterà un maggiore controllo sulle politiche di moderazione dei contenuti delle aziende tecnologiche. È probabile che negli Stati Uniti venga introdotta una qualche forma di regolamentazione governativa. Le Big Tech hanno ancora l'opportunità di impegnarsi in un'autoregolamentazione responsabile, prima che le aziende siano costrette ad agire dai legislatori.
Anjana Susarla, Omura-Saxena Professore di IA Responsabile, Università statale del Michigan
Questo articolo è ripubblicato da La conversazione sotto una licenza Creative Commons. Leggi il articolo originale.
00voti
Valutazione dell'articolo
Iscriviti
0 Commenti
Feedback in linea
Visualizza tutti i commenti
Collaboratore?
Unisciti subito alla nostra community! Accedi per commentare o diventa un collaboratore per condividere le tue intuizioni e competenze uniche. La tua voce conta: partecipa oggi stesso!