A partire dall'8 maggio, la crittografia end-to-end non è più disponibile per i messaggi diretti su Instagram.
Meta, annunciando l'inversione di rotta, ha dichiarato di averlo fatto perché pochi utenti utilizzavano la funzionalità. Tuttavia, ciò ha sollevato interrogativi sul suo impatto sulla privacy degli utenti e sulla sua effettiva efficacia nel migliorare la sicurezza dei minori sulla piattaforma.
Instagram è da tempo un punto focale del dibattito sulla sicurezza online, sia in relazione ai di immagine corporea , al cyberbullismo o all'estorsione sessuale. Questa modifica alle policy di Meta ha un impatto diretto sul modo in cui la sicurezza e la moderazione vengono implementate nei messaggi privati.
Questo è importante considerando che la ricerca ha rilevato che i responsabili hanno contattato per la prima volta circa il 23% delle vittime di estorsione sessuale in Australia su Instagram, il secondo metodo di contatto più frequente dopo Snapchat (al 50%).
Che cos'è la crittografia end-to-end?
La crittografia end-to-end è un metodo per codificare un messaggio in modo che solo i dispositivi del mittente e del destinatario possano leggerlo. La piattaforma che trasporta il messaggio, in questo caso Instagram, non può accedervi.
Questa stessa tecnologia è presente di default su WhatsApp, Signal, iMessage e (dalla fine del 2023) Facebook Messenger.
Il CEO di Meta, Mark Zuckerberg, aveva promesso per la prima volta di implementare la crittografia end-to-end in tutti i prodotti di messaggistica di Meta già nel 2019, con lo slogan "il futuro è privato".
Instagram ha testato i messaggi diretti crittografati nel 2021, per poi renderli disponibili come funzionalità opzionale nel 2023.
I messaggi diretti con crittografia end-to-end non sono mai diventati l'impostazione predefinita e il basso tasso di adozione di questa funzionalità è la giustificazione addotta da Meta per la sua rimozione. Come ha dichiarato un portavoce al Guardian:
Pochissime persone avevano attivato la crittografia end-to-end per i messaggi diretti, quindi stiamo rimuovendo questa opzione da Instagram.
C'è una logica circolare in tutto questo: Meta ha eliminato una funzionalità che aveva nascosto così in profondità che la maggior parte degli utenti non ne conosceva nemmeno l'esistenza, per poi addurre il basso utilizzo come motivo della sua rimozione.
Cosa significa questo per gli utenti di Instagram?
In termini pratici, ogni messaggio che invii su Instagram ora viaggia in un formato che Meta è in grado di leggere.
di Meta L'informativa sulla privacy elenca il contenuto dei messaggi inviati e ricevuti dagli utenti tra i dati raccolti. In linea di principio, ciò consente all'azienda di utilizzare questi dati per personalizzare le funzionalità, addestrare modelli di intelligenza artificiale (IA) e fornire pubblicità mirata.
Sebbene Meta si sia impegnata pubblicamente a non addestrare i suoi modelli di intelligenza artificiale su messaggi privati a meno che gli utenti non li condividano attivamente con Meta AI, non ha preso alcun impegno pubblico equivalente in merito alla pubblicità.
Ciò lascia aperta la possibilità che Meta possa utilizzare i messaggi diretti di Instagram non crittografati per il targeting pubblicitario. E senza crittografia, l'impegno di Meta in materia di intelligenza artificiale è ora supportato solo dalle politiche, non dalla tecnologia stessa.
Un'inversione di rotta netta
Questo rappresenta un chiaro ribaltamento della posizione di Meta, che privilegiava la privacy e che Zuckerberg aveva annunciato sette anni fa.
Meta è stata sottoposta a continue pressioni da parte delle forze dell'ordine, degli enti regolatori e delle organizzazioni per la protezione dei minori, i quali sostengono che la crittografia end-to-end crei spazi in cui le piattaforme non possono rilevare lo sfruttamento sessuale e l'adescamento di minori. Il Commissario australiano per la sicurezza online ha chiarito che l'implementazione della crittografia end-to-end "non esonera i servizi dalla responsabilità di ospitare o agevolare abusi online o la condivisione di contenuti illegali".
Questa argomentazione merita di essere presa sul serio. I danni sono reali e ricadono in modo sproporzionato sui giovani.
Tuttavia, le ricerche sull'estorsione sessuale dimostrano che i responsabili non tendono a rimanere sulla piattaforma in cui hanno stabilito il primo contatto, e oltre il 50% delle vittime di estorsione sessuale afferma che i responsabili hanno chiesto loro di cambiare piattaforma.
Meta continua a utilizzare la crittografia end-to-end sulle sue altre piattaforme, come WhatsApp e Facebook Messenger, e deve adottare un approccio coerente alla sicurezza dei minori. I predatori chiedono spesso alle vittime di cambiare piattaforma, quindi l'approccio di sicurezza dell'azienda deve funzionare anche per Instagram e i suoi servizi con crittografia end-to-end.
Una falsa scelta
Meta e i sostenitori della privacy spesso presentano la questione come una scelta tra la crittografia end-to-end e la sicurezza dei bambini. Ma si tratta di una falsa alternativa. Non è una situazione "o l'una o l'altra", anche se cercano di farla sembrare tale.
La tecnologia per rilevare contenuti dannosi mantenendo i messaggi crittografati durante la trasmissione esiste già. Deve solo essere eseguita nel posto giusto: sul dispositivo dell'utente, prima che il dispositivo crittografi e invii il messaggio, oppure dopo che lo ha ricevuto e decrittografato.
Gli approcci integrati nei dispositivi hanno una storia controversa e qualsiasi implementazione deve essere, fin dalla progettazione, realmente rispettosa della privacy. Tuttavia, le aziende tecnologiche devono valutare le obiezioni rispetto ai danni che continuano a verificarsi. È necessario un approccio di sicurezza fin dalla progettazione.
Le misure di sicurezza integrate nei dispositivi sono state dimostrate su larga scala con il sistema di rilevamento della nudità di Apple per le immagini inviate o ricevute tramite Messaggi, AirDrop e FaceTime. Uno studio del 2025 ha dimostrato un rilevamento accurato del grooming utilizzando il modello di intelligenza artificiale di Meta, progettato specificamente per l'implementazione su dispositivi mobili.
Di recente, sia Apple che Google hanno iniziato ad adottare misure per la verifica dell'età negli app store in alcune giurisdizioni.
L'esempio più eclatante di implementazione concreta di queste tecnologie è la verifica dell'età a livello di dispositivo, che tutela la privacy, implementata da Apple nel Regno Unito.
Le aziende che gestiscono social media e servizi di messaggistica privata, insieme ai produttori di sistemi operativi (Microsoft, Apple e Google), hanno tutte un ruolo da svolgere per garantire il rilevamento di contenuti dannosi, a prescindere dall'utilizzo o meno della crittografia end-to-end. I progressi sono stati lenti. Ma noi, come comunità, dobbiamo pretendere di più da queste aziende.
Joel Scanlan, Professore Associato Aggiunto, Facoltà di Giurisprudenza; Co-responsabile Accademico, CSAM Deterrence Centre, Università della Tasmania.
Questo articolo è stato ripubblicato da The Conversation con licenza Creative Commons. Leggi l' articolo originale.





