Anjana Susarla obtuvo una licenciatura en Ingeniería Mecánica del Instituto Indio de Tecnología de Chennai; un título de posgrado en Administración de Empresas del Instituto Indio de Gestión de Calcuta… Leer más
Anjana Susarla obtuvo una licenciatura en Ingeniería Mecánica del Instituto Indio de Tecnología de Chennai; un título de posgrado en Administración de Empresas del Instituto Indio de Gestión de Calcuta… Leer más
Los gobiernos y observadores de todo el mundo han reiterado: Expresó su preocupación por el poder monopolístico de las grandes empresas tecnológicas y el papel que desempeñan las empresas en la difusión de desinformación. En respuesta, las grandes tecnológicas han intentado adelantarse a las regulaciones mediante regulandose a sí mismosCon el anuncio de Facebook de que su La Junta de Supervisión tomará una decisión Sobre si el expresidente Donald Trump puede recuperar el acceso a su cuenta tras la suspensión de la compañía, esta y otras medidas destacadas de las empresas tecnológicas para abordar la desinformación han reavivado el debate sobre cómo debería ser la autorregulación responsable por parte de las empresas tecnológicas. Las investigaciones muestran tres maneras clave en que la autorregulación en redes sociales puede funcionar: restar prioridad a la interacción, etiquetar la desinformación y recurrir a la verificación de la precisión mediante la colaboración colectiva.
Las empresas tecnológicas podrían adoptar un sistema de etiquetado de contenido para identificar si una noticia está verificada o no. Durante las elecciones, Twitter anunció un política de integridad cívica bajo el cual los tuits etiquetados como controvertidos o engañosos no serían recomendado por sus algoritmosLas investigaciones demuestran que el etiquetado funciona. Los estudios sugieren que Aplicar etiquetas a publicaciones de medios de comunicación controlados por el Estado, como las del canal de medios ruso RT, podrían mitigar los efectos de la desinformación. En un experimento, los investigadores contrataron a trabajadores temporales anónimos Para etiquetar publicaciones confiablesLas publicaciones se mostraron posteriormente en Facebook con etiquetas anotadas por los trabajadores de crowdsourcing. En ese experimento, los trabajadores de crowdsourcing de todo el espectro político pudieron distinguir entre fuentes convencionales y fuentes hiperpartidistas o noticias falsas, lo que sugiere que las multitudes suelen distinguir bien entre noticias reales y falsas. Los experimentos también muestran que las personas con cierta exposición a fuentes de noticias Generalmente pueden distinguir entre noticias reales y falsas. Otros experimentos Descubrí que proporcionar un recordatorio sobre la precisión de una publicación aumentó la probabilidad de que los participantes compartieran publicaciones precisas en mayor medida que las inexactas. En mi propio trabajo, he estudiado cómo las combinaciones de anotadores humanos, o moderadores de contenido, y algoritmos de inteligencia artificial (lo que se conoce como inteligencia humana en el circuito) Se puede utilizar para clasificar vídeos relacionados con la atención médica en YouTubeSi bien no es factible que los profesionales médicos vean todos los videos de YouTube sobre diabetes, sí es posible contar con un método de clasificación con participación humana. Por ejemplo, mis colegas y yo reclutamos a expertos en la materia para que brindaran retroalimentación a los algoritmos de IA, lo que resulta en mejores evaluaciones del contenido de publicaciones y videos. Las empresas tecnológicas ya han empleado estos enfoques. Facebook utiliza un combinación de verificadores de hechos y algoritmos de detección de similitudes para filtrar la desinformación relacionada con la COVID-19. Los algoritmos Detectar duplicaciones y cerrar copias de publicaciones engañosas.
En última instancia, las empresas de redes sociales podrían usar una combinación de priorizar la interacción, asociarse con organizaciones de noticias y usar inteligencia artificial y la detección de desinformación colaborativa. Es poco probable que estos enfoques funcionen de forma aislada y deberán diseñarse para funcionar en conjunto. Las acciones coordinadas facilitadas por las redes sociales pueden perturbar la sociedad, desde mercados financieros a políticaLas plataformas tecnológicas desempeñan un papel extraordinariamente importante en la formación de la opinión pública, lo que significa que tienen una responsabilidad hacia el público para gobernarse eficazmente. Las demandas de regulación gubernamental de las grandes tecnológicas están creciendo en todo el mundo, incluso en EE. UU., donde una encuesta reciente de Gallup mostró Empeoramiento de las actitudes hacia las empresas tecnológicas y un mayor apoyo a la regulación gubernamental. Alemania Nuevas leyes sobre moderación de contenidos impulsar una mayor responsabilidad en las empresas tecnológicas por el contenido compartido en sus plataformas. Una serie de regulaciones en Europa destinadas a reducir las protecciones de responsabilidad de las que disfrutan estas plataformas y Regulaciones propuestas en Estados Unidos destinadas a reestructurar las leyes de Internet Se intensificará el escrutinio de las políticas de moderación de contenido de las empresas tecnológicas. Es probable que se implemente algún tipo de regulación gubernamental en EE. UU. Las grandes tecnológicas aún tienen la oportunidad de autorregularse responsablemente, antes de que los legisladores las obliguen a actuar.
Anjana Susarla, Profesor Omura-Saxena de IA Responsable, Universidad Estatal de Michigan
Este artículo se vuelve a publicar desde La conversación bajo una licencia Creative Commons. Lea el artículo original.
00votos
Calificación del artículo
Suscribir
0 Comentarios
Comentarios en línea
Ver todos los comentarios
¿Contribuyente?
¡Únete a nuestra comunidad ahora! Inicia sesión para comentar o conviértete en colaborador y comparte tus ideas y experiencia. Tu voz importa: ¡participa hoy mismo!