Expertos advierten de los peligros de la desinformación por la IA
POR SDMN
En una conferencia de prensa organizada por Ethnic Media Services el 12 de julio, un panel de expertos, incluidos Jonathan Mehta Stein, Jinxia Niu y Brandon Silverman, discutió la nueva frontera de la desinformación.
El paisaje digital está a punto de una revolución. La inteligencia artificial generativa está convirtiéndose en una parte más fuerte de nuestras vidas cotidianas y ahora está integrada en plataformas de Meta como Instagram y WhatsApp, y pronto será parte del iOS de Apple. Con estos cambios, la forma en que interactuamos con el contenido está atravesando una transformación rápida. Los feeds están ahora inundados con textos, imágenes y audios generados artificialmente, representando una nueva frontera para la desinformación. Este cambio ya está impactando la política, y todas las audiencias deben prepararse para navegar por la información digital en medio de esta avalancha de contenido artificial.
En una conferencia de prensa organizada por Ethnic Media Services el 12 de julio, un panel de expertos discutió el tema. El evento comenzó con comentarios de Jonathan Mehta Stein, director ejecutivo de California Common Cause y veterano abogado de derechos civiles. Destacó la gravedad de la situación: “Estamos entrando en la primera elección con IA en la que los deep fakes (videos o imágenes falsas producidas por inteligencia artificial) y la desinformación generada por IA tienen el poder de inundar nuestro discurso político y crear imágenes, audios y videos que los votantes no saben si pueden confiar”. Esto captura la esencia de los nuevos desafíos que presenta la IA, incluyendo el potencial de audios o videos falsos—como robocalls fabricados o deep fakes engañosos—que podrían manipular la percepción de los votantes y socavar la integridad electoral. Aunque tales fenómenos son evidentes globalmente en lugares como Argentina e India, también están ocurriendo en los EE. UU., como se vio con un deep fake del presidente Biden instando a la gente a no votar en la primaria demócrata a principios de este año.
Stein también profundiza en el impacto localizado de la desinformación. “Los peligros son menos evidentes a nivel nacional y más evidentes a nivel local”, señala. Mientras que los medios nacionales pueden desmentir rápidamente los deep fakes que involucran figuras de alto perfil, las figuras políticas locales son más vulnerables. Un deep fake de un miembro del consejo municipal, por ejemplo, podría difundir desinformación con una mínima vigilancia inmediata, dañando reputaciones y potencialmente influyendo en las elecciones locales. Este problema se agrava por la proliferación de sitios web de noticias falsas, como el Miami Chronicle vinculado a Rusia, y sitios web de elecciones del condado falsificados diseñados para engañar a los votantes.
La desinformación es particularmente grave en otros idiomas. Jinxia Niu, gerente del Programa de Compromiso Digital Chino en Chinese for Affirmative Action, destacó las dificultades operativas enfrentadas por los verificadores de hechos que trabajan con contenido en mandarín. “Actualmente, nadie está gestionando el trabajo de limpieza de basura en cuanto a lenguaje”, explica. Con solo un puñado de verificadores de hechos y un aumento en el contenido generado por IA, distinguir la información genuina de la falsa se vuelve cada vez más desafiante. Niu también señala los riesgos específicos para las comunidades inmigrantes, donde las estafas de IA y la desinformación son prevalentes. La dificultad en la vigilancia de aplicaciones de mensajería encriptadas como Telegram y WhatsApp agrava el problema, dificultando la lucha contra la desinformación dentro de comunidades cerradas.
Esta preocupación es respaldada por Brandon Silverman, experto en políticas y ex gerente de CrowdTangle. Él destacó el impacto en comunidades étnicas y marginadas. “Un problema importante es el impacto desproporcionado de la desinformación en las comunidades de color y las comunidades étnicas”, dice. Silverman aboga por una mayor transparencia y apoyo a los medios étnicos para abordar estos desafíos. Señala que las plataformas a menudo luchan con el “área gris” del contenido engañoso que no viola estrictamente sus reglas pero que aún confunde y engaña al público. Silverman también sugiere soluciones prácticas, como dirigir los fondos de publicidad digital para apoyar el periodismo local y los medios étnicos a través de impuestos. Este enfoque busca reforzar los recursos para las comunidades más afectadas por la desinformación. Además, enfatiza la importancia de examinar las narrativas influyentes y abordar los temas consistentes en el contenido generado por IA en lugar de reaccionar a instancias aisladas de desinformación. A medida que este problema continúa creciendo, es imperativo mantenerse escéptico, verificar los hechos y asegurarse de que la información sea confirmada antes de aceptarla.