La proliferación de videos manipulados mediante inteligencia artificial generativa (IAG) en las redes sociales ha generado una creciente preocupación en torno a la desinformación y su impacto en la opinión pública. Este fenómeno se ha intensificado en los últimos meses, particularmente en contextos de ciertas crisis o eventos noticiosos, donde la confusión puede ser fácilmente explotada.
Por ejemplo, en España, durante la reciente Depresión Aislada en Niveles Altos (DANA) que afectó a varias regiones, se difundieron numerosos contenidos visuales generados o alterados por IAG. Algunos de estos casos incluían imágenes de figuras públicas como el presidente de ese país, Pedro Sánchez, así como videos que utilizaban voces sintéticas clonadas para simular declaraciones que nunca fueron hechas (Maldita.es, 2024). El grave problema es que este tipo de manipulación no solo busca entretener, sino también distorsionar la realidad y alimentar narrativas erróneas.
En el caso de México, organizaciones como Verificado han documentado un aumento en la difusión de videos manipulados, donde figuras públicas de alto nivel son presentadas como “anzuelo” para engañar a la gente. Tal es el caso específico del video de la presidenta de México, Claudia Sheinbaum, en el que supuestamente invita a invertir en una plataforma para aumentar ingresos. Sin embargo, el video es completamente falso (Barbosa, 2024).
La IAG ha revolucionado la forma en que creamos y consumimos contenido digital. Desafortunadamente, ésta también ha sido utilizada para manipular la realidad, distorsionar hechos y alimentar narrativas falsas. Desde deepfakes hasta imágenes alteradas, el potencial de la IAG para engañar y desinformar plantea serios desafíos éticos y sociales.
(Anuncio Falso difundido a través de Facebook en el que se observa a Claudia Sheinbaum Pardo, presidenta de México, hacer una invitación para invertir en una supuesta plataforma. Este video falso fue manipulado utilizando inteligencia artificial generativa).
Tipos de manipulaciones con IAG
Algunos de los tipos más comunes de manipulaciones realizadas con IAG son las siguientes:
Deepfakes: Los deepfakes son una de las formas más conocidas de manipulación producida por IAG. Utilizan redes neuronales para superponer rostros en videos, creando la ilusión de que una persona ha dicho o hecho algo que en realidad no ocurrió. Esta técnica puede ser utilizada para difundir desinformación, como en el caso de videos falsos de figuras públicas que parecen hacer declaraciones comprometedoras (Chesney & Citron, 2019).
Imágenes alteradas: La IAG permite modificar o crear imágenes que pueden parecer auténticas. Estas imágenes alteradas pueden ser utilizadas para propagar noticias falsas o crear situaciones engañosas que distorsionan la percepción pública de eventos reales. Por ejemplo, se han generado imágenes de políticos en situaciones comprometedoras para influir en la opinión pública durante campañas electorales (Savage Carmona, 2023).
Textos falsos: Las herramientas de IAG pueden crear textos que imitan el estilo de escritores conocidos o generan narrativas completamente nuevas. Estos textos pueden ser utilizados para influir en la opinión pública, difundir propaganda o desinformación, y manipular la percepción sobre eventos actuales o figuras públicas (Tourpe, 2023).
Voces sintéticas: La clonación de voces mediante IAG permite a los estafadores suplantar la identidad de personas conocidas, facilitando fraudes y desinformación. Este tipo de manipulación es especialmente peligrosa en contextos como el político, donde puede ser utilizada para desestabilizar campañas electorales o engañar a votantes (Sophos, 2024).
La manipulación a través de la IAG representa un desafío significativo en la era digital. Las tecnologías disponibles permiten la creación de contenido engañoso que puede tener consecuencias graves en términos de desinformación y manipulación social. Resulta crucial el desarrollo de estrategias efectivas para identificar y combatir estas prácticas, así como promover una mayor alfabetización digital entre los usuarios.
Referencias
Barbosa, M. (2024). Sheinbaum, falso video sobre invertir en plataformas financieras. Verificado. https://verificado.com.mx/sheinbaum-falso-invertir-plataformas-financieras/
Chesney, R., & Citron, D. K. (2019). Deep fakes and the new disinformation war: The coming age of post-truth geopolitics. Foreign Affairs, 98(1), 147-155.
Maldita.es. (2024, 13 de noviembre). Imágenes y vídeos generados con inteligencia artificial durante la DANA en España. https://maldita.es/malditatecnologia/20241113/imagenes-videos-ia-dana-espana/
Savage Carmona, J. (2023). Atajar riesgos por uso de IA. DGCS UNAM. de https://www.dgcs.unam.mx/boletin/bdboletin/2023_728.html
Sophos. (2024). Manipulación política con desinformación y microtargeting masivo basado en modelos de IA. https://news.sophos.com/es-es/2024/10/14/manipulacion-politica-con-desinformacion-y-microtargeting-masivo-basado-en-modelos-de-ia/
Tourpe, B. (2023). Promesas y riesgos de la inteligencia artificial. F&D Magazine. de https://www.imf.org/es/Publications/fandd/issues/2023/12/B2B-Artificial-Intelligence-promise-peril-Tourpe