The Vanishing Pool of “Easy Data” for AI: Ecological Implications and Regenerative Solutions

Note: I’m sharing part of the talk I gave at Universidad Panamericana, as part of the 26th Annual Convention of the Media Ecology Association. The panel was titled: “Aesthetics, Narrative, and Artificial Intelligence”.

FdoGtz2025_MEA_SV

Artificial intelligence is transforming our informational landscape at an unprecedented speed. Just like in ecological systems, this transformation is driven by an insatiable hunger for resources —in this case, data. The parallels between data extraction in AI and natural resource exploitation are striking. In this presentation, we explore how AI reshapes our cognitive environment and propose sustainable approaches to address the challenges it brings.

What Is “Easy Data” in AI?
“Easy data” refers to public, abundant, and low-friction datasets with high informational value —resources that require minimal processing before being used to train AI models. Examples include Wikipedia, Common Crawl, public domain texts, and open social media posts. These datasets are essential to the development of large language models, as they provide diverse linguistic patterns and foundational knowledge.

However, this supply is diminishing. According to a 2024 WIRED article and a study by the Data Provenance Initiative at MIT, roughly 25% of the highest-quality data from major datasets like C4, RefinedWeb, and Dolma has become inaccessible. The reason? Many websites now restrict automated data collection through robots.txt protocols or have implemented paywalls, limiting their use in AI training. This not only impacts big tech companies but also hinders academic research and innovation.

The Data Gold Rush: Fading Out
The rapid deployment of AI systems has created unprecedented demand for data. Public sources are under increasing strain due to extraction pressures. In response, media outlets and online platforms have taken protective measures: modifying terms of service, erecting paywalls, or signing exclusive commercial agreements with AI developers. These moves are designed to safeguard intellectual property and ensure fair compensation.

This shift has led to what some experts, such as Shayne Longpre (MIT) and Yacine Jernite (Hugging Face), describe as an emerging consent crisis. The lack of clear, equitable agreements on data use has generated conflict between developers and content creators, diminishing the pool of accessible data and complicating the ethical landscape of AI development.

The Key to AI: Quality and Diversity of Sources
An AI model’s accuracy, versatility, and relevance are directly tied to the quality and diversity of its training data. Broad and up-to-date datasets from trustworthy sources —academic journals, verified news, official statistics, structured databases— enhance both performance and ethical reliability.

Conversely, training on limited or biased data may perpetuate misinformation, errors, and cultural insensitivity. Diverse sources enable models to be more culturally aware, reduce bias, and adapt better across contexts. But the scarcity of such data today is not just a technical challenge —it represents a rupture in the balance of the informational ecosystem.

AI as an Ecosystem Engineer
AI doesn’t just consume information; it actively reshapes the conditions under which information is created and shared. Like ecosystem engineers in nature, AI alters what knowledge is generated, how it circulates, and what gets prioritized. The unregulated extraction of massive datasets —text, image, audio— mirrors ecological overexploitation and leads to systemic strain.

This calls for a renewed analytical lens: we must ask not only what content AI produces, but also how the structures behind that content are formed and maintained. The extractive logic of data mining must give way to an ecological approach —one that sees data as part of a regenerative cycle of use, consent, and reciprocity.

Ecological Lessons: Over-Extraction and Feedback
A positive alternative lies in community-based data stewardship. Imagine a university, a local media collective, and a group of developers collaborating to train an AI model using curated texts and interviews. The data is labeled with context and consent; contributors receive credit and access to results. The model, in turn, supports the community through summaries, translations, or analytic tools.

In ecosystems, balance is maintained through feedback loops. In AI, this could mean governance structures that give voice and value back to the authors of the content. The transition from data mining to data stewardship is essential —prioritizing transparency, traceability, and redistribution of benefits.

Conclusion: Toward a Regenerative Data Ecosystem
The dwindling availability of high-quality data reflects a broader informational crisis. The overexploitation of open sources has triggered a partial collapse of the knowledge commons, where access to reliable content is increasingly restricted.

This mirrors warnings from thinkers like McLuhan and Postman: technologies don’t just change what we know —they reshape what counts as knowledge, truth, and participation. AI reconfigures the cognitive environment. It transforms, filters, and selects what we see and what we don’t. Therefore, a deeper understanding is needed —one that goes beyond content and interrogates the structures producing it.

It is time to move from an extractive logic to one that is ethical, regenerative, and collaborative. Data stewardship offers a new paradigm: one grounded in consent, contextualization, and shared benefit. This is not just a technical fix —it’s a cultural and ecological necessity for the future of AI and the societies it increasingly influences.

Continue Reading

No Sense of Place: 40 Years Later

I share a few reflections on a work that, despite being published in 1985, has not lost a bit of its analytical power. I’m talking about No Sense of Place, by Joshua Meyrowitz. Today, forty years after its publication, the book remains not only relevant for understanding the past but seems to regain strength in helping us comprehend the present and the future—just as Joshua envisioned.

From its subtitle—The Impact of Electronic Media on Social Behavior—Meyrowitz makes it clear that his intention is not to prophesy, but to offer a conditional theory. This means that when media change, information environments change, and with them, social roles and value systems also shift. This is not a deterministic stance, but rather a conceptual map for observing how the social order reorganizes itself when the structures of information access are transformed.

In a world marked by total digitalization—where we coexist with social media, artificial intelligence, video call platforms, and surveillance algorithms—his theory and analysis of the fading link between physical place and experience are more relevant than ever. We live connected, exposed, and constantly observed, in environments where being physically present is no longer required to have presence, nor is keeping secrets necessary to exercise power.

One of the most compelling contributions of the book—at least for me—is the development of the concept of the “triadic role”, which Meyrowitz introduces in Chapter 4 to explain how social roles are structured based on patterns of information access (Meyrowitz, 1985). Unlike traditional approaches that viewed roles as fixed social norms tied to status or group, Meyrowitz argues that roles are mediated by three key dimensions of information control, which form a triadic structure. These are:

Group Identity, based on shared-but-secret information: Social groups define their identity in part through information shared internally and kept out of reach of non-members. This “shared-but-secret” information enables a symbolic distinction between “us” and “them.” Today, this is evident in intense digital fandoms on platforms like Discord, Reddit, or private WhatsApp groups. This shared-but-secret knowledge strengthens group cohesion, fosters a sense of belonging, and draws clear boundaries between “real fans” and outsiders. Being part of the group is not just about consuming content but accessing privileged knowledge.

Another role is:
Socialization, based on controlled access to group information: Individuals learn to perform roles (such as adult, teacher, leader, etc.) through progressive exposure to relevant information. This socialization works as long as there is control over what information is shared, when, and with whom. When that control erodes, the learning or role-transition process is disrupted.
Example: Traditionally, becoming an “adult” involved gradual exposure to certain knowledge, topics, responsibilities, and roles, guided by parents, teachers, or authority figures. There was relatively clear control over what children were told, when, and how. Today, however, that control is severely eroded.

A 9-year-old with unrestricted access to TikTok, YouTube, or Instagram may be exposed to:
• Self-help and personal finance discourse (like hustle culture or crypto investing),
• Hypersexualized content,
• Videos with adult language, violence, or political satire.

This early access to information that was traditionally age-regulated alters the socialization process, as the child or adolescent may adopt stances, attitudes, or social expectations without yet having the emotional or experiential development to critically process them.

The third role Meyrowitz discusses is:
Hierarchy, sustained by mystery and mystification: Roles of authority or power (like leaders, public figures, experts) depend largely on mystery: what is unknown about them, or what they know and others do not. This informational distance helps maintain hierarchical structures. When media reduce this distance (for example, by showing a president in their everyday life or revealing how a TV show is made), the authority role is undermined.

Traditionally, the authority of a leader—political, business, or academic—was partly upheld by symbolic and informational distance (formal attire, technical or guarded language). This created a sense of “mystery” or superiority that justified hierarchy. Today, we see political leaders recording TikToks with influencers or dancing to trending songs to win favor.

Meyrowitz redefines what it means to “have a role” in society—not as a fixed set of norms, but as a dynamic function based on three informational variables:

  1. Who knows what about whom,
  2. Where the line is between “onstage” and “backstage” behavior,
  3. How strong or weak the connection is between a physical place and lived experience.

These three axes are always deeply reshaped by media—and today, by algorithms. Consider social media: What does it mean now to be “young,” an “authority,” or “intimate,” when backstage behaviors become public and the public becomes private?

As Meyrowitz recently reminded us, the core of No Sense of Place can be understood as a reconceptualization of the role concept, from the perspective of media ecology. It’s no coincidence that contemporary authors like Nicholas Carr—author of The Shallows: What the Internet Is Doing to Our Brains—cite No Sense of Place as a foundational theory in his new book Superbloom (2025), for understanding the digital age. The logic of social order has changed because the way information circulates has changed.

Furthermore, I believe the play on words in the title is deeply insightful and revealing. No Sense of Place can be read as “without a sense of place,” but also as “without a place with meaning.” It alludes both to the loss of spatial logic and to a perceptual dislocation.

In the final chapter, Meyrowitz makes it clear that media have altered the relationship between physical place and social place, and with that, the way we understand belonging, intimacy, authority—even truth. This displacement, which he observed beginning with television and other electronic media, has now been exponentially amplified by the Internet, social media, remote work, distance education, metaverses, and more recently, generative AI. In all these contexts, we are still losing—or transforming—the “sense of place,” but also the sense of role, identity, and boundaries. It is worth highlighting here the book by our dear friend Eva Berger, Context Blindness: Digital Technology and the Next Stage of Human Evolution (2022). In it, Berger explores how the intensive use of digital technologies—especially social media and algorithms—is eroding our capacity to perceive, interpret, and respond to context in communication. Drawing from communication, cognition, and media ecology theories (inspired by McLuhan, Postman, and Meyrowitz), Berger argues that we are entering a stage of contextual blindness, where the loss of situational cues affects our empathy, social judgment, education, and democratic coexistence.

It is important to emphasize that the vision presented by Meyrowitz in No Sense of Place is not pessimistic—it is analytical. He invites us to understand the present without nostalgia, equipping us with theoretical tools to interpret the fluidity of the social.

No Sense of Place anticipated many of today’s dilemmas: the loss of control over the socialization process, the erosion of traditional hierarchies, the collapse of intimate spaces, and the emergence of fragmented identities. In this sense, Meyrowitz not only helped explain the transition from the television era but also laid the groundwork for critically analyzing contemporary digital culture. His work remains a key reference in communication, sociology, education, and cultural studies.

The rigorous style of the work—written, as Meyrowitz himself says, “not to scare off sociologists,” yet with a radical undertone—has allowed it to withstand four decades of critique, many of which were later retracted.

Meyrowitz has succeeded in consolidating his medium theory, a perspective that examines how the distinctive characteristics of each communication medium influence culture and social organization, beyond the content they transmit. On one hand, he analyzes how the choice of a particular medium affects specific interactional situations. On the other, he explores how changes in media foster or restrict modes of thought, group and religious identities, nationalism, gender roles, status differences, and even the design of built environments.

Today we can find compelling texts connected in various ways to his principal work, addressing contemporary topics such as ubiquitous surveillance, hacking, mediatization, technological convergence, intellectual property disputes, net neutrality, propaganda, and the Internet of Things. All of these contribute to a deep understanding of how media, in themselves, act as transformative forces in society.

Meyrowitz’s work has resonated with Ibero-American scholars such as Octavio Islas, Amaia Arribas, Carlos Scolari, Guillermo Orozco, and myself, of course. All of us have found in No Sense of Place not only a useful theory for thinking about media beyond their content, but a compass to understand how technologies reshape social life, identities, and everyday interaction frameworks. His notion that media alter the boundaries between public and private, intimate and exposed, has been especially relevant in analyzing diverse phenomena such as mediated education, digital culture, changes in childhood, and new formats of power and visibility on digital platforms.

Today, when algorithms know more about us than our friends do; when intimacy becomes viral content; when presence no longer requires being physically “present”… No Sense of Place gives us a compass—not to return to the past, but to better navigate this ever-shifting present.

References

Berger, E. (2022). Context blindness: Digital technology and the next stage of human evolution.    Peter Lang Inc.,

Meyrowitz, J. (1985). No sense of place: The impact of electronic media on social behavior. Oxford University Press.

Continue Reading

Distinción de excelencia por el proyecto de Humanidades Digitales

Comparto este reconocimiento que me ha sido entregado hoy, 15 de mayo de 2025, por mi Escuela de Humanidades y Educación, del Tecnológico de Monterrey, bajo la dirección de mi querida y apreciada Dra. Judith Ruíz Godoy. Esta distinción celebra el trabajo realizado en torno al proyecto de Humanidades Digitales, una iniciativa que ha crecido gracias al entusiasmo colectivo de estudiantes y profesores que piensan que la tecnología –si se utiliza inteligentemente– puede enriquecer profundamente nuestras prácticas humanísticas.

Agradezco sinceramente a todas las profesoras y profesores que han sido parte fundamental de este camino; al Dr. Julio Rubio, decano de la Escuela en la Ciudad de México, por su apoyo e impulso incondicional a este proyecto; y muy especialmente a las y los estudiantes, cuya curiosidad, talento y compromiso han nutrido este interesante trabajo.

La necesidad de habitar críticamente el mundo digital sigue siendo una tarea urgente y de gran relevancia.

Continue Reading

Sofistas digitales: la retórica de los influencers y el nuevo orden mediático

En la antigua Grecia, aparentemente en el siglo V a.C., aparecieron los sofistas, en un momento de auge democrático, intelectual y cultural. El nombre “sofista” derivaba del griego “sophistḗs”, que originalmente significaba “sabio” o “experto”. Ellos enseñaban retórica, argumentación, política, ética y gramática, y cobraban por sus enseñanzas. Quizá por esto último fueron duramente criticado por filósofos como Sócrates, Platón y Aristóteles, quienes además los acusaban de manipular la verdad y enseñar a “ganar argumentos” más que a buscar el bien (Kerferd, 1981). Los sofistas eran los expertos en el arte de persuadir. A través de la palabra, lograban moldear percepciones, ganar debates y movilizar voluntades. En el contexto democrático de la Atenas de aquel tiempo, su habilidad para enseñar a hablar en público, argumentar y persuadir era muy valorada, sobre todo para participar en tribunales o la asambleas.

Influencers

Algunos de los sofistas más conocidos fueron Protágoras, Gorgias, Pródico e Hipias. Ellos defendían que la verdad era relativa y que lo importante era la persuasión en el discurso, no necesariamente la verdad absoluta. También creían que la educación podía moldear al ciudadano, y veían el lenguaje como una herramienta de poder (de Romilly, 1992).

Influencers: los nuevos sofistas del ágora digital

Hoy, más de dos mil quinientos años después, asistimos a una escena similar, pero mediada por algoritmos, plataformas y pantallas. Los influencers digitales actuales ocupan ese lugar simbólico en el ágora contemporánea.

En una investigación en diferentes redes sociales se encontró a figuras mexicanas como Kimberly Loaiza (76.2 millones de seguidores en TikTok) o Luisito Comunica (más de 40 millones en YouTube) que hoy no solo son referentes del entretenimiento digital, sino que representan nodos de alta densidad simbólica en el ecosistema mediático actual. Los ingresos estimados que son millonarios, la fidelidad de sus comunidades y la transversalidad temática de sus contenidos los posicionan como actores clave en la economía de la atención.

En la actualidad, no es raro encontrar influencers que superan en alcance, engagement e impacto mediático a programas enteros de televisión tradicional. Mientras muchos canales luchan por mantener audiencias fragmentadas frente a un modelo de consumo cada vez más digital y a demanda, algunos creadores de contenido —con apenas un teléfono y una cuenta en TikTok, Instagram o YouTube— logran millones de visualizaciones en horas, con una fidelidad que muchos medios envidiarían.

Del medio al mensaje: nuevos modos de autoridad

Más allá de las cifras, el fenómeno invita a una lectura crítica desde la perspectiva de la ecología de medios. ¿Qué flujos están operando? ¿Cómo se configuran las nuevas formas de influencia? ¿Qué tipo de conocimiento, emociones o valores se están produciendo y diseminando?

Este fenómeno no solo habla de una reconfiguración de las plataformas de distribución, sino también de una transformación en los modos de autoridad mediática. Antes, para ser escuchado a nivel masivo, se necesitaba el respaldo de una institución: una televisora, una editorial, una estación de radio. Hoy, en cambio, la visibilidad se conquista directamente, mediante algoritmos, formatos virales y una narrativa de cercanía con la audiencia.

Algunos influencers acumulan más rating (en forma de visualizaciones, seguidores o interacciones) que programas de horario estelar. Pero no solo eso: su influencia no es pasiva, como la de un programa que se ve y se olvida, sino interactiva y emocional. La audiencia siente que los conoce, que puede escribirles, imitarlos, pertenecer a su comunidad. Eso genera un vínculo de lealtad que la televisión difícilmente puede replicar.

Retórica clásica, eficacia viral

Los conceptos de la retórica clásica –ethos, pathos, logos, chronos y kairos– mantienen vigencia y son muy útiles para analizar los discursos de los nuevos mediadores. Un influencer eficaz no solo se muestra creíble (ethos) o conmueve (pathos), sino que también sabe cuándo y cómo intervenir en la conversación (kairos), operando con una sensibilidad temporal que maximiza el impacto de cada mensaje. Esto es fundmanetal para su impacto.

Para algunos influencers, esta dimensión temporal —saber actuar en el momento oportuno— es fundamental en el entorno digital, donde el kairos se mide en segundos y puede significar el éxito viral o el olvido.

Ley constructal: flujos simbólicos y supervivencia mediática

En el entorno actual se articula una clave constructal: los influencers no son meros emisores de contenido, sino canales de flujo. Desde la perspectiva de la ley constructal, su forma se adapta a la necesidad de facilitar el tránsito simbólico de ideas, afectos, modas y estilos de vida. Quien fluye mejor, domina.

La ley constructal, propuesta por Adrián Bejan en 1996, plantea que: para que un sistema fluya y sobreviva en el tiempo, debe evolucionar de tal manera que facilite el acceso a los flujos que lo atraviesan. Los sistemas (físicos, biológicos, tecnológicos o sociales) tienden naturalmente a desarrollar estructuras que facilitan el flujo de lo que los recorre: ya sea aire, agua, energía, personas o información (Bejan, 1996).

Este flujo no es aleatorio. Se estructura en función del acceso, la apropiación tecnológica y las condiciones socioculturales del entorno. Por eso resulta vital leer estas dinámicas más allá del marketing. Nos hablan de pedagogías informales, de representaciones del éxito, de aspiraciones colectivas. Y también de precariedades invisibles: del trabajo emocional, la autoexplotación y la vulnerabilidad a los algoritmos.

Sofistas, estrategas e ingenieros del consentimiento

Existe una analogía provocadora entre sofistas e influencers. Ambos actores, separados por milenios, comparten la capacidad de modelar percepciones y cuestionar verdades absolutas. La gran diferencia que tienen estas figuras reside en el medio empleado: los sofistas usaban la voz; los influencers, la interfaz.

La historia de la comunicación, la política y la cultura popular revela un patrón constante: detrás de toda figura pública carismática o influyente, suele haber alguien que diseña, cuida y amplifica su imagen. Edward Bernays lo anticipó con claridad en su célebre obra Propaganda (1928), al hablar de los “estrategas invisibles” —aquellos expertos en moldear la percepción pública que, sin figurar en la escena, operan en las sombras del poder simbólico.

Para Bernays, estos agentes son indispensables en una democracia moderna saturada de información: ayudan a filtrar, jerarquizar y dramatizar los mensajes para que lleguen a las audiencias de forma efectiva. Su objetivo no es simplemente informar, sino construir sentido, generar deseo, modelar creencias. En sus propias palabras, se encargan de “la ingeniería del consentimiento”.

Un ejemplo elocuente de este tipo de figura es Brian Epstein, el empresario que hizo de The Beatles no solo una banda exitosa, sino un fenómeno cultural planetario. Epstein no solo descubrió a los Beatles en 1961; más importante aún, reconfiguró su imagen, estilo y narrativa para volverlos presentables —y deseables— al gran público.

Algunas de las decisiones estratégicas de Brian Epstein incluyeron pedirles a los Beatles que abandonaran el look rebelde que habían adoptado en los clubes de Hamburgo —ropa de cuero, lenguaje soez— para adoptar trajes formales, cortes de cabello más moderados y un tono público más “amigable”; además, reorientó sus actuaciones hacia espacios más controlados y eficaces desde el punto de vista mediático, y negoció con medios y sellos discográficos anticipando que el verdadero valor no residía solo en la música, sino en el relato que la envolvía (Coleman, 1989).

Epstein no era solo un mánager. Era, en términos bernaysianos, el ingeniero del relato público de los Beatles, el mediador entre talento y visibilidad. Su influencia fue tal que muchos historiadores culturales coinciden en que sin Epstein, no habría Beatlemanía. Él fue quien codificó su imagen para que pudiera circular, repetirse y reproducirse globalmente.

El aura detrás del personaje

Lo mismo ha ocurrido en múltiples contextos: políticos carismáticos como Barack Obama o Emmanuel Macron han contado con estrategas de comunicación que diseñaron cada gesto, palabra y encuadre; empresarios como Steve Jobs construyeron su mito gracias al trabajo meticuloso de equipos que sabían cómo transformar a una persona en una narrativa; y artistas, influencers y celebridades dependen de community managers, estilistas, publirrelacionistas y expertos en storytelling que operan como nuevos sofistas digitales: no producen la obra, sino el aura que la hace significativa.

Actualmente, el papel que desempeñaban los sofistas, lo han asumido —con nuevos lenguajes y plataformas—estos estrategas invisibles: personas, agencias de comunicación, relaciones públicas y marketing estratégico. Como los sofistas, estos estrategas venden habilidades persuasivas al mejor postor. Su trabajo consiste en diseñar discursos visuales, emocionales, digitales y narrativos que posicionen favorablemente a sus clientes, ya sean marcas, instituciones o figuras públicas.

Los sofistas eran acusados por Platón de relativismo moral (“el hombre es la medida de todas las cosas”, decía Protágoras). De forma análoga, muchas campañas contemporáneas se adaptan al interés del cliente, no necesariamente a un ideal ético universal. Lo importante no es la verdad, sino qué resulta convincente o rentable en un contexto específico.

Entre la fascinación y la crítica

Los sofistas fueron contratados por élites, políticos o jóvenes que aspiraban al poder. Los agencias y estrategas de hoy asesoran gobiernos, corporaciones o influencers, diseñando estrategias que moldean la percepción pública —no muy diferente a enseñar cómo ganar un juicio en la Atenas democrática. Así como los sofistas fueron vistos con recelo por Sócrates y Platón por su capacidad de manipular el discurso, hoy muchas agencias enfrentan críticas éticas cuando promueven narrativas a través de los influencers que manejan, que blanquean reputaciones, diseminan desinformación o alimentan polarización (Kim, Thorson, Duffy, & Shoenberger, 2024).

Tal como lo sugirió Bernays, las agencias de comunicación no solo venden productos o posicionan personas: lo que realmente hacen es moldear el imaginario colectivo, configurar lo que la sociedad considera deseable, legítimo o incluso “normal”. Según Bernays, las élites económicas, políticas y mediáticas podían —y debían— utilizar las herramientas de la psicología de masas y la comunicación persuasiva para guiar a las audiencias en sus decisiones, sin que estas lo perciban como manipulación (Bernays, 1923).

En este sentido, los estrategas de comunicación contemporáneas ya no se limitan a crear campañas publicitarias: son constructoras de marcos cognitivos y afectivos. Utilizan estrategias narrativas, estéticas y emocionales para: definir lo que está de moda y lo que no; establecer cuáles causas sociales son relevantes y cómo deben percibirse; influir en la forma en que percibimos el éxito, el cuerpo, la felicidad o la ciudadanía; y posicionar temas o figuras en la conversación pública a través de una combinación de medios tradicionales, plataformas digitales, algoritmos y microinfluencers.

Una alfabetización crítica de la influencia

El poder de los estrategas también se expresa en la gestión emocional colectiva. Las campañas no solo informan, también emocionan, indignan, inspiran, y polarizan. En un entorno saturado de estímulos y con audiencias de atención fragmentada, lo emocional se convierte en un vehículo clave para captar y mantener la atención. Así, los estrategas actúan como curadoras del clima afectivo de la esfera pública y producen campañas que no solo venden, sino que marcan tono, agenda y estados de ánimo sociales.

Ante este nuevo escenario, urge una alfabetización crítica de la influencia. No se trata de demonizar a estos nuevos actores, sino de entenderlos como parte de un flujo mayor: el de una sociedad que reorganiza sus imaginarios, su economía simbólica y sus formas de interacción a través de tecnologías que, aunque aparentan democratizar, también reconfiguran jerarquías, legitimidades y poder.

Referencias

  • Bernays, E. L. (1923). Crystallizing public opinion. Boni & Liveright.
  • Bernays, E. L. (1928). Propaganda. Horace Liveright.
  • Bejan, A., & Zane, J. P. (2012). Design in nature: How the constructal law governs evolution in biology, physics, technology, and social organization. Doubleday.
  • Coleman, R. (1989). The man who made the Beatles: An intimate biography of Brian Epstein. McGraw-Hill.
  • de Romilly, J. (1992). The Great Sophists in Periclean Athens. Clarendon Press.
  • Kerferd, G. B. (1981). The Sophistic Movement. Cambridge University Press.
  • Kim, A. J., Thorson, E., Duffy, M. J., & Shoenberger, H. (2024). Softening the blow: The power of rhetorical frames used by social media influencers with sponsorship disclosure. Journal of Interactive Advertising, 24(2), 169–183. https://doi.org/10.1080/15252019.2024.2301775
Continue Reading

Ep. 109 posverdad: ¿por qué creemos en noticias falsas?

Vivimos en la era de la información…y de la desinformación. ‘Noticias falsas’, teorías conspirativas y deepfakes moldean nuestra percepción del mundo. ¿Por qué caemos en estos engaños? ¿Cómo podemos combatirlos? En este episodio, exploramos el impacto de la desinformación y las herramientas para enfrentar esta nueva era.

En este episodio entrevistamos a Fernando Gutiérrez Cortés, profesor-investigador del Tec de Monterrey; a Estela Morales Campos, del Instituto de Investigaciones Bibliotecológicas de la UNAM; y a Alejandro Martín del Campo, líder de Humanidades Digitales en la Escuela de Humanidades y Educación del Tec de Monterrey.

Si te interesa este tema te invitamos a leer los siguientes artículos:
Contra la desinformación: Cómo las universidades pueden liderar la alfabetización mediática
4 maneras en las que este observatorio está combatiendo la desinformación
Del microscopio a la batalla contra la posverdad: Cómo comunicar la ciencia a los jóvenes
Encuentra más información en: tecscience.tec.mx La plataforma de divulgación del Tec de Monterrey.

https://open.spotify.com/embed/episode/6cMGOwQdVgK0qw1T4BdG6l?utm_source=generator


Para que siempre estés al día con las últimas tendencias en investigación, suscríbete a nuestro newsletter.

Continue Reading

La era de la propaganda 4.0: Un nuevo reto para la democracia y la verdad

2025-01-22
Nota: Este artículo lo puede consultar también en:
Observatorio de Medios Digitales del Tecnológico de Monterrey.

Fernando Gutiérrez

La evolución de las estrategias de comunicación y persuasión a lo largo de la historia nos lleva a un momento crucial en el siglo XXI: la era de la propaganda 4.0. En este contexto, la integración de redes sociales y tecnologías avanzadas, como la inteligencia artificial (IA), han transformado de manera radical la forma en que se moldean las percepciones y opiniones públicas. Esta evolución plantea enormes desafíos para la democracia, la ética y el acceso a información verídica.

Angela Merkel, ex canciller de Alemania, ha descrito acertadamente este periodo como la “era de la desinformación”. En esta nueva era destacan los efectos perjudiciales de las noticias falsas y las teorías conspirativas sobre el discurso democrático y la confianza pública. Según Merkel, la salud de la democracia está intrínsecamente vinculada a la calidad de la información accesible para sus ciudadanos. La proliferación de desinformación debilita la toma de decisiones informada en los procesos electorales y erosiona la credibilidad de las instituciones democráticas. Como Merkel lo expresó atinadamente: “Debemos proteger la libertad. Enfrentamos desafíos que no existían en el pasado, así como la tendencia a percibir todo en blanco y negro, donde los matices de gris desaparecen en favor de los extremos” (Bassets, 2024).

La propaganda, como herramienta de influencia, no es un fenómeno reciente. Ha evolucionado en paralelo con los avances tecnológicos y sociales. Aquí presento un breve recorrido por las que considero las 4 etapas que ha tenido la propaganda:

Propaganda 1.0: La propaganda de la era clásica que surgió en tiempos antiguos y se extendió hasta la Revolución Industrial. En esta etapa, se usaron discursos, monumentos y arte como medios primarios de comunicación para consolidar el poder político y religioso. Su alcance estaba limitado por la necesidad de reproducir manualmente los mensajes y por la falta de acceso masivo a la información.

Propaganda 2.0: La propaganda de la era de las masas en la que destaca la llegada de la imprenta y el crecimiento de los medios impresos. En esta etapa la propaganda adquirió un alcance sin precedentes. Las publicaciones impresas como panfletos, periódicos y libros permitieron la difusión masiva de mensajes ideológicos, como los usados durante la Revolución Francesa. Este periodo marcó el inicio de esfuerzos propagandísticos más sistemáticos y profesionalizados.

Propaganda 3.0: La propaganda de la era audiovisual que se desarrolló en el siglo XX y trajo consigo el auge de los medios masivos como la radio, el cine y la televisión. Estas herramientas permitieron generar un impacto emocional mucho más profundo a través de imágenes y sonidos. Ejemplos notorios incluyen la propaganda nazi liderada por Joseph Goebbels (ministro de Ilustración Pública y Propaganda de la Alemania nazi) y las campañas de la Guerra Fría, donde la manipulación emocional y la simplificación de mensajes fueron clave para movilizar audiencias.

Propaganda 4.0: La propaganda de la era digital. Con la aparición  y desarrollo de internet, las redes sociales y la inteligencia artificial, nos encontramos en una nueva etapa donde la propaganda se ha descentralizado y personalizado. Los algoritmos y el big data permiten adaptar mensajes específicos a individuos o grupos pequeños, aumentando su efectividad y dificultando la identificación de las fuentes de información. Ejemplos como las elecciones presidenciales de 2016 en Estados Unidos y el referéndum del Brexit han resultado ser un buen ejemplo del poder de las campañas digitales y el uso de bots y deepfakes para influir en la opinión pública.

La inteligencia artificial es el motor principal de esta nueva era. Con herramientas capaces de analizar grandes volúmenes de datos y generar contenido automatizado, la inteligencia artificial ha revolucionado la forma en que se crea y distribuye propaganda. Su impacto se manifiesta en varias áreas. Por ejemplo, en la personalización de mensajes. Los algoritmos pueden adaptar los mensajes para resonar con las emociones, intereses y preocupaciones de audiencias específicas. Otra actividad que ha posibilitado la inteligencia artificial es la creación de contenido engañoso, en la que deepfakes, noticias falsas y otras formas de desinformación se generan con mayor facilidad y sofisticación. Finalmente, la inteligencia artificial también ha tenido un fuerte impacto en lo que se refiere a la amplificación y viralidad de los mensajes. Las redes sociales, impulsadas por algoritmos, priorizan contenido emocional y polarizador, lo que facilita la propagación de mensajes propagandísticos.

La propaganda 4.0 no solo transforma la comunicación política, sino que también representa serios riesgos para las democracias modernas, especialmente en términos de la erosión de la confianza. La creciente dificultad para distinguir fuentes de información fiables debilita la credibilidad de las instituciones y los medios de comunicación.

Otro peligro significativo en esta nueva etapa es la polarización social. Los mensajes personalizados, diseñados para reforzar creencias preexistentes, generan cámaras de eco que profundizan las divisiones dentro de las sociedades. Finalmente, emerge el riesgo crítico de la manipulación electoral. Las campañas segmentadas pueden influir en decisiones trascendentales, como los resultados de elecciones, sin que los votantes sean plenamente conscientes de la manipulación a la que están siendo expuestos.

En esta era, es fundamental desarrollar una alfabetización mediática crítica que permita a los ciudadanos identificar y resistir las estrategias propagandísticas. Esto implica: enseñar a evaluar fuentes de información y a detectar noticias falsas; establecer políticas que obliguen a las empresas tecnológicas a ser transparentes sobre el funcionamiento de sus algoritmos; impulsar el debate público informado y la capacidad de analizar mensajes desde una perspectiva crítica.

La era de la propaganda 4.0 representa un punto de inflexión en la historia de la comunicación. Aunque las tecnologías digitales y la inteligencia artificial ofrecen oportunidades sin precedentes, también exigen una responsabilidad colectiva para mitigar sus riesgos. Solo a través de una acción combinada entre ciudadanos, instituciones y reguladores podremos enfrentar los desafíos éticos y democráticos que plantea esta nueva forma de influencia.

Continue Reading

Misinformation, Misdirection, Manipulation and Mischief: Making Sense of Contemporary Propaganda

The methods and techniques of political propaganda, and the impact of propaganda on public perceptions and behaviors, have attracted the attention of general semantics scholars since the initial formulation of the discipline. It is well known that Alfred Korzybski’s experience as a soldier in World War I was a key source of his motivation to develop general semantics in hopes of promoting a more sane, humane world.

Korzybski developed the key principles of general semantics during an extremely turbulent era, when people were acutely aware of the potentially devastating impact of propaganda and the way it was being used to justify horrific behavior. Since then, many other scholars have addressed propaganda from a general semantics perspective. Neil Postman, former editor of ETC: A Review of General Semantics, argued in a 1979 ETC article that “[o]f all the words we use to talk about talk, propaganda is perhaps the most mischievous.” Others, such as Jacques Ellul and Terence Moran, also contributed work to ETC where they offered their perspectives on propaganda and its relation to general semantics, and the two recent consecutive special issues of ETC on general semantics and politics demonstrate the continued relevance of the discipline to our understanding of political discourse and propaganda.

In keeping with this long standing tradition of using the principles of general semantics to understand and push back against political propaganda, this session focused on the heightened awareness and concern about misinformation and disinformation in the contemporary media environment during the recent elections in the United States and elsewhere, when artificial intelligence, message personalization, and strategic use of social media were used to influence and persuade the public in a more sophisticated and targeted manners.

Panelists

Fernando Gutiérrez earned a Ph.D. in Design and Data Visualization from the Metropolitan Autonomous University in Mexico and a master’s degree in Information Technologies from Tecnológico de Monterrey. In 1996, he collaborated with the team that designed the first internet system for the Office of the President of Mexico. He is a member of Mexico’s National Researchers System and serves as the Executive Secretary of the Media Ecology Association. An author of numerous books and publications on media and communication, his notable works include Internet: The Intelligent Medium and Understanding Media in the Digital Age, co-edited with Lance Strate and Octavio Islas. He currently leads the Division of Humanities and Education at the State of Mexico campus of Tecnológico de Monterrey.

Christina M. Knopf is a professor and the presentation skills coordinator in the Communication and Media Studies Department, and the Assistant Dean in the School of Arts and Sciences, at the State University of New York (SUNY) at Cortland. She is the author of Politics in the Gutters: American Politicians and Elections in Comic Book Media (University Press of Mississippi, 2021) and The Comic Art of War: A Critical Study of Military Cartoons, 1805-2014 (McFarland, 2015), along with numerous critical essays on politics and military culture in the popular arts. Dr. Knopf is a series co-editor for Routledge’s Advances in Comics Studies. She holds a Ph.D. concentrating in cultural sociology and political communication from the University at Albany.

This event took place on Friday, January 17, 2025 at the historic Players Club in Gramercy Park, New York City, New York.

Continue Reading

Difusión de videos manipulados con inteligencia artificial generativa, en aumento 

La proliferación de videos manipulados mediante inteligencia artificial generativa (IAG) en las redes sociales ha generado una creciente preocupación en torno a la desinformación y su impacto en la opinión pública. Este fenómeno se ha intensificado en los últimos meses, particularmente en contextos de ciertas crisis o eventos noticiosos, donde la confusión puede ser fácilmente explotada.

Por ejemplo, en España, durante la reciente Depresión Aislada en Niveles Altos (DANA) que afectó a varias regiones, se difundieron numerosos contenidos visuales generados o alterados por IAG. Algunos de estos casos incluían imágenes de figuras públicas como el presidente de ese país, Pedro Sánchez, así como videos que utilizaban voces sintéticas clonadas para simular declaraciones que nunca fueron hechas (Maldita.es, 2024). El grave problema es que este tipo de manipulación no solo busca entretener, sino también distorsionar la realidad y alimentar narrativas erróneas.

En el caso de México, organizaciones como Verificado han documentado un aumento en la difusión de videos manipulados, donde figuras públicas de alto nivel son presentadas como “anzuelo” para engañar a la gente. Tal es el caso específico del video de la presidenta de México, Claudia Sheinbaum, en el que supuestamente invita a invertir en una plataforma para aumentar ingresos. Sin embargo, el video es completamente falso (Barbosa, 2024).

La IAG ha revolucionado la forma en que creamos y consumimos contenido digital. Desafortunadamente, ésta también ha sido utilizada para manipular la realidad, distorsionar hechos y alimentar narrativas falsas. Desde deepfakes hasta imágenes alteradas, el potencial de la IAG para engañar y desinformar plantea serios desafíos éticos y sociales.

Video Falso Claudia Sheinbaum
Video Falso Claudia Sheinbaum

(Anuncio Falso difundido a través de Facebook en el que se observa a Claudia Sheinbaum Pardo, presidenta de México, hacer una invitación para invertir en una supuesta plataforma. Este video falso fue manipulado utilizando inteligencia artificial generativa).

Tipos de manipulaciones con IAG

 Algunos de los tipos más comunes de manipulaciones realizadas con IAG son las siguientes:

Deepfakes: Los deepfakes son una de las formas más conocidas de manipulación producida por IAG. Utilizan redes neuronales para superponer rostros en videos, creando la ilusión de que una persona ha dicho o hecho algo que en realidad no ocurrió. Esta técnica puede ser utilizada para difundir desinformación, como en el caso de videos falsos de figuras públicas que parecen hacer declaraciones comprometedoras (Chesney & Citron, 2019).

Imágenes alteradas: La IAG permite modificar o crear imágenes que pueden parecer auténticas. Estas imágenes alteradas pueden ser utilizadas para propagar noticias falsas o crear situaciones engañosas que distorsionan la percepción pública de eventos reales. Por ejemplo, se han generado imágenes de políticos en situaciones comprometedoras para influir en la opinión pública durante campañas electorales (Savage Carmona, 2023).

Textos falsos: Las herramientas de IAG pueden crear textos que imitan el estilo de escritores conocidos o generan narrativas completamente nuevas. Estos textos pueden ser utilizados para influir en la opinión pública, difundir propaganda o desinformación, y manipular la percepción sobre eventos actuales o figuras públicas (Tourpe, 2023).

Voces sintéticas: La clonación de voces mediante IAG permite a los estafadores suplantar la identidad de personas conocidas, facilitando fraudes y desinformación. Este tipo de manipulación es especialmente peligrosa en contextos como el político, donde puede ser utilizada para desestabilizar campañas electorales o engañar a votantes (Sophos, 2024).

La manipulación a través de la IAG representa un desafío significativo en la era digital. Las tecnologías disponibles permiten la creación de contenido engañoso que puede tener consecuencias graves en términos de desinformación y manipulación social. Resulta crucial el desarrollo de estrategias efectivas para identificar y combatir estas prácticas, así como promover una mayor alfabetización digital entre los usuarios.

Referencias

Barbosa, M. (2024). Sheinbaum, falso video sobre invertir en plataformas financieras. Verificado. https://verificado.com.mx/sheinbaum-falso-invertir-plataformas-financieras/

Chesney, R., & Citron, D. K. (2019). Deep fakes and the new disinformation war: The coming age of post-truth geopolitics. Foreign Affairs, 98(1), 147-155.

Maldita.es. (2024, 13 de noviembre). Imágenes y vídeos generados con inteligencia artificial durante la DANA en España. https://maldita.es/malditatecnologia/20241113/imagenes-videos-ia-dana-espana/

Savage Carmona, J. (2023). Atajar riesgos por uso de IA. DGCS UNAM. de https://www.dgcs.unam.mx/boletin/bdboletin/2023_728.html

Sophos. (2024). Manipulación política con desinformación y microtargeting masivo basado en modelos de IA.  https://news.sophos.com/es-es/2024/10/14/manipulacion-politica-con-desinformacion-y-microtargeting-masivo-basado-en-modelos-de-ia/

Tourpe, B. (2023). Promesas y riesgos de la inteligencia artificial. F&D Magazine. de https://www.imf.org/es/Publications/fandd/issues/2023/12/B2B-Artificial-Intelligence-promise-peril-Tourpe

Continue Reading
1 2 3 41