La era de la «no-realidad»: videos generados por IA y la peligrosa confusión que generan

El lanzamiento de Sora 2 por parte de OpenAI, acompañado de una aplicación social homónima, no es simplemente una actualización tecnológica; es el preámbulo de una transformación radical de nuestro ecosistema mediático. Esta nueva herramienta de generación de video por inteligencia artificial (IA), que aterriza casi simultáneamente con Meta Vibes de la compañía de Mark Zuckerberg, nos proyecta a un futuro donde la verdad digital es un bien escaso y la «no-realidad» se convierte en el nuevo estándar del scroll infinito. La facilidad sin precedentes para crear clips ultrarrealistas a partir de una simple indicación de texto fusionará las redes sociales, la IA y la economía de la atención en un caldo de cultivo tóxico y difuso, donde la verificabilidad se desvanece a una velocidad alarmante.

La relevancia de este avance trasciende la mera curiosidad técnica. Estamos presenciando cómo los bloques fundamentales de la comunicación online —los feeds, los memes y lo que algunos ya llaman el «slop» (contenido basura) de la IA— se reconfiguran para cimentar un universo mediático donde todo se difumina. El contenido generado por máquinas amenaza con corroer la confianza, disolver el peso emocional o informativo de cualquier clip y, en última instancia, socavar la noción misma de lo que consideramos «real».1 Las empresas detrás de Sora y Vibes apuestan a que el interés público en estos videos no es una moda pasajera, sino el inicio de un cambio fundacional en la forma en que consumimos medios. La capacidad de los usuarios de incluir su propio rostro o el de sus amigos (con permiso, a través de la función «Cameo» de Sora) inyecta una dosis de personalización que podría ser la clave de su éxito masivo, pero también abre una Caja de Pandora de implicaciones éticas y sociales, tal como lo ha reconocido el propio CEO de OpenAI, Sam Altman, al expresar su «temor» por la historia adictiva y acosadora de las redes sociales tradicionales.

El eclipse de la verdad y la batalla de la propiedad intelectual

La primera y más inminente fricción es la erosión de la verdad. A medida que el volumen de videos creados por IA inunda internet, la desconfianza se convierte en la postura más sensata. Aunque OpenAI ha implementado marcas de agua en el contenido de Sora y, por ahora, las plataformas son explícitamente «solo IA», la viralidad de los clips exitosos garantizará que se filtren e integren rápidamente en plataformas como TikTok, YouTube o Reels, mezclándose sin distinción con material grabado por humanos. La regla no escrita de la era digital muta: es imperativo asumir que todo video en línea es ficticio hasta que se demuestre lo contrario. Expertos en ciberseguridad y verificación de identidad han advertido repetidamente que la capacidad humana para distinguir un deepfake de un video auténtico es ya alarmantemente baja, un desafío que la Ley Europea de Inteligencia Artificial busca abordar, exigiendo el etiquetado obligatorio de los contenidos sintéticos para garantizar la transparencia (como señala el análisis sobre la normativa en el Viejo Continente).2 Sin embargo, el ritmo de la tecnología supera al de la regulación.

El segundo campo de batalla es el derecho de autor. El feed inicial de Sora, repleto de Jesucristos, Bob Esponjas y coches conducidos por perros, evidencia una voracidad por el contenido visual protegido. Si bien OpenAI afirma que los titulares de propiedad intelectual pueden optar por excluir sus estilos e imágenes de la duplicación, la historia de los sistemas generativos sugiere que la colisión legal es inevitable. Aunque casos previos de clips al estilo del Studio Ghibli generados por herramientas de OpenAI no terminaron en demanda, es solo cuestión de tiempo antes de que un gigante de los medios o el entretenimiento lleve el tema a los tribunales, buscando establecer precedentes en una frontera legal aún difusa.

La toxicidad del meme y la concentración de poder algorítmico

La tercera fricción se materializa en la memificación extrema del contenido. Los videos generados únicamente por IA empujan el medio a un estado de irrealidad vacua, más allá incluso del surrealismo que ya domina TikTok. Observamos una saturación de chistes internos sobre el CEO de OpenAI, Sam Altman —quien liberó su cameo para el uso público—, o el resurgimiento de universos virales abstractos como Skibidi Toilet.3 Esta marea de surrealismo autorreferencial puede cautivar a nichos muy específicos, pero su capacidad para sostener un atractivo masivo y amplio aún está por verse. El politólogo Jose Marichal, que estudia la reestructuración social por la IA, ha manifestado su preocupación por esta inundación de «slop» que, si bien es atractiva visualmente, desplaza la creatividad humana más auténtica y degrada nuestro ecosistema informativo, tal como reporta Associated Press sobre el debut de Sora.

En cuarto lugar, la personalización se convierte en un arma de doble filo y una peligrosa herramienta de concentración de datos. Cada video que se consume y cada clip que se crea en estas plataformas es un flujo constante de información para sus desarrolladores. Al combinar lo que un algoritmo tipo TikTok sabe de nuestras preferencias con los datos que ya alimentamos a modelos como ChatGPT, las empresas como OpenAI y Meta adquieren palancas de poder sin precedentes para moldear el comportamiento y las percepciones. El objetivo de «optimizar la satisfacción a largo plazo del usuario» que menciona Altman es una promesa ambiciosa, pero la historia ha demostrado que, sin una gobernanza ética rigurosa y un enfoque basado en los derechos humanos (como promueve la UNESCO), la tentación de «optimizar para el engagement a cualquier precio» es casi irresistible para los gigantes tecnológicos.

Finalmente, la amenaza de la intimidación y la humillación a gran escala es inherente a cualquier «patio de juegos social» donde las caras reales son la moneda de cambio. A pesar de los esfuerzos de Sora por implementar salvaguardas en su función Cameo, la experiencia histórica de internet demuestra que la inventiva de los usuarios para encontrar y explotar usos dañinos y malintencionados siempre superará los esfuerzos de contención de cualquier plataforma. Un entorno social lleno de rostros reales generados por IA está destinado a producir casos horribles de deepfakes difamatorios, acoso y calumnias, como ya ha ocurrido en casos de fraude financiero y manipulación política, según informes sobre ciberseguridad.4 En un contexto político y social polarizado, con una regulación gubernamental que avanza a paso de tortuga y presupuestos ilimitados para las empresas, la evolución de este nuevo mundo social impulsado por la IA corre el riesgo de ser imprudente y descontrolada, marcando un punto de inflexión donde la desinformación y el daño personal pueden escalar a niveles sin precedentes.

¡Comparte esta publicación!
Nicolás Verdejo
Nicolás Verdejo

Periodista. Director de Under Express.