En los últimos días, se ha viralizado en redes sociales un video que muestra a una mujer intentando abordar un avión con un supuesto «canguro de apoyo emocional«. La imagen del canguro, sosteniendo un boleto con una mirada conmovedora, cautivó a muchos usuarios que creyeron que la escena era real. Sin embargo, la verdad detrás de este fenómeno es que el video fue creado íntegramente con inteligencia artificial (IA), específicamente utilizando herramientas avanzadas como Google Veo 3 o Kling, capaces de generar contenido audiovisual hiperrealista.
Este suceso ha abierto una ola de debates, principalmente porque más de uno se ha creído que era verdad. Esto pone de manifiesto el creciente impacto de los videos generados por IA y los desafíos que plantean en la era de la información.
El video, compartido inicialmente por la cuenta de Instagram @infiniteunreality, un perfil especializado en contenido digital surrealista, logró engañar a una audiencia masiva debido a su calidad visual y narrativa convincente. La escena, que incluía detalles como el texto legible «EMOTIONAL SUPPORT» en el chaleco del canguro, llevó a muchos a debatir sobre la legitimidad de los animales de apoyo emocional en los aeropuertos, sin sospechar que se trataba de una ficción generada por IA.
La viralidad del canguro de apoyo emocional no es un caso aislado, sino un reflejo del avance de las tecnologías de generación de video por IA. Modelos como Google Veo 3, recientemente estrenado, permiten crear secuencias hiperrealistas a partir de simples descripciones de texto, con un nivel de detalle que dificulta distinguir lo real de lo falso.
Este avance, aunque impresionante, ha generado preocupación en la comunidad global. La incapacidad de muchos usuarios para identificar el video como falso evidencia un problema mayor: La dificultad de discernir la autenticidad en un mundo saturado de contenido digital.
El impacto de los videos generados por IA trasciende el entretenimiento y plantea serios desafíos para los negocios y la confianza pública. En el ámbito comercial, las empresas de medios y publicidad enfrentan el riesgo de que contenido falso se perciba como auténtico, lo que podría afectar la credibilidad de campañas o noticias.
Por ejemplo, un video falso que represente una crisis corporativa o un producto defectuoso podría generar pérdidas significativas antes de que se descubra su falsedad. Además, la proliferación de videos hiperrealistas podría complicar la verificación de información en sectores como el periodismo, la seguridad y el comercio electrónico. En el caso del canguro, la narrativa emocional y el realismo visual engancharon a los espectadores, lo que demuestra el potencial de la IA para manipular percepciones.
El caso del canguro de apoyo emocional, aunque inofensivo en su contexto, sirve como advertencia sobre los riesgos de la IA generativa. Expertos sugieren que la sociedad debe adaptarse rápidamente para desarrollar herramientas y habilidades que permitan identificar contenido falso. Esto incluye educar a los consumidores sobre los signos de videos generados por IA, como pequeños errores en texturas o movimientos, y fomentar el uso de plataformas de verificación de hechos.
En conclusión, el video del canguro de apoyo emocional no solo ha capturado la atención global por su ternura, sino que ha encendido un debate crucial sobre el impacto de la IA en la percepción de la realidad. A medida que estas tecnologías avanzan, las empresas, los medios y los usuarios deben trabajar juntos para navegar un entorno digital donde la línea entre lo real y lo artificial es cada vez más difusa. Como siempre se ha dicho “No todo lo que aparece en redes es real”.