De Will Smith comiendo pasta a clones digitales: la increíble evolución del video con IA

De Will Smith comiendo pasta a clones digitales: la increíble evolución del video con IA

¡Hola, Maestros del Pixel!

Si llevan un tiempo siguiendo la evolución de la inteligencia artificial, seguro recuerdan ese video viral —bizarro pero fascinante— donde Will Smith comía un plato de espaguetis generado completamente por IA.

Era una de esas piezas que te hacían reír y pensar al mismo tiempo: “Ok, la IA está aprendiendo, pero aún le falta mucho”.

Pues bien, hoy, apenas unos años después, ya podemos crear anuncios tipo UGC, videomensajes personalizados o clones digitales de nosotros mismos, y en muchos casos es casi imposible distinguirlos de un video real.

Vamos a ver cómo pasamos de aquellos primeros intentos torpes… a un nivel de realismo que desafía la vista (y a veces, la ética).

El origen: cuando los videos por IA daban miedo (y risa)

A mediados de 2022 comenzaron a circular clips generados con modelos tempranos de video por IA. La idea era fascinante: “¿y si una red neuronal pudiera generar movimiento a partir de texto o imágenes?”

El problema era que los resultados parecían sacados de una pesadilla surrealista: rostros derretidos, manos deformes, comida que se movía sola y expresiones imposibles.

Y así nació el famoso video de Will Smith comiendo pasta, creado con un modelo primitivo de generación de video.

Fue uno de los primeros momentos donde el público general dijo: “¡Wow! Esto lo hizo una IA… pero todavía no parece humano.”

Ese clip se convirtió en una especie de broma interna en la comunidad de IA: el “Spaghetti Test”, usado para medir cuánto habían mejorado los modelos de video con el paso del tiempo.

Del absurdo al asombro: la revolución de la calidad visual

Saltamos a 2025 y la diferencia es abismal. Hoy los videos generados por IA pueden recrear movimientos realistas, iluminación coherente, expresiones naturales y voces perfectamente sincronizadas.

Modelos como Sora (de OpenAI), Veo (de Google) o Runway Gen-3 ya no se limitan a generar clips borrosos: ahora producen escenas cinematográficas, con texturas precisas, profundidad y un sentido físico del espacio.

Al comparar ambos videos (el de Will Smith y este), parece que han pasado décadas, no tres años. La diferencia es como ver los primeros videojuegos pixelados frente a una película 4K.

¿Qué permitió este salto tan grande?

Varios factores se unieron para que hoy estemos aquí:

  • Más datos y mejores redes neuronales. Los modelos ahora “entienden” mejor cómo se mueve el mundo: la física de los objetos, los gestos humanos y las expresiones faciales.

  • Sincronía audio-visual realista. Ya no solo se genera imagen; el sonido se produce al mismo tiempo y de forma coherente.

  • Entrenamiento multimodal. La IA aprende de texto, imagen y video, lo que le da más contexto para entender la relación entre movimiento y significado.

  • Interfaces simples. Cualquiera puede generar clips escribiendo una frase: “una chica paseando por París al atardecer”, y en segundos, tener un video completo.

En resumen: la complejidad técnica se volvió invisible. Hoy la magia está al alcance de todos.

El nuevo fenómeno: contenido UGC generado por IA

Uno de los usos más populares (y sorprendentes) es la creación de videos tipo UGC —User Generated Content—.

Marcas, creadores y agencias están usando IA para producir clips que parecen hechos por usuarios reales, con lenguaje natural, cámara en mano, planos espontáneos y gestos auténticos.

Lo impresionante es que muchas veces el espectador no se da cuenta de que detrás no hay una persona, sino un modelo que ha aprendido a imitar comportamientos humanos.

Esto está transformando la manera de hacer marketing:

  • Se pueden crear decenas de versiones de un mismo anuncio en minutos.

  • Se adapta fácilmente a distintos idiomas, tonos o públicos.

  • Reduce costos de producción y permite experimentar más rápido.

El contenido generado por IA ya no es un truco. Es una herramienta profesional.

Clonarte para crear (sin perderte en el proceso)

Otro uso que está ganando terreno: clonarte a ti mismo.
Basta con unos minutos de video y audio reales para que la IA pueda crear una versión tuya que hable, se mueva e incluso exprese emociones.

Esto se está usando para:

  • Presentaciones en redes sociales.

  • Mensajes personalizados para clientes.

  • Cursos y tutoriales donde “tú” explicas sin grabar cada vez.

El potencial es enorme, pero también plantea preguntas éticas: ¿qué pasa si alguien usa tu imagen sin permiso? ¿Cómo sabremos si un video es auténtico?

Por eso, aunque la tecnología deslumbra, la transparencia y el consentimiento deben ir siempre de la mano.

¿Y qué nos espera ahora?

Estamos en el umbral de una nueva era visual. Pronto veremos películas, videoclips y anuncios enteramente generados por IA, donde la línea entre realidad y síntesis será casi imposible de detectar.

Y lo mejor (o lo más inquietante) es que no necesitaremos ser expertos: bastará con describir una idea y dejar que la IA la convierta en video.

Lo que comenzó con un “Will Smith comiendo pasta” hoy es una industria emergente que cambiará cómo contamos historias, enseñamos, y nos comunicamos.

Nos encantaría saber qué piensas, Maestro del Pixel:
¿Te gustaría poder clonarte para crear contenido sin grabarte?
¿O prefieres mantener el toque humano, con todas sus imperfecciones?

Comparte tus ideas y únete a la conversación sobre el futuro del video y la creatividad.

Con cariño y píxeles,

CARLOS

Referencias

3 herramientas de IA para explorar / usar / utilizar

  • HeyGen: Crea videos con avatares hiperrealistas, sincronizados con tu voz o texto. Ideal para presentaciones, marketing o reels.

  • Runway: Genera y edita videos con IA, cambia fondos, añade movimiento y crea efectos cinematográficos sin experiencia previa.

  • Synthesia: Permite crear tu clon digital o portavoces virtuales para explicar productos, cursos o noticias en múltiples idiomas.

PD1: Recuerda que si no quieres seguir recibiendo estos Emails, acá abajo tienes un botón para que no te siga visitando en tu Inbox. Aún no he decidido el día ni la frecuencia que voy a enviar los emails, pero casi seguro que será una vez a la semana.

PD2: Iré incorporando nuevas secciones en las nuevas Newsletter, y claro, siempre estoy abierto a sugerencias.