
Abrir el móvil, grabar unos segundos tu cara y tu voz y, al instante, verte dentro de una escena que no existía hace nada: esa es la nueva promesa de OpenAI con Sora 2. La aplicación te convierte en protagonista de un clip que mantiene movimientos, rebotes y continuidad como si hubiese sido rodado con cámara.
La idea no es especialmente críptica: capturas tu identidad una vez y la app te inserta en escenarios generados por IA. Lo llamativo es la sensación de control creativo y la capacidad del sistema para encadenar planos sin que el “mundo” se desmorone por el camino. De ahí que se hable de “el TikTok de OpenAI”.
Qué es Sora 2 y por qué se le llama el TikTok de OpenAI

Sora 2 es la nueva generación del modelo de vídeo de OpenAI, lanzada junto a una aplicación social llamada Sora. La fórmula combina un generador de clips con un feed al estilo TikTok, remezclas y opciones para usar tu propia imagen como cameo.
El enfoque social no se queda en el scroll. OpenAI plantea una experiencia pensada para crear con otras personas: se puede remixar vídeos ajenos, responder con variaciones y mantener hilos creativos en torno a una misma escena o idea.
La app llega de forma limitada: solo iOS, por invitación y en Estados Unidos y Canadá por ahora. La compañía habla de una expansión progresiva y de acceso web para quienes reciban invitación, pero sin fechas cerradas para otros países.
En paralelo, el modelo Sora 2 también se posiciona frente a alternativas como Runway (Gen-4) o Google Veo: su baza diferencial es unir potencia técnica y distribución social en un mismo producto.
Novedades del modelo: física, continuidad y audio integrado

OpenAI equipara el salto de Sora 2 a lo que GPT-3.5 supuso en su día para el texto. La gran diferencia se nota en la fidelidad física: si una pelota no entra, rebota en el tablero en lugar de “teletransportarse”, un fallo típico de generaciones anteriores.
El modelo mantiene el “estado del mundo” entre tomas, algo clave para contar pequeñas historias en varios planos. Esa continuidad permite transiciones y cambios de escena sin perder personajes ni atrezzo por el camino.
Además de vídeo, Sora 2 genera audio sincronizado: voces, efectos y paisajes sonoros que encajan con lo que ocurre en pantalla. La mezcla imagen-sonido nace del propio prompt, simplificando el flujo para creadores.
Los clips resultantes pueden abarcar estilos realistas, cinematográficos o de anime, y por ahora se mueven en duraciones cortas, de unos 5 a 10 segundos, suficientes para piezas virales y micro-narrativas.
OpenAI admite que sigue habiendo errores y que la coherencia no es perfecta, pero sostiene que el avance respecto a Sora 1 es notable, especialmente en rigidez, flotabilidad y contacto entre objetos y personas.
La app Sora: cameos, remix y un feed guiado por lenguaje
El rasgo más distintivo son los cameos: tras una breve verificación facial y de voz, puedes aparecer en cualquier escena generada. Es opt-in; tú decides si tu imagen se puede usar y quién puede usarla.
El feed incorpora una “nueva clase” de recomendador que acepta instrucciones en lenguaje natural. Por defecto prioriza a personas con las que interactúas y muestra contenido que, según el sistema, sea más probable que te inspire a crear en lugar de solo mirar.
La app facilita la remezcla: tomas un clip de otro usuario, añades cambios en texto y generas tu versión. Esa mecánica busca impulsar la creación conjunta y encadenar variaciones sobre un mismo prompt o escenario.
Para reforzar la autoría y la trazabilidad, OpenAI incluye metadatos y marcas de agua que indican que el material fue generado con IA, y limita la captura con medidas como el bloqueo de la grabación de pantalla.
En el horizonte cercano, la compañía habla de abrir el acceso vía API, mantener Sora 1 Turbo y ofrecer más control de calidad en una variante Pro ligada a suscripciones de ChatGPT Pro.
Bienestar, seguridad y límites: políticas y moderación
OpenAI afirma que no optimiza el tiempo de uso continuo: el diseño está orientado a la creación frente al consumo. Periódicamente, la app sondea sobre bienestar y ofrece ajustar el feed con opciones claras.
Para menores, se aplican límites predeterminados al número de generaciones visibles, permisos más estrictos en cameos y controles parentales desde ChatGPT para ajustar personalización, tiempos y mensajes directos.
La compañía refuerza la moderación humana para responder con rapidez ante casos de acoso o uso indebido. Además, indica que no se permiten figuras públicas sin consentimiento (cameo subido por la persona) ni contenido para adultos o extremo.
- Verificación obligatoria de rostro y voz para activar cameos.
- Control total del usuario sobre quién puede usar su cameo, con opción de revocar acceso.
- Señales de procedencia: metadatos y marcas de agua en los clips.
- Medidas contra abuso: moderación humana y límites para adolescentes.
En cuanto a disponibilidad y coste, Sora 2 arranca de forma gratuita con límites ligados a la capacidad de cómputo. Los suscriptores de ChatGPT Pro acceden a Sora 2 Pro con mayor calidad, y se prevé una apertura más amplia conforme crezca la infraestructura.
Por ahora, Sora 2 apunta a convertir los vídeos cortos en un espacio de juego compartido, donde cualquiera pueda protagonizar escenas en segundos y compartirlas en un entorno social controlado. Si cuaja, podría marcar una etapa de creatividad más participativa, con piezas que mezclan realismo físico, continuidad narrativa y sonido generado sin salir del móvil.

