Un video reciente se ha propagado rápidamente en plataformas sociales como X y TikTok, mostrando a Sam Altman, CEO de OpenAI, en un supuesto acto de hurto en una tienda de electrónicos. En las imágenes, Altman parece tomar una caja del mostrador y luego intenta salir corriendo de la tienda.
Por fortuna, un guardia de seguridad logra interceptar a Altman antes de que logre huir; el ejecutivo se ve visiblemente molesto por haber sido capturado en tal situación, especialmente al darse cuenta de que estaba siendo filmado durante el incidente.
Este video podría haberse convertido en uno de los escándalos más grandes en la historia de la tecnología, algo totalmente inesperado y sorprendente; sin embargo, es totalmente falso.
Esta semana, OpenAI, la empresa detrás de ChatGPT, ha impactado al mercado con el lanzamiento de Sora 2, su nuevo modelo de creación de videos y audios mediante inteligencia artificial, lo cual promete ser un avance significativo para la tecnología emergente.
A pesar de las garantías de OpenAI de haber implementado medidas para prevenir el mal uso, no pasaron ni 24 horas cuando se vio el primer video malintencionado creado con esta nueva IA.
Actualmente, el acceso a Sora 2 es exclusivo por invitación a través de una aplicación especial; sin embargo, lo que no anticipó la empresa es que uno de sus propios empleados lo usaría de esta manera.
De hecho, no solo es que la IA haya ‘delatado’ a su creador presentándolo como un ladrón menor, sino que el video fue creado por Gabriel Petersson, un empleado de OpenAI y desarrollador de Sora.
i have the most liked video on sora 2 right now, i will be enjoying this short moment while it lasts
cctv footage of sam stealing gpus at target for sora inference pic.twitter.com/B86qzUGlMq
— gabriel (@GabrielPeterss4) September 30, 2025
Aunque resulte extraño que alguien cree un video de su jefe cometiendo un robo y lo comparta públicamente, Petersson lo describe como una broma, aludiendo al alto valor de las GPU necesarias para el desarrollo de IA.
Pero, ¿qué ocurre si alguien decide crear un video que nos muestre cometiendo un delito y no sea en tono de broma? Que Petersson haya distribuido este video sin considerar el evidente problema que esto representa, e incluso se enorgullezca de la popularidad del video, refleja la cultura interna de OpenAI.
El futuro distópico donde las pruebas en video de delitos ya no sean confiables porque pueden ser generadas por una IA en minutos ya ha llegado, aunque la empresa intenta convencernos del contrario.
OpenAI asegura que la función de aplicar rostros de cualquier persona sobre un modelo generado por IA, conocida como «cameo», protege a las personas comunes y los usuarios pueden controlar su identidad en todo momento.
La aplicación notificará a los usuarios cada vez que se genere un video con su identidad, incluso si no se ha hecho público, y estos videos podrán ser reportados por abuso en cualquier momento.
Además, la empresa afirma que ya está tomando medidas para bloquear videos que muestren a personalidades públicas, posiblemente en respuesta a este video protagonizado por Altman. Sin embargo, irónicamente, ha sido un empleado de OpenAI el que ha demostrado públicamente que las medidas adoptadas pueden no ser suficientes.
Artículos similares
- OpenAI revoluciona la IA: Sora 2 se posiciona como el gran rival del Veo 3 de Google
- Descubre Sora de OpenAI: Genera vídeos con IA fácilmente desde la web o app
- ¡Sora llega a Android! La red social de OpenAI con vídeos IA: ¡incluye cameos de mascotas y objetos!
- OpenAI retira Sora: la plataforma de videos con IA deja de operar tras un año en España
- ¡Cambio radical en ChatGPT desde hoy: OpenAI integra anuncios en dos modalidades!

Diego Soler explora las tendencias tecnológicas y las innovaciones digitales. Disfrutará de tutoriales prácticos y consejos directos para comprender mejor la inteligencia artificial, la ciberseguridad y las nuevas tecnologías.