CEO de OpenAI captado robando en tienda: ¡Sorpresa! Es solo un video creado por su IA

Actualizado el :

Di Diego Soler

Captura de un vídeo generado por IA que muestra a Sam Altman, CEO de OpenAI, robando en una tienda

Un video reciente se ha propagado rápidamente en plataformas sociales como X y TikTok, mostrando a Sam Altman, CEO de OpenAI, en un supuesto acto de hurto en una tienda de electrónicos. En las imágenes, Altman parece tomar una caja del mostrador y luego intenta salir corriendo de la tienda.

Por fortuna, un guardia de seguridad logra interceptar a Altman antes de que logre huir; el ejecutivo se ve visiblemente molesto por haber sido capturado en tal situación, especialmente al darse cuenta de que estaba siendo filmado durante el incidente.

Este video podría haberse convertido en uno de los escándalos más grandes en la historia de la tecnología, algo totalmente inesperado y sorprendente; sin embargo, es totalmente falso.

Esta semana, OpenAI, la empresa detrás de ChatGPT, ha impactado al mercado con el lanzamiento de Sora 2, su nuevo modelo de creación de videos y audios mediante inteligencia artificial, lo cual promete ser un avance significativo para la tecnología emergente.

A pesar de las garantías de OpenAI de haber implementado medidas para prevenir el mal uso, no pasaron ni 24 horas cuando se vio el primer video malintencionado creado con esta nueva IA.

Actualmente, el acceso a Sora 2 es exclusivo por invitación a través de una aplicación especial; sin embargo, lo que no anticipó la empresa es que uno de sus propios empleados lo usaría de esta manera.

De hecho, no solo es que la IA haya ‘delatado’ a su creador presentándolo como un ladrón menor, sino que el video fue creado por Gabriel Petersson, un empleado de OpenAI y desarrollador de Sora.

Véase también  Pocos usan Copilot de IA: ¿Microsoft al borde de apagar sus servidores?

Aunque resulte extraño que alguien cree un video de su jefe cometiendo un robo y lo comparta públicamente, Petersson lo describe como una broma, aludiendo al alto valor de las GPU necesarias para el desarrollo de IA.

Pero, ¿qué ocurre si alguien decide crear un video que nos muestre cometiendo un delito y no sea en tono de broma? Que Petersson haya distribuido este video sin considerar el evidente problema que esto representa, e incluso se enorgullezca de la popularidad del video, refleja la cultura interna de OpenAI.

El futuro distópico donde las pruebas en video de delitos ya no sean confiables porque pueden ser generadas por una IA en minutos ya ha llegado, aunque la empresa intenta convencernos del contrario.

OpenAI asegura que la función de aplicar rostros de cualquier persona sobre un modelo generado por IA, conocida como «cameo», protege a las personas comunes y los usuarios pueden controlar su identidad en todo momento.

La aplicación notificará a los usuarios cada vez que se genere un video con su identidad, incluso si no se ha hecho público, y estos videos podrán ser reportados por abuso en cualquier momento.

Además, la empresa afirma que ya está tomando medidas para bloquear videos que muestren a personalidades públicas, posiblemente en respuesta a este video protagonizado por Altman. Sin embargo, irónicamente, ha sido un empleado de OpenAI el que ha demostrado públicamente que las medidas adoptadas pueden no ser suficientes.

Véase también  WhatsApp revoluciona: Chatea con otras apps desde la misma aplicación en España: Aprende cómo en 5 pasos

Artículos similares

Califica este artículo

Deja un comentario

Share to...