ChatGPT frena el modo para adultos: OpenAI pospone su estreno sin fecha

Actualizado el :

Di Diego Soler


            Adiós al 'Modo adulto' de ChatGPT: OpenAI suspende "indefinidamente" la llegada de esta función, según un informe

OpenAI ha decidido suspender de forma indefinida el lanzamiento del llamado Modo adulto de ChatGPT, previsto originalmente para el primer trimestre de 2026. La empresa pausó el proyecto tras intensas discusiones internas y señales de alerta por parte de empleados e inversionistas sobre los riesgos sociales, técnicos y comerciales que implica un chatbot orientado a contenido sexual.

Según personas consultadas por Financial Times, la pausa no es un simple retraso: la compañía optó por investigar a fondo los posibles efectos de los diálogos sexualmente explícitos y de las relaciones emocionales entre usuarios y agentes de IA antes de avanzar. En paralelo, OpenAI concentra sus recursos en herramientas de productividad y en integrar sus servicios en una especie de superaplicación.

Por qué importa ahora

La decisión coincide con el cierre de Sora y llega en un momento en que reguladores y sociedades debaten cómo regular la interacción íntima con inteligencias artificiales. La medida de OpenAI marca un precedente sobre la cautela corporativa frente a productos que pueden afectar vínculos personales, seguridad y reputación.

Fuentes internas relatan que la suspensión responde a una combinación de factores: preocupaciones éticas, falta de consenso entre directivos, objeciones de algunos inversionistas y dificultades técnicas para hacer que los modelos generen ese tipo de contenido sin violar normas de seguridad.

  • Estado del proyecto: Cancelación indefinida del lanzamiento, investigación a largo plazo anunciada.
  • Nombre interno: la función figuraba en el código como Modo Citron.
  • Requisitos previstos: verificación de edad (mayores de 18 años) para activarlo.
  • Obstáculos técnicos: los modelos fueron entrenados para bloquear contenido sexual explícito, y trabajar con datos sexuales requiere filtrar material ilegal como incesto o bestialidad.
  • Prioridad estratégica: mayor inversión en herramientas productivas y en la integración de ChatGPT, Codex y el navegador en una sola experiencia.

Algunos inversionistas, según las fuentes, consideraban que un producto de contenido adulto ofrecía escaso potencial económico y elevaba el riesgo reputacional. Entre empleados hubo dudas sobre si desarrollar una herramienta pensada para relaciones románticas o sentimentales encajaba con la misión pública de la compañía: que la IA beneficie a toda la humanidad.

Un exempleado de alto nivel, que dejó la empresa en parte por este asunto, advirtió que la IA no debe sustituir los lazos humanos ni reemplazar redes sociales reales. Esa preocupación moral fue relevante en las conversaciones internas.

Retos técnicos y de seguridad

Los equipos se toparon con limitaciones prácticas: los modelos de OpenAI ya incorporan filtros y directrices diseñadas para rechazar contenido sexual explícito, lo que complica reconfigurarlos para producir material adulto de forma segura. Además, trabajar con conjuntos de datos que incluyan material sexual obliga a establecer salvaguardas para identificar y excluir conductas ilegales.

OpenAI ha comentado que busca medir y definir límites claros, entrenar al modelo para interpretar contextos y garantizar controles apropiados. No obstante, la compañía reconoció ante sus equipos que no existe aún evidencia empírica suficiente sobre los efectos psicológicos y sociales de este tipo de interacciones.

Qué sigue

Por ahora, la hoja de ruta contempla:

  • Un estudio prolongado sobre efectos emocionales y de comportamiento.
  • Revisión interna de políticas y de los riesgos regulatorios y de negocio.
  • Enfoque reforzado en productos productivos y en la integración de servicios.

La pausa de OpenAI abre preguntas relevantes para usuarios y reguladores: ¿cómo definir límites éticos en experiencias íntimas con IA?, ¿qué controles son necesarios para proteger a menores y prevenir abusos?, y ¿hasta qué punto las empresas tecnológicas deben invertir en productos que concilian demanda y responsabilidad social?

En un momento en que el debate público sobre la interacción emocional con máquinas gana fuerza, la decisión de OpenAI actúa como un caso de estudio sobre cómo balancear innovación, seguridad y aceptación social antes de lanzar funciones sensibles al mercado.

Artículos similares

Califica este artículo
Véase también  Auge de móviles reacondicionados en España: Descubre por qué triunfan y cómo comprarlos sin riesgos

Deja un comentario

Share to...