Gemini revoluciona la música: Conoce ‘Nano Banana’, la IA que crea canciones desde texto.

Actualizado el :

Di Diego Soler


            Gemini va a cambiar para siempre con el 'Nano Banana' de la creación musical: una IA que generaría canciones desde texto

Con la reciente actualización de la aplicación móvil de Gemini, que introdujo el botón NotebookLM, Google parece estar alistándose para lanzar una nueva herramienta de creación de música impulsada por inteligencia artificial.

No es novedad que un sistema de IA pueda crear composiciones musicales de cualquier género, algo que incluso Adobe implementó el año pasado con la importante actualización de Firefly, que incluyó una funcionalidad similar.

Android Authority ha revelado en la versión 17.2.51.sa.arm64 de la aplicación de Google lo que parece ser los preparativos para esta nueva herramienta de creación musical.

Dentro del código se encuentra una línea que se suma a las principales características de Gemini como Deep Research, la generación de imágenes o videos y hasta la búsqueda en Google.

Se menciona «MUSIC_GENERATION_AS_TOOL» como la base para un posible modelo al estilo de Nano Banana, que facilitaría la creación de audios simples y de alta calidad mediante la introducción de prompts básicos.

Gemini ya cuenta con modelos para la creación musical, como es el caso de Lyria, que ha sido accesible a través de la generación de video de Veo.

Sin embargo, esto ha sido a través de la API de Gemini para desarrolladores, y no mediante una interfaz de usuario simple que gestione la creación de diversas piezas de audio. Aún es incierto si contará con las capacidades de edición musical de Nano Banana.

La línea de código hallada por Android Authority no es la única, y existe otra que sugiere que podríamos estar cerca de un nuevo lanzamiento por parte de esta gigante de la tecnología.

Véase también  IA en tu perfil de Facebook: Descubre cómo Meta quiere revolucionar tus fotos

«Mis cosas» es donde se pueden ver todos los contenidos generados con la IA de Gemini, y aquí se encuentra la segunda línea de código con «TYPE_MY_STUFF_GENERATED_MUSIC».

La tercera línea está dedicada a los posibles errores en la generación de música con IA, y dice «isMusicGenSupported is false, show error message».

El aspecto crucial de estas líneas de código es que todas están relacionadas con la música, y aunque se desconoce cómo Google planea desplegar esta nueva funcionalidad, supuestamente a través de un nuevo modelo de IA similar a ‘Nano Banana’, el enfoque está claramente en la creación musical.

Será necesario esperar para ver qué implicaciones tendrá esta nueva experiencia de creación basada en IA generativa, incluidas las connotaciones legales.

De hecho, la estrategia de Adobe con Firefly ha sido fundamentar su herramienta en la seguridad legal, enfocándose principalmente en la generación de música instrumental de fondo, sin voces.

Y su objetivo es crear música que se adapte tanto en duración como en emociones al clip de video que se edite en Adobe Premiere, su conocido software de edición de video.

Artículos similares

Califica este artículo

Deja un comentario

Share to...