Episodio completo DEL MES:



Instagram Grupo en Telegram


Google compone, Sony investiga ¿Quién cobrará por la música IA?

Google compone, Sony investiga ¿Quién cobrará por la música IA?

Listen on Apple Podcasts

Gemini crea canciones con Lyria 3 mientras Sony desarrolla tecnología para medir influencias y futuras regalías en música generada por IA

Por Félix Riaño @LocutorCo



Gemini ya genera canciones con IA y Sony prepara herramientas para rastrear qué música humana influyó en ellas

Google acaba de activar una nueva función en Google Gemini. Ahora puedes escribir una frase y obtener una canción de 30 segundos. Rap, pop, rock, afrobeat. Con letra o instrumental.
El modelo que lo hace posible se llama Lyria 3 y viene del equipo de Google DeepMind. Está disponible desde el 18 de febrero de 2026 para mayores de 18 años en ocho idiomas, incluido el español.
Pero mientras Google invita a jugar con la música, otra empresa trabaja en algo muy distinto. Sony Group desarrolla una tecnología capaz de estimar cuánto influyen canciones humanas en una pista creada por IA.Una crea. La otra mide. ¿Estamos entrando en la era del contador musical digital?

Crear ahora es muy fácil. Rastrear es complejo.

Primero, lo nuevo de Google.En la app de Gemini, vas a “Herramientas” y eliges “Crear música”. Escribes algo como: “Pop latino, ritmo alegre, guitarra acústica, voz femenina suave, letra sobre una mascota”. En segundos tienes un archivo de 30 segundos listo para descargar en MP3 o en video.
Si subes una foto o un clip, Gemini analiza la imagen y compone algo que encaje con esa atmósfera. La portada la genera el modelo Nano Banana. Todo queda listo para compartir.Google aclara que el objetivo no es crear el próximo éxito mundial. Es expresión rápida. Una broma. Una banda sonora para un Short.
Las canciones llevan una marca invisible llamada SynthID. Es un watermark digital que identifica que el audio fue generado por IA de Google. También puedes subir un archivo a Gemini y preguntarle si fue creado con su sistema.Eso es el lado creativo. Ahora viene el lado contable.

La industria musical lleva años preguntando lo mismo: ¿con qué datos se entrenan estos modelos?Plataformas como Suno y Udio enfrentaron demandas por presunto uso de grabaciones protegidas sin licencia. El debate gira en torno a una pregunta sencilla: si una IA aprende escuchando música humana, ¿quién debe recibir pago?
Ahí entra Sony.El equipo de Sony AI publicó una investigación sobre un sistema capaz de estimar qué canciones influyen en una pista generada por IA. En pruebas académicas, el sistema puede calcular porcentajes aproximados de influencia.Si el desarrollador coopera, se analizan datos internos del modelo. Si no coopera, se comparan las canciones generadas con grandes catálogos musicales.
El reto es técnico y enorme. En pruebas con conjuntos relativamente pequeños, atribuir influencias puede tardar horas usando equipos muy potentes. Llevar eso a escala industrial es un desafío todavía abierto.Pero la intención es clara: construir una base para repartir regalías cuando la IA participe en la creación musical.

No estamos ante una pelea directa entre Google y Sony. Estamos viendo dos movimientos en el mismo tablero.
Google apuesta por integrar texto, imagen, video y ahora sonido en un solo ecosistema creativo. Con millones de usuarios activos en Gemini, la generación musical se vuelve cotidiana.Sony, que controla enormes catálogos históricos, explora cómo transformar la atribución en una herramienta de negociación y reparto económico.
Si la música generada por IA crece en plataformas de streaming, será necesario decidir cómo se distribuyen los ingresos.La gran pregunta es esta: ¿vamos a tener un sistema donde cada canción generada por IA venga acompañada de un cálculo de influencia?
La tecnología ya está en desarrollo. Lo que falta es que la industria acuerde cómo usarla.

Lyria 3 está disponible en inglés, alemán, español, francés, hindi, japonés, coreano y portugués. Google planea ampliar idiomas y mejorar calidad.
Los usuarios gratuitos pueden crear canciones con límites diarios. Los planes de pago permiten más generación.Además, Google integra Lyria 3 con YouTube Dream Track para crear música personalizada en Shorts. Eso puede impactar directamente en la producción masiva de contenido corto.
Mientras tanto, empresas y sellos discográficos desarrollan herramientas de detección basadas en análisis estadístico y técnicas de “machine unlearning”. Estos sistemas intentan identificar qué partes del conocimiento de un modelo influyen en un resultado específico.El debate no es si la IA puede hacer música. Ya puede.

El debate es cómo se mide su deuda con la música humana.

Gemini ahora crea canciones en segundos. Sony trabaja en medir qué música humana influyó en ellas.Estamos ante creatividad instantánea y contabilidad algorítmica al mismo tiempo.¿Te entusiasma más crear o medir?

Escucha más episodios en Spotify: Flash Diario


 Bibliografía

Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.

Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters

Flash Diario es un informativo de El Siglo 21 es Hoy
Suscríbete gratis en:
YouTube ⬅︎
Spotify ⬅︎
Apple Podcasts ⬅︎
Google News 📰 ⬅︎

February 19, 2026 at 01:00AM

Comentarios

PayPal

Archivo

Mostrar más

Entradas populares de este blog

Resonancias magnéticas en Leticia

Órbita polar tripulada

Duolingo ahora enseña ajedrez