Una reciente investigación revelada por CNBC ha generado una fuerte polémica entre creadores de contenido, expertos legales y defensores de derechos digitales. Según esta información, Google ha estado utilizando su vasta biblioteca de videos en YouTube —con más de 20 mil millones de clips— para entrenar modelos de inteligencia artificial como Gemini y Veo 3, su generador de video y audio basado en IA. Lo que ha encendido las alarmas no es tanto la práctica en sí, sino el hecho de que la mayoría de los creadores desconocían que sus obras estaban siendo utilizadas con estos fines, sin su conocimiento explícito ni compensación alguna.
Google ha confirmado que emplea una «parte» del contenido disponible en YouTube para el entrenamiento de sus modelos, amparándose en los términos de uso de la plataforma, los cuales otorgan a la compañía una licencia amplia y global sobre el contenido subido por los usuarios. No obstante, ni la cantidad exacta de videos utilizados ni los criterios para su selección han sido aclarados. De acuerdo con expertos citados por CNBC, incluso si Google solo entrenara a partir del 1% de su catálogo, estaríamos hablando de más de 2.3 mil millones de minutos de material, una cantidad que supera ampliamente los volúmenes de entrenamiento usados por otras compañías tecnológicas.
Un conflicto creciente entre propiedad intelectual, derechos de imagen y avance tecnológico
El uso de videos sin una notificación clara está generando preocupación en la comunidad de creadores, muchos de los cuales ahora temen estar alimentando, involuntariamente, a sistemas que podrían reemplazarlos profesionalmente en el futuro. “Están usando los datos de miles de personas que han invertido tiempo, energía y creatividad en sus obras para entrenar un modelo que luego genera versiones sintéticas de ese contenido. No es justo”, declaró Luke Arrigoni, director ejecutivo de Loti, una empresa enfocada en proteger identidades digitales.
Esta preocupación no es solo teórica. Herramientas como Trace ID, desarrolladas por la empresa Vermillio, permiten detectar similitudes entre videos generados por IA y contenidos originales. En uno de los casos documentados, un video del creador Brodie Moss presentó una coincidencia de 71 sobre 100 en imagen y más del 90 en audio con una pieza generada por Veo 3. Según Dan Neely, CEO de Vermillio, este tipo de solapamiento evidencia que los modelos no solo aprenden de los contenidos, sino que en ocasiones pueden replicarlos de manera sorprendentemente precisa.
Aunque YouTube ha implementado ciertas herramientas para que los creadores puedan solicitar la eliminación de videos que infrinjan su imagen o identidad, expertos como Arrigoni afirman que estas funciones son poco eficaces o no están diseñadas para responder a las necesidades reales de los usuarios. Además, aunque es posible excluirse de ciertos entrenamientos externos —como los realizados por empresas como Amazon o Nvidia—, no existe una opción para impedir que Google utilice el contenido de YouTube para sus propios modelos de IA.
Entre la innovación y la ética: un debate con implicaciones legales
La controversia se produce en un momento en que la industria del entretenimiento comienza a responder legalmente al auge de la IA generativa. La semana pasada, Disney y Universal interpusieron una demanda conjunta contra Midjourney, otra empresa de generación de imágenes por IA, alegando violaciones a los derechos de autor. Aunque la demanda no involucra directamente a Google o YouTube, es un indicio claro de que los grandes estudios y compañías de medios están listos para enfrentarse a quienes consideren que cruzan líneas éticas y legales.
A su vez, Google ha intentado adelantarse a estas preocupaciones incluyendo cláusulas de indemnización en sus servicios de IA como Veo 3, asumiendo la responsabilidad legal en caso de que el contenido generado con sus herramientas cause conflictos por derechos de autor. También ha establecido alianzas con agencias como Creative Artists Agency (CAA) para desarrollar tecnologías que permitan identificar usos no autorizados de la imagen de celebridades y creadores. Sin embargo, estas medidas parecen centrarse más en figuras públicas que en la vasta mayoría de creadores independientes que nutren la plataforma día tras día.
Algunos, como el youtuber Sam Beres, con más de 10 millones de suscriptores, adoptan una postura más optimista: “Lo veo como una competencia amistosa. Esto es inevitable, pero también puede ser emocionante”. Aun así, esta visión no disipa la sensación de desprotección que experimentan muchos otros creadores que temen ver su trabajo convertido en entrenamiento para máquinas sin su permiso ni reconocimiento.
Como resumió el senador estadounidense Josh Hawley en una audiencia reciente del Senado sobre IA y derechos de imagen: “Tenemos que devolver a las personas el control sobre su imagen, su propiedad y sus vidas. De lo contrario, esto nunca se detendrá”. La polémica en torno al uso del contenido de YouTube por parte de Google para fines de entrenamiento de inteligencia artificial apenas comienza, pero lo que está en juego va mucho más allá de una simple cláusula legal: se trata del equilibrio entre innovación y justicia en la economía digital del futuro.