Inicio Espectáculos YouTube amplía el acceso a la herramienta de detección de deepfakes a...

YouTube amplía el acceso a la herramienta de detección de deepfakes a celebridades y agencias artísticas

20
0

YouTube amplía su herramienta de detección de similitudes con IA en toda la industria del entretenimiento, abriendo por primera vez el acceso a celebridades y agencias artísticas.

La expansión se produce seis meses después de que YouTube comenzara a implementar la herramienta de IA en octubre, que en ese momento estaba limitada a un conjunto específico de creadores con canales de YouTube.

La compañía anunció el martes 21 de abril que agencias artísticas, compañías de gestión y las celebridades que representan ahora pueden registrarse, ya tengan o no un canal de YouTube. La expansión se realizó con el apoyo de agencias artísticas y compañías de gestión, incluidas Agencia de artistas creativos (CAA), Agencia de talentos unidos (UTA), WME y Gestión sin título.

YouTube había anunciado anteriormente en diciembre de 2024 que había recurrido a talentos de CAA para ayudar a desarrollar la herramienta de detección de deepfakes por IA. CAA proporcionó comentarios para ayudar a YouTube a construir el sistema y afinar los controles, según la empresa tecnológica. La agencia representa a muchos artistas como Ariana Grande, Beyoncé, Bob Dylan, Bruce Springsteen, Charli XCX, Dua Lipa, Miley Cyrus, Peso Pluma, Reine, Sabrina Charpentier, Shaboozey y The Weeknd, entre otros.

YouTube explicó el martes que el sistema de detección funciona de manera similar al de YouTube Content ID, que los titulares de derechos utilizan para informar sobre cualquier uso no autorizado de material protegido por derechos de autor.

«Funciona de manera similar a Content ID, excepto que el análisis busca la imagen de un creador en lugar del contenido protegido por derechos de autor», según la página de ayuda de YouTube.

YouTube declaró que la herramienta realiza un análisis único de los videos recientemente cargados en YouTube para identificar el contenido que pueda contener la cara de cada creador que haya configurado la detección de similitudes.

«Para encontrar coincidencias entre las caras de estos creadores, nuestro sistema analizará y detectará las caras de otras personas presentes, incluidos adultos y niños, además de todos los creadores registrados». YouTube señaló que los análisis se eliminan inmediatamente después y no se pueden utilizar para identificar a nadie que no sean los creadores registrados en la función. Las personas no registradas no son identificadas por la tecnología.

La inscripción requiere una identificación emitida por el gobierno y un breve video selfie, que YouTube utiliza para verificar la identidad y crear un modelo de similitud facial. El proceso de verificación puede tardar hasta cinco días. Una vez registrados, los participantes pueden autorizar a agentes, gerentes u otros representantes a revisar el contenido informado en su nombre sin necesidad de verificarlo ellos mismos.

La plataforma indicó que almacena los modelos de similitud y la información de identidad hasta tres años después de la última conexión de una persona registrada, o hasta que retire su consentimiento o elimine su cuenta.

«Actualmente, la funcionalidad solo se utiliza para detectar las coincidencias visuales de la cara de un creador registrado. Tenemos como objetivo expandir la detección de similitudes al audio en un futuro próximo», según indicó YouTube.

YouTube señaló que la herramienta sigue siendo experimental y que están refinando el software. La empresa reconoció que es posible que no muestre todas las instancias de contenido parecido generado por IA y alentó a los participantes a informar sobre fallos a través del sitio de YouTube.

Sin embargo, la detección de audio aún no forma parte de la funcionalidad. YouTube afirma que está trabajando en expandir la detección de similitud de audios en 2026.

La herramienta de detección de similitudes con IA es una extensión de las herramientas de privacidad de YouTube en la era de los deepfakes. En julio de 2024, YouTube actualizó sus políticas de privacidad para permitir a los usuarios solicitar la eliminación de contenido generado por IA que simula su apariencia o voz.

«Si alguien ha utilizado IA para modificar o crear contenido sintético que se parece a usted, puede pedirnos que lo eliminemos. Para ser eliminado, el contenido debe mostrar una versión realista modificada o sintética de su imagen», según las directrices de privacidad actualizadas.

En 2023, YouTube anunció que estaba desarrollando un sistema que permitiría a sus socios musicales solicitar la eliminación de contenidos que «imiten la voz única de canto o rap de un artista».

Esto surge después de varios deepfakes musicales virales en 2023, incluyendo la conocida canción «falso Drake», que acumuló cientos de miles de reproducciones antes de ser retirada por las plataformas mediáticas.

La industria musical en su conjunto ha criticado los deepfakes en los últimos meses. El mes pasado, Sony Music solicitó a las plataformas de streaming la eliminación de más de 135,000 canciones que, según ellos, habían sido creadas por estafadores que utilizaban IA generativa para hacerse pasar por artistas de su lista.

Denis Cuiseur, presidente de actividades digitales globales y ventas en Estados Unidos de Sony Music Entertainment, dijo a la BBC que los «deepfakes» causan «un perjuicio comercial directo a los artistas legítimos… En el peor de los casos, [los deepfakes] podrían dañar una campaña de lanzamiento o dañar la reputación de un artista».

Mientras tanto, Spotify el mes pasado estaba probando una nueva función de membresía que permitía a los artistas revisar y aprobar los lanzamientos elegibles antes de su publicación. Esta decisión está diseñada para dar a los artistas una nueva forma de proteger sus perfiles contra los deepfakes y las atribuciones incorrectas de IA.