Inicio Espectáculos Frente a deepfakes, Youtube despliega una herramienta para ayudar a las estrellas...

Frente a deepfakes, Youtube despliega una herramienta para ayudar a las estrellas de Hollywood a recuperar el control de su imagen.

36
0

Frente a la proliferación de contenidos falsos que presentan a celebridades, Youtube lanza una herramienta que permite a las figuras públicas detectar y denunciar los videos que utilizan su imagen y son generados por IA. El dispositivo ya estaba disponible para cineastas, políticos y periodistas.

Brad Pitt y Tom Cruise listos para pelear. Al menos eso es lo que intentó hacernos creer un video generado por inteligencia artificial y ampliamente difundido en redes sociales en febrero pasado.

En este fragmento de unos quince segundos, las dos estrellas de cine estadounidense pelean a puñetazos en el techo de un edificio en ruinas. Una escena ultra realista, probablemente inspirada en otras películas, pero totalmente falsa. Como otros antes que ella, este video generado por inteligencia artificial sirvió como un llamado de atención en Hollywood.

Proteger los ingresos de las figuras públicas

Frente a la proliferación de estos deepfakes, Youtube pretende ofrecer una solución, según informa The Hollywood Reporter. La plataforma, propiedad de Google, ahora abre su herramienta para detectar y denunciar deepfakes que utilizan la imagen de figuras públicas a un público más amplio.

Youtube comenzó a probar la herramienta a fines de 2024. Hasta ahora, el dispositivo solo estaba disponible para creadores influyentes, políticos y periodistas. Ahora está accesible para actores, músicos o atletas, ya sea que tengan un canal de Youtube o no.

«Veo esto como una responsabilidad fundamental», explica Mary Ellen Coe, directora comercial de Youtube, a los medios de comunicación estadounidenses. «Para las figuras públicas, las celebridades, la imagen y la reputación son fundamentales para sus ingresos.»

El funcionamiento es simple. La figura pública, o su equipo, envía su imagen a la plataforma. Esta luego analiza los videos publicados para detectar posibles imitaciones. Los contenidos identificados pueden mantenerse en línea o ser solicitados para su eliminación, según la voluntad de la celebridad correspondiente.

La herramienta de Youtube está inspirada en Content ID, su sistema de identificación de contenidos protegidos por derechos de autor cargados en sus servidores. Por lo tanto, no garantiza la eliminación automática de los contenidos. Las parodias y sátiras seguirán siendo permitidas, de acuerdo con las reglas de la plataforma. Sin embargo, los videos considerados engañosos, que contienen un «engaño realista y significativo» o que puedan reemplazar directamente el trabajo de un artista, podrán ser eliminados.

Frente a deepfakes, Youtube despliega una herramienta para ayudar a las estrellas de Hollywood a recuperar el control de su imagen.
Fin de Sora, OpenAI revoit sa stratégie – 07/04

«Si alguien reproduce de manera idéntica una obra que pueda afectar los ingresos de una celebridad, un actor o un creador, porque es un reemplazo puro y simple de contenido, eso podría dar lugar a una solicitud de eliminación», agrega Mary Ellen Coe. Sin embargo, la frontera sigue siendo difusa, especialmente para las creaciones de fans, como los trailers ficticios, que son cada vez más comunes.

Una tecnología que cambia de escala

En pocos meses, los deepfakes han dejado de ser solo una curiosidad para convertirse en un asunto industrial. La imagen viral del papa Francisco con una chaqueta acolchada quedó grabada en la memoria. Pero los usos recientes han dado un paso más allá.

El otoño pasado, OpenAI lanzó Sora, una herramienta de generación de video que se volvió viral rápidamente. En cuestión de días, las redes sociales se vieron inundadas de videos generados por IA que mostraban a figuras conocidas, incluido Martin Luther King Jr. La empresa finalmente suspendió la generación de videos que imitaban al difunto activista de los derechos civiles. La aplicación de videos cortos ha sido cerrada desde entonces por OpenAI.

Unos meses después, nuevamente. Los falsos videos de peleas entre estrellas se multiplican gracias a Seedance 2, la herramienta de IA desarrollada por Bytedance. «En un solo día, el servicio de IA chino Seedance 2.0 se involucró en un uso no autorizado de obras protegidas por derechos de autor estadounidenses de manera masiva», señala Charles Rivkin, presidente de la Motion Picture Association. En la industria, algunos hablan ahora de un «momento de pánico».

Seedance, l’IA chinoise qui terrifie Hollywood – 17/02

A pesar de los riesgos, Hollywood no descarta completamente estas tecnologías. Algunas agencias como Creative Artists Agency invierten en empresas especializadas en deepfakes, apostando por sus usos creativos. Especialmente, la proliferación de trailers de fans que muestran deepfakes de estrellas es bien recibida en la industria.

¿Qué pasa con la monetización?

«Sé que no es ideal, pero también es emocionante, porque significa que hay demanda y que la gente quiere venir a interactuar con la película», observa Pam Abdy, copresidenta de Warner Bros. Pictures. Según Youtube, durante el programa piloto de su herramienta de detección de deepfakes, los creadores solo solicitaron la eliminación de un pequeño porcentaje de los contenidos denunciados.

Queda una pregunta sin respuesta: la de la monetización. Gracias a Content ID, los titulares de derechos de autor pueden solicitar la eliminación, la demostración de derechos o la monetización de videos falsos compartiendo los ingresos con el autor de la publicación. En un mundo donde la imagen es una propiedad intelectual, ¿las celebridades podrán, a largo plazo, ganar dinero con los deepfakes creados por sus propios fans?

Un video creado por fans mientras esperan el trailer oficial de Avengers Doomsday

Por ahora, Youtube no incorpora esta posibilidad, favoreciendo un enfoque centrado en la protección. «Realmente debemos centrarnos en este fundamento de responsabilidad y protección, y luego pensaremos en los titulares de derechos y la monetización», explica Mary Ellen Coe. «Pero por ahora, lo fundamental radica en este nivel de responsabilidad».

Los agentes, managers y abogados obviamente anticipan el futuro, especialmente debido a la complejidad de la monetización de la imagen a través de los deepfakes. «Es una cosa hablar de un video que presenta a un talento en particular, pero es diferente hablar de un video con dos talentos diferentes, uno de acuerdo y el otro no, o de una estrella consagrada y una estrella emergente», aclara Alex Shannon, director de desarrollo estratégico en CAA.

Incluso la agencia ofrece un servicio llamado «CAA Vault», que conserva las imágenes de sus clientes para futuras oportunidades de monetización.