OpenAI anuncia una herramienta para proteger a los creadores de contenido

En respuesta a las crecientes preocupaciones sobre el uso de contenido protegido por derechos de autor en el entrenamiento de modelos de inteligencia artificial, OpenAI ha anunciado el desarrollo de la herramienta Media Manager, la cual permitirá a los creadores de contenido tener un mayor control sobre cómo se utiliza su trabajo en la investigación y entrenamiento de IA generativa.

¿Qué es Media Manager?

Media Manager es una herramienta que permitirá a los creadores de contenido administrar sus obras en los sistemas de OpenAI y especificar cómo desean que estos se incluyan o excluyan de los procesos de entrenamiento de IA. OpenAI prevé que la herramienta estará completamente implementada para 2025, trabajando en colaboración con creadores de contenido y reguladores para establecer un estándar viable. 

Este movimiento de OpenAI surge en medio de críticas crecientes por su enfoque de utilizar datos disponibles públicamente para entrenar sus modelos de IA. Recientemente, varios periódicos estadounidenses, incluido el Chicago Tribune, demandaron a OpenAI por infracción de propiedad intelectual, alegando el uso no autorizado de artículos para entrenar modelos de IA que luego fueron comercializados sin compensar a las publicaciones originales.

Reconociendo la necesidad de un balance, OpenAI ha implementado medidas para satisfacer las demandas de los creadores de contenido. El año pasado, permitió a los artistas optar por no participar y eliminar sus obras de los conjuntos de datos utilizados para entrenar modelos de generación de imágenes. Además, los propietarios de sitios web pueden usar el estándar robots.txt para indicar si el contenido puede ser extraído para la capacitación de IA. OpenAI también ha firmado acuerdos de licencia con grandes propietarios de contenido, incluyendo organizaciones de noticias y bibliotecas de medios.

Pese a estos esfuerzos, algunos creadores de contenido consideran que OpenAI aún no ha hecho lo suficiente. El proceso para optar por no participar en la eliminación de imágenes es visto como tedioso, y las compensaciones por la licencia de contenido son consideradas insuficientes. Además, las soluciones actuales no abordan completamente situaciones donde las obras son citadas, remezcladas o republicadas en plataformas no controladas por los creadores originales.

¿Cómo será el futuro para los creadores de contenido?

Actualmente varias startups y proyectos universitarios han comenzado a trabajar en soluciones complementarias con el fin de proteger los derechos del autor. Spawning AI, en colaboración con Stability AI y Hugging Face, ofrece aplicaciones para rastrear y bloquear intentos de scraping, además de bases de datos donde los artistas pueden registrar sus obras. Steg.AI e Imatag aplican marcas de agua imperceptibles para establecer la propiedad de las imágenes, mientras que el proyecto Nightshade de la Universidad de Chicago “envenena” datos de imágenes para que sean inútiles o perjudiciales para el entrenamiento de modelos de IA.

Gracias al desarrollo de múltiples proyectos y de la herramienta Media Manager anunciada por OpenAI, el uso de contenido será más ético y controlado en el entrenamiento de modelos de IA. Los creadores de contenido tienen la posibilidad de optar por no participar junto a su contenido en el entrenamiento de modelos de inteligencia artificial.

A medida que avanzamos hacia un futuro donde la inteligencia artificial jugará un papel cada vez más importante en nuestras vidas, es crucial encontrar un equilibrio que respete y proteja los derechos de los creadores, mientras se fomenta la innovación y el desarrollo tecnológico. Media Manager podría ser la herramienta que marque la diferencia, estableciendo nuevos estándares en la interacción entre la IA y los creadores de contenido.

Sigue nuestro trabajo en:

Comparte en: