TOKIO.- En los últimos días, se ha observado en X (antes conocido como Twitter) una tendencia creciente entre cuentas oficiales de editoriales, sellos de cómics y creadores de contenido a aplicar modificaciones en sus imágenes para evitar que sean usadas en el entrenamiento de modelos de inteligencia artificial (IA).
Este fenómeno responde a un cambio en las políticas de X, previsto para el 15 de noviembre, que ha llevado a los usuarios a adoptar medidas preventivas.
Muchas empresas ya utilizan marcas de agua y procesamiento de imágenes en las ilustraciones de sus artistas, que se publican para promocionar sus obras, para proteger sus derechos.
Justifican esta medida debido a los cambios en las políticas de X, enfatizando que, aunque las imágenes podrían verse ligeramente borrosas, es necesario para proteger los derechos de los creadores.
La raíz de esta reacción proviene de una actualización anunciada por X a mediados de octubre, donde se indicó que la plataforma podría utilizar los datos públicos de los usuarios, incluyendo imágenes, para entrenar modelos de IA.
En las nuevas políticas, que entrarán en vigor el 15 de noviembre, se aclara que aunque los usuarios mantienen la propiedad de sus contenidos, al publicarlos en X, otorgan a la plataforma una licencia mundial, no exclusiva y libre de regalías, que incluye el derecho a utilizarlos como datos de entrenamiento para modelos de aprendizaje automático, incluyendo IA generativa.
Además, las nuevas políticas de privacidad permiten a X compartir datos de los usuarios con empresas asociadas, para mejorar sus servicios.
Esta política especifica que, si los usuarios no optan por excluirse (opt-out), su información podría ser utilizada para entrenar modelos de IA, independientemente del tipo de IA.
Para los creadores de contenido, este cambio generó una gran preocupación y promovió diversas acciones para proteger sus obras.
Algunos comenzaron a añadir marcas de agua o firmas en sus imágenes, otros optaron por no publicar contenido visual, e incluso hay quienes anunciaron la eliminación de contenido previamente compartido en X.
Esta situación ha causado incertidumbre y, en algunos casos, confusión en la comunidad artística y creativa, particularmente entre ilustradores y creadores de contenido gráfico.
Por otro lado, existe una opción de exclusión (opt-out) dentro de los ajustes de X, que permite a los usuarios negar el uso de sus publicaciones en el entrenamiento de IA.
Esta opción, que aparece en los ajustes de privacidad y seguridad de la cuenta, es una casilla que permite al usuario impedir el uso de sus interacciones, entradas y resultados en el entrenamiento y ajuste de modelos como «Grok». Aunque esta opción está habilitada de manera predeterminada, se recomienda que los usuarios interesados verifiquen su configuración.
En resumen, esta actualización de las políticas de X ha desencadenado una reacción de autoprotección en la comunidad creativa, que teme por el uso no autorizado de sus contenidos en el entrenamiento de IA.
EL DATO
Muchos creadores vienen tomando medidas para proteger sus derechos de autor, y al mismo tiempo, ha generado un debate en torno a los límites éticos del uso de contenido público para fines de inteligencia artificial.
©NoticiasNippon