Saltar al contenido

China hace cumplir nuevas reglas sobre el etiquetado de contenido generado por IA

VCG

Las nuevas regulaciones de China sobre el etiquetado de contenido generado por inteligencia artificial (AIGC) entraron en vigencia oficialmente el lunes.

Emitida conjuntamente por la Administración del Ciberespacio de China (CAC) y otros tres departamentos, las reglas estipulan que todos los textos, imágenes, audio, video, videos, escenas virtuales y otro contenido generados por IA deben etiquetarse explícita o implícitamente en plataformas de difusión.

Se requieren plataformas para revisar el contenido antes del lanzamiento, identificar marcadores AIGC y agregar avisos de riesgo a AIGC no identificado o sospechoso para frenar la propagación de información falsa, según las regulaciones.

Zhang Jiyu, director ejecutivo del Renmin Law and Technology Institute de la Universidad Renmin de China, dijo a China Media Group que las regulaciones describen tres niveles de revisión.

«Si las plataformas detectan marcadores implícitos de los metadatos de contenido, pueden etiquetarlas como generadas por IA. Sin embargo, si las plataformas simplemente infieren a través de algunos algoritmos que los contenidos son generados por AI, el contenido debe etiquetarse como sospecha de AIGC», dijo Zhang.

Dado que las limitaciones tecnológicas actuales pueden dar como resultado que algún contenido original se marcara erróneamente como generado por IA, Zhang enfatizó la necesidad de mecanismos para salvaguardar los derechos de los creadores.

China ha endurecido las regulaciones sobre el mal uso de la IA este año. En abril, el CAC lanzó una campaña de tres meses de práctica de orientación como el intercambio de caras de IA, la imitación de voz de IA y el fracaso para etiquetar el contenido generado por la IA. En junio, el CAC informó que más de 3,500 productos problemáticos de IA, incluidos miniprogramas, aplicaciones y agentes, habían sido manejados, más de 960,000 piezas de información ilegal o dañina eliminada, y alrededor de 3.700 cuentas tratadas.

El impulso para el etiquetado de IA generativo se ha convertido en un consenso global. China fue uno de los primeros en legislar en esta área: las disposiciones sobre la administración de una síntesis profunda de los servicios de información basados ​​en Internet, que entró en vigencia en 2023, fue una de las primeras regulaciones del mundo para exigir explícitamente el etiquetado de IA generativa.

Algunos comparan la IA con la caja de Pandora, ofreciendo oportunidades ilimitadas pero también riesgos impredecibles.

«Nuestra situación actual es como alguien que mantiene a un tigre como mascota», dijo Geoffrey Hinton, conocido como el padrino de AI, en un discurso en la Conferencia Mundial de IA en Shanghai en julio. «Un cachorro de tigre puede ser una linda mascota, pero si continúas guardándola, debes asegurarte de que no te mata cuando crezca».

«En términos generales, mantener a un tigre como mascota no es una buena idea, pero si mantienes un tigre, solo tienes dos opciones: capacitarlo para que no te ataques o elimínelo», explicó. «Para AI, no tenemos forma de eliminarlo».