El proyecto de reglamento subraya que los datos sujetos a censura en Internet chino no deberían servir como material de formación para estos modelos de IA.
China ha publicado un proyecto de reglamento de seguridad para empresas que brindan servicios de inteligencia artificial (IA) generativa , que incluye restricciones a las fuentes de datos utilizadas para el entrenamiento de modelos de IA.
El miércoles 11 de octubre, las regulaciones propuestas fueron publicadas por el Comité Nacional de Normalización de la Seguridad de la Información, compuesto por representantes de la Administración del Ciberespacio de China (CAC), el Ministerio de Industria y Tecnología de la Información y agencias encargadas de hacer cumplir la ley.
La IA generativa, como lo ejemplifican los logros de ChatGPT de OpenAI , adquiere la capacidad de realizar tareas mediante el análisis de datos históricos y genera contenido nuevo, como texto e imágenes, basado en esta capacitación.
El comité recomienda realizar una evaluación de seguridad del contenido utilizado para entrenar modelos de IA generativa accesibles públicamente. El contenido que supere el “5 % en forma de información ilegal y perjudicial” se incluirá en la lista negra. Esta categoría incluye contenido que defiende el terrorismo, la violencia, la subversión del sistema socialista, el daño a la reputación del país y acciones que socavan la cohesión nacional y la estabilidad social.
Proyecto de reglamento
El proyecto de reglamento también subraya que los datos sujetos a censura en Internet chino no deberían servir como material de formación para estos modelos. Este acontecimiento se produce poco más de un mes después de que las autoridades reguladoras concedieran permiso a varias empresas tecnológicas chinas, incluido el destacado motor de búsqueda Baidu, para presentar al público en general sus chatbots generativos impulsados por IA.
Desde abril, la CAC ha comunicado constantemente su requisito de que las empresas proporcionen evaluaciones de seguridad a los organismos reguladores antes de presentar al público servicios generativos impulsados por IA. En julio, el regulador del ciberespacio publicó un conjunto de directrices que rigen estos servicios , que según los analistas de la industria eran considerablemente menos gravosas en comparación con las medidas propuestas en el borrador inicial de abril.
El borrador de estipulaciones de seguridad recientemente presentado requiere que las organizaciones involucradas en el entrenamiento de estos modelos de IA obtengan el consentimiento explícito de las personas cuyos datos personales, que incluyen información biométrica, se emplean para el entrenamiento. Además, las directrices incluyen instrucciones completas sobre cómo prevenir infracciones relacionadas con la propiedad intelectual.
Las naciones de todo el mundo están luchando con el establecimiento de marcos regulatorios para esta tecnología. China considera la IA como un ámbito en el que aspira a competir con Estados Unidos y ha fijado sus ambiciones en convertirse en un líder mundial en este campo para 2030.