China tomó una postura firme en la regulación de la inteligencia artificial, implementando un riguroso proceso de auditoría y aprobación para los grandes modelos de IA desarrollados por las empresas tecnológicas del país. Este proceso, supervisado por la Administración del Ciberespacio de China (CAC, por sus siglas en inglés), tiene como objetivo garantizar que los modelos de IA no generen respuestas incómodas para las altas esferas de Pekín y que alineen sus respuestas con los valores socialistas promovidos por el régimen.
Auditorías estrictas y control de contenidos
Un equipo de funcionarios de la CAC revisa minuciosamente los modelos de IA, sometiéndolos a una serie de preguntas, muchas de las cuales tienen una carga política significativa. Estos funcionarios buscan identificar y eliminar cualquier posible respuesta que pueda ser considerada sensible o problemática para el gobierno chino.
Empresas como ByteDance, Alibaba, Moonshot y 01.AI se encuentran entre las afectadas por estas auditorías, según información del Financial Times.
Asimismo, el proceso de auditoría puede resultar extenso y complejo. Un empleado de una empresa en Hangzhou describió cómo los funcionarios se instalan en las salas de reuniones de las compañías para examinar los modelos.
«La primera vez no lo aprobamos, no nos dieron razones muy claras. Por lo que tuvimos que hablar con colegas del sector.Tocó un poco de prueba y error. Lo aprobamos a la segunda, aunque todo el procedimiento puede durar meses», comentó el trabajador.
Regulación de contenidos
Fruto de estas auditorías, chatbots populares en China, como el de Baidu, son capaces de esquivar preguntas comprometedoras para el régimen. Tales como eventos del 4 de junio de 1989 (la masacre de Tiananmén) o comparaciones del presidente Xi Jinping con Winnie-the-Pooh.
Sin embargo, los funcionarios del CAC exigen que los chatbots no eludan responder más del 5% de las preguntas. Garantizando así que estos modelos no ignoren por completo las consultas de los usuarios.
Además de auditar los modelos de IA, la CAC también supervisa regulaciones sobre deepfakes y el etiquetado de contenidos generados por IA, responsabilizando a las personas por las acciones de estos modelos. Pekín estableció directrices claras para que los generadores de texto por IA respeten los «valores socialistas» y no socaven la unidad nacional.
Enfoque occidental
El enfoque de China contrasta con el de la Unión Europea, que recientemente aprobó su propio Reglamento de la Inteligencia Artificial. Catalogando los sistemas de IA en función del riesgo que representan. Mientras que la UE busca equilibrar la regulación con la innovación, China aplica una censura directa para asegurar la alineación de la IA con los valores del partido.
En Occidente, las auditorías de IA en grandes multinacionales como Meta son generalmente voluntarias y se realizan internamente para asegurar la seguridad y evitar la polarización o los ataques terroristas. Los modelos de IA occidentales no están obligados a adherirse a valores políticos específicos.