Tendencias

Los G7 crearán un grupo de estudio para el uso responsable de la Inteligencia Artificial

La estrategia de Canadá, Francia, Alemania, Italia, Japón, Reino Unido y Estados Unidos sobre el uso, riegos y la desinformación de la IA.
2 minutos

En la última cumbre celebrada en Hiroshima (Japón), los mandatarios del G7 informaron que se llegó a un acuerdo para establecer un grupo de trabajo que ayude al desarrollo del uso responsable, conocimiento de riesgos y la desinformación de la Inteligencia Artificial (IA).

Según el informe publicado por los representantes de los países de la G7, esta estrategia se hace con el fin de debatir sobre la IA generativa a finales de año. ChatGPT, Bard (Google), entre otros, son los programas de Inteligencia Artificial que están experimentando un crecimiento significativo, convirtiéndose en los más reconocidos en la actualidad.

¿De qué trata la estrategia de los G7 con la IA?

Ellos reconocen la importancia de los procedimientos que promueven la transparencia, la apertura, los procesos equitativos, la imparcialidad, el respeto a la privacidad y la inclusión para fomentar una IA responsable.

El grupo de trabajo discutirá acerca de temas como “gobernanza, la protección de los derechos de propiedad intelectual” y el “uso responsable” de estas nuevas tecnologías. Se abordará la forma de contrarrestar la “manipulación de información” y la “desinformación” mediante el uso de estas herramientas.

Y finalmente, se destacó el compromiso de avanzar en enfoques múltiples para desarrollar normas en torno a la IA, siempre dentro del marco de marcos jurídicos vinculantes.