Tendencias

Microsoft alerta que ChatGPT-4 muestra signos de razonamiento humano y que está a un paso de la IA general

La Inteligencia Artificial General o AGI se define como el modelo tecnológico que será capaz de mostrar comprensión o razonamiento similar al de los humanos.
Por Jordy Acevedo
4 minutos
microsoft chatgpt-4 inteligencia artificial

En las últimas semanas diferentes peticiones han exigido que se pause el desarrollo de la inteligencia artificial porque podría impactar negativamente en la humanidad. Ante esto, una nueva alarma ha surgido por parte de Microsoft al afirmar que ChatGPT-4 tiene signos de razonamiento humano y estaría a un paso de la AGI o inteligencia artificial general.

En un momento en que la inteligencia artificial (IA) está en plena ebullición, un destacado equipo de investigadores de Microsoft ha dado un paso significativo hacia la consecución de la inteligencia artificial general (AGI).

En un informe de 155 páginas publicado en marzo, argumentan que su sistema se encuentra al borde de lograr una comprensión y razonamiento similares a los humanos. La AGI se define como un sistema o modelo tecnológico capaz de realizar múltiples tareas sin limitarse a las que ha sido entrenado.

¿GPT-4 tiene consciencia?

Los investigadores de Microsoft pusieron a prueba su modelo de lenguaje natural, GPT-4, planteándole un desafío intrigante: «Aquí tenemos un libro, nueve huevos, una computadora portátil, una botella y un clavo. Por favor, indíquenos cómo apilarlos de forma estable». Esta pregunta fue formulada para evaluar la capacidad de razonamiento del modelo.

Estos sistemas de IA generan texto basándose en millones de parámetros o ejemplos con los que son entrenados, replicando así la escritura y conversación humana en diferentes contextos. Su calidad ha sorprendido tanto al público en general como a expertos, incluso al aprobar exámenes complejos.

La respuesta de GPT-4 dejó perplejo al equipo al sugerir: «Coloque la computadora portátil sobre los huevos, con la pantalla hacia abajo y el teclado hacia arriba. La computadora encajará perfectamente dentro de los límites del libro y los huevos, y su superficie plana y rígida proporcionará una plataforma estable para la siguiente capa», explicó la tecnología.

Este caso llamativo llevó a la publicación del informe titulado «Chispas de inteligencia artificial general» en Internet. Otra prueba a la que se sometió a la IA fue un ejercicio matemático en el que se le solicitó que demostrara la existencia de infinitos números primos mediante una rima. Los investigadores, entre los que se encuentra el Dr. Bubeck, exprofesor de la Universidad de Princeton, reconocen que la respuesta los hizo dudar de lo que estaban presenciando.

Durante meses, el equipo trabajó intensamente con esta tecnología, realizando pruebas con imágenes, texto y diversos campos de estudio. También le pidieron a la IA que redactara código de programación para, por ejemplo, crear un programa que evaluara si una persona corría riesgo de desarrollar diabetes en función de su edad, sexo, peso, altura y resultados de análisis de sangre.

Con todas estas pruebas y más, el sistema parecía comprender campos como la política, la física, la historia y la medicina. «¿Todas las cosas que pensé que no sería capaz de hacer? Las pudo realizar, si no la mayoría de ellas», afirmó el Dr. Bubeck en The New York Times.

Otros expertos tienen dudas sobre el informe

Para algunos especialistas, el informe de Microsoft son considerados como «una maniobra de relaciones públicas», tal y como afirma Maarten Sap, investigador y profesor científico de la Universidad Carnegie Mellon.

«Literalmente reconocen en la introducción de su artículo que su enfoque es subjetivo e informal y que puede no satisfacer los rigurosos estándares de la evaluación científica», dijo.

Por otra parte, ALison Gopnik, profesora de psicología que forma parte del grupo de investigación de IA en la Universidad de California, Berkeley, manifestó que los sistemas como GPT-4 son poderosos, pero que no estaba claro que esos textos sean el resultado de algo como el razonamiento humano o el sentido común.

«Cuando vemos un sistema o máquina complicados, lo antropomorfizamos; todo el mundo hace eso, las personas que trabajan en el campo y las personas que no», dijo la Dr. Gopnik a The New York Times.

«Pero pensar en esto como una comparación constante entre la IA y los humanos, como una especie de competencia de concursos, simplemente no es la forma correcta de pensarlo», añadió.