¿Tiene la IA ya una inteligencia de nivel humano? La evidencia es clara

La visión de una inteligencia artificial de nivel humano planteada por Alan Turing en la década de 1950 es ahora una realidad. Observar sin el sesgo del miedo o el bombo publicitario nos ayudará a prepararnos para lo que viene.

Por Eddy Keming Chen, Mikhail Belkin, Leon Bergen y David Danks

En 1950, en un artículo titulado «Computing Machinery and Intelligence», Alan Turing propuso su «juego de imitación». Hoy conocido como el test de Turing, abordaba una pregunta que parecía puramente hipotética: ¿podrían las máquinas mostrar el tipo de competencia cognitiva flexible y general característica del pensamiento humano, de tal manera que pudieran hacerse pasar por humanos ante personas desprevenidas?

Tres cuartos de siglo después, la respuesta parece ser «sí». En marzo de 2025, el modelo de lenguaje extenso (LLM) GPT-4.5, desarrollado por OpenAI en San Francisco, California, fue juzgado por humanos en un test de Turing como humano el 73% de las veces, con más frecuencia que los propios humanos reales. Además, los lectores incluso prefirieron textos literarios generados por LLM sobre aquellos escritos por expertos humanos.

Esto no es todo. Los LLM han logrado un rendimiento de medalla de oro en la Olimpiada Internacional de Matemáticas, han colaborado con matemáticos destacados para demostrar teoremas, han generado hipótesis científicas validadas en experimentos, han resuelto problemas de exámenes de doctorado, han asistido a programadores profesionales, han compuesto poesía y mucho más, incluyendo chatear las 24 horas del día con cientos de millones de personas. En otras palabras, los LLM han mostrado muchos signos de esa competencia cognitiva amplia y flexible que era el foco de Turing: lo que ahora llamamos «inteligencia general», aunque Turing no usara el término.

Sin embargo, muchos expertos se resisten a decir que los modelos actuales muestran una Inteligencia Artificial General (AGI), y algunos dudan que alguna vez lo hagan. Una encuesta de marzo de 2025 de la Asociación para el Avance de la Inteligencia Artificial encontró que el 76% de los investigadores principales pensaba que escalar los enfoques actuales «probablemente no» o «muy probablemente no» produciría AGI.

¿A qué se debe esta desconexión? Sugerimos que el problema es en parte conceptual, porque las definiciones de AGI son ambiguas; en parte emocional, porque la AGI despierta el miedo al desplazamiento; y en parte práctico, ya que el término está enredado con intereses comerciales. Vale la pena abordar el concepto de manera más desapegada: como una pregunta sobre la inteligencia, más que como una preocupación sobre el caos social.

Al escribir este comentario desde diversas perspectivas —filosofía, aprendizaje automático, lingüística y ciencia cognitiva— llegamos a un consenso: una vez que se aclaran ciertas confusiones y se evitan los sesgos antropocéntricos, la conclusión es directa: según estándares razonables, incluidos los de Turing, ya tenemos sistemas artificiales que son generalmente inteligentes. El problema histórico de crear la AGI ha sido resuelto. Reconocer este hecho es vital para la política, el riesgo y nuestra comprensión de la mente.

Cuestiones de definición

Asumimos que los humanos tienen inteligencia general. Pero, ¿cómo la caracterizamos? Una definición común es un sistema que puede realizar casi todas las tareas cognitivas que un humano puede hacer. Sin embargo, la frase «un humano» oculta una ambigüedad: ¿se refiere a un experto de élite o a un humano promedio? Marie Curie era experta en física, pero no en teoría de números. Einstein no hablaba mandarín.

Una definición que excluye a casi todos los humanos no es una definición de inteligencia general. Esta se trata de tener suficiente amplitud (múltiples dominios como matemáticas, lenguaje, ciencia) y profundidad (fuerte rendimiento en esos dominios).

Nuestra conclusión: en la medida en que los individuos humanos poseen inteligencia general, los LLM actuales también la tienen.

Lo que la inteligencia general NO es

Podemos identificar cuatro rasgos que no son requisitos:

  1. Perfección: No esperamos que cada físico sea Einstein. La inteligencia humana no requiere perfección; la AGI tampoco.
  2. Universalidad: Ningún humano puede hacer toda tarea cognitiva (como ver el espectro electromagnético como algunos insectos). La AGI no necesita una amplitud universal perfecta.
  3. Similitud humana: La inteligencia es una propiedad funcional que puede realizarse en diferentes sustratos. No exigiríamos a un alienígena inteligente que replique la arquitectura cognitiva humana; no deberíamos exigírselo a una máquina.
  4. Superinteligencia: A menudo se confunde con la AGI. La superinteligencia excede con creces al humano en todas las áreas. Ningún humano cumple este estándar, por lo que no debe ser requisito para la AGI.

Una cascada de evidencia

Evaluamos la inteligencia en otros humanos a través de su comportamiento y resolución de problemas. Lo mismo aplica a los sistemas artificiales mediante una cascada de evidencia:

  • Nivel Test de Turing: Marcadores comparables a una educación escolar básica. Hace una década, esto habría sido evidencia suficiente.
  • Nivel Experto: Medallas en olimpiadas, exámenes de doctorado, programación compleja y fluidez en idiomas. Estos logros superan muchas representaciones de AGI en la ciencia ficción. El ordenador HAL 9000 de la película 2001: Una odisea del espacio tenía menos amplitud que los LLM actuales.
  • Nivel Sobrehumano: Descubrimientos científicos revolucionarios. Esto no es necesario para declarar la existencia de AGI, porque ningún humano lo muestra de forma constante en todos los dominios.

La visión de Turing realizada

Los LLM actuales ya cubren los dos primeros niveles. Las explicaciones alternativas —que son solo «tablas de consulta» o «loros estocásticos»— se ven cada vez más refutadas a medida que resuelven problemas matemáticos inéditos o asisten en investigaciones de vanguardia.

A continuación, examinamos diez objeciones comunes:

  1. «Solo son loros»: Se dice que solo recombinan datos. Pero los modelos actuales resuelven problemas nuevos de matemáticas y física. Si exigimos descubrimientos nivel Einstein para negarles inteligencia, estamos poniendo el listón donde pocos humanos llegan.
  2. «Carecen de modelos del mundo»: Solo necesitan predecir qué pasaría si las circunstancias cambiaran. Si le preguntas a un LLM qué pasa si dejas caer un vaso sobre baldosas, predecirá correctamente que se rompe. Ya poseen modelos funcionales de principios físicos.
  3. «Solo entienden palabras»: Los modelos actuales son multimodales (imágenes, video). Además, el lenguaje captura conocimiento sobre la realidad que aplican a tareas no lingüísticas, como diseñar experimentos biológicos.
  4. «No tienen cuerpo»: Esto es un sesgo antropocéntrico. Atribuiríamos inteligencia a un alienígena que solo se comunica por radio. Stephen Hawking interactuaba casi solo mediante texto, y eso no disminuía su inteligencia.
  5. «Carecen de agencia»: La inteligencia no requiere autonomía. El Oráculo de Delfos era inteligente aunque solo respondiera cuando se le consultaba.
  6. «No tienen sentido del yo»: No negamos inteligencia a humanos con amnesia profunda. La memoria autobiográfica es clave para la sociedad, pero no constitutiva de la inteligencia.
  7. «Aprenden de forma ineficiente»: Los LLM necesitan billones de datos, los niños pocos. Pero la eficiencia no define el nivel de inteligencia; un maestro de ajedrez que tarda diez años en aprender es tan bueno como uno que tarda uno.
  8. «Alucinan»: Los humanos también son propensos a sesgos cognitivos e ilusiones perceptivas.
  9. «No generan beneficios económicos»: La capacidad económica es una aplicación de la inteligencia, no un requisito. Ha habido genios sin éxito económico.
  10. «Su inteligencia es ‘alienígena'»: Fallan en tareas triviales (como contar letras en una palabra) pero brillan en niveles de doctorado. Esto es razón para ampliar nuestro concepto de inteligencia, no para negarla.

Por qué esto importa

Reconocer que la AGI ya está aquí es una llamada de atención. Las preguntas sobre responsabilidad, legislación y gobernanza adquieren dimensiones nuevas. Los métodos convencionales de gobernanza no funcionarán porque la AGI es general y puede usarse en casi cualquier lugar.

Por primera vez en la historia, no estamos solos en el espacio de la inteligencia general. Comprender esta inteligencia «alienígena» nos ayudará a trabajar con ella y prepararnos para lo que sigue.

Hace solo cinco años no teníamos AGI; ahora sí. Es notable, porque somos testigos de la revolución tecnológica más significativa de la historia. Y es preocupante, porque los tiempos se están comprimiendo más allá de cualquier precedente.

Nicolás Copérnico desplazó a los humanos del centro del cosmos. Darwin nos desplazó de un lugar privilegiado en la naturaleza. Turing sugirió que no somos la única forma de ser inteligentes. Las máquinas que imaginó hace 75 años finalmente han llegado. Esta revolución nos invita a aceptar que existen más tipos de mentes de las que habíamos imaginado. Nuestro lugar en el mundo no volverá a ser el mismo.

TRADUCIÓN DEL Articulo original en Nature
Artículo traducido por Gemini

 

 

Otras entradas que te pueden interesar