Andrej Karpathy: La IA actual son ‘fantasmas digitales’ que no imitan cerebros

Andrej Karpathy, cofundador de OpenAI, critica la percepción optimista sobre la inteligencia artificial, afirmando que los sistemas actuales son meras imitaciones de patrones humanos. En una reciente entrevista, predice que la AGI funcional no llegará antes de 2035.

En una extensa conversación con Dwarkesh Patel, Karpathy ofrece una visión radicalmente distinta sobre el estado actual de la IA. A diferencia de muchos expertos que proyectan un futuro brillante y cercano para la inteligencia artificial, él sostiene que los sistemas actuales son lo que él denomina «fantasmas digitales». Según Karpathy, estas entidades no son cerebros en evolución como los de los animales, sino simples imitaciones de patrones humanos que carecen de una comprensión real.

La predicción de Karpathy es clara: la AGI (Inteligencia General Artificial) funcional no llegará antes de 2035. Este pronóstico contrasta con las expectativas de otros en el campo, que sugieren que podríamos ver avances significativos mucho antes. La importancia de esta afirmación radica en que las comparaciones entre la IA y los cerebros biológicos están dominando el discurso técnico y orientando muchas decisiones de inversión. Karpathy argumenta que esta analogía es «engañosa» y genera expectativas irreales sobre lo que la IA puede lograr en el corto plazo.

Con una experiencia de cinco años dirigiendo la conducción autónoma en Tesla, Karpathy ha adquirido una perspectiva única sobre la brecha que existe entre las demostraciones espectaculares de tecnología y los productos realmente funcionales. A diferencia de los animales, que evolucionan durante millones de años y desarrollan instintos codificados en su ADN, los modelos de lenguaje actuales aprenden imitando texto de internet sin anclar ese conocimiento en un cuerpo o experiencia física. «No estamos construyendo animales», afirma Karpathy. «Estamos construyendo entidades etéreas que simulan comportamiento humano sin comprenderlo realmente».

Uno de los problemas que Karpathy señala es el aprendizaje por refuerzo (RL), que considera «terrible» en su forma actual. Este método recompensa trayectorias completas en lugar de pasos individuales. Por ejemplo, si un modelo resuelve un problema tras cien intentos erróneos, el sistema refuerza todo el camino, incluidos los errores. A diferencia de los humanos, que reflexionan sobre cada paso y ajustan su enfoque, los modelos de IA carecen de esta capacidad de reflexión.

Karpathy también menciona el fenómeno del «colapso de entropía». Cuando los modelos generan datos sintéticos para autoentrenarse, producen respuestas que ocupan un espacio muy pequeño de posibilidades. Por ejemplo, si se le pide a ChatGPT que cuente un chiste, es probable que obtengas tres variantes repetidas. Esta falta de diversidad en las respuestas se debe a que los modelos recuerdan perfectamente, lo que les permite recitar información de Wikipedia, pero les impide razonar más allá de los datos memorizados.

Entre líneas, Karpathy ha observado que herramientas como Claude Code y los agentes de OpenAI resultaron inútiles para resolver problemas de código complejo durante el desarrollo de nanochat. Estas herramientas funcionan bien con código repetitivo que abunda en internet, pero fallan ante arquitecturas nuevas. «Las empresas generan slop», ha declarado Karpathy, sugiriendo que tal vez lo hacen para levantar financiación.

Finalmente, su propuesta para el futuro de la IA es construir modelos de mil millones de parámetros, que son enanos en comparación con los más utilizados hoy en día, pero que estén entrenados con datos impecables que contengan algoritmos efectivos. Esta visión podría ser un paso hacia la creación de una inteligencia artificial más robusta y menos dependiente de las limitaciones actuales.


Curación de la noticia y fotografía original publicadas en Xataka.com
Fuente original: https://www.xataka.com/robotica-e-ia/fundador-openai-dice-que-ia-no-imita-cerebros-estamos-construyendo-fantasmas


Deja un comentario