Multiverse Computing crea un modelo de IA que elimina la censura china
ZIP
A un grupo de físicos cuánticos de Multiverse Computing se le atribuye la creación de DeepSeek R1 Slim, un modelo de IA un 55% más pequeño que elimina la censura china, permitiendo respuestas a preguntas políticamente sensibles.
Multiverse Computing, una empresa española especializada en técnicas de IA inspiradas en la física cuántica, ha desarrollado una versión del modelo de razonamiento DeepSeek R1 que elimina la censura impuesta por sus creadores chinos. Este nuevo modelo, denominado DeepSeek R1 Slim, es un 55% más pequeño, pero mantiene un rendimiento casi equivalente al original. La eliminación de la censura es crucial, ya que en China, las empresas de IA deben cumplir con regulaciones que aseguran que el contenido generado se alinee con las leyes y «valores socialistas». Esto lleva a que los modelos a menudo se nieguen a responder preguntas consideradas «sensibles políticamente» o que proporcionen respuestas alineadas con la propaganda estatal.
Para reducir el tamaño del modelo, Multiverse utilizó un enfoque matemáticamente complejo inspirado en la física cuántica, que emplea redes de cuadrículas de alta dimensión para representar y manipular grandes conjuntos de datos. Esta técnica permite a los investigadores identificar y eliminar información específica con precisión. Tras la compresión y edición del modelo, los investigadores lo ajustaron para que sus respuestas se acercaran lo más posible a las del modelo original.
Para evaluar la efectividad del modelo, los investigadores compilaron un conjunto de alrededor de 25 preguntas sobre temas restringidos en los modelos chinos, incluyendo referencias a memes sobre el presidente Xi Jinping y los sucesos de Tiananmen en 1989. El modelo modificado pudo proporcionar respuestas fácticas comparables a las de modelos occidentales, según Multiverse.
Este trabajo forma parte de un esfuerzo más amplio de Multiverse por desarrollar tecnología que comprima y manipule modelos de IA existentes. La mayoría de los modelos de lenguaje grandes requieren potentes GPU y un considerable poder de cómputo para ser entrenados y ejecutados. Sin embargo, Roman Orús, cofundador y director científico de Multiverse, señala que un modelo comprimido puede ofrecer un rendimiento similar, ahorrando energía y costos.
El interés por hacer los modelos de IA más pequeños y eficientes está en aumento en la industria. Métodos como la destilación y la cuantización intentan capturar las capacidades de modelos más grandes, aunque a menudo no logran igualar el rendimiento en tareas complejas. Maxwell Venetos, ingeniero de investigación de IA en Citrine Informatics, destaca que es un desafío comprimir modelos grandes sin perder rendimiento, y que el enfoque cuántico permite reducir redundancias de manera más precisa.
Además de eliminar la censura de las autoridades chinas, los investigadores de Multiverse podrían inyectar o eliminar otros tipos de sesgos o conocimientos especializados. En el futuro, la empresa planea comprimir todos los modelos de código abierto más importantes. Thomas Cao, profesor asistente de política tecnológica en la Fletcher School de Tufts University, advierte que las afirmaciones de haber eliminado completamente la censura pueden ser exageradas, dado que el gobierno chino ha controlado la información en línea desde el inicio de Internet.
La idea de que las máquinas sean tan inteligentes como los humanos ha capturado a toda una industria. Pero, ¿REALMENTE PODEMOS CONFIAR EN QUE LAS MÁQUINAS SON MÁS INTELIGENTES QUE NOSOTROS?
Fuente: www.technologyreview.com | https://www.technologyreview.com/2025/11/19/1128119/quantum-physicists-compress-and-deconsor-deepseekr1/