A Fondo
La automejora recursiva de la IA o cuando la inteligencia artificial se mejora a sí misma
La automejora recursiva de la IA (RSI por sus siglas en inglés) es un concepto que está implícito en el desarrollo de la inteligencia artificial. En su definición más estricta, los investigadores utilizan el término para describir sistemas que pueden mejorar no solo sus resultados, sino también el proceso mediante el cual mejoran: generar ideas, evaluar resultados y modificar sus propios métodos. Y todo ello, en el futuro, sin intervención humana.
Y es que el campo de la inteligencia artificial se construyó sobre la premisa de que las máquinas podrían algún día perfeccionarse a sí mismas. El matemático inglés I. J. Good escribió en 1966 que «una máquina ultrainteligente podría diseñar máquinas aún mejores». En ese momento se produciría lo que llamó «explosión de inteligencia de la IA» donde la inteligencia humana quedaría rezagada.
Según a quien preguntes, RSI se ve como algo deseable para avanzar o temible porque llegará un momento en que la IA quede fuera de cualquier control humano, como hemos visto en películas de ciencia ficción. En lo que sí parece haber mayor consenso es que RSI es -para bien o mal- inevitable en el futuro. Los enormes avances en IA de los últimos años plantean la cuestión de si parte de ese proceso de automejora ya está en marcha y en qué nivel se encuentra. IEEE Spectrum ha publicado un artículo de situación que nos pone sobre la pista.
La automejora recursiva de la IA (hacia la superación personal)
Los investigadores llevan tiempo implementando elementos de RSI. Los algoritmos de aprendizaje automático (ML) ajustan automáticamente los parámetros de los programas que pueden ejecutar juegos o incluso crear nuevos programas. Los métodos de ML, denominados algoritmos evolutivos, diversifican e interactuan sobre las soluciones de diseño, incluyendo otros algoritmos. Durante la última década, «AutoML» ha automatizado aspectos del proceso en el que se estructuran, entrenan y evalúan modelos de ML, como las redes neuronales.
Hoy en día, los grandes modelos extensos de lenguaje (LLM, por sus siglas en inglés), como GPT, Gemini, Claude y Grok, perpetúan esta tendencia. Uno de sus principales usos es la escritura de código, incluyendo el necesario para generar futuras versiones de sí mismos. OpenAI informó que GPT-5.3-Codex fue fundamental para su propia creación, ayudando a depurar el entrenamiento, gestionar la implementación y analizar los resultados de la evaluación. Anthropic afirma que la mayor parte de su código ahora es escrito por Claude Code. Estos sistemas aún dependen de la intervención humana para dirigir y verificar el trabajo.
El año pasado, Google DeepMind anunció AlphaEvolve, un sistema que funciona como agente de codificación para el descubrimiento científico y algorítmico. Utiliza modelos de lógica descriptiva para guiar la evolución de soluciones, como la optimización de arquitecturas de redes neuronales, la planificación de centros de datos y el diseño de chips. No se trata de un ciclo completamente recursivo, ya que aún es necesario definir qué problemas debe resolver AlphaEvolve y cómo evaluar su rendimiento. Sin embargo, cada avance científico potencia la capacidad de los investigadores para lograr nuevos descubrimientos en inteligencia artificial.
Los responsables del sistema de diseño de chips anterior de Google DeepMind, lanzaron una startup llamada Ricursive Intelligence para usar inteligencia artificial en el diseño de chips de IA. «Esperamos poder reducir drásticamente el ciclo de diseño de uno o dos años a días». La Fase 1 consiste en ayudar a los diseñadores humanos. La Fase 2 consiste en automatizar el proceso para empresas que no tienen diseñadores internos. En la Fase 3, la empresa utilizará automejora recursiva de la IA para diseñar mejores chips y entrenar mejor la IA, aunque todavía bajo supervisión humana.
Otros proyectos se centran en la IA agencial para modificar su propio comportamiento, como las Máquinas Darwin-Gödel (DGM) que utilizan algoritmos evolutivos para mejorar los agentes de codificación basados en LLM. El mismo equipo creó AI Scientist con el objetivo de automatizar el ciclo de investigación en general. El modelo puede generar ideas de investigación, ejecutar experimentos en software, redactar los resultados en artículos y, posteriormente, revisarlos.
Aunque la idea de que los sistemas de IA puedan «hacer ciencia» sin humanos o incluso mejor que ellos pone los pelos como escarpias, el proyecto es otro ejemplo de lo que está por venir. «Mejorar la IA con IA es uno de los temas más candentes en Silicon Valley«, asegura Jeff Clune, científico informático de la Universidad de Columbia Británica que trabajó tanto en DGM como en AI Scientist.
Los límites de RSI
Aún quedan muchos obstáculos. Clune afirma que la IA es simplemente aceptable para generar, implementar y evaluar ideas, pero todavía no alcanzan el nivel de los mejores científicos humanos. Y aunque esas capacidades mejoren, el proceso podría no ser lineal. Nathan Lambert, científico informático del Instituto Allen para la IA, escribió recientemente un ensayo en el que argumenta que, en lugar de una auto-mejora recursiva, deberíamos esperar una «auto-mejora con pérdidas» en la que el aumento de la fricción ralentiza el proceso.
También existen limitaciones más amplias. Dominar el mundo requiere muchos pasos prácticos, desde realizar experimentos de laboratorio hasta desenvolverse en la política. Además, el conocimiento está distribuido y suele ser tácito, por lo que no se puede integrar fácilmente en una sola inteligencia artificial. Por ejemplo, las capacidades del fabricante de chips TSMC (la mayor foundry mundial) surgen de la inteligencia colectiva de sus 90.000 empleados que interactúan entre sí.
La implementación completa de RSI podría requerir no solo el diseño de software y chips, sino también la construcción de centros de datos, la operación de centrales eléctricas y la extracción de metales, todo ello mediante robots autorreplicantes. Por estas y otras razones, algunos investigadores sostienen que los humanos seguirán siendo fundamentales en el proceso y aseguran que mantener a los humanos involucrados conducirá a un progreso más rápido y seguro. Y, con ello, por nuestra propia supervivencia, orientar la IA hacia soluciones que beneficien a la humanidad.
El ‘Terminator’ real no está descartado
Muchos científicos no han descartado una RSI descontrolada, a veces denominada singularidad. Un informe reciente entrevistó a 25 grandes expertos en IA sobre la automatización de la I+D en IA. Todos, excepto dos, consideraron la posibilidad de que ello pudiera conducir a una explosión de inteligencia. Los participantes también eran más propensos a pensar que las empresas de IA mantendrían sus modelos de autoaprendizaje internamente en lugar de implementarlos públicamente. Algo similar a lo que ha tenido Anthropic con el Proyecto Glasswing para controlar la peligrosidad de su propia IA en ciberataques.
Krueger, fundador de Evitable, una organización sin ánimo de lucro dedicada a la seguridad de la IA, aboga por detener globalmente el desarrollo de la inteligencia artificial. «Es jugar con la vida de todos», asegura. Una línea roja que ha sugerido para activar la pausa es cuando el 99% del código sea escrito por IA: «Creo que quizás ya estamos cruzando esa barrera».
Por el contrario, Dean Ball, investigador sénior de la Fundación para la Innovación Estadounidense, califica la singularidad de «pura fantasía de ciencia ficción infantil». Aún así, cree que los laboratorios de IA de vanguardia que realizan investigaciones sobre RSI deberían ser supervisados ??de cerca para que sus modelos no caigan en malas manos, como las de actores malintencionados que podrían utilizarlos para acelerar el desarrollo de ciberataques o armas biológicas. Afirma que la RSI conlleva riesgos, pero que estos pueden gestionarse.
¿Tendemos hacia una sociedad de Mentes Artificiales?
Cuando la gente imagina la inteligencia artificial de respuesta rápida (IAR), puede que visualice una IA con un cerebro enorme que se vuelve aún más grande. Pero podría parecerse más a la evolución, donde muchos agentes diversos emergen y actúan en conjunto. «Algo así como una explosión cámbrica de formas de vida artificiales«. Estas tendrían ecosistemas, culturas y economías.
Los algoritmos evolutivos y los procesos abiertos, que exploran sin un objetivo definido, serán clave para la automejora recursiva de la IA. La colaboración entre agentes también será fundamental. Sistemas como AI Scientist, que recopila sus hallazgos en artículos formales, ofrecen una forma para que los agentes compartan resultados y desarrollen el trabajo de los demás.
Todos estos avances apuntan la posibilidad de que los científicos humanos sean desplazados gradualmente de la investigación en IA. Primero, explica Clune, dedicarán menos tiempo a tareas de menor nivel y se asemejarán más a profesores o jefes de equipo, quienes definen las líneas de investigación. Luego, se convertirán en directores de programas o directores ejecutivos, quienes establecen agendas de investigación más amplias. Finalmente, ejercerán funciones de supervisión, un rol que espera que los humanos nunca abandonen. Quizá por nuestra propia supervivencia…
* Imagen de portada generada por IA
-
EntrevistasHace 7 días«La mejor forma de acelerar la IA no es mover más datos, es llevar la IA allá donde están»
-
NoticiasHace 7 díasEl Gobierno ofertará plazas para IA, ciberseguridad y ciencia del dato en su oferta de empleo público
-
NoticiasHace 7 díasSAP compra Dremio y Prior Labs para mejorar sus capacidades de IA
-
NoticiasHace 7 díasSage integra agentes de IA en su software de gestión financiera



