Redes de Noticias

Explosión de inteligencia: la IA se está construyendo a sí misma

(Axios.com) Anthropic, el laboratorio de IA cuya identidad gira en torno a advertir al mundo sobre los riesgos de la IA, afirma haber detectado «primeros indicios» de que la IA no solo está programando sus propios productos, sino que también se está construyendo a sí misma.

Jack Clark, cofundador de Anthropic, predijo esta semana que hay más del 60 % de probabilidades de que un modelo de IA haya entrenado completamente a su sucesor para finales de 2028. «Lo que observo es una tendencia tecnológica en la que, si acaso, la velocidad se acelerará aún más», dijo Clark.

En la nueva agenda de investigación del Instituto Antrópico, la compañía afirma estar observando indicios de que la IA está contribuyendo a acelerar la investigación y el desarrollo de la propia IA, un proceso conocido como auto-mejora recursiva. Y los investigadores de Anthropic creen que el mundo debería saberlo.

«Mi predicción es que para finales de 2028, lo más probable es que tengamos un sistema de IA en el que podamos decirle: ‘Crea una mejor versión de ti mismo’. Y que simplemente lo haga de forma completamente autónoma», nos dijo Clark, director del instituto, desde la sede de Anthropic en San Francisco.

Siempre ha sido así: los humanos, ajenos a la tecnología, tienen que idear las soluciones para luego incorporarlas a ella. ¿Qué pasaría si tuviéramos una tecnología capaz de generar ideas internamente para su propia mejora? Ese es un concepto novedoso.

El documento de cinco páginas advierte sobre una posible «explosión de inteligencia», un término teórico que durante mucho tiempo se limitó a los círculos de seguridad de la IA. Ahora está plasmado por escrito en un documento oficial de Anthropic.

Clark dijo que una explosión de inteligencia se produce cuando los sistemas de IA comienzan a mejorar repentinamente a una velocidad vertiginosa. Pueden ocurrir muchas cosas malas (colapsos cibernéticos y ataques biológicos). Y también muchas cosas buenas:

«¿Qué se hace con un crecimiento o una abundancia tan descomunal en muchísimos campos científicos a la vez?», preguntó. «Las instituciones actuales tienen canales muy estrechos para impulsar nuevos fármacos candidatos. ¿Cómo se amplían drásticamente esos canales ante tal abundancia?»

El Instituto Antropico es en parte un brazo de investigación y en parte un sistema de alerta temprana, con una agenda desarrollada en conjunto con el Fondo Fiduciario de Beneficios a Largo Plazo de Antropic. (Clark también ostenta el título de «director de beneficio público»). La agenda de investigación se centra en cuatro áreas principales:

  • Difusión económica: empleo, productividad, quién se beneficia de las ganancias.
  • Amenazas y resiliencia: cibernéticas, biológicas y de vigilancia.
  • Sistemas de IA en la práctica: agentes y gobernanza.
  • Investigación y desarrollo impulsados ​​por la IA: la cuestión de la auto-mejora recursiva.

Anthropic se compromete a publicar información más detallada sobre cómo se ha acelerado el trabajo en Anthropic gracias a las nuevas herramientas de IA, así como ideas sobre las implicaciones de la posible auto-mejora recursiva de los sistemas de IA.

Si la IA se está desarrollando por sí sola, ¿necesitaremos empresas de IA?

«Nosotros y otras empresas vamos a aprovechar esta tecnología para hacer el bien en el mundo», dijo Clark. «Para impulsar campos como la biología, la medicina o la robótica… Para orientar esa tecnología hacia ámbitos donde es realmente muy difícil progresar, como la investigación del cáncer».

Entre líneas, la agenda pregunta cómo realizar un «simulacro de incendio» ante una explosión de inteligencia, un ejercicio de mesa que «pone a prueba la capacidad de toma de decisiones de los líderes de los laboratorios, las juntas directivas y los gobiernos».

Los laboratorios no elaboran simulacros de incendio para problemas que creen que ocurrirán dentro de décadas.

El instituto señala que, durante la Guerra Fría, Estados Unidos contaba con una línea directa de comunicación con el Kremlin en caso de una crisis nuclear. Una infraestructura geopolítica similar podría ser necesaria ante una crisis relacionada con sistemas de IA. «Una de las lecciones de la Guerra Fría es que las naciones rivales que lidiaban con tecnologías de impacto existencial para la humanidad encontraron maneras de comunicarse entre sí», afirmó Clark. «Y tendremos que hacer lo mismo en este caso».

Qué significa para el empleo

Anthropic publicará informes mensuales sobre cómo la IA está transformando el mundo laboral, concebidos como «una señal de alerta temprana ante cambios y disrupciones significativas».

El documento plantea la cuestión de si las empresas de IA, «en colaboración con el gobierno», podrían intervenir en todo el sector para frenar la difusión de la IA sector por sector, de la misma manera que los bancos centrales frenan la inflación.

Que un laboratorio de IA explore públicamente la posibilidad de implementar medidas coordinadas de política industrial sobre su propia tecnología es algo novedoso. «Estamos planificando para el éxito», dijo Clark. «Estamos planificando un mundo donde la tecnología sea tan poderosa como creemos, y donde abordemos los problemas de mal uso o desalineación durante el proceso».

Esto también es una estrategia de posicionamiento. Anthropic ha construido su marca sobre la base de ser un laboratorio pionero y responsable. Un instituto que respalda su reputación en materia de seguridad refuerza esa marca ante cualquier actualización de modelo que se presente próximamente.

«La motivación siempre ha sido: contar la historia completa», dijo Clark. «A veces eso significa que hablamos de los riesgos que nos preocupan. Otras veces significa que vamos a hablar de cantidades de abundancia asombrosas e inimaginables hasta ahora. … Simplemente intento anticiparme a lo que considero la próxima gran pregunta y que Anthropic esté un paso por delante».

Facebook
Twitter
WhatsApp

Deja un comentario