Miles Brundage, ex-director de OpenAI, critica duramente a la empresa: “Están reescribiendo la historia”

0
16

En esta semana de Mobile World Congress no íbamos a librarnos del debate, y es que sin duda continúa levantando polvareda toda la discusión alrededor del desarrollo de la IA y los límites de la ética y la evolución sostenible, pues estamos ante una tecnología tan disruptiva como que promete revolucionarlo todo en nuestras vidas y nuestras sociedades. El mismísimo Bill Gates reconoce que “la IA lo reemplazará casi todo” en el futuro, así que escuchar y leer a las voces más autorizadas de la industria es importante en estos momentos.

El último en hablar ha sido Miles Brundage, antiguo Director de OpenAI y uno de los responsables de sus políticas de I+D, que ha criticado ferozmente a la empresa por “reescribir la historia” y modificar su enfoque de implementación de sistemas de potencial riesgo. Cabe destacar que Brundage había ya dimitido de sus cargos en OpenAI hace unos meses, afirmando sin tapujos que “el mundo no está listo” para la llegada de una IA general.

Ahora, gracias a una publicación de los compañeros de TechCrunch, tenemos más detalles sobre un documento de OpenAI en el que se describe su nueva filosofía sobre seguridad en el desarrollo de sistemas de IA que mantengan un comportamiento deseable y explicable a nivel humano. Es interesante leer cómo la propia OpenAI define a una AGI (inteligencia artificial general) como un sistema de IA que puede realizar cualquier tarea que un humano también pueda hacer, en un “camino continuo” que requerirá implementación y aprendizaje iterativo.

Además, hablan de forma abierta sobre precaución excesiva en relación al poder aparente de la propia IA, estrategia de cautela que adoptaron en su momento durante los tiempos de Miles Brundage en la compañía, y que ahora pretenden cambiar para abrir más el desarrollo asumiendo más riesgos:

“Las lecciones de seguridad provienen de tratar los sistemas de hoy con una precaución excesiva en relación con su poder aparente, [que] es el enfoque que adoptamos para [nuestro modelo de IA] GPT-2. Ahora vemos la primera AGI como sólo un punto más en una serie de sistemas de utilidad creciente […]. En un mundo de evolución continua, la forma de hacer que el próximo sistema sea seguro y beneficioso es aprender del sistema actual”.

Miles Brundage afirma que incluso GPT-2 hubiera merecido más precaución, y que el mundo “no está preparado aún para una AGI”

No cabe duda de que el debate es importante pues toda la sociedad está abrumada ahora mismo con la enorme evolución de la IA, sus sorprendentes posibilidades y lo que supondrá su llegada en formato masivo para todo el mundo, nuestros actuales trabajos y cómo entendemos la manera de vivir y relacionarnos, tanto con otros humanos como con las máquinas.

Para Brundage la cosa está clara, y es que este directivo y ejecutivo estadounidense afirma que incluso GPT-2 hubiera merecido mucha más precaución en el momento de su lanzamiento, y que sus estrategias siempre fueron un “100% consistentes” con la política de despliegue iterativo que OpenAI describe en el reciente documento.

La idea según Brundage, cuando se unió como científico investigador en 2018 a la compañía, era la de centrarse en un despliegue responsable de sistemas generativos de lenguaje, como el chatbot que luego conocimos y que en su momento se había abierto de forma limitada para que algunos desarrolladores, periodistas y expertos del sector pudiesen probarlo y reportar sus impresiones.

“El lanzamiento de GPT-2 por parte de OpenAI, en el que participé, fue 100% coherente y ya definía la filosofía actual de OpenAI que habla de despliegue iterativo. El modelo se lanzó de manera incremental, con lecciones compartidas en cada paso, y muchos expertos en seguridad de la época nos agradecieron esta precaución”. Miles Brundage.

Por aquel entonces GPT-2 ofrecía resultados que hoy parecerían básicos, pero que eran de vanguardia en aquel momento y que presagiaban usos maliciosos de esta tecnología, cosa que ahora todavía tememos mucho más incluso. OpenAI no publicó el código inicialmente recibiendo algunas críticas, argumentando que la amenaza planteada por GPT-2 era exagerada y que sus posibilidades eran demasiado importantes como para mantenerlo contenido. Sin embargo, Brundage está convencido de que la decisión fue más que acertada y que toda precaución es importante.

“Si todavía estuviera trabajando en OpenAI, me preguntaría por qué este documento se escribió de la manera en que lo hizo y qué es exactamente lo que OpenAI espera lograr al despreciar la precaución de una manera tan desequilibrada”. Miles Brundage.

Según este experto, el mayor miedo que debemos tener es que el objetivo de OpenAI sea establecer unas pruebas en que “toda preocupación sea alarmista” y que empiecen a pedirse hechos muy abrumadores de peligro inminente para actuar y detener ciertos desarrollos. Dice Brundage que esta es una actitud peligrosa, pues no conocemos las posibilidades más avanzadas a donde una IA puede llegar.

Lo cierto es que hay presión competitiva, sobre todo con el cambio de Gobierno en La Casa Blanca, y ya históricamente OpenAI había sido acusada siempre de “priorizar productos brillantes a expensas de la seguridad”, apresurando todos sus lanzamientos para llegar antes que nadie en un mercado de rapidísima evolución donde China y su DeepSeek han sorprendido a propios y extraños.

Cabe recordar que la empresa pierde miles de millones al año en sus cuentas de resultados por un gasto ingente en I+D, algo que proyecto mantener e incluso triplicar de aquí a 2026. Evolucionar más rápido sus productos les beneficiará al menos a corto plazo, pero es posible que la seguridad y las políticas de precaución máxima no se tengan tanto en cuenta y esto es algo que puede tener consecuencias desastrosas… ¡Veremos!