Si hay un tema clásico en las películas de ciencia ficción, ese es el de las máquinas que acaban dominando el mundo. Esa distopía retratada en títulos icónicos como 'Terminator', 'Yo, robot' o incluso 'The Matrix' nos parecía precisamente solo un tema de esas películas o de novelas de ciencia ficción, pero lo cierto es que el peligro es real.
No lo decimos nosotros: lo dice Sam Altman, CEO de OpenAI, que explicaba en un reciente artículo en el blog oficial de la empresa cómo esa búsqueda de una inteligencia artificial que beneficie a toda la humanidad puede acabar mal si no tenemos cuidado.
Altman hablaba de la llamada Inteligencia Artifical General (AGI, por sus siglas en inglés), que será mucho más capaz que los sistemas actuales y que teóricamente permitirá que la humanidad progrese de forma inaudita. Sin embargo, su desarrollo y despliegue no está exento de riesgos.
Lo sorprendente aquí es que uno esperaría que en OpenAI estuvieran más confiados con una evolución más o menos segura de este campo. No parecen estarlo del todo, y precisamente ese artículo mostraba algunas pautas con las que en OpenAI proponen enfrentarse a un futuro en el que las máquinas puedan acabar dominando a la humanidad.
Inteligencia artificial general, fuerte y débil
Lograr una AGI es el santo grial de quienes trabajan en este campo. Con esa inteligencia artificial general sería psoible resolver cualquier tarea intelectual resoluble por un ser humano.
De hecho la teoría es que estos sistemas serían capaces de realizar juicios y razonar ante una situación de incertidumbre, además de comunicarse en lenguaje natural, planificar o aprender.
Esta inteligencia artificial general no es, eso sí, la que nos venden las películas de ciencia ficción de Hollywood. En tramas como las de 'Terminator' lo que tenemos es una inteligencia artificial fuerte, que posee los llamados "estados mentales" y además es consciente de sí misma.
Lo que ofrece ahora esta disciplina son sistemas de inteligencia artificial débil, capaces de resolver problemas muy específicos y acotados. Por ejemplo, jugar al ajedrez , conversar como lo hace ChatGPT o generar imágenes espectaculares a partir de un entrenamiento previo.
El siguiente paso, eso sí, es el de esa "superinteligencia artificial" o inteligencia artificial general que como explicaban en OpenAI sería un sistema altamente autónomo y que "supera de largo a todos los humanos en la mayoría de trabajos económicamente valiosos".
La AGI tiene sus ventajas, pero también sus inconvenientes
Es cierto que una inteligencia artificial general podría resolver muchos problemas actuales y, como dicen en OpenAI impulsar la economía global o ayudar a conseguir nuevos descubrimientos científicos "que cambien los límites de lo posible", pero también plantea riesgos.

En OpenAI reconocen la existencia de riesgos como un mal uso o una disrupción de la sociedad, pero creen que es posible evitar esos riesgos aunque reconocen que "lo que parece correcto en teoría a menudo acaba comportándose de forma más extraña de lo esperado en la práctica".
Para lograr que el camino hacia esa AGI sea el correcto, creen que los pasos a seguir son claros. Es importante, aseguran, desplegar esos sistemas y comprobar cómo funcionan "en el mundo real" para verlos evolucionar.
Eso, destacan, da tiempo a la gente, instituciones y reguladores a entender qué está ocurriendo para actuar en consecuencia. Una iteración cuidadosa pero continua es también importante para estos avances, pero explican que "a medida que nuestros sistemas se acercan a una AGI, nos estamos volviendo más y más cautos con la creación y despliegue de nuestros modelos".
Para evitar que esos despliegues impliquen más riesgos que beneficios, en OpenAI evalúan constantemente ese equilibrio, y es lo que ha pasado por ejemplo con ChatGPT. Los sistemas están acotados, pero el plan de OpenAI es el de facilitar a los usuarios cambiar el comportamiento de la IA que estén usando.
En esta empresa aseguran que esperan estar en constante contacto con instituciones globales a la hora de decidir cómo gobernar estos sistemas, cómo distribuir sus ventajas y cómo compartir el acceso a dichos sistemas.
Hay una clave para tratar de controlar esos avances. Una que se podría resumir en el "lento pero seguro" y que como explican en OpenAI requiere que este desarrollo vaya pasito a pasito y siempre de forma muy controlada:
"La AGI puede surgir pronto o en un futuro lejano; la velocidad de evolución de la AGI inicial a iteraciones más potentes puede ser lenta o rápida. Muchos de nosotros pensamos que el cuadrante más seguro en esta matriz de dos por dos son los plazos cortos y las velocidades de evolución lentas; los plazos más cortos parecen más susceptibles de coordinación y es más probable que conduzcan a una evolución más lenta debido a una menor sobrecarga computacional, y una evolución más lenta nos da más tiempo para averiguar empíricamente cómo resolver el problema de la seguridad y cómo adaptarnos a las nuevas tecnologías".
Ese mismo mensaje es el que desde hace tiempo también plantean otras personalidades del mundo de la ciencia o la tecnología: Stephen Hawking, Bill Gates o Elon Musk ya lo avisaron. Hace años que un grupo de expertos ya crearon la asociación Future of Life, precisamente orientada a defender un desarrollo responsable de la inteligencia artificial.
'Terminator' no está descartado
A largo plazo la cosa podría ponerse peligrosa, porque según OpenAI esa primera inteligencia artificial general será solo un punto de inflexión a partir del cual el progreso será igual de rápido.
Just applied to a new job at OpenAI. Wish me luck! pic.twitter.com/JVpQseLrS1
— Chris Bakke (@ChrisJBakke) February 23, 2023
De hecho varios usuarios compartían en Twitter la oferta de trabajo de OpenAI en la que se buscaba un "ingeniero para un interruptor de muerte" (o de apagado) que debería estar pendiente de desconectar los servidores en caso de catástrofe. Eso ya da buenas muestras de
De hecho, explica Altman, "algunas personas en el campo de la inteligencia artificial piensan que los riesgos de la AGI (y los sistemas sucesivos) son ficticios; estaríamos encantados si resultara que tienenr razón, pero vamos a funcionar como si estos riesgos fueran existenciales". Indicen en esos riesgos al decir lo siguiente:
"La transición a un mundo con superinteligencia es quizá el proyecto más importante —y esperanzador, y aterrador— de la historia de la humanidad. El éxito no está ni mucho menos garantizado, y es de esperar que lo que está en juego (ilimitadas desventajas e ilimitadas ventajas) nos una a todos".
El resumen de todo esto es claro: esperemos lo mejor y estemos preparados para lo peor. O intentemos estarlo.
Ver 25 comentarios
25 comentarios
isaacrodriguez
Mensaje para el que acepte el trabajo de apagar al IA: Que sepa que desde el momento de la firma de contrato le van a llover muchos T-800, a sus hijos, nietos y terratenientes. Pinesalo bien no es tontetria.
smithwinston
Otro falso ídolo se cierne sobre nosotros de la mano de una humanidad cegada por las promesas de la nueva era tecnológica. Es apreciable que el tiempo señalado está más cerca por cada día que pasa...
kal1973
Estáis tardando en sacar el articulo diario del tiempo, no? por la tarde quede para tomar algo con un amigo y no se si va a llover, si puedo bajar en sudadera... Como estoy en Galicia y estamos en Febrero supongo que hará frio, pero yo hasta que no me lo confirme xataka no me fio.
Usuario desactivado
El público está sobreestimando a ChatGPT. Mantuve una conversación larga sobre electrónica basica y cada contestacion que me dio fue errónea. No aprendió de sus errores. El sistema fue entrenado pero no puede aprender nada nuevo. La vía de desarrollo de esta IA y similares es la equivocada. No tiene capacidad de abstracción ni de autocorregirse. Mientras se siga usando este enfoque, no avanzará por más miles de millones de ejemplos de entrenamiento que le presenten.
redboy
No hay que inventar nada, solo leer Asimov.
Las 4 leyes de la robótica deberían ser suficiente punto de partida.
bizarroman
Me preocupa que el esqueleto del T-800 tenga dientes!
poncho321
El cuerpo humano no puede vivir 1k años, si no hay una reversión celular y rejuvenece como ciertas medusas es imposible, la solución es integrarse con la tecnología, seremos híbridos tecnológicos.
oscar andresmeza sal
es una trampa porque al principio no t cobran pero al pasar el tiempo cuando tienes demasiados documentos dependientes de esta aplicacion ....t la cobran con creses...
oscar andresmeza sal
no confiaria en esta aplicacion....lo q hace es recoger toda la informacion existente ya en internet y t la desgrana muchas veces adicionando datos erroneos...
Usuario desactivado
Se busca operador de servidores, no hace falta experiencia, su trabajo consistirá en permanecer en la sala de servidores esperando una llamada, no hace falta que conteste. Cuando la reciba deberá "tirar del cable" y mojar los servidores provocando cortocircuitos y el apagado total.
j6m
Estoy de acuerdo con algunos comentarios. Si la IA está capacitada para crear un mundo mejor en vista de nuestra negativa a cambiar el rumbo de colisión al que nos abocamos, sin duda el planeta y el resto de especies lo agradecerá. Nosotros no somos más que la última excrecencia de la evolución, y la peor de ellas, pues destruimos y aniquilamos de forma consciente, incluso sabiendo que también lo pagaremos. Somos perfectamente prescindibles.
luispascual
La clave está en que las IA hagan sólo lo que estén programadas para hacer, no es frenarlas, pero si que es hacer que no sobrepasen ciertos límites, como por ejemplo evitar que puedan modificar su propio código.