Quizá el proyecto más importante de la historia de la humanidad
"Quizá el proyecto más importante de la historia de la humanidad": por qué OpenAI ya piensa en los riesgos de la AGI
Si hay un tema clásico en las películas de ciencia ficción, ese es el de las máquinas que acaban dominando el mundo. Esa distopía retratada en títulos icónicos como 'Terminator', 'Yo, robot' o incluso 'The Matrix' nos parecía precisamente solo un tema de esas películas o de novelas de ciencia ficción, pero lo cierto es que el peligro es real.
No lo decimos nosotros: lo dice Sam Altman, CEO de OpenAI, que explicaba en un reciente artículo en el blog oficial de la empresa cómo esa búsqueda de una inteligencia artificial que beneficie a toda la humanidad puede acabar mal si no tenemos cuidado.
Altman hablaba de la llamada Inteligencia Artifical General (AGI, por sus siglas en inglés), que será mucho más capaz que los sistemas actuales y que teóricamente permitirá que la humanidad progrese de forma inaudita. Sin embargo, su desarrollo y despliegue no está exento de riesgos.
Lo sorprendente aquí es que uno esperaría que en OpenAI estuvieran más confiados con una evolución más o menos segura de este campo. No parecen estarlo del todo, y precisamente ese artículo mostraba algunas pautas con las que en OpenAI proponen enfrentarse a un futuro en el que las máquinas puedan acabar dominando a la humanidad.
Inteligencia artificial general, fuerte y débil
Lograr una AGI es el santo grial de quienes trabajan en este campo. Con esa inteligencia artificial general sería psoible resolver cualquier tarea intelectual resoluble por un ser humano.
De hecho, la teoría es que estos sistemas serían capaces de realizar juicios y razonar ante una situación de incertidumbre, además de comunicarse en lenguaje natural, planificar o aprender.
Esta inteligencia artificial general no es, eso sí, la que nos venden las películas de ciencia ficción de Hollywood. En tramas como las de 'Terminator' lo que tenemos es una inteligencia artificial fuerte, que posee los llamados "estados mentales" y además es consciente de sí misma.
Lo que ofrece ahora esta disciplina son sistemas de inteligencia artificial débil, capaces de resolver problemas muy específicos y acotados. Por ejemplo, jugar al ajedrez , conversar como lo hace ChatGPT o generar imágenes espectaculares a partir de un entrenamiento previo.
El siguiente paso, eso sí, es el de esa "superinteligencia artificial" o inteligencia artificial general que como explicaban en OpenAI sería un sistema altamente autónomo y que "supera de largo a todos los humanos en la mayoría de trabajos económicamente valiosos".
La AGI tiene sus ventajas, pero también sus inconvenientes
Es cierto que una inteligencia artificial general podría resolver muchos problemas actuales y, como dicen en OpenAI impulsar la economía global o ayudar a conseguir nuevos descubrimientos científicos "que cambien los límites de lo posible", pero también plantea riesgos.
En OpenAI reconocen la existencia de riesgos como un mal uso o una disrupción de la sociedad, pero creen que es posible evitar esos riesgos aunque reconocen que "lo que parece correcto en teoría a menudo acaba comportándose de forma más extraña de lo esperado en la práctica".
Para lograr que el camino hacia esa AGI sea el correcto, creen que los pasos a seguir son claros. Es importante, aseguran, desplegar esos sistemas y comprobar cómo funcionan "en el mundo real" para verlos evolucionar.
Eso, destacan, da tiempo a la gente, instituciones y reguladores a entender qué está ocurriendo para actuar en consecuencia. Una iteración cuidadosa pero continua es también importante para estos avances, pero explican que "a medida que nuestros sistemas se acercan a una AGI, nos estamos volviendo más y más cautos con la creación y despliegue de nuestros modelos".
댓글