OpenAI, el laboratorio de investigación de inteligencia artificial (IA) estadounidense no deja de sorprendernos.
Ya lo hicieron cuando lanzaron CHAT GPT, el famoso chatbot que utiliza inteligencia artificial para generar respuestas a partir del análisis de texto y el aprendizaje automático y que marcó una referencia concreta sobre cómo estaba evolucionando esta tecnología, pero ahora van por más sorpresas.
Cuando se habla de la Inteligencia Artificial en términos generales se habla de IA débil y de IA fuerte. La diferencia clave radica en la capacidad de las tienen las máquinas para igualar o superar la inteligencia humana.
Así, podríamos decir que la IA débil consiste en la aplicación de técnicas y algoritmos de aprendizaje automático y procesamiento del lenguaje natural para realizar tareas específicas de manera automatizada, es decir, se enfoca en tareas específicas y limitadas, mientras que la IA fuerte (IAF) o también conocida como Inteligencia Artificial General (AGI), es un tipo de IA que es capaz de ejecutar tareas intelectuales de forma muy similar al cerebro humano. La AGI sería, por tanto, la representación de las capacidades cognitivas humanas en software y aspira a tener una inteligencia general comparable a la de los seres humanos.
Avanzar hacia sistemas AGI había sido la tónica de organizaciones como OpenAI, y en las que concentraba su esfuerzo. De hecho, en febrero de este año, Sam Altman, CEO de OpenAI, explicaba en un artículo en el blog oficial denominado «Planificación para AGI y más allá» que «nuestra misión es garantizar que la inteligencia general artificial (sistemas de IA que generalmente son más inteligentes que los humanos) beneficie a toda la humanidad«.
En ese mismo artículo, Altman mencionaba sobre las bondades del sistema, pero también respecto a sus riesgos.
Por un lado, señala que «si AGI se crea con éxito, esta tecnología podría ayudarnos a elevar a la humanidad al aumentar la abundancia, impulsar la economía global y ayudar en el descubrimiento de nuevos conocimientos científicos que cambian los límites de la posibilidad«. Esto suena bastante auspicio.
En el otro extremo, indicaba que «AGI también conllevaría un grave riesgo de mal uso, accidentes drásticos y trastornos sociales. Debido a que la ventaja de AGI es tan grande, no creemos que sea posible o deseable que la sociedad detenga su desarrollo para siempre; en cambio, la sociedad y los desarrolladores de AGI tienen que descubrir cómo hacerlo bien«.
Esta reflexión de preocupación sobre cómo se estaba desarrollando la IA (tema que compartimos plenamente), es base para que meses después llevaran a directivos de OpenAI a que fueran parte de los firmantes de una carta abierta, que llamaron públicamente a parar el desarrollo de la inteligencia artificial temporalmente para evaluar los riesgos, por los «profundos riesgos para la sociedad y la humanidad».
El punto, por tanto, estaba enfocado al desarrollo de sistemas AGI… hasta ahora.
Un reciente artículo en el blog de OpenAI (este 05 de julio), cambia su discurso incluso con acciones concretas. Ahora ya no hablan de AGI sino que incorporan una nueva sigla, la ASI, mejor conocida como «SuperInteligencia Artificial».
En su artículo, sin rodeos definen a la superinteligencia como «la tecnología más impactante que la humanidad haya inventado jamás, y podría ayudarnos a resolver muchos de los problemas más importantes del mundo. Pero el vasto poder de la superinteligencia también podría ser muy peligroso y podría conducir a la desactivación de la humanidad o incluso a la extinción humana«.
Ante tal amenaza, plantean que la gestión de estos riesgos requerirá, entre otras cosas, un marco regulatorio de la IA, nuevas instituciones para la gobernanza y «resolver el problema de la alineación de la superinteligencia».
Para OpenAI esta superinteligencia artificial no es cosa futurista, sino que la tienen proyectada como desarrollada dentro de la década.
Para ello, el objetivo de la publicación no es alertar sobre los peligros de la Superinteligencia, sino que derechamente informar que están buscando los mejores investigadores e ingenieros de aprendizaje automático para que se unan a OpenAI.
Según indican «necesitamos avances científicos y técnicos para dirigir y controlar los sistemas de IA mucho más inteligentes que nosotros. Para resolver este problema dentro de cuatro años, estamos comenzando un nuevo equipo, codirigido por Ilya Sutskever y Jan Leike, y dedicando el 20% del cómputo que hemos asegurado hasta la fecha a este esfuerzo«.
Un punto que llama poderosamente la atención, cuando se habla de «gestión de riesgos» es lo de «resolver el problema de la alineación de la superinteligencia». Y tenemos que hacer doble click de qué se trata esto, considerando que explícitamente indican que «nuestro objetivo es resolver los desafíos técnicos centrales de la alineación de superinteligencia en cuatro años.»
Un dato no menor es que señalan que actualmente las técnicas de OpenAI «para alinear la IA, como Aprendizaje de refuerzo a partir de la retroalimentación humana, confían en la capacidad de los humanos para supervisar la IA. Pero los humanos no podrán supervisar de manera confiable los sistemas de IA mucho más inteligentes que nosotros. Y así, nuestras técnicas de alineación actuales no escalarán a la superinteligencia. Necesitamos nuevos avances científicos y técnicos«.
A continuación, hablan de la forma en que avanzarían en la alineación de la superinteligencia indicando que «para proporcionar una señal de entrenamiento en tareas que son difíciles de evaluar para los humanos, podemos aprovechar los sistemas de IA para ayudar a la evaluación de otros sistemas de IA (supervisión escalable). Además, queremos entender y controlar cómo nuestros modelos generalizan nuestra supervisión a tareas que no podemos supervisar (generalización).»
Simplificando al máximo este punto, es que OpenAI entiende que, para avanzar hacia la Superinteligencia y su supervisión, los humanos no tendrán la capacidad de hacerlo y para ello buscan la forma de usar otra IA para evaluar a la IA. Así de simple. La superinteligencia será desarrollada por IA (¿no parece un poco más que preocupante?).
El cambio de discurso de lo publicado en febrero de este año hablando sobre planificación de Inteligencia Artificial Fuerte al discurso de julio de este año, derechamente abriendo plazas de trabajo y colocando un plazo de 4 años para concretar el desarrollo de una Superinteligencia artificial, es completamente evidente. Pero debemos reconocer que a fines de mayo OpenAI ya había planteado como hipótesis sobre la Superinteligencia y había dado luces de reflexión respecto a la gobernanza de la misma en su artículo publicado.
Parece que OpenAI nos dice finalmente, respecto al futuro próximo de la evolución de la Inteligencia Artificial y posibles efectos más riesgosos de su uso para la humanidad, ¡no reclame que no le avisamos!