MARIA ALEJANDRA GONZALEZ-PEREZ

Los riesgos de la súperinteligencia

¿Estamos jugando los humanos con una bomba a punto de detonar al aumentar capacidades, pero no nuestro control sobre la inteligencia artificial?

Maria Alejandra Gonzalez-Perez, Maria Alejandra Gonzalez-Perez
18 de marzo de 2018

La mente humana tiene unas características que nos hacen diferentes a otras especies y nos ha permitido desarrollar lenguajes, tecnología y organizaciones sociales complejas que han venido avanzando con las contribuciones de los antepasados. Son capacidades con las que los humanos hemos conseguido la posición dominante que gozamos en la Tierra.

El filósofo sueco Nick Bostrom, director del Instituto del Futuro de la Humanidad, y del Centro de Investigación en Inteligencia Artificial Estratégica, adscrito a la Universidad de Oxford (Inglaterra), presentó el concepto de “súperinteligencia”, que define como un intelecto que excede en gran proporción el rendimiento cognitivo de los humanos en virtualmente todos los dominios de interés.

Debido al acceso de grandes datos (big data), computadores más rápidos y al mejoramiento de algoritmos, la inteligencia artificial ha avanzado con más velocidad de la que se esperaba: aprendizaje profundo, nuevos enfoques programación probabilística, optimización de hiper-paramétros Bayesianos, redes de memoria, auto-codificadores de variaciones, modelos generativos basados en la atención, máquinas de Turing de redes neutrales, redes LSTMs, reconocimiento de escritura a mano, de voz, de imágenes, de emociones, de rostros, traducción de idiomas, y muchos otros más.

Recomendado: Las políticas públicas para conseguir felicidad y bienestar

El icónico y visionario teórico físico Stephen Hawking, fallecido el 14 de marzo 2018 en Cambridge (Inglaterra), reconocido por sus contribuciones y legados en el campo de la  teoría física, la gravitación, la teoría cuántica, la termodinámica, la cosmología, la explicación sobre los hoyos negros, y su trabajo para examinar el origen del universo desde la teoría de “Big Bang”, y recordado por su resiliencia a la esclerosis lateral amiotrófica (ELA) degenerativa que le fue diagnosticada cuando tenía 21 años, advirtió en diciembre de 2014 sobre los riesgos de la inteligencia artificial, exponiendo cómo “los humanos, quienes están limitados con una evolución biológica lenta, no pueden competir, y pudieran ser reemplazados”. Enfatizaba Hawking que “el desarrollo de inteligencia artificial plena pudiera ser desastrosa para toda la humanidad”. 

En el año 2014 fue publicado el libro “Superintelligence: Paths, dangers, strategies”, de autoría de Nick Bostrom. El libro presenta análisis sobre evidencias, especulaciones y profundas reflexiones sobre lo que el autor considera el problema más esencial de nuestro tiempo: ¿Cómo podemos encontrar la solución para el problema de controlar la súperinteligencia antes que sea demasiado tarde? Esta pregunta se basa en el argumento sobre que, si las máquinas logran sobrepasar los cerebros humanos en cuanto a inteligencia general, esta súperinteligencia pudiera llegar a reemplazar a los humanos como la forma de “vida” dominante en el planeta Tierra, ya que estas máquinas pudieran mejorar sus propias capacidades a mayor velocidad que los científicos humanos.

El libro de Bostrom ha sido recomendado por celebridades del mundo empresarial y científico como Bill Gates, a quien le ha influenciado su preocupación por los riesgos existenciales que enfrentará la humanidad en el próximo siglo; por Elon Musk, quien considera que este libro “vale la pena leerlo, pues necesitamos estar súper cautelosos con la inteligencia artificial”; por Nils Nilsson, pionero de la inteligencia artificial adscrito a Stanford University, quien estima que “toda persona inteligente debe leer este libro”; y por el profesor de ciencias de la computación de la Universidad de California, Stuart Russell, quien cree que “los rastros de la súperinteligencia han sumergido las rocas del futuro con un detalle sin precedentes, el cual marca el comienzo de una nueva era”. Incluso la publicación The Economist lo califica como “valioso, pues las implicaciones de introducir unas segundas especies inteligentes en la Tierra son lo suficientemente de largo alcance como para merecer pensarlas profundamente”. 

Puede interesarle: Expo Dubái 2020: Conectando las mentes, creando el futuro

La súperinteligencia tiene el potencial de afectar negativamente los mercados laborales debido a los impactos de la automatización, aumento de actividades criminales cibernéticas, y de generar y manipular de manera autónoma armas letales, entre otros. Estos asuntos deben considerarse actualmente como riesgos y deberían estar alertando alarmas.  El problema de controlar la súperinteligencia requiere más atención tanto de la comunidad científica como de la ciudadanía, los tomadores de decisiones y de quienes diseñan las políticas públicas.

Las diferentes formas de súperinteligencia (colectiva, de velocidad, etc.), sin embargo, también tienen el potencial de contribuir en múltiples escenarios, y de apoyar al proyecto de construcción y avance de la humanidad.

Por esto debemos procurar que el desarrollo de la inteligencia artificial sea beneficiosa y segura para los seres humanos, para nuestros proyectos de civilización, y para que nos lleve a reducir los riesgos de nuestra existencia como especie compasiva.

Lea también: SpaceX y el transporte interplanetario