comparte

Inteligencia artificial entre los viajes espaciales y los coches eléctricos: el futuro por venir

El progreso realizado hasta la fecha en inteligencia artificial es asombroso. Están tanto en los resultados logrados como en la velocidad con la que se logran, pero podríamos tener una IA que sea mucho, mucho más brillante que el hombre más inteligente del mundo. Pero tal vez esta sería una situación peligrosa.

Vistas sobre el futuro

Hablando en la reciente Cumbre Mundial de Gobiernos celebrada en Dubái, para promocionar los autos eléctricos de su compañía, Elon Musk no dejó de abordar temas dispares, ilustrando lo que él cree que son los problemas y desafíos que la humanidad tendrá que enfrentar y superar a partir de aquí en breve. El millonario de origen sudafricano, como es habitual, abarcó todos los ámbitos: desde las incógnitas derivadas del desarrollo de la inteligencia artificial y las posibles repercusiones sociales, pasando por la movilidad, los viajes interplanetarios y, por qué no, incluso interestelares, hasta perfilar posibles escenarios. para el futuro cercano, sin faltar, sin embargo, algunas ideas proyectadas también hacia un horizonte de mediano y largo plazo.

Considerado por muchos como un visionario, un anticipador de lo que será la realidad del mañana, un pionero de los viajes espaciales (SpaceX), un promotor de la movilidad eléctrica (Tesla), un reciente impulsor de la energía ecosostenible (Solar City), Tan ambicioso, tan rico como es, Musk dice que busca soluciones que puedan beneficiar a la humanidad. Aunque no faltan los detractores y la prudencia es imprescindible, no se le puede negar una inteligencia brillante con una mirada siempre prospectiva y, guste o no, algún papel en la imaginación y configuración del destino del mundo que será. venir.

Por lo tanto, vale la pena escuchar lo que tiene que decirnos y luego, posiblemente, reflexionar y cuestionar los temas planteados, que son todo menos triviales. Aquí profundizaré en algunos de los temas relacionados con la inteligencia artificial y lo haré a partir de unas frases extrapoladas del discurso de Musk.

Uno de los temas más preocupantes es la inteligencia artificial... inteligencia artificial profunda, o lo que a veces se denomina inteligencia artificial general, donde podríamos tener una IA que es mucho, mucho más inteligente que el hombre más inteligente del mundo. Creo que sería una situación peligrosa.

El progreso realizado hasta la fecha en inteligencia artificial es asombroso. Lo son tanto por los resultados obtenidos como por la velocidad con la que se consiguen. Un andar aparentemente imparable y extremadamente rápido, que acelera cada vez más en lugar de ralentizarse. De hecho tiende a seguir una tendencia exponencial, de acuerdo con lo que prescribe la ley de Moore en relación al aumento de transistores en los microprocesadores. Un ritmo que en realidad esconde trampas para nuestra mente.

La singularidad nos espera en 2047, palabra de Masayoshi Son

Y es que, explican Erik Brynjolfsson y Andrew McAfee (The Second Machine Age, 2014), los avances en el campo de la inteligencia artificial, aunque constantes desde el punto de vista matemático, no aparecen ordenados a nuestros ojos. Los dos autores lo ilustran tomando prestada una frase de Hemingway referida a la espiral que lleva a un hombre a la ruina: «gradual y finalmente repentina».

Esto significa que la progresión exponencial registra un crecimiento gradual, inicialmente casi inapreciable, hasta un punto en el que, aparentemente, se produce una repentina aceleración y las cantidades se vuelven inconmensurables, incluso inimaginables y, por lo tanto, nada manejables.

Es decir, de continuar a este ritmo habría una aguda discrepancia entre la potencia de cómputo efectiva de las máquinas (según algunos capaces de evolucionar hasta el punto de permitirles mejorar de manera autónoma y posiblemente desarrollar su propia autoconciencia) y la capacidad del hombre para concebirlo, contenerlo, predecirlo y luego controlarlo. Este momento de profunda cesura toma el nombre de Singularidad. Si bien la singularidad aún representa una conjetura y no recoge un consenso unánime, describe una eventualidad que se presenta cada vez más concreta y lamentablemente cercana.

Masayoshi Son, CEO de Softbank Robotics, en su intervención en el reciente Mobile World Congress celebrado en Barcelona, ​​afirmó que dentro de treinta años el coeficiente intelectual encerrado en un solo microprocesador será muy superior al de los más inteligentes entre nosotros. “Cualquier chip en nuestros zapatos dentro de treinta años será más inteligente que nuestro cerebro. Valdremos menos que nuestros zapatos".

Son basa su predicción en una comparación entre la cantidad de neuronas en nuestro cerebro y la cantidad de transistores en un chip. Según sus cálculos, en 2018 los transistores harán el fatídico adelantamiento y las cifras empezarán a divergir. En un tiempo relativamente corto, los microprocesadores individuales adquirirán un CI estimado en torno a los 10.000, en cambio las mentes más brillantes de la historia de la humanidad difícilmente llegan a los 200. Habrá, por tanto, que medirnos con lo que Son define como "Superinteligencia". “Es decir, una inteligencia que está más allá de la imaginación de las personas [sin importar] cuán inteligente sea uno. No obstante, estoy convencido de que dentro de treinta años todo esto será una realidad». Por tanto también tenemos una fecha para el advenimiento de la singularidad: 2047.

¿Estamos por tanto cerca y destinados a sucumbir? Son dice que es optimista y confiado en un futuro donde el hombre y las máquinas puedan coexistir y colaborar. “Creo que esta superinteligencia se convertirá en nuestro socio. Si abusamos de ella, supondrá un riesgo. Si lo usamos siguiendo intenciones honestas [buen ánimo] será nuestro compañero en una vida mejor».

Creo que debemos prestar mucha atención a cómo se adopta la inteligencia artificial... Por lo tanto, creo que es importante para la seguridad pública que necesitamos un gobierno que vigile de cerca la inteligencia artificial y se asegure de que no represente un peligro para las personas.

La singularidad es una gravísima amenaza para el hombre

Google anunció recientemente los resultados de una investigación realizada sobre la IA desarrollada por su DeepMind, que demostró ser capaz de superar con AlphaGo, aprendiendo juego tras juego (aprendizaje profundo), primero al campeón europeo de Go y finalmente al mundial. Aunque estos son resultados preliminares y aún no se ha publicado ningún estudio definitivo, la evidencia muestra que la IA avanzada podría adaptarse y aprender del entorno en el que opera. Además, cuando se ve acorralado y corre el riesgo de sucumbir, opta por utilizar estrategias definidas como "extremadamente agresivas" para poder ganarlo. "Los investigadores sugieren que cuanto más inteligente es el agente, más capaz es de aprender de su entorno y, por lo tanto, puede usar algunas tácticas extremadamente agresivas para salir victorioso".

Varias voces autorizadas han expresado su temor de que una IA particularmente avanzada pueda representar una amenaza muy concreta. Entre estos está el de Stephen Hawking, quien cree que incluso la continuidad de la especie puede estar en riesgo: “El desarrollo de la inteligencia artificial completa podría significar el fin de la raza humana”.

Hawking, Musk y otras personalidades importantes, como por ej. Steve Wozniak y Noam Chomsky, han firmado una carta abierta, advirtiendo sobre los riesgos inherentes al desarrollo de sistemas de armas autónomos y pidiendo su prohibición por parte de la ONU. «La tecnología de inteligencia artificial ha alcanzado un nivel en el que el desarrollo de armas autónomas es, de facto si no legal, una cuestión de años, no de décadas. Y hay mucho en juego: las armas autónomas han sido descritas como la tercera revolución en armamentos, después de la pólvora y las armas nucleares.

La sofisticada IA ​​desarrollada por DeepMind ha demostrado no solo que sabe ser agresivo para imponerse, sino también reconocer e implementar, si resulta útil y necesario, estrategias cooperativas con otras inteligencias artificiales. «… el mensaje es claro, enfrentamos diferentes sistemas de IA contra intereses contrapuestos en situaciones de la vida real, y podría producirse una guerra total si sus objetivos no se equilibran con el objetivo final de beneficiar por encima de todo a los seres humanos». La enorme complejidad determinada por una inteligencia artificial formada por innumerables redes interconectadas constituye, en sí misma, un desafío que podría resultar muy superior a la capacidad del hombre para gobernarla.

Los efectos secundarios de la IA

Sin embargo, incluso antes de que una Superinteligencia resulte letal en el campo de batalla o incluso decida volverse contra la humanidad, como la supercomputadora Skynet en The Terminator, existen otros peligros adicionales. Hace un tiempo Musk ya había advertido de los posibles efectos secundarios, fatales o en todo caso desagradables que podían surgir en situaciones y por motivos, si se quiere, mucho más triviales. Por lo tanto, debemos ser extremadamente cuidadosos y cautelosos al programar nuestros dispositivos inteligentes. La IA mal programada, dice Musk con hipérbole, “podría concluir que todos los humanos infelices deberían ser eliminados. …O que todos deberíamos ser atrapados y tratados con dopamina y serotonina inyectadas directamente en el cerebro para maximizar la felicidad, porque llegó a la conclusión de que son la dopamina y la serotonina las que inducen la felicidad, por lo que la potencian al máximo”. Una vez más, cuanto más crece la complejidad de los sistemas inteligentes y aumenta su capacidad para conectarse y trabajar en red, mayor es la dificultad de gestionar y predecir los efectos de su trabajo.

Recientemente un nutrido grupo de científicos, investigadores y emprendedores (actualmente 3441), firmaron una carta abierta redactada con motivo de la conferencia Asilomar 2017, del Instituto Futuro de la Vida, con el objetivo de señalar un conjunto de pautas, entre ellas éticos, que deben informar la investigación en el campo de la inteligencia artificial. Los Principios de IA de Asilomar, en veintitrés puntos, "van desde las estrategias de investigación hasta la protección de datos, pasando por cuestiones futuras, incluida una posible superinteligencia". El objetivo, una vez más, es tratar de orientar el progreso de la IA hacia el interés común y asegurar un futuro beneficioso para toda la humanidad. “No soy partidario de la guerra, y creo que podría ser extremadamente peligroso... Obviamente, creo que la tecnología tiene un potencial enorme, e incluso con las capacidades que poseemos hoy, no es difícil imaginar cómo podría usarse de manera particularmente dañina. maneras”, dijo Stefano Ermon, del Departamento de Ciencias de la Computación de la Universidad de Stanford, uno de los firmantes del documento.

Stephen Hawking, también firmante de los Principios de IA de Asilomar, fue el autor de un lúcido y sentido artículo aparecido el pasado mes de diciembre en “The Guardian”, con el significativo título: Esta es la era más peligrosa para nuestro planeta. El reconocido astrofísico subraya cómo la humanidad tendrá que lidiar con enormes cambios sociales y económicos. A los efectos inducidos por la globalización, el aumento de las desigualdades y la concentración de la riqueza y los recursos en manos de unos pocos, se sumarán «… la aceleración de la transformación tecnológica». Como si eso no fuera suficiente, "Nos enfrentamos a desafíos ambientales asombrosos: cambio climático, producción de alimentos, superpoblación, aniquilación de otras especies, epidemias, acidificación de los océanos".

Todas estas evidencias constituyen tanto una advertencia como una amenaza inminente. Las consecuencias son claras para todos: «Juntos, nos recuerdan que estamos en el momento más peligroso para el desarrollo de la humanidad. Actualmente tenemos la tecnología para destruir el planeta en el que vivimos, pero aún no hemos madurado la posibilidad de abandonarlo".

Por tanto, concluye Hawking, "para mí, el aspecto realmente relevante de todo esto es que hoy, más que en cualquier otro momento de nuestra historia, nuestra especie tiene la necesidad de trabajar junta". Cooperad, pues, colaborad, cuidad de los que han quedado y, más aún, de los que quedarán, reducen las desigualdades, unen en lugar de dividir, comparten y trabajan por el bien común, no por el interés de unos pocos. El avance de la inteligencia artificial jugará un papel importante en este escenario. Podrá exacerbar los desequilibrios y las desigualdades, hacer implosionar la sociedad tal como la conocemos hoy o ayudar a suavizar los conflictos y las diferencias.

Aprende de la historia

Vuelven las palabras de Masayoshi Son respecto al futuro de la IA: «Si abusamos de ella, constituirá un riesgo. Si lo usamos siguiendo intenciones honestas [buen ánimo] será nuestro compañero en una vida mejor». Hawking, a pesar de todo, se muestra confiado: «Podemos hacerlo, soy enormemente optimista por mi especie; pero todo esto requerirá que las élites, desde Londres hasta Harvard, desde Cambridge hasta Hollywood, aprendan las lecciones del año pasado. En primer lugar, que aprendan una pizca de humildad». Si miramos al pasado, las élites casi nunca han brillado por la visión de futuro y menos por la humildad. Sin embargo, las transformaciones en curso y el riesgo potencial final de una eventual extinción requieren un cambio de dirección que también beneficia a los pocos que se benefician del statu quo. No hay duda de que las élites son conscientes de ello, pero la verdadera pregunta es: ¿ellos también están íntimamente conscientes y convencidos de ello? Después de todo, la lección que nos viene de la historia nos insta a no permanecer indolentes y demorarnos porque, como el propio Hawking reconoce con tristeza, «… seamos realistas, es sobre todo la historia de la estupidez».

Revisión