¿Qué tan peligrosa es la inteligencia artificial?Tecnología 

¿Qué tan peligrosa es la inteligencia artificial?


Crédito: Shutterstock
9 de abril de 2019  • 15:02

“Es peligroso estar vivo y los riesgos abundan en todas partes. Afortunadamente, no todos los riesgos son igualmente serios”, escribía Nick Bostrom en 2002. En aquella oportunidad definía, e inauguraba, la disciplina dedicada a estudiar los riesgos existenciales, es decir, todas aquellas amenazas que pudieran causar la extinción humana o destruir la posibilidad de vida en la Tierra.

Entre las amenazas que Bostrom identificaba se encontraban algunas más bien esperables (holocausto nuclear) pero también algunas casi delirantes, como la posibilidad de que estemos
viviendo en una simulación y que esta fuera apagada. Pero entre ellas asomaba una que cobraría mucha más importancia en las décadas posteriores: la posibilidad de nuestra aniquilación en las manos de una “superinteligencia mal programada”.

El tema nunca abandonó los intereses de Bostrom y ya en 2013,
alertaba concretamente sobre “amenazas sobre las que no tenemos historial de supervivencia”, tales como
“biología sintética, nanotecnología e inteligencia artificial”. Sobre este último punto es que se extendió largamente en
Superinteligencia (2014), donde en un denso ejercicio especulativo exploró las consecuencias que podría tener el desarrollo de una inteligencia artificial superior a la humana, que fuera de control podría suponer un riesgo existencial.

Afortunadamente hay poca discusión al respecto y prácticamente hay consenso de que estamos tan lejos de lograr una inteligencia artificial general como alguna vez hemos estado. Sin embargo, las discusiones respecto del peligro que podría suponer -ya no en términos existenciales- el uso de inteligencia artificial con distintos propósitos siguen más vigentes que nunca.

Escrito por computadora

Uno de los últimos episodios, desparramado en titulares por todo el mundo, fue el que protagonizó el laboratorio de investigación sin fines de lucro de OpenAI, fundado por Elon Musk y Sam Altman en 2015, que en febrero de este año hizo mucho alboroto al optar por no compartir la versión completa de un programa por sus potenciales “aplicaciones maliciosas”.

La decisión, terriblemente atípica entre investigadores que generalmente comparten sus avances junto con código para que otros puedan meter mano y avanzar la investigación, fue generalmente repudiada. La apertura y la transparencia, sin más, fueron algunos de los motores iniciales detrás de esfuerzos como OpenAI y Deep Mind, perteneciente a Alphabet.

Las primeras burlas no tardaron en sucederse: “Nuestro laboratorio ha hecho un gran descubrimiento”, escribía alguien mofándose en Twitter, “pero tememos que caiga en las manos equivocadas” y por eso no podían darse más detalles. Pero también,
como señala James Vincent en The Verge, el ardid puso en evidencia ciertos desafíos que enfrentan quienes investigan en IA, como la forma de comunicar avances con una prensa insoportablemente ávida de las exageraciones y el sensacionalismo, o el problema de balancear la apertura con la divulgación responsable.

Lo que OpenAI estaba presentando era un algoritmo generador de texto llamado GPT-2 cuya gracia está en que
puede completar escritos a partir de apenas una línea. Suena mucho más impresionante de lo que es, pero su complejidad está en que luego de haber sido entrenado con una enorme cantidad de textos el programa puede manejarse con una impresionante flexibilidad. Es menos preciso que otros programas sobre temas específicos pero en su versatilidad reside su potencia.

Si bien los textos que el programa escupe son más bien carentes de sentido, lo notable es que puede redactarlos sin incorporación de reglas, ni nociones respecto de cómo opera el lenguaje, ni ningún otro dato más que el texto mismo. Puesto en perspectiva, el logro no es menor pero definitivamente no amerita el pánico que persiguieron con el anuncio.

Corran por sus vidas, viene el algoritmo escritor

Junto con el anuncio, OpenAI publicó un artículo describiendo el funcionamiento de GPT-2 y subió una versión reducida del mismo, pero reservándose los datos con los que fue entrenado y el modelo completo. Esto resultó atípico en tanto es costumbre compartir código, datos y modelos para que las discusiones puedan ser informadas. Citando la preocupación por la “seguridad” y la posibilidad de que su programa fuera utilizado con fines maliciosos, los investigadores de OpenAI se aseguraron una desmesurada cobertura mediática, y el recelo de sus colegas.

Una de las mejores críticas fue la que publicó Anima Anandkumar, directora de investigación en machine learning de Nvidia, que
extendió un argumento a favor de la apertura y accesibilidad de la investigación. Incluso si el programa fuera tan peligroso como dicen,
eso haría aun más importante compartirlo.

Cuando hace poco más de cinco años la discusión del riesgo existencial de la inteligencia artificial cobró vuelo, la comparación con las armas nucleares aparentemente se volvió demasiado irresistible. En
un tuit donde recomendaba el libro de Bostrom, Elon Musk alertaba de que la IA es “potencialmente más peligrosa que los misiles nucleares”.

Es difícil siquiera empezar a desarmar todo lo que está mal en esa afirmación, pero por suerte en su momento Peter Rothman
lo supo sintetizar a la perfección. Entre sus argumentos hay uno que se destaca: es impensable la restricción del desarrollo de IA en los mismos términos que restringimos el desarrollo de armas nucleares.

Cómo detener a las máquinas

Aceptemos por un momento la afirmación de que la IA es potencialmente más peligrosa que las armas nucleares. La pregunta es qué deberíamos hacer al respecto, entonces. Siguiendo la historia de la investigación en física nuclear, una primer opción es esconder la investigación. Y eso es efectivamente lo que se hizo, hasta que se detonaron dos de ellas, y ya no se pudo seguir ocultando el secreto.

Pero desde entonces, en uno de los esfuerzos coordinados más impresionantes de la historia, los Estados nacionales se han organizado de manera notable para llevar adelante un aparato de control y seguridad destinado a evitar la proliferación de armas nucleares, formalizado a través de complejos acuerdos entre todo tipo de actores.

En la actualidad es ilegal poseer tanto diseños como materiales vinculados a este tipo de armamento. Cuesta imaginar una analogía con la inteligencia artificial. ¿Podríamos restringir el acceso a materiales para desarrollar estas máquinas? Eso supondría una diferencia esencial entre un programa de contaduría y un algoritmo de “superinteligencia”, o lo que sea.

Respecto de las herramientas, deberíamos verificar cómo y para qué se usan las computadoras, en tanto por definición cualquiera de ellas podría servir para el desarrollo de una inteligencia artificial. La policía debería requisar toda computadora personal, no sea cosa que alguien esté programando a Skynet en su sótano.

No tendría sentido detenerse ahí. Deberíamos también limitar el conocimiento de matemáticas y la aplicación de ciertas funciones implementadas en algoritmos. Sería ridículo, pero tampoco es que no haya sucedido: desde la Segunda Guerra Mundial en Estados Unidos el conocimiento criptográfico fue considerado un tipo de munición y su circulación intensamente controlada. Recién en los 90s por la masificación de las computadoras e internet la situación mejoró. Siguiendo a Musk deberíamos asumir que la mera posesión de algoritmos de machine learning significa un peligro.

Los argumentos se siguen respecto del problema de incluso definir qué hace a un algoritmo de inteligencia artificial, ni siquiera uno “superinteligente”, como inocuo o amenazante. Como consecuencia del
teorema de Rice podríamos asumir que en general es imposible saber cuál será el comportamiento de un algoritmo de inteligencia artificial a priori.

Quizá lo más notable es asumir que el peligro no reside en lo que de hecho hoy ya estamos desarrollando. O, incluso peor, que hoy mismo entendemos cuáles son las consecuencias de los desarrollos que llevamos a cabo. Es imaginable un régimen de control sobre el desarrollo de inteligencia artificial, pero el escenario que se dibujaría sería profundamente nocivo para la empresa intelectual humana. Los incentivos para el desarrollo de la computación, y de la matemática aplicada en general, se verían insoportablemente pulverizados en un instante.

El pánico generalizado frente al desarrollo de la inteligencia artificial, señala Rothman, no es más que la última expresión de la guerra contra la computación y su alcance. Si bien no tratan exactamente sobre eso, Rothman también recuerda dos ensayos de Cory Doctorow, uno sobre
la guerra contra la computación general, y otro sobre
la creciente pérdida de control de nuestros dispositivos.

La conclusión general, siguiendo a ambos, es que nunca va a ser más difícil que ahora crear una “inteligencia artificial peligrosa”, pero cualquier esfuerzo por limitar esto nos saldrá más caro e indefectiblemente “pondrá en riesgo la libertad y apertura en nuestra sociedad”.

Más peligroso que una computadora

Decir que tal o cual cosa es más peligroso que las armas nucleares queda bien en un escenario, levanta titulares en todos lados y probablemente resuene en muchas personas preocupadas. Pero es la idea misma de que la inteligencia artificial sea más peligrosa que las armas nucleares la que es profundamente peligrosa en sí misma.

La visión que se promueve al reducir la apertura y la transparencia en el desarrollo de la inteligencia artificial es la de un mundo en el que vivimos rodeados de máquinas inmensamente complejas cuyo funcionamiento debemos ignorar, por seguridad o lo que fuere.

Una sociedad libre se cimenta en la persecución de la curiosidad y la exploración de los límites del conocimiento humano. Ceder ante la exageración, incluso cuando las intenciones parezcan buenas, es un peligro mayor al de las armas nucleares.

Noticias Relacionadas

Leave a Comment