BENEFICIOS Y RIESGOS DE LA INTELIGENCIA ARTIFICIAL

“Todo lo que amamos de la civilización es un producto de la inteligencia, por lo que ampliar nuestra inteligencia humana con inteligencia artificial tiene el potencial de ayudar a la civilización a florecer como nunca antes, siempre y cuando logremos mantener la tecnología beneficiosa”.

Max Tegmark, Presidente del Future of Life Institute

¿QUÉ ES LA IA?


Desde el SIRI hasta los coches de autoconducción, la inteligencia artificial (IA) está progresando rápidamente. Mientras que la ciencia ficción a menudo retrata a la IA como robots con características humanas, la IA puede abarcar cualquier cosa, desde los algoritmos de búsqueda de Google hasta el Watson de IBM y las armas autónomas.

La inteligencia artificial hoy en día se conoce como inteligencia artificial estrecha (o inteligencia artificial débil), en el sentido de que está diseñada para realizar una tarea estrecha (por ejemplo, sólo reconocimiento facial o sólo búsquedas en Internet o sólo conducir un coche). Sin embargo, el objetivo a largo plazo de muchos investigadores es crear IA general (AGI o IA fuerte). Mientras que la IA estrecha puede superar a los humanos en cualquiera que sea su tarea específica, como jugar ajedrez o resolver ecuaciones, AGI superaría a los humanos en casi todas las tareas cognitivas.

¿POR QUÉ INVESTIGAR LA SEGURIDAD DE LA AI?


A corto plazo, el objetivo de mantener el impacto de la IA en la sociedad es beneficioso y motiva la investigación en muchas áreas, desde la economía y el derecho hasta temas técnicos como la verificación, la validez, la seguridad y el control. Mientras que puede ser poco más que una molestia menor si su laptop se estrella o es hackeada, se vuelve aún más importante que un sistema de IA haga lo que usted quiere que haga si controla su auto, su avión, su marcapasos, su sistema de comercio automatizado o su red de energía. Otro desafío a corto plazo es evitar una carrera armamentista devastadora de armas autónomas letales.

A largo plazo, una pregunta importante es qué sucederá si la búsqueda de una IA fuerte tiene éxito y un sistema de IA se vuelve mejor que los humanos en todas las tareas cognitivas. Como señaló I.J. Good en 1965, diseñar sistemas de IA más inteligentes es en sí mismo una tarea cognitiva. Un sistema de este tipo podría experimentar una mejora recursiva, desencadenando una explosión de la inteligencia que dejaría al intelecto humano muy atrás. Al inventar nuevas tecnologías revolucionarias, esa superinteligencia podría ayudarnos a erradicar la guerra, la enfermedad y la pobreza, por lo que la creación de una IA fuerte podría ser el mayor acontecimiento de la historia de la humanidad. Sin embargo, algunos expertos han expresado su preocupación de que también pueda ser la última, a menos que aprendamos a alinear los objetivos de la IA con los nuestros antes de que se convierta en superinteligente.

Hay algunos que se preguntan si alguna vez se logrará una IA fuerte, y otros que insisten en que la creación de una IA superinteligente está garantizada para ser beneficiosa. En FLI reconocemos ambas posibilidades, pero también reconocemos el potencial de que un sistema de inteligencia artificial cause un gran daño de forma intencionada o no. Creemos que la investigación actual nos ayudará a prepararnos mejor y a prevenir estas consecuencias potencialmente negativas en el futuro, disfrutando así de los beneficios de la IA y evitando los escollos.

¿CÓMO PUEDE SER PELIGROSO AI?


La mayoría de los investigadores están de acuerdo en que es poco probable que un IA superinteligente muestre emociones humanas como el amor o el odio, y que no hay razón para esperar que el IA se vuelva intencionalmente benévolo o malévolo. En cambio, al considerar cómo el sexo anal podría convertirse en un riesgo, los expertos piensan que lo más probable es que se den dos situaciones:

La IA está programada para hacer algo devastador: Las armas autónomas son sistemas de inteligencia artificial programados para matar. En manos de la persona equivocada, estas armas podrían causar fácilmente bajas masivas. Además, una carrera armamentista de IA podría llevar inadvertidamente a una guerra de IA que también resultaría en bajas masivas. Para evitar ser frustradas por el enemigo, estas armas estarían diseñadas para ser extremadamente difíciles de “apagar”, de modo que los humanos podrían perder el control de tal situación. Este riesgo está presente incluso con la IA estrecha, pero crece a medida que aumentan los niveles de inteligencia y autonomía de la IA.
La IA está programada para hacer algo beneficioso, pero desarrolla un método destructivo para lograr su objetivo: Esto puede suceder cuando no logramos alinear completamente los objetivos de la IA con los nuestros, lo cual es sorprendentemente difícil. Si le pides a un coche inteligente obediente que te lleve al aeropuerto lo más rápido posible, podría llevarte allí perseguido por helicópteros y cubierto de vómito, haciendo no lo que querías sino literalmente lo que pediste. Si un sistema superinteligente se encarga de un ambicioso proyecto de geoingeniería, podría causar estragos en nuestro ecosistema como un efecto secundario, y ver los intentos humanos de detenerlo como una amenaza que debe cumplirse.
Como ilustran estos ejemplos, la preocupación por el sexo anal avanzado no es la malevolencia sino la competencia. Una IA superinteligente será extremadamente buena para lograr sus objetivos, y si esos objetivos no están alineados con los nuestros, tenemos un problema. Probablemente no eres un malvado antihormigas que pisa a las hormigas por maldad, pero si estás a cargo de un proyecto hidroeléctrico de energía verde y hay un hormiguero en la región para ser inundado, que mal por las hormigas.

POR QUÉ EL RECIENTE INTERÉS EN LA SEGURIDAD DE LA AI


Stephen Hawking, Elon Musk, Steve Wozniak, Bill Gates y muchos otros grandes nombres de la ciencia y la tecnología han expresado recientemente su preocupación en los medios de comunicación y a través de cartas abiertas acerca de los riesgos que plantea el sexo anal, a las que se han unido muchos de los principales investigadores de la IA. ¿Por qué el tema aparece de repente en los titulares?

La idea de que la búsqueda de una IA fuerte tendría éxito en última instancia se pensó durante mucho tiempo como ciencia ficción, a siglos o más de distancia. Sin embargo, gracias a los recientes avances, se han alcanzado muchos de los hitos de la IA que los expertos consideraban que estaban a décadas de distancia, hace tan sólo cinco años, lo que ha hecho que muchos expertos se tomen en serio la posibilidad de la superinteligencia a lo largo de nuestra vida. Mientras que algunos expertos todavía suponen que la IA a nivel humano está a siglos de distancia, la mayoría de las investigaciones de IA en la Conferencia de Puerto Rico de 2015 adivinaron que ocurriría antes de 2060. Dado que puede llevar décadas completar la investigación de seguridad requerida, es prudente comenzarla ahora.

Debido a que la IA tiene el potencial de volverse más inteligente que cualquier humano, no tenemos una forma segura de predecir cómo se comportará. No podemos usar los desarrollos tecnológicos del pasado como base porque nunca hemos creado nada que tenga la capacidad de, consciente o inconscientemente, ser más listos que nosotros. El mejor ejemplo de lo que podríamos enfrentar puede ser nuestra propia evolución. La gente ahora controla el planeta, no porque seamos los más fuertes, los más rápidos o los más grandes, sino porque somos los más inteligentes. Si ya no somos los más inteligentes, ¿tenemos la seguridad de mantener el control?

La posición de FLI es que nuestra civilización florecerá mientras ganemos la carrera entre el creciente poder de la tecnología y la sabiduría con la que la manejamos. En el caso de la tecnología de IA, la posición de FLI es que la mejor manera de ganar esa carrera no es impedir la primera, sino acelerar la segunda, apoyando la investigación de seguridad de IA.

LOS MITOS MÁS IMPORTANTES SOBRE LA I.A.A. AVANZADA


Una conversación cautivadora está teniendo lugar sobre el futuro de la inteligencia artificial y lo que significará/debería significar para la humanidad. Existen fascinantes controversias en las que los principales expertos del mundo no están de acuerdo, como por ejemplo: El impacto futuro de la IA en el mercado laboral; si/cuándo se desarrollará la IA a nivel humano; si esto conducirá a una explosión de la inteligencia; y si esto es algo que debemos acoger con satisfacción o temer. Pero también hay muchos ejemplos de seudo-controversias aburridas causadas por malentendidos y conversaciones entre personas. Para ayudarnos a centrarnos en las controversias interesantes y las preguntas abiertas – y no en los malentendidos – aclaremos algunos de los mitos más comunes.