«Todo lo que amamos de la civilización es un producto de inteligencia, por lo que amplificar nuestra inteligencia humana con inteligencia artificial tiene el potencial de ayudar a que la civilización florezca como nunca antes, siempre y cuando logremos mantener la tecnología beneficiosa».

Max Tegmark, Presidente del Future of Life Institute

Una de las tendencias tecnológicas que más promete cambios es la Inteligencia Artificial y por eso, tenemos que entender exactamente que es, para que sirve y como puede ser usada. 

¿Qué es la IA?

Desde SIRI, hasta los vehículos autónomos, la inteligencia artificial (IA) está progresando rápidamente. Mientras que la ciencia ficción a menudo retrata a la IA como robots con características humanas, la IA puede abarcar cualquier cosa, desde los algoritmos de búsqueda de Google hasta armas autónomas.

Y después de leer este ilustrativo artículo que te responderá muchas dudas, no dejes de leer nuestro artículo sobre el futuro de las tragamonedas de video

Hoy en día, la inteligencia artificial se conoce correctamente como Inteligencia Artificial  estrecha o débil, ya que está diseñada para realizar una tarea limitada (por ejemplo, solo reconocimiento facial o solo búsquedas en Internet, o solo conducir un automóvil). Sin embargo, el objetivo a largo plazo, es crear una IA general (AGI o IA fuerte). Mientras que la IA estrecha puede superar a los humanos en cualquier tarea específica, como jugar al ajedrez o resolver ecuaciones, la AGI superaría a los humanos en casi todas las tareas cognitivas.

¿Por qué investigar la seguridad de la IA?

A corto plazo, el objetivo de mantener beneficioso el impacto de la IA en la sociedad motiva la investigación en muchas áreas, desde economía y derecho hasta temas técnicos como la verificación, validez, seguridad y control. 

A largo plazo, una pregunta importante es qué sucederá si la búsqueda de una IA fuerte tiene éxito y un sistema de IA se vuelve mejor que los humanos en todas las tareas cognitivas. Un sistema de este tipo podría potencialmente experimentar una superación recursiva, lo que provocaría una explosión de inteligencia que dejaría atrás al intelecto humano. Al inventar nuevas tecnologías revolucionarias, esta superinteligencia podría ayudarnos a erradicar la guerra, la enfermedad y la pobreza, por lo que la creación de una IA fuerte podría ser el evento más grande en la historia de la humanidad. Sin embargo, algunos expertos han expresado su preocupación de que también podría ser el último evento de la humanidad, a menos que aprendamos a alinear los objetivos de la IA con los nuestros antes de que se vuelva “superinteligente”.

Hay algunos que se preguntan si alguna vez se logrará una inteligencia artificial fuerte, y otros que insisten en que se garantiza que la creación de una inteligencia artificial superinteligente será beneficiosa. El potencial de que un sistema de inteligencia artificial pueda causar gran daño de manera intencional o no intencional, también es una opción presente y preocupante. Creemos que la investigación de hoy nos ayudará a prepararnos mejor y prevenir tales consecuencias potencialmente negativas en el futuro, por lo que disfrutaremos de los beneficios de la IA y evitaremos cualquier contratiempo o caos que esta pueda causar.

¿Cómo puede ser peligrosa la IA?

La mayoría de los investigadores están de acuerdo en que es poco probable que una inteligencia artificial superinteligente muestre emociones humanas como el amor o el odio, y que no hay razón para esperar que la inteligencia artificial se vuelva intencionalmente benevolente o malévola. En cambio, al considerar cómo la IA podría convertirse en un riesgo, los expertos piensan que es probable que existan dos escenarios:

La IA está podría programarse para hacer algo devastador: las armas autónomas son sistemas de inteligencia artificial que están programados para matar. En manos de la persona equivocada, estas armas podrían causar bajas masivas fácilmente. Además, una carrera armamentista basada en IA, podría llevar inadvertidamente a una guerra de IA que también resultaría en bajas masivas.

También tenemos que tener en cuenta, que la IA está programada para hacer algo beneficioso, pero desarrolla un método destructivo para lograr su objetivo: esto puede suceder siempre que no logramos alinear completamente los objetivos de la IA con los nuestros, lo cual es sorprendentemente difícil. Como ejemplo podemos hablar del hecho de que a un sistema superinteligente se le asigne un ambicioso proyecto de geoingeniería, asignación que podría causar estragos en nuestro ecosistema como efecto secundario, que además vería los intentos humanos de detenerlo como una amenaza que erradicar.

¿Por qué el reciente interés en la seguridad de la IA?

Stephen Hawking, Elon Musk, Steve Wozniak, Bill Gates y muchos otros grandes nombres de la ciencia y la tecnología han expresado recientemente su preocupación en los medios de comunicación y en cartas abiertas sobre los riesgos que plantea la IA, junto con muchos investigadores líderes en IA. ¿Por qué el tema está de repente en los titulares?

La idea de que la búsqueda de una IA fuerte finalmente tendría éxito fue considerada como ciencia ficción, a siglos o más de distancia. Sin embargo, gracias a los avances recientes, se han alcanzado muchos hitos de la IA, que los expertos consideraron como a décadas de distancia hace solo cinco años, lo que hace que muchos expertos se tomen en serio la posibilidad de la superinteligencia en nuestra vida. Si bien algunos expertos aún adivinan que la IA a nivel humano está a siglos de distancia, la mayoría de las investigaciones de AI expuestas en la Conferencia de Puerto Rico en el año 2015, supusieron que la IA podría alcanzar y superar el nivel humano antes de 2060. Por lo tanto, como puede llevar décadas completar la investigación de seguridad requerida, es prudente comenzar ahora. .

Debido a que la IA tiene el potencial de volverse más inteligente que cualquier humano, no tenemos una manera segura de predecir cómo se comportará. No podemos utilizar los desarrollos tecnológicos del pasado como una base, porque nunca hemos creado nada que tenga la capacidad de, de manera inteligente o inconsciente, superarnos. 

Las controversias interesantes

No sabemos qué sucederá en el futuro pero hay muchas interrogantes que nos debemos empezar a hacer como  ¿Qué tipo de futuro queremos? ¿Debemos desarrollar armas autónomas letales? ¿Qué nos gustaría que pasara con la automatización del trabajo? ¿Qué consejo profesional les podemos dar a los niños de hoy? ¿Son preferibles nuevos trabajos que sustituyan a los antiguos o una sociedad sin trabajo donde todos disfruten de una vida de ocio y riqueza producida por máquinas? ¿Es positivo crear vida superinteligente y difundirla a través de nuestro cosmos? ¿Controlaremos a las máquinas inteligentes o nos controlarán a nosotros? ¿Las máquinas inteligentes nos reemplazarán, coexistirán con nosotros o se fusionarán con nosotros? ¿Qué significará ser humano en la era de la inteligencia artificial? 

Son preguntas que aún no tienen respuestas claras pero que avizoran el panorama del futuro cercano en donde la IA se impondrá en casi todas las áreas de nuestra vida.

Leave a Reply