Los riesgos de la Inteligencia Artificial

Ricardo Vega

Ricardo Vega / 28 abril 2015

⏰ 9 minutos

En el anterior post, traté de mostrar los diferentes opiniones sobre los riesgos de la Inteligencia Artificial que recientemente han manifestado figuras notables de la ciencia y la tecnología. Te había prometido que hoy seguiría profundizando en ese tema, pero esta vez con mi opinión personal al respecto. [caption id="attachment_1864" align="aligncenter" width="1024"][Mr Robot has some RAM - Chris Isherwood. Original vía
Flickr]1 Mr Robot has some RAM - Chris Isherwood. Original vía Flickr[/caption] Mi opinión se asemeja bastante a la del director de ingeniería de Google, Ray Kuzweil, salvando las distancias. A partir  de aquí, voy a hacer un análisis más profundo del tema. Para empezar, es muy llamativo el hecho de que personas de un perfil tan tecnológico muestren de forma tan abierta su temor hacia la Inteligencia Artificial. En especial si tenemos en cuenta que por ejemplo Tesla Motors está haciendo grandes avances en ella a lo largo del camino que les está llevando a su propio coche autónomo o cómo Apple y Microsoft están trabajando en asistentes personales (Siri y Cortana respectivamente) que precisamente buscan "entender" al usuario para contestar de una forma relativamente humana. Por otra parte, sabido es que Stephen Hawking emplea un sistema computerizado de IBM que busca anticiparse a las palabras del cosmólogo inglés para poder comunicarse lo más rápido posible. Todos ellos son ejemplos en donde la Inteligencia Artificial se esta desarrollando de forma relativamente rápida, conduciendo a grandes avances tecnológicos y elevadas inversiones humanas y de capital. La decisión sobre la peligrosidad o conveniencia de la Inteligencia Artificial no es para nada una tarea sencilla. Uno de los grandes problemas que me encuentro en este análisis es contestar a la pregunta ¿qué es la inteligencia?

Posiblemente este sea uno de los grandes escollos que nos encontramos a la hora de desarrollar sistemas inteligentes artificiales: debemos conocer antes como funciona nuestra propia mente para poder luego replicarla.

[caption id="attachment_594" align="aligncenter" width="800"][Imagen:
http://www.stockvault.net]2 Imagen: http://www.stockvault.net\[/caption\] Una característica que asocio a la inteligencia es nuestra capacidad para construir pensamientos complejos y alejados del simple instinto de supervivencia como puede ser la capacidad de bromear. Somos seres emocionales que pensamos y sentimos. Sin embargo, está claro que esa clase de inteligencia no es replicable a día de hoy (ni parece que vaya a serlo en pocos años). Aunque se han producido enormes avances en máquinas emocionales como por ejemplo Nao, creado por científicos europeos en 2010 y considerado el primer robot con sentimientos. Sus características hacen que sea capaz no sólo de entender las emociones más básicas sino que es capaz de aprender por si sólo a replicarlas. Nao puede devolver respuestas emocionales como tristeza, miedo o alegría lo que le permite interactuar con seres humanos de una forma más natural. Además es capaz de recordar caras y comportamientos, creando patrones y asociándolos a personas. Esencialmente, es capaz de desarrollar por si solo una personalidad básica.

Sin embargo, y como imaginarás, está aún a años luz del ser humano. En cuanto nos salimos de emociones básicas y presentamos emociones o comportamientos complejos como el humor o la ironía, Nao, simplemente, no es capaz de llevar a cabo ningún tipo de asociación "mental". Otro signo del temprano desarrollo de la Inteligencia Artificial emocional es la total incapacidad para llevar la iniciativa en una conversación, sabiendo elegir tiempos, temas y emociones. Para Nao es impensable saber cuál es el momento en el que iniciar una conversación y qué tema puede ser apropiado para esa situación. Los principales avances en Inteligencia Artificial durante los últimos años han estado centrados en lo que llamamos máquinas predictivas, capaces de hacer razonamientos complejos basándose en algoritmos, lógica y potencia de cálculo pero incapaces de comprender al ser humano. Precisamente, todos los ejemplos que anteriormente he comentado que utilizan esos ilustres detractores de la Inteligencia Artificial se basan en este tipo de IA. Son sistemas predictivos basados no en el conocimiento sobre el ser humano sino en su capacidad lógica. IoT-geolocalizacion Principalmente nos hablan sobre los enormes riesgos derivados de sistemas capaces de evolucionar por si solos y hacerlo de una forma mucho más rápida que la dictaminada por nuestra propia evolución biológica. Tenemos miedo de que, llegado el momento nos vean como una amenaza a su existencia y decidan que lo mejor es deshacernos de nosotros. Parece que estamos hablando de una novela de ciencia ficción donde el ser humano, el inventor, es aniquilado por su hijo, la máquina, pero en realidad, es la opinión de grandes expertos tecnológicos. Para que las máquinas logren esta independencia del ser humano, deberíamos tener máquinas mucho más inteligentes, mucho más "lógicamente" inteligentes. Llegados a este punto, debo decir que estoy de acuerdo con que esta posibilidad es factible aunque dentro de un periodo de tiempo relativamente amplio, aunque para protegernos, como decía Kuzweil, tenemos los valores éticos. Mi visión de una futura Inteligencia Artificial "sostenible" se centra en eliminar precisamente esta distinción entre máquinas emocionales y predictivas. Creo que ambos campos podrían verse mejorados por las fortalezas del otro. Por ejemplo, un algoritmo capaz de saber el tiempo mañana en Barcelona se basa exclusivamente en un conocimiento experto, una serie de datos a procesar y su capacidad para obtener resultados satisfactorios de estos dos factores. No hay rasgo de emoción ni creo que sea necesaria. Ahora bien, pensemos por ejemplo en Siri. El asistente virtual de Apple cruza diferentes datos que obtiene a través del dispositivo móvil para dar recomendaciones personalizadas cuando se le solicitan. Durante el paso del tiempo, aprende de tus comportamientos para darte una experiencia aún mejor. En este proceso no interviene nada que se parezca a las emociones en ningún momento. Simplificando, si estás en un centro comercial y hace tres días viste el trailer de la última película de Spielberg, ten por seguro que esa va a ser tu recomendación. Si le dices que no, asociará que o bien no te gusta ese cine o bien no te gusta la película, o bien has ido de compras en vez de al cine, cuando a lo mejor, simplemente has discutido con tu pareja y queréis tener una cena tranquila en casa. Es un ejemplo muy tonto, pero pone de manifiesto la cantidad de actividades que como seres humanos realizamos influenciados por las emociones por lo que máquinas capaces de entendernos, serán capaces de predecir mejor nuestros gustos, ¿no? Estoy de a acuerdo con que la IA es una disciplina cuya evolución presenta riesgos tan importantes como otras disciplinas como la biotecnología, aunque seguramente menos tomados en serio. Gracias a voces críticas importantes como la de Stephen Hawking, seguramente seamos capaces de concienciar a la gente sobre estos riesgos. Una vez conocidos estos, podemos trabajar bajo un autocontrol ético que ponga límites a lo que podemos hacer; ¿todo puede ser realizado por robots?. [caption id="attachment_1868" align="aligncenter" width="1024"][Wall-E Working - Arthur Caranta. Original vía
Flickr]3 Wall-E Working - Arthur Caranta. Original vía Flickr[/caption] El desarrollo de esta Inteligencia Artificial más fría y lógica sigue los pasos que propuso Asimov con sus famosas tres leyes de la robótica y donde ya nos hemos encontrado situaciones donde se contradicen como por ejemplo la siguiente:

Si un coche autónomo no puede evitar un accidente en el que están implicados el "piloto" y su acompañante y un niño que cruza por la carretera, ¿qué debe elegir? Situaciones como esta se plantean en obras de Ciencia Ficción como "Yo Robot" pero se han convertido ya en una realidad llena de aristas y rincones oscuros que nadie quiere afrontar. Tenemos el objetivo de construir máquinas y dispositivos capaces de sentir una verdadera empatía hacia los seres humanos, aunque, vuelvo a decir, tenemos la gran limitación de necesitar antes descubrir bien como funcionamos nosotros antes de atrevernos a implementarlo artificialmente. En cuanto a la repetida "profecía" de "las máquinas quitarán el trabajo a los hombres" estoy parcialmente de acuerdo. Sin duda, muchas máquinas quitarán el trabajo a un número aún mayor de personas pero pienso que otras profesiones surgirán por contra. No estoy pensando exclusivamente en el cliché de "equipo de mantenimiento de las máquinas" sino más bien en la visión que expone Shyam Sankar en esta conferencia de TED. En ella, defiende una nueva era donde máquinas y humanos crearán una reacción simbiótica que explote las mejores capacidades de cada uno de ellos.

Estamos acostumbrados a la capacidad disruptiva de las nuevas tecnologías en mercados muy consolidados. Por poner un ejemplo, Amazon ha puesto patas arriba el mercado editorial, quitando muchos puestos de trabajo en librerías de barrio y dando la opción de convertirse en escritores a muchas más personas que antes. Creo que la evolución de las máquinas en general seguirá el mismo camino, cerrará puertas a costa de abrir nuevas oportunidades, creando una coexistencia de máquina-hombre donde ambos serán necesarios. Además pienso que el poder auto-regulador del sistema hará que el equilibrio se conserve por el simple hecho de que, si tus compradores viven de forma directa o indirecta del trabajo que les das, ¿por qué ibas a querer destruir a tus trabajadores por máquinas que sabes que no te van a comprar? Yo estoy convencido de que el sentido común y la ética serán los guardianes que nos salvaguarden de sus riesgos. En realidad, ahora mismo, depende más de la mirada y ética de los humanos que de las máquinas en sí debido a su temprano desarrollo. Me encantaría conocer tu opinión al respecto. Por eso te pido que emplees los comentarios para expresarte.  También me gustaría pedirte que compartieras esta entrada en tus redes sociales para poder hacer el debate más amplio. ¡Nos vemos en la próxima entrada!

Subscríbete a mi newsletter

Actualmente estoy llevando a cabo algunos cambios en mi Newsletter y no es posible apuntarse 😞

Ver ediciones pasadas