Los riesgos de la Inteligencia Artificial

Ricardo Vega / 28 abril 2015
⏰ 9 minutos
En el anterior post, traté de
mostrar los diferentes opiniones sobre los riesgos de la Inteligencia Artificial
que recientemente han manifestado figuras notables de la ciencia y la
tecnología. Te había prometido que hoy seguiría profundizando en ese tema, pero
esta vez con mi opinión personal al respecto. [caption id="attachment_1864"
align="aligncenter"
width="1024"][]1
Mr Robot has some RAM - Chris Isherwood.
Original vía Flickr[/caption]
Mi opinión se asemeja bastante a la del director de ingeniería de Google, Ray
Kuzweil, salvando las distancias. A partir de aquí, voy a hacer un análisis más
profundo del tema. Para empezar, es muy llamativo el hecho de que personas de un
perfil tan tecnológico muestren de forma tan abierta su temor hacia la
Inteligencia Artificial. En especial si tenemos en cuenta que por ejemplo
Tesla Motors está haciendo grandes avances en ella a lo largo del camino que
les está llevando a su propio coche autónomo o cómo Apple y Microsoft están
trabajando en asistentes personales (Siri y Cortana respectivamente) que
precisamente buscan "entender" al usuario para contestar de una forma
relativamente humana. Por otra parte, sabido es que Stephen Hawking emplea
un sistema computerizado de IBM que busca anticiparse a las palabras del
cosmólogo inglés para poder comunicarse lo más rápido posible. Todos ellos son
ejemplos en donde la Inteligencia Artificial se esta desarrollando de forma
relativamente rápida, conduciendo a grandes avances tecnológicos y elevadas
inversiones humanas y de capital. La decisión sobre la peligrosidad o
conveniencia de la Inteligencia Artificial no es para nada una tarea sencilla.
Uno de los grandes problemas que me encuentro en este análisis es contestar a la
pregunta ¿qué es la inteligencia?
Posiblemente este sea uno de los grandes escollos que nos encontramos a la hora de desarrollar sistemas inteligentes artificiales: debemos conocer antes como funciona nuestra propia mente para poder luego replicarla.
[caption id="attachment_594" align="aligncenter"
width="800"][]2
Imagen: http://www.stockvault.net\[/caption\] Una característica que asocio a la
inteligencia es nuestra capacidad para construir pensamientos complejos y
alejados del simple instinto de supervivencia como puede ser la capacidad de
bromear. Somos seres emocionales que pensamos y sentimos. Sin embargo, está
claro que esa clase de inteligencia no es replicable a día de hoy (ni parece que
vaya a serlo en pocos años). Aunque se han producido enormes avances en máquinas
emocionales como por ejemplo Nao, creado por científicos europeos en 2010 y
considerado el primer robot con sentimientos. Sus características hacen que sea
capaz no sólo de entender las emociones más básicas sino que es capaz de
aprender por si sólo a replicarlas. Nao puede devolver respuestas emocionales
como tristeza, miedo o alegría lo que le permite interactuar con seres humanos
de una forma más natural. Además es capaz de recordar caras y
comportamientos, creando patrones y asociándolos a personas. Esencialmente, es
capaz de desarrollar por si solo una personalidad básica.
Sin embargo, y como imaginarás, está aún a años luz del ser humano. En cuanto
nos salimos de emociones básicas y presentamos emociones o comportamientos
complejos como el humor o la ironía, Nao, simplemente, no es capaz de llevar a
cabo ningún tipo de asociación "mental". Otro signo del temprano desarrollo de
la Inteligencia Artificial emocional es la total incapacidad para llevar la
iniciativa en una conversación, sabiendo elegir tiempos, temas y emociones.
Para Nao es impensable saber cuál es el momento en el que iniciar una
conversación y qué tema puede ser apropiado para esa situación. Los principales
avances en Inteligencia Artificial durante los últimos años han estado centrados
en lo que llamamos máquinas predictivas, capaces de hacer razonamientos
complejos basándose en algoritmos, lógica y potencia de cálculo pero incapaces
de comprender al ser humano. Precisamente, todos los ejemplos que anteriormente
he comentado que utilizan esos ilustres detractores de la Inteligencia
Artificial se basan en este tipo de IA. Son sistemas predictivos basados no en
el conocimiento sobre el ser humano sino en su capacidad lógica.
Principalmente nos
hablan sobre los enormes riesgos derivados de sistemas capaces de evolucionar
por si solos y hacerlo de una forma mucho más rápida que la dictaminada por
nuestra propia evolución biológica. Tenemos miedo de que, llegado el momento nos
vean como una amenaza a su existencia y decidan que lo mejor es deshacernos de
nosotros. Parece que estamos hablando de una novela de ciencia ficción donde
el ser humano, el inventor, es aniquilado por su hijo, la máquina, pero en
realidad, es la opinión de grandes expertos tecnológicos. Para que las
máquinas logren esta independencia del ser humano, deberíamos tener máquinas
mucho más inteligentes, mucho más "lógicamente" inteligentes. Llegados a este
punto, debo decir que estoy de acuerdo con que esta posibilidad es
factible aunque dentro de un periodo de tiempo relativamente amplio, aunque para
protegernos, como decía Kuzweil, tenemos los valores éticos. Mi visión de
una futura Inteligencia Artificial "sostenible" se centra en eliminar
precisamente esta distinción entre máquinas emocionales y predictivas. Creo que
ambos campos podrían verse mejorados por las fortalezas del otro. Por ejemplo,
un algoritmo capaz de saber el tiempo mañana en Barcelona se basa exclusivamente
en un conocimiento experto, una serie de datos a procesar y su capacidad para
obtener resultados satisfactorios de estos dos factores. No hay rasgo de
emoción ni creo que sea necesaria. Ahora bien, pensemos por ejemplo en Siri.
El asistente virtual de Apple cruza diferentes datos que obtiene a través del
dispositivo móvil para dar recomendaciones personalizadas cuando se le
solicitan. Durante el paso del tiempo, aprende de tus comportamientos para darte
una experiencia aún mejor. En este proceso no interviene nada que se parezca a
las emociones en ningún momento. Simplificando, si estás en un centro comercial
y hace tres días viste el trailer de la última película de Spielberg, ten por
seguro que esa va a ser tu recomendación. Si le dices que no, asociará que o
bien no te gusta ese cine o bien no te gusta la película, o bien has ido de
compras en vez de al cine, cuando a lo mejor, simplemente has discutido con tu
pareja y queréis tener una cena tranquila en casa. Es un ejemplo muy tonto, pero
pone de manifiesto la cantidad de actividades que como seres humanos realizamos
influenciados por las emociones por lo que máquinas capaces de entendernos,
serán capaces de predecir mejor nuestros gustos, ¿no? Estoy de a acuerdo con
que la IA es una disciplina cuya evolución presenta riesgos tan importantes como
otras disciplinas como la biotecnología, aunque seguramente menos tomados en
serio. Gracias a voces críticas importantes como la de Stephen Hawking,
seguramente seamos capaces de concienciar a la gente sobre estos riesgos. Una
vez conocidos estos, podemos trabajar bajo un autocontrol ético que ponga
límites a lo que podemos hacer; ¿todo puede ser realizado por robots?.
[caption id="attachment_1868" align="aligncenter"
width="1024"][
]3
Wall-E Working - Arthur Caranta.
Original vía Flickr[/caption]
El desarrollo de esta Inteligencia Artificial más fría y lógica sigue los pasos
que propuso Asimov con sus
famosas tres leyes de la robótica
y donde ya nos hemos encontrado situaciones donde se contradicen como por
ejemplo la siguiente:
Si un coche autónomo no puede evitar un accidente en el que están implicados el "piloto" y su acompañante y un niño que cruza por la carretera, ¿qué debe elegir? Situaciones como esta se plantean en obras de Ciencia Ficción como "Yo Robot" pero se han convertido ya en una realidad llena de aristas y rincones oscuros que nadie quiere afrontar. Tenemos el objetivo de construir máquinas y dispositivos capaces de sentir una verdadera empatía hacia los seres humanos, aunque, vuelvo a decir, tenemos la gran limitación de necesitar antes descubrir bien como funcionamos nosotros antes de atrevernos a implementarlo artificialmente. En cuanto a la repetida "profecía" de "las máquinas quitarán el trabajo a los hombres" estoy parcialmente de acuerdo. Sin duda, muchas máquinas quitarán el trabajo a un número aún mayor de personas pero pienso que otras profesiones surgirán por contra. No estoy pensando exclusivamente en el cliché de "equipo de mantenimiento de las máquinas" sino más bien en la visión que expone Shyam Sankar en esta conferencia de TED. En ella, defiende una nueva era donde máquinas y humanos crearán una reacción simbiótica que explote las mejores capacidades de cada uno de ellos.
Estamos acostumbrados a la capacidad disruptiva de las nuevas tecnologías en mercados muy consolidados. Por poner un ejemplo, Amazon ha puesto patas arriba el mercado editorial, quitando muchos puestos de trabajo en librerías de barrio y dando la opción de convertirse en escritores a muchas más personas que antes. Creo que la evolución de las máquinas en general seguirá el mismo camino, cerrará puertas a costa de abrir nuevas oportunidades, creando una coexistencia de máquina-hombre donde ambos serán necesarios. Además pienso que el poder auto-regulador del sistema hará que el equilibrio se conserve por el simple hecho de que, si tus compradores viven de forma directa o indirecta del trabajo que les das, ¿por qué ibas a querer destruir a tus trabajadores por máquinas que sabes que no te van a comprar? Yo estoy convencido de que el sentido común y la ética serán los guardianes que nos salvaguarden de sus riesgos. En realidad, ahora mismo, depende más de la mirada y ética de los humanos que de las máquinas en sí debido a su temprano desarrollo. Me encantaría conocer tu opinión al respecto. Por eso te pido que emplees los comentarios para expresarte. También me gustaría pedirte que compartieras esta entrada en tus redes sociales para poder hacer el debate más amplio. ¡Nos vemos en la próxima entrada!
Subscríbete a mi newsletter
Actualmente estoy llevando a cabo algunos cambios en mi Newsletter y no es posible apuntarse 😞