El próximo Einstein será una combinación de personas y máquinas

MIGUEL G. CORRAL 

Geoffrey Hinton no es un programador, un experto en construir complejos algoritmos de los que dirigen nuestra vida sin que apenas lo notemos desde Facebook o Google. Él es un entrenador. Claro que, para proponer los ejercicios a su pupilo, antes tiene que construirlo.

El trabajo de este catedrático emérito en Ciencias de la Computación de la Universidad de Toronto e investigador en Ingeniería de Google se ha centrado desde hace décadas en construir máquinas que funcionen como el cerebro humano, conocido como deep learning. "Ya no se trata de programar a mano absolutamente todo lo que quieres que haga un ordenador. Es mejor que aprenda por sí mismo a partir de ejemplos", asegura.
Y en esas está. De él han partido herramientas que ya forman parte de nuestro día a día como el reconocimiento de voz de nuestro teléfono móvil o los traductores online, y por ello fue merecedor del Premio Fundación BBVA Fronteras del Conocimiento en 2017. Desde su posición privilegiada de protagonista del avance de la inteligencia artificial vislumbra un futuro en el que la verdadera inteligencia vendrá de la unión del ser humano y las máquinas inteligentes.
Su trabajo se ha centrado en crear sistemas de inteligencia artificial que imiten el funcionamiento del cerebro humano. 
 
P- ¿Seremos algún día capaces de diseñar un cerebro artificial que pueda pensar, aprender o sentir como el nuestro?
 
R- Creo que nuestros hijos podrán. No veo ninguna razón por la que una red de neuronas simuladas no pueda hacer las mismas cosas que hace una red de neuronas real. Esto podría ser muy útil para interactuar con el mundo físico conectándolo a sensores y a moléculas capaces de emitir una respuesta. Y también podría ser interesante para simular el tipo de reacciones en cadena que la biología produce usando las hormonas. No creo que haya ninguna razón que nos haga pensar que es imposible.

P- Entonces, ¿tendremos en el futuro supercerebros, igual que hoy tenemos superordenadores, que puedan pensar nuevas teorías en Física o estrategias financieras revolucionarias? ¿El próximo Albert Einstein podría ser una máquina?
 
R- Creo que es una posibilidad real, pero me parece más posible que el próximo Einstein sea una sinergia, una combinación, entre personas y máquinas, lo que es considerablemente más poderoso que cada uno de ellos por separado.

P- Y si estamos equivocados y el mejor modelo para alcanzar la inteligencia artificial no es el cerebro...

R- Bueno, hay otros modelos. Es ya posible desde un punto de vista práctico implementar inteligencia para crear manipulaciones sintácticas de expresiones simbólicas. En principio, esto ya es posible. Sin embargo, la comunidad científica de la inteligencia artificial pasó cerca de medio siglo tratando de hacer este trabajo y, la verdad, no llegó demasiado lejos. El cerebro nos sugiere que usando grandes vectores de actividad neuronal que tienen efectos causales directos en otros grandes vectores de actividad neuronal es una forma mucho mejor de desarrollar inteligencia, sobre todo si lo que quieres es que aprenda de los datos en lugar de programar a mano absolutamente todo.

P- Si las máquinas pueden llegar a tener sentimientos, ¿no puede llegar a ser un problema si desarrollan preferencias y trabajan de forma diferente dependiendo de quién maneje la máquina o de para quién sean los resultados?
 
R- Eso podría pasar. Sería un problema que nos resultaría muy familiar porque es exactamente como ocurre con las personas. Puede ser un inconveniente, pero es posible vivir con él.

P- 2001: Una odisea del espacio popularizó la idea de máquinas fuera de control que pueden llegar a competir con los seres humanos por el poder. ¿Esto podría ocurrir?
 
R- Creo que estamos muy lejos de eso. Todavía tenemos mucho tiempo por delante para pensar sobre eso y comprenderlo mejor. Pero me parece que tiene sentido que alguien se ponga a pensar en estas cosas ya, y lo mejor sería que lo hiciesen expertos que comprendan realmente la tecnología actual, no sólo filósofos.

P- Me gustaría que usted hiciera un ejercicio de imaginación. ¿Cuáles serán las aplicaciones más rompedoras y sorprendentes de la IA que se puede usted imaginar en el futuro?
 
R- Creo que la aplicación más importante será algo que no le ocurre a la mayoría de la gente: la IA cambiará radicalmente las sociedades humanas dándonos un conocimiento muchísimo más profundo de la naturaleza del ser humano. Creo que la visión de que la inteligencia se trata sólo de razonar y de que ese razonamiento es sólo un símbolo interno de manipulación es completamente erróneo. Creo que la intuición es mucho más importante que el razonamiento y la intuición está basada en analogías, no en inferencias lógicas. El deep learning (o aprendizaje profundo) está empezando a revelar cómo funciona la intuición.


No es difícil engañar al cerebro humano. Mediante ilusiones ópticas, la vista puede hacer que el cerebro interprete las cosas erróneamente. De la misma forma, modificaciones muy leves de una imagen original, de unos pocos píxeles, pueden engañar a una máquina y hacerle creer que un objeto representado es completamente distinto a la realidad. Y resulta mucho más fácil engañar a una máquina que a un humano. Así lo asegura el ingeniero Luis Muñoz González, cuyo trabajo en el Imperial College de Londres consiste precisamente en descubrir los puntos débiles de los sistemas de Inteligencia Artificial (IA) para hacerlos más seguros y prevenir ataques.
Su campo se llama Adversarial machine learning y, según explica, "es una intersección del machine learning (aprendizaje de máquinas) y la seguridad". Nació hace una década con el auge de la IA, que se ha convertido en el componente clave de muchos sistemas: "Por un lado, tratamos de diseñar ataques sofisticados que sean capaces de comprometer estos sistemas de IA, no sólo para mostrar su vulnerabilidad sino para tratar de proponer mejores sistemas de defensa", relata Muñoz, investigador del grupo Resilient Information Systems Security ( RISS ) del Departamento de Computación del Imperial College.

"Es necesario que nos adelantemos y que seamos capaces de comprender las vulnerabilidades de estos sistemas y las peores situaciones que se pueden dar. Por otro lado, está la investigación sobre los mecanismos de defensa para mitigar esos ataques", dice este ingeniero salmantino afincado en Reino Unido desde hace tres años y medio.
Un ejemplo de que el aprendizaje de máquinas es un proceso vulnerable que hace que los sistemas se comporten a veces de forma imprevista es el chatbot Tay , diseñado por Microsoft para interactuar con jóvenes en Twitter imitando su lenguaje y aprendiendo de sus intercambios con ellos.
Aunque al inicio reproducía la jerga y las expresiones utilizadas por ellos, apenas 16 horas después de su debut la compañía interrumpió su servicio: Tay estaba escribiendo tuits racistas y sexistas porque algunos usuarios habían colgado mensajes ofensivos, que habían envenenado los datos usados por este sistema de IA para actualizar el entrenamiento previo.
Pero la vulnerabilidad de los algoritmos, de los que dependen ya numerosos componentes y servicios, es una oportunidad para que los cibercriminales lleven a cabo actividades ilícitas y lucrativas.
Así, durante el último año se han producido varios ataques de malware, un programa o software malicioso que intenta infiltrarse o dañar un ordenador o un sistema: "Encripta los ficheros y te pide una recompensa. Se está empezando a usar la IA como un arma para desarrollar malware que sea indetectable, ataques más sofisticados. Básicamente, lo que se hace es buscar los puntos ciegos o débiles del sistema para tratar que cometa un error, que no te detecte como malware, sino que piense que eres una herramienta normal, software no malicioso”, explica.

Existen varios tipos de ataques. Los denominados de caja blanca son ejecutados por personas que conocen el algoritmo. En los de caja negra, el atacante no sabe nada del sistema: "En la práctica tenemos una situación intermedia, en la que el atacante puede conocer partes del sistema o de la información. En cualquier caso la posibilidad del ataque está ahí. Y en ciertos casos es relativamente sencillo atacar o producir errores en un sistema de IA", asegura. Y es que, "no hay sistemas blindados. Los ataques están a la orden del día pese al dinero que se invierte y defenderse de ellos sigue siendo un tema de investigación abierto. Es una lucha constante".
En los últimos dos o tres años, el interés y la preocupación por este problema está creciendo enormemente, especialmente en EEUU. "En Europa empezamos a tener también grupos interesados porque realmente es un aspecto que puede limitar el desarrollo y la penetración de estas tecnologías en todos los ámbitos de aplicación", señala.
El ingeniero considera que "ha habido una explosión de este tipo de sistemas, sobre todo desde el desarrollo de ciertos algoritmos de Deep learning o aprendizaje profundo que han mostrado unas prestaciones muy buenas para resolver determinados tipos de tareas". Si lo juntamos con el desarrollo de las tecnologías de big data y la gran cantidad de datos recogidos por sensores, dispositivos y personas, tenemos la explicación para la expansión de la IA.

Algoritmos más justos y sin prejuicios

Muñoz admite que "hay una cierta burbuja, pero son innegables las capacidades y las ventajas que están ofreciendo este tipo de sistemas, aunque a su vez plantean nuevos retos que requieren su análisis e investigación. Uno de ellos es la seguridad, pero hay otros que resultan bastante llamativos como el de la justicia".
En efecto, los algoritmos de IA aprenden a partir de los datos que nosotros les proporcionamos. Pero esos datos están tan sesgados como los humanos: "Tenemos prejuicios y los algoritmos de IA los reflejan. Por ejemplo, pueden reflejar discriminación por sexo o por raza. Uno de los retos es cómo eliminar esos sesgos y lograr algoritmos más justos".
En EEUU el sistema judicial de varios estados está empezando a emplear sistemas automáticos, como el algoritmo Compas, para evaluar el riesgo de reincidencia de la población reclusa de cara a dar permisos penitenciarios o decretar la libertad condicional. El objetivo es agilizar el proceso y ayudar a los jueces a tomar la decisión basándose en datos más objetivos pero como señala Muñoz, "se está viendo que esos sistemas discriminan por la raza, y eso es algo indeseable. Aprenden a partir de los ejemplos que le das, como un niño".
Varios estudios e informes han puesto en entredicho la capacidad de Compas para prever el comportamiento de un recluso. Por ejemplo, un estudio publicado en la revista Science Advances concluyó que no había diferencias significativas entre las predicciones del algoritmos y las de los participantes en una encuesta online –sin ninguna preparación o entrenamiento previo- sobre la probabilidad de que los presos pudieran reincidir.
Los algoritmos de búsqueda de imágenes de Google, recuerda el ingeniero, también presentan ciertas limitaciones (con connotaciones raciales) como reflejan algunos errores cometidos por ellos. Un desarrollador de software negro sacó los colores a Google en 2015 al revelar a través de Twitter que el servicio de fotos de la compañía había etiquetado fotos de él con un amigo como gorilas, un error por el que la empresa se disculpó.
El otro gran desafío, según Muñoz, es el de la responsabilidad porque, "al igual que las personas, los sistemas de IA cometen errores, no son perfectos. Y cuando se comete un error hay que encontrar la fuente para intentar subsanarlo". Los algoritmos, añade, deben proporcionar explicaciones sobre las decisiones que tomen. "Por ejemplo, si pides una hipoteca y el banco no te la da basándose en su sistema de IA, necesitarás saber por qué. Es otro de los campos que está en desarrollo. Son aspectos que realmente se necesitan para que la IA funcione y pueda aplicarse en muchos ámbitos de la sociedad".

Pasa más tiempo de lo que cree con Greg Corrado y sus compañeros. No en sentido literal, evidentemente, pero ellos están detrás de muchas de las herramientas de Google que cualquiera utiliza a diario. Corrado, neurocientífico computacional, nos habla de la deseable relación natural que debe buscarse entre hombres y máquinas desde el cuartel general de la compañía en Mountain View, en California.
Corrado es uno de los fundadores de Google Brain, el proyecto de investigación sobre inteligencia artificial de esta empresa tecnológica centrado en el deep learning o aprendizaje profundo. Cuando crearon este departamento en 2011, no sabían si llegaría a tener una aplicación práctica. Pero hoy se puede ver el fruto de su trabajo en herramientas como su popular buscador, el traductor o las respuestas automáticas que ofrece el servicio de correo Gmail que se asemejan a las que daría una persona.

P- ¿Es la inteligencia artificial más cotidiana de lo que creemos?

R- Utilizamos constantemente IA gracias a los teléfonos inteligentes que todos llevamos en los bolsillos. Hace 15 años nos hubieran sorprendido muchas de las funciones y tecnologías que hoy damos por sentado. Por ejemplo, que las cámaras de nuestros teléfonos reconozcan objetos y personas, que las máquinas puedan entender discursos y traducirlos, que te ayuden en tus búsquedas o que haya coches autónomos. Todo esto es inteligencia artificial. Lo interesante es que, como ha sido gradual, se ha aceptado muy rápidamente y se ha convertido en algo familiar. No hace tanto que todo esto se hubiese visto como algo casi de ciencia ficción.

P- ¿Por qué la gente piensa que es algo del futuro, de robots, películas y libros de ciencia ficción?
R- Muchas veces se confunde el aprendizaje de las máquinas con los robots, precisamente por esas idea preconcebidas que tenemos por las películas. Son dos áreas separadas entre las que hay colaboración, pero que no son lo mismo.

P- ¿Cuáles son sus expectativas para un futuro próximo?

R- Creo que el progreso que estamos experimentando actualmente va a continuar durante cierto tiempo. Básicamente, la IA que tienen nuestros móviles será más inteligente y aparecerán nuevas funcionalidades y dispositivos. Hace poco tiempo sólo podías ver un reloj inteligente en el cine, no podías ir a una tienda y comprarlo. Estos dispositivos seguirán mejorando. Pero no creo que estemos en el camino de una aceleración mayor que ésta. Continuará el desarrollo que estamos viendo hasta ahora hasta que sea familiar para la mayor parte de la población.

P- Cuando me desperté esta mañana leí los mensajes de mi móvil, revisé mi Gmail, vi cómo estaba el tráfico gracias a Google Maps, busqué información sobre usted para esta entrevista... ¿Qué uso de la inteligencia artificial de Google hice en apenas una hora?

R- Todo esto que me has citado tiene pequeñas partes de inteligencia artificial. La gente se hace a la idea de un solo objeto, no de algo que forme parte de un todo. No hay una única inteligencia artificial de Google, por ejemplo. El machine learning forma pequeñas partes en diversos programas, que pueden mejorar independientemente del resto.

P- ¿Por qué la inteligencia artificial se ha convertido en el interés principal de todas las tecnológicas?

R- El objetivo de Google es tratar de ordenar la información para hacerla útil, y para eso es necesaria la inteligencia artificial. Tanto nuestra empresa como Amazon o Microsoft o cualquier otra tecnológica intenta encontrar la forma de hacer la tecnología útil y accesible para las personas. En todas estas compañías hay laboratorios de investigación cuya finalidad es llegar a las universidades y aportar conocimiento. Nosotros, por ejemplo, hemos desarrollado Tensorflow, una biblioteca de código abierto para el aprendizaje automático a través de un rango de tareas que puede utilizar cualquiera. Para mí no tiene sentido que las empresas tecnológicas trabajen de forma individual para afrontar asuntos importantes.

P- ¿En qué consiste el trabajo de Google Brain?

R- Empezamos en 2011 como un proyecto de investigación sobre redes neuronales artificiales y machine learning, pero desconocíamos si esas tecnologías podían llegar a tener una aplicación práctica. Lo que hemos visto en estos ochos años es que funcionan muy bien y se han integrado en muchos de nuestros productos.

El algoritmo de IA Rankbrain -que no se centra sólo en las palabras de búsqueda sino que aprende de forma evolutiva con cada búsqueda- o el Google Neural Machine Traslation, que utiliza deep learning para que las traducciones sean más naturales, son sólo algunos ejemplos de cómo la inteligencia artificial nos puede ayudar a progresar. A veces nos permite mejorar productos ya existentes y otras, crear otros nuevos. Un ejemplo es la Smart Reply de Gmail, que sugiere respuestas cortas y rápidas gracias a redes neuronales. La tecnología será más eficiente, pero también más cercana.


P-¿De verdad los seres humanos nos estamos adaptando a estas tecnologías?

R- Esto debería ser lo más importante. Los seres humanos somos las criaturas más flexibles y adaptables del planeta. Pero los planteamientos para construir este tipo de sistemas tienen que girar en torno a ser útiles para las personas. Una de las áreas de investigación y desarrollo en la que se está invirtiendo mucho esfuerzo es en comprender cómo hacerlas intuitivas y naturales para los que utilicen estas herramientas. Personalmente creo que estas tecnologías serán una extensión de nuestras habilidades creativas.

P- ¿Podrán las máquinas realmente aprender, sentir y pensar como nosotros?

R- Eso es un punto de vista filosófico que se aleja de mi formación como neurocientífico. No hay ninguna razón para decir que no podrían hacerlo, pero todavía no conocemos siquiera con detalle cómo funciona el cerebro humano. No creo que haya ningún intento serio de conseguir esto. Lo más probable es que se construyan máquinas que entiendan a los humanos y se relacionen con ellos. Que comprendan si estás frustrado con tu televisión y te ofrezcan otra cosa que te interese más. Que tengan emociones no me parece algo cercano, pero será muy valioso que puedan entender las emociones del que los usa.

P-¿Podremos superar el miedo y confiar en ellas?

R- Las máquinas cometen errores a veces, como también los cometemos nosotros. De lo que hay que asegurarse es de diseñar sistemas con un buen propósito, uno en el que podamos confiar y, a partir de ahí, hacer controles de calidad sobre su seguridad y comprobar si están cumpliendo los objetivos para los que se crearon. No importa de qué sistema se trate, la pregunta siempre debe ser ¿cuál es el valor para las personas?

P-¿Cuál es para usted el gran logro de la inteligencia artificial en estos 60 años de investigación?

R-El gran anuncio para mí sería que las máquinas han podido incorporar el sentido común. En el caso de mi trabajo, que nuestro buscador sepa entender realmente qué es lo que pretende encontrar la persona.

P- Aunque después de esta conversación pueda resultar chocante, ¿cuál es su película o libro de ciencia ficción de cabecera?

R- Hacer esta pregunta a alguien que trabaja en inteligencia artificial es como preguntarle a un arqueólogo si le gustan las películas de Indiana Jones. Supongo que los arqueólogos habrán disfrutado de estas películas, aunque no tengan nada que ver con su trabajo. A mí me encantaban las películas de Star Wars y, por supuesto, R2-D2 y C-3PO. No estamos ni cerca de eso, pero será impresionante si lo conseguimos dentro de... 150 años. Y, sí, me gustaban mucho los libros de Isaac Asimov. Algo muy útil de la ficción y de la ciencia ficción es que nos permite imaginar y especular sobre el futuro.




 

Comentarios

Entradas populares