La Inteligencia Artificial interpreta el mundo como nosotros

Un nuevo estudio, realizado por investigadores de la Universidad Johns Hopkins, en Estados Unidos, ha demostrado que las personas tendemos a hacer las mismas interpretaciones que la Inteligencia Artificial (IA) sobre las imágenes que la confunden.

Los resultados de esta investigación, publicados en Nature Communications, sugieren que los ordenadores modernos pueden no ser tan diferentes de los humanos en el procesamiento de las imágenes, tal como se pensaba hasta ahora.


Los avances en IA continúan reduciendo la brecha entre las capacidades visuales de las personas y de las máquinas. Coincidir en sus clasificaciones erróneas de la IA puede permitirnos anticipar sus posibles fallos en el reconocimiento de objetos.


Por lo general, los estudios sobre IA se basan en intentar reproducir el funcionamiento del cerebro humano y su forma de analizar la información. "Nuestro proyecto hace lo contrario: nos preguntamos si las personas pueden pensar como las ordenadores", explica Chaz Firestone, del Departamento de Ciencias Psicológicas y Cerebrales de la Universidad Johns Hopkins, en un comunicado.


Dificultades en el reconocimiento de imágenes


Los sistemas de IAl han sido, durante mucho tiempo, mejores que las personas para resolver problemas matemáticos o recordar grandes cantidades de información. Pero, durante décadas, los humanos han tenido una ventaja en el reconocimiento de objetos cotidianos. En algunos casos, solo es necesario cambiar algunos píxeles para que un ordenador confunda, por ejemplo, una manzana con un automóvil. Estas máquinas estarían cometiendo errores impensables en un ser humano.


Sin embargo, las redes neuronale artificiales, que imitan al cerebro, se han acercado recientemente a la capacidad humana para identificar objetos, lo que ha llevado a avances tecnológicos tales como el desarrollo de los programas de reconocimiento facial o sistemas de IA que ayudan a los médicos a detectar anomalías en radiografías.


Pero, incluso con estos avances tecnológicos, aún hay puntos débiles. Existen imágenes creadas a propósito para poner a prueba a la IA (“adversarial images” o “imágenes contradictorias”), y que las redes neuronales artificiales no pueden analizar correctamente. Estas imágenes son un gran problema porque podrían ser explotadas por piratas informáticos y causar riesgos de seguridad.

Comentarios

Entradas populares