La tecnología no tiene ética, pero la humanidad depende de ella

Enero de 2017 en California (EEUU). En el inmaculado centro de conferencias de la ciudad costera de Asilomar, más de un centenar de expertos en inteligencia artificial (IA) de distintos lugares del globo están reunidos bajo una premisa aparentemente sencilla: analizar e indexar de qué forma ésta es beneficiosa para el ser humano. Los profesionales invitados -algunos de ellos desfilarán por éste y otros reportajes-, que cubren áreas diversas, tienen tres días por delante para debatir cómo ha de desarrollarse la IA, podría decirse que en el futuro. Pero éste, más que nunca, es sinónimo de ya, aquí y ahora.
Porque hay algo en lo que convergen intelectuales divergentes alrededor del mundo: la base sobre la que se asentará la inteligencia artificial, y también lo que supondrá para la humanidad, se está gestando mientras usted lee este especial. Lo afirma, por ejemplo, el futurista alemán Gerd Leonhard, autor de un libro cuyo título no deja lugar a dudas: La tecnología contra la humanidad, el choque entre el hombre y la máquina: "Hoy es el momento en que construimos nuestro futuro y este hoy es el mayor reto al que se ha enfrentado el género humano hasta el momento, la posibilidad de una especie de superhombre que se convierte en Dios no tiene precedentes", sostiene.
Leonhard se sitúa en el lado de la trinchera que defiende que la relación que tenemos con la tecnología debe, por lo menos, pensarse. Pero no es un alarmista. "Creo que a veces reaccionamos de forma exagerada ante los posibles peligros, y no podemos adentrarnos en el futuro con miedo. Debemos ser cautos, pero abiertos al progreso", argumenta. Pero es él también quien afirma que "el exponencial desarrollo tecnológico, y su tremendo potencial, es una oportunidad que trae consigo nuevas y tremendas responsabilidades", él quien sostiene que "la avalancha de cambios tecnológicos puede reformar la esencia de la humanidad y también todo aspecto de nuestro planeta", él quien cree que "la tecnología no es lo que buscamos sino cómo lo buscamos".
Afirmaciones que le sitúan a años luz de, por ejemplo, Natasha Vita-More, una de las líderes del transhumanismo, movimiento que defiende precisamente abrazar la tecnología. Llamémoslo sinergia. O simbiosis. Al igual que Leonhard, esta especialista en la deriva humano-tecnológica cree que 2018 es un año crucial en lo que respecta a la IA. Aunque Vita-More, profesora en la Universidad de Tecnología Avanzada (Arizona, EEUU) y autora del ensayo El lector transhumanista, no cree que exista un debate de extremos entre humanistas (Leonhard sería uno de ellos) y transhumanistas. "No hay polémica porque ambos valoramos la conciencia humana. La única excepción es que nosotros apoyamos la evolución humana y ellos su estancamiento". ¿Cómo saber, en mitad de la carrera tecnológica, smartphone en mano, en qué vértice se encuentra uno? Atendiendo, por ejemplo, a las preguntas que se hacían los expertos aquel fin de semana en California.

"¿Cómo crear sistemas de inteligencia artificial potentes que hagan lo que nosotros queremos, sin errores y sin ser hackeados? ¿Cómo conseguir prosperidad a través de la automatización mientras se mantienen los recursos y los objetivos de los seres humanos? ¿Cómo actualizar la legislación de la inteligencia artificial para que sea más eficaz y más justa y tenga en cuenta sus riesgos? ¿Con qué valores debe alinearse la IA y cuál debería ser su estatus legal y ético?".
Es precisamente el desarrollo legislativo -que respondería a cuestiones éticas- uno de los asuntos que más preocupa ahora a quienes trabajan -piensan- la inteligencia artificial; signo de que éste es el momento histórico en el que verdaderamente los humanos ponemos a prueba nuestra esencia como tal. "La tecnología no tiene ética, pero la humanidad depende de ella", apunta Leonhard. "Sí", disiente Vita-More, "la tecnología sí tiene ética, es un producto pero también un paso evolutivo o un proceso que permite repensarlo todo".
En ello está, también, la UE. Unas semanas después del encuentro californiano, el 27 de enero de 2017, tres eurodiputados presentaban a la Comisión Europea una serie de "recomendaciones sobre normas de Derecho civil sobre robótica". Éstas incluyen afirmaciones como que "existe la posibilidad de que, a largo plazo, la inteligencia artificial llegue a superar la capacidad intelectual", que "el potencial de empoderamiento que encierra el recurso a la robótica se ve matizado por una serie de tensiones o posibles riesgos y que debe ser evaluado detenidamente a la luz de la seguridad y la salud humanas; la libertad, la integridad y la dignidad, la autodeterminación y la no discriminación, y la protección de datos personales".
La ponente principal, la socialista luxemburguesa Mady Delvaux, Georg Meyer, de la Comisión de transportes y turismo, y Michal Boni, de la Comisión de libertades civiles, justicia y asuntos de interior pedían a la Comisión "que estudie la posibilidad de designar a una agencia europea para la robótica y la inteligencia artificial que proporcione los conocimientos técnicos, éticos y normativos necesarios para apoyar la labor de los actores públicos pertinentes (...) de garantizar una respuesta rápida, ética y fundada ante las nuevas oportunidades y retos -sobre todo de carácter fronterizo- que plantea el desarrollo tecnológico de la robótica".
 
¿Llega tarde la propuesta o justo a tiempo? Dice Delvaux, en correspondencia electrónica con EL MUNDO, que "hace cuatro años, cuando se puso en marcha el grupo de trabajo en el Parlamento Europeo, pensaban que el futuro era lejano". "Tenía la esperanza de que, por una vez, el marco legal y político estuviera preparado para semejante transición. Pero la tecnología evoluciona muy rápido y me temo que nosotros somos lentos. Por ejemplo, los coches autónomos: creíamos que estarían listo en décadas y ya están disponibles en el mercado, aunque no a gran escala; los productos están testándose, los procesos legislativos nacionales también... es nuestro deber rellenar los huecos legales, manejar los riesgos y asegurar los beneficios de la tecnología", explica.
Pero hasta el pasado 25 de abril la UE no emitió ningún comunicado al respecto. Y lo dicho entonces es, para Delvaux, "óptimo pero insuficiente". La Comisión Europea propone una serie de medidas para incrementar las inversiones en IA, tanto públicas como privadas, llegando a los 20.000 millones de euros de aquí a 2020. Delvaux no tenía muchas esperanzas de que la UE sacara adelante una agencia especializada en IA y, cuando lo contaba, aún no había sucedido el accidente del coche autónomo de Uber en el que falleció un ciudadano en Tempe, Arizona. Justo donde da clase, en la Universidad de Tecnología Avanzada, la transhumanista Vita-More.

"Es importante garantizar la compensación de las víctimas, incluso cuando la autonomía de los sistemas no permita identificar a la persona responsable del daño. También es esencial adaptar las reglas de protección de datos porque estas tecnologías precisan mucha información y puede haber conflictos con la intimidad. También estoy preocupada por las cuestiones éticas. Propusimos una carta para los desarrolladores e ingenieros en nuestro informe. Los robots y la inteligencia artificial son alucinantes pero deben permanecer a nuestro servicio y respetar nuestros derechos; son una oportunidad y debemos decidir cómo queremos que ésta conforme nuestro futuro", culmina Delvaux.
También menciona los accidentes relacionados con coches autónomos Hayden Belfield desde el Centro para el estudio de los riesgos existenciales, un grupo de investigación de la Universidad de Cambridge. Belfield compara, incluso, la inteligencia artificial con dos momentos históricos de máxima trascendencia para el género humano, "la invención del fuego y la energía nuclear". "Debemos ser extremadamente cautelosos. Los riesgos fundamentales son tres: accidentes, malos usos y carreras de armas. Los sistemas de inteligencia artificial en ocasiones funcionan mal. Por ahora, los daños que pueden causar son limitados, aunque ya ha habido accidentes fatales con coches autónomos. Pero a medida que los sistemas se expandan, especialmente en asuntos de seguridad y áreas militares, pueden ocasionar mucho más daño: drones que no funcionan bien, hackeos, propaganda computacional... Cuanto más potente sea la tecnología, más daño puede causar".

Belfield también es contundente acerca de los beneficios que aporta la IA. Al igual que Leonhard y Vita-More, es decir, al igual que humanistas y transhumanistas, destaca la importancia de la inteligencia artificial a la hora de solucionar uno de los problemas que más lejano y cercano parece al mismo tiempo para los seres humanos: "El cambio climático". Pero, sobre todo, y como todos, insiste en la necesidad urgente de colaboración y cooperación. No es casual que 100 expertos se reunieran hace un año en Asilomar para sentar las bases de lo que ya está entre nosotros. La mayor urgencia, sostienen todos los expertos, es que "desarrolladores de inteligencia artificial, legisladores, gobiernos e instituciones trabajen al unísono". "Tenemos que ponernos a trabajar duramente", insiste Belfield, "porque es la única manera de que los beneficios sean grandes".
Pero hasta el término inteligencia artificial resulta "demasiado amplio y demasiado vago", apunta John C. Havens, director ejecutivo de la asociación norteamericana Iniciativas éticas de los sistemas autónomos e inteligentes, que ofrece información a empresas y particulares. Havens, habitual analista de medios internacionales en relación a la tecnología, destaca también que "los riesgos que trae consigo la IA no son responsabilidad de ésta ni de sus desarrolladores". "Lo que sucede es que internet y el consentimiento de datos evoluciona y, en este momento, ha de cambiar, o la identidad y la capacidad emocional del ser humano variará, y entonces sí que los riesgos serán mayores", prevé.

Havens está especialmente preocupado por los datos personales que los humanos cedemos cada vez que, visualícese, damos a aceptar al usar una app. "Los riesgos están allí donde empleamos sistemas de inteligencia artificial. El primero de ellos es cómo se están usando los datos de la gente para crear algoritmos que construyen la inteligencia artificial. Si no firmas los consentimientos, no tienes acceso a los servicios. Las sociedades deberían evolucionar hacia sistemas que incluyan herramientas de control de datos, como sucede en Estonia, donde los ciudadanos tienen acceso a la información de cuándo y cómo se emplean sus datos", propone.
El éxito de la inteligencia artificial, dice Havens, vendría dado por tres vertientes: "Personas, planeta y beneficios". "Se debe priorizar la equidad de los ciudadanos, el planeta y los beneficios que se obtienen. Poniendo al menos estos tres elementos en la balanza, la humanidad tendrá una oportunidad. De otra manera, sucedería que los humanos no seríamos sostenibles. Las máquinas de inteligencia artificial están destinadas a superarnos en toda habilidad y en todo atributo". Y hay algo en lo que, según Francesca Rossi, responsable de ética de IBM y presente en el encuentro de Asilomar, nos superan ampliamente: "La ausencia de prejuicios". "La clave está en la complementariedad, esto es lo que se debería explotar. Hay que conseguir que las máquinas hagan de nosotros mejores seres humanos", reta.

Los objetivos están claros, pero no tanto las consecuencias. Se acuerda Leonhard del filósofo alemán Martin Heidegger y uno de sus conceptos fundamentales, el Dasein o ser ahí (Da, existencia, sein, ahí) y se pregunta: "¿Cuando la inteligencia artificial gobierne la nube y exista un cerebro global, podrá éste comprender el Dasein?". ¿Podrán las máquinas algún día entender lo que significa ser humano? ¿Y cómo debe el género humano relacionarse con las máquinas, los robots, cualquier dispositivo gobernado por una inteligencia artificial? Hasta el momento, las reacciones son desmedidas. Por ejemplo, en octubre del año pasado, durante la feria Arts Electonica Festival, celebrada en Austria, un robot sexual llamado Samantha, creado por una empresa española, Synthea Amatus, tuvo que ser retirado después de que los asistentes a la feria lo destrozaran de tanto usarlo. "Se comportaban con ella como bárbaros. Se agolpaban para sobar sus pechos, piernas y brazos. Le rompieron dos dedos", relató entonces al digital británico Metro el creador de este robot sexual, el barcelonés Sergi Santos.
Para John Havens, que es uno de los mejores analistas internacionales en lo que a transformación digital se refiere, "cómo respondan los humanos a los sistemas artificiales depende sólo de ellos". "Si creen que un robot o una máquina es real, ésa es su verdad subjetiva. Lo importante es diseñar herramientas que contengan la posibilidad del consentimiento sobre cómo queremos que entren en nuestras vidas. El antropomorfismo, creer que un objeto es algo real, es algo con lo que convivimos desde el inicio de los tiempos". Desde el Instituto para el Futuro de la Vida, fundado por Jaan Tallinn, fundador de Skype, y responsable del encuentro de Asilomar, culmina una de sus integrantes, Ariel Conn: "Desconocemos los límites aún pero sí, hasta ahora, el ser humano ha podido aprender a usar la tecnología, no hay por qué pensar que no lo conseguiremos esta vez".

Comentarios

Entradas populares