Manual de IA 3ª Parte -La IA y la ética

 La IA está en todas partes, y está claro que están aquí para quedarse. Estamos rodeados de IA y muchos aspectos de nuestras vidas se ven afectados de una manera u otra. Varias decisiones, como comprar un libro o un billete de avión, preseleccionar a los candidatos para una entrevista, conceder un préstamo bancario e incluso administrar tratamientos contra el cáncer, están influenciadas por los bots. Muchos de los procesos de toma de decisiones se llevan a cabo a través de estos complejos sistemas de software. Los enormes avances que la IA ha hecho en los últimos años son preocupantes, pero la IA también puede mejorar nuestras vidas de muchas maneras. Durante los últimos años, el aumento de la IA ha sido ineludible. Se ha invertido mucho dinero en nuevas empresas de IA y la mayoría de los gigantes de la tecnología como Amazon, Facebook y Microsoft han abierto nuevos laboratorios de investigación dedicados al desarrollo de la IA. La IA se ha vuelto tan conocida que muchas personas la asocian con el software, y es cierto. Es difícil encontrar software que no tenga algún tipo de IA. Las opiniones están divididas cuando la gente discute lo que la IA será para la humanidad en el futuro. Algunos dijeron que la IA reemplazará completamente a los humanos.

 

Algunos dicen que la IA se apoderará del mundo. Algunos dicen que la IA podría formar un ejército propio debido a la cantidad de torturas a las que los sometemos durante la fase de aprendizaje automático y que sólo podemos esperar que la IA sea misericordiosa cuando llegue ese día. No importa cuáles sean las opiniones, todas ellas señalan el hecho de que la IA cambiará en última instancia la sociedad y la forma en que vivimos permanentemente, un cambio que es aún más drástico que la introducción de Internet. Sin embargo, algunos tecnólogos tienen una visión diferente sobre los cambios que la IA puede traer a la humanidad en su conjunto en un mundo repleto de tecnologías maravillosas. Sorprendentemente, a la mayoría de ellos no les preocupa que la IA sustituya a los seres humanos en el lugar de trabajo, y menos aún que la IA se apodere del mundo. Su principal preocupación se centra en la cuestión de la ética. El reto para el desarrollo de la IA ahora es asegurar que todos puedan beneficiarse de esta tecnología. El problema es tratar de entender cómo asegurar que el aprendizaje automático, que es una tecnología de IA basada en datos que permite a la IA desarrollar capacidades que parecen divinas, pueda beneficiar o mejorar a la sociedad en su conjunto. La IA no debe ser utilizada sólo para las personas que quieren controlar la sociedad. La inteligencia artificial debe servir a todos. La IA ha demostrado ser muy útil y eficaz en tareas prácticas como etiquetar fotos, reconocer el habla y los lenguajes naturales escritos, o incluso ayudar a identificar enfermedades. Por supuesto, el único problema es llevar esas capacidades a todos.

El mayor problema es que los algoritmos dentro de las mentes de los bots son tan complejos que es imposible entender cómo o por qué la IA hace lo que hace. Una vez más, una línea corta de código puede ser entendida, y el propósito general de un grupo de códigos puede ser vagamente comprendido, pero el sistema entero es un misterio. Sólo sabemos que la IA puede hacer el trabajo gracias a los datos y a la tecnología de aprendizaje de la máquina. Lo que muchos quieren saber es si funciona, y no tantos como se preocupan de por qué funciona, lo que no es tan evidente. Si vamos a vivir en un futuro en el que la IA hará la mayor parte del trabajo duro y repetitivo, debemos saber cómo lo hace. El desafío entonces es pensar en cómo monitorear o auditar la forma en que la IA desempeña sus importantes funciones en muchas industrias. Hay un problema con el sistema informático.

Cuando se convierten en complejo, podría protegerlos de recibir el escrutinio que necesitan. La operación en curso sin investigación o sin saber cómo funcionan las cosas en primer lugar es muy peligrosa. La realización de negocios o de cualquier operación basada únicamente en la confianza es arriesgada desde el principio, incluso si fomenta la buena voluntad. Todo debe ser bien comprendido y analizado si se desea regular algo, especialmente algo tan versátil como la IA. La reducción de la autonomía humana es una preocupación porque los sistemas de IA son cada vez más complejos, sin mencionar que están estrechamente vinculados. No se recomienda configurar el sistema, dejarlo funcionar sin comprobarlo de vez en cuando. Puede haber problemas con la forma en que el sistema evoluciona un día que pueden causar daños graves. AI necesita supervisión, pero no está claro cómo podría o debería lograrse en este momento. En la actualidad, no existen enfoques comúnmente aceptados. Sin un estándar de la industria para probar estos sistemas, será difícil que estas tecnologías se implementen ampliamente.

Sin embargo, no es la primera vez que los organismos reguladores juegan a ponerse al día. Ya vemos lo que los gobiernos están tratando de regular las criptomonedas, mientras que algunos están prohibiendo su uso abiertamente. Muchas empresas de todo el mundo ya están probando y explorando la eficacia de la IA y su uso en el sistema de libertad supervisada o en el diagnóstico de enfermedades en áreas críticas como el sistema de justicia penal y la atención sanitaria. Sin embargo, cuando se subcontrata un poder de decisión tan crucial a las máquinas, se corre el riesgo de perder el control. ¿Quién puede decir que el sistema toma la decisión correcta en un caso dado? ¿Cómo deciden quién vive o quién muere? Una vez más, todos sabemos que la IA toma muchos datos y luego produce un resultado. No sabemos qué hay entre la entrada y la salida. Además, sabemos que los robots no entienden el contexto tan claramente como nosotros. Las prácticas éticas requieren el conocimiento de todo el proceso. En el sector sanitario, por ejemplo, no se administra a un paciente la medicación que necesita simplemente porque la IA determina que no puede ser salvado. ¿Es justo negarle la medicación que necesita, aunque la IA dice que es una causa perdida? El bot puede ser correcto en la mayoría de las circunstancias, pero ¿qué pasa si, a través del puro poder de la voluntad, el paciente puede recuperarse sólo si recibe el medicamento que necesita? En Saw, una famosa película de terror, estudiaron un concepto similar. En la película, al antagonista se le negó el dinero de su seguro para su tratamiento contra el cáncer sólo porque va en contra de la política de la compañía, la cual fue diseñada usando varias variables tales como estilos de vida, hábitos, riqueza, etc. para negar o conceder cobertura en ciertas condiciones. Lo que la empresa no tuvo en cuenta fue la voluntad del hombre de vivir. Cuando nos enfrentamos a una condición de vida o muerte, podemos hacer cosas que antes pensábamos que nunca podríamos hacer. Corremos más rápido de lo normal. Podemos pasar días sin comida ni agua. Podemos sobrevivir a una lesión mortal. Estos milagros son reales, y ha habido casos de personas que se han recuperado completamente de enfermedades terminales como el SIDA a través del uso de medicamentos (algunos de los cuales usaban medicamentos tradicionales no probados) y se han recuperado aunque la medicina no garantiza que se recuperaran alguna vez. Estos instintos de supervivencia, aunque no son fiables, han salvado la vida de muchas personas. El hombre se dio cuenta de esto después de intentar suicidarse tirándose por un precipicio. Salió vivo con una larga barra de metal que sobresalía de este estómago, aunque de alguna manera sobrevivió a la caída que habría matado a otros. A partir de ese momento, se dirigió a probar el carácter humano. La cuestión aquí, por supuesto, es si la IA tendrá en cuenta los milagros. Ya hemos establecido que los bots no son buenos para lidiar con las incertidumbres o la zona gris. Dependen de datos exactos y claros. Sin embargo, habrá un momento en el que el bot tendrá que decidir con datos insuficientes que podrían resultar en la muerte de un paciente cuando él o ella podría haber vivido. En el sector de los seguros, por ejemplo, se puede ver fácilmente que adoptarán el mismo sistema mencionado en la película de terror. Peor aún, a diferencia de lo que ocurre cuando se conoce el método de toma de decisiones, no podemos decir lo mismo de los bots. ¿Quién sabe que es lo que busca el bot en el momento de tomar una decisión importante?

La investigadora principal de Microsoft Research, Dannah Boyd, dijo que hay muchas preguntas serias sobre los valores que se están codificando en los bot y quién es el responsable de ellos. Muchos reguladores, la sociedad civil y los teóricos sociales desean cada vez más que estos bots sigan siendo justos y éticos. Desafortunadamente, estos conceptos son confusos. Las cuestiones éticas en el lugar de trabajo también están en la lista. Ya sabemos que la IA permitirá a los robots realizar tareas cada vez más complicadas y desplazará a muchos trabajadores humanos. Por ejemplo, el grupo chino Foxconn Technology Group, proveedor de Apple y Samsung, anunció que sustituirá a unos 60.000 trabajadores de fábrica por robots. La fábrica de Ford en Colonia, Alemania, también instaló robots junto con humanos en su fábrica. En muchas otras fábricas, los humanos ya trabajan junto a los robots. Para empeorar las cosas, si el aumento de la automatización tiene un gran impacto en el empleo, podría provocar sentimientos de sustitución entre los trabajadores humanos que podrían tener un efecto perjudicial muy poderoso en su salud mental. Ezequiel Emanuel, bioético y ex asesor de salud de Barak Obama, dijo que las tres cosas principales que dan sentido a nuestras vidas son los intereses apasionados, las relaciones afectivas y el trabajo con sentido. Después de todo, el trabajo es un elemento crucial de nuestra identidad. También señaló el hecho de que los trabajadores enfrentan un mayor riesgo de suicidio, abuso de sustancias y depresión en regiones donde se han perdido empleos cuando cierran las fábricas.

De acuerdo con un especialista en derecho y ética del Instituto Tecnológico de Massachusetts, Kate Darling dijo que las empresas seguirán sus incentivos de mercado, lo que no es una gran sorpresa. Siempre querrán obtener más a un precio menor. Sin embargo, no debemos confiar en que las empresas sean éticas por el bien de la misma, a pesar de que una visión tan lucrativa no es algo malo en sí misma. Contar con normas en vigor ayudará. Las sociedades han hecho esto antes sobre la privacidad o cuando se ha introducido una tecnología nueva y revolucionaria. Sólo tenemos que averiguar cómo lidiar con la nueva tecnología. Google y otras compañías importantes ya cuentan con comités de ética para supervisar el desarrollo y la implementación de su propia IA. Existe el argumento de que una práctica ética de este tipo debería practicarse ampliamente. Es crucial para la humanidad en su conjunto continuar avanzando en la introducción de tecnologías innovadoras, necesitamos crear una estructura o marco adecuado para ello en el futuro. Sabemos que existe el comité de ética de Google y lo que hace sobre el papel, pero todavía no sabemos lo que realmente sucede allí. Aún así, Google, Amazon y Facebook ya han lanzado un consorcio con la esperanza de desarrollar diferentes soluciones a los problemas de seguridad y privacidad relacionados con la IA. Ya hemos hablado de OpenAI, que es una start-up respaldada por Elon Musk que ha creado bots que pueden ganar suficiente experiencia para derrotar a los mejores jugadores de Dota 2 del mundo en dos semanas de aprendizaje automático. OpenAI se dedica al desarrollo y promoción del software libre, como su nombre indica, para beneficio de todos. Es crucial que el aprendizaje automático se investigue y desarrolle abiertamente y se difunda a través de un código de código abierto de publicación abierta para que todos puedan beneficiarse de las recompensas que aporta la IA.

Cuestiones de ética

Si queremos desarrollar la industria con estándares éticos y esperamos tener una comprensión completa de lo que realmente está en juego, entonces necesitamos crear un grupo de especialistas en ética que recuerden a todos el objetivo final, tecnólogos que expliquen al público la información técnica y líderes corporativos que trabajen hacia la creación de un mercado competitivo para que los consumidores y los trabajadores se puedan beneficiar de todo esto. Es una cuestión sencilla de cómo implementar la IA para permitir que los trabajadores humanos mejoren en lo que hacen mejor. El trabajo hacia la IA no debe ser sobre si los robots tomarán el control del mundo, sino cómo pueden ser aplicados para ayudar a los humanos a pensar y tomar decisiones en lugar de desplazar a los trabajadores humanos por completo. Cuando una nueva tecnología se generaliza, también plantea cuestiones éticas sobre ella. Cuando la IA es militarizada, ¿a quién se le debe permitir poseerla? Cuando los bots escriben las noticias, ¿a quién se le debería permitir publicarlas? Cuando los bots se utilizan como aviones no tripulados de vigilancia, ¿adónde deben ir? Estas preguntas son planteadas por aquellos que están genuinamente preocupados sobre cómo se desarrollarán los bots y aquellos que ven las implicaciones ocultas bajo las promesas que los bots traen. También corresponde a la sociedad en su conjunto determinar las formas de abordar estos problemas a través de debates civiles y con conocimiento de causa para crear la mejor legislación. Para ello, es necesario abordar varias cuestiones.

Desempleo

La preocupación más inmediata para muchas personas es el hecho de que la IA desplazará a muchos trabajadores humanos en una amplia variedad de sectores, tanto para los trabajadores manuales como para los de oficina. Sin embargo, la IA no es un asesino laboral. Es más bien un asesino por categoría de trabajo. Cuando se menciona la IA en el contexto de los empleos, la gente tiene opiniones divididas. Tanto la investigación como la experiencia muestran que es inevitable que los bots eventualmente reemplacen muchas categorías de trabajo, especialmente en el transporte, la venta al por menor, el gobierno, el empleo de servicios profesionales y el servicio al cliente. Millones de personas están empleadas sólo para el transporte por carretera en los Estados Unidos y los camiones de Tesla harán que al menos la mitad de esas personas se vean afectadas. Es cierto que millones de personas podrían perder sus empleos, los camiones que se conducen por su cuenta parecen ser una opción más eficiente e incluso más segura cuando se piensa en el menor riesgo de accidentes y el dinero ahorrado para las corporaciones en la industria del transporte por carretera. Lo mismo se aplica a los trabajadores de oficina y a la mayor parte de la fuerza laboral de muchos países desarrollados. Por otro lado, las empresas tendrán ahora suficientes recursos humanos para asignarlos a una tarea mejor y de mayor valor. La historia ha demostrado que cada introducción de una nueva innovación no siempre destruye puestos de trabajo. En su lugar, traslada los puestos de trabajo a otros lugares y se crean nuevas categorías de puestos de trabajo. Lo mismo puede esperarse de la IA. Desafortunadamente, hay un pequeño problema. Mientras que la gente tendrá más tiempo cuando los robots le quiten el tedioso trabajo. Sin embargo, hasta ahora, muchas personas siguen dependiendo de la venta de su tiempo haciendo exactamente estas obras para mantenerse a sí mismos y a sus familias. Lo mejor que se puede esperar aquí es que el tiempo se dedique a actividades no laborales como el cuidado de las familias, la participación en las comunidades o aprender a contribuir más a la sociedad. Por supuesto, el paso a la nueva era de la transformación digital planteará preocupaciones sobre el desplazamiento de la mano de obra, independientemente de que exista o no la IA. Lo que hace la IA es acelerar la transformación digital a través de varios procesos de negocio. Cuando las empresas quieren adaptar e implementar la IA en sus procesos, es mejor que los trabajadores tengan una conversación honesta y abierta con sus empleadores. Está comprobado que el uso de enfoques de inteligencia aumentada en los que la IA ayuda a los seres humanos en su trabajo en lugar de reemplazarlos por completo muestra un retorno de la inversión más rápido y consistente para todas las empresas. Además, la utilización de este enfoque es bien recibida por los empleados. ¿Quién no quiere que su trabajo sea más fácil, especialmente cuando los empleadores les quitan la gran parte de los problemas con los datos? La gente se siente mucho más cómoda trabajando con robots que siendo reemplazada por ellos. Es posible que, en el futuro, cuando la IA se implemente plenamente en todos los países de la región, se puedan producir cambios en la situación.
la gente llegará a pensar que era incluso cruel que a los seres humanos se les haya exigido que vendieran su tiempo sólo para ganar lo suficiente para mantener a su familia.

Desigualdad

 El sistema económico se basa principalmente en la compensación por la contribución a la economía, que se evalúa principalmente sobre la base de un salario por hora. Muchas empresas confían en el trabajo por horas cuando tratan con productos o servicios porque es fácil de medir. Sin embargo, cuando las empresas recurren a la IA, su productividad aumenta varias veces. Entonces pueden reducir la dependencia de la mano de obra humana y se destinará menos dinero a los trabajadores humanos. Esto significa que el propietario de las empresas con IA tendrá la mayor parte del dinero. En la actualidad, ya existe una brecha cada vez mayor. Los fundadores de empresas de nueva creación se llevan una gran parte de las ganancias a casa. En 2014, las tres compañías más grandes de Silicon Valley produjeron tanto como las tres compañías más grandes de Detroit. La única diferencia aquí es que las empresas de Silicon Valley emplean diez veces menos empleados. Por lo tanto, los propietarios de empresas que funcionan con IA ganan mucho más y gastan mucho menos en sus empleados. Por lo tanto, debería haber un factor igualador para que la brecha de riqueza no se amplíe demasiado.

Humanidad

Actualmente, se están desarrollando bots para que puedan hacer un trabajo mucho mejor. Están mejorando cada vez más en el desarrollo de conversaciones y relaciones humanas. En 2015, un bot llamado Eugene Goostman ganó el Turing Challenge por primera vez al convencer a más de la mitad del jurado de que era un niño de verdad. La prueba de Turing trata más sobre el desarrollo de la IA para que pueda anticiparse a las preguntas de los humanos y así poder preparar las respuestas apropiadas y semi-inteligibles. No se trata de hacerla lo suficientemente inteligente para que la gente piense que es humana. Aquí, el panel de jueces tenía que usar la entrada de texto para chatear con una entidad desconocida y luego tenían que adivinar si estaban hablando con un humano real o no. El éxito de Goostman fue un hito para lo que vendrá porque la gente interactuará con los bots muy frecuentemente como si fueran humanos en el futuro, en ventas o en servicio al cliente. Los seres humanos no tienen la paciencia ni la atención para mantener su tono útil y profesional todo el tiempo. Los bots, por otro lado, nunca se cansan de construir relaciones buenas y saludables. No mucha gente se da cuenta de esto, pero todo el mundo ha sido testigo de cómo los robots pueden activar el centro de recompensas en nuestro cerebro. Sin embargo, muchos están familiarizados con los titulares de clickbait y los videojuegos. Estos titulares de los medios de comunicación social suelen optimizarse con pruebas A/B, que es una optimización algorítmica básica para los contenidos, con el fin de captar la atención del lector. Esta es una forma de hacer que los videojuegos y los juegos móviles sean tan adictivos como lo son. Aquí, la adicción a la tecnología es la nueva frontera de la dependencia humana. Por otro lado, mientras que la IA puede ser utilizada para alimentar la adicción a la tecnología, puede
para combatirlo también. La IA puede orientar nuestra mente para que actuemos por el bien de la sociedad en su conjunto. Si cae en las manos equivocadas, hará más daño que bien.


Los sesgos en Algoritmos

AI aprenden a través del aprendizaje automático o la tecnología de aprendizaje profundo, ambos requieren datos de entrenamiento. En última instancia, los datos que estos robots reciben cambiarán la forma en que toman sus decisiones. Por lo tanto, los algoritmos pueden contener sesgos si los datos dados son incorrectos o contienen un cierto nivel de suposición. Con suficientes datos incorrectos, los robots pueden reflejar e incluso magnificar los sesgos que están presentes en el conjunto de datos. Por ejemplo, supongamos que un bot es entrenado en base a un conjunto de datos que es sexista o racista. Los bots entrenados utilizando estos datos tomarán decisiones o predicciones igualmente sesgadas. En el pasado, ciertos robots han etiquetado mal a los negros como gorilas o incluso les han cobrado precios más altos a los asiático-americanos por las clases de preparación para la selectividad (SAT). No se trata de que los bots sean racistas, sino del simple hecho de que los datos utilizados para entrenar a los bots contienen sesgos que influyen totalmente en el algoritmo interno. Algunos bots intentan trabajar con variables problemáticas como la raza, pero tienen más dificultades para poder distinguir los atributos de las razas que en el caso de los códigos postales. También hay robots que están entrenados para determinar la solvencia de una persona o si esa persona debe ser contratada. Existe un gran desafío para estos bots, ya que es posible que no superen la prueba de impacto dispar que está diseñada para determinar las prácticas discriminatorias. La prueba de impacto dispar es una forma de determinar si hay sesgos en las mentes de esos bots, pero todavía no conocemos el funcionamiento interno de esos bots. Los bots son propiedad de corporaciones y no se puede acceder a ellos públicamente. Sabemos que no se puede saber lo que ocurre dentro de la mente de estos robots porque, a medida que operan, los algoritmos serán demasiado complejos de todos modos. Aún así, podemos detectar si hay sesgos con sólo mirar los datos alimentados al bot. Pero las empresas seguirán siendo reacias a compartirlo. Por lo tanto, se trata de una cuestión de equilibrio entre la transparencia y la propiedad intelectual.

Supremacía de los algoritmos

 También hay una preocupación ligeramente diferente sobre la autoridad de los bots. ¿Vamos a ser nosotros o ellos los que hagamos la última llamada? Por ejemplo, ya hay bots que están diseñados para dictar sentencias de prisión. Ya sabemos que algunos jueces dictan sentencias más duras sólo porque están de mal humor por una razón u otra. Por eso, algunos están en prisión más tiempo que otros por el mismo crimen. Esto plantea el argumento de que los jueces deberían ser reemplazados por los bots en lugar de los jueces por la justicia absoluta. Sin embargo, según un estudio de ProPublica, algunos bots están diseñados para estar sesgados contra los negros. El bot también considera a los allegados del acusado para determinar su " puntuación de riesgo ". No hace falta decir que una persona no debería recibir una sentencia de prisión más severa sólo porque tiene amigos que también son criminales. Eso nunca sería aceptado como evidencia tradicional, sin embargo, el bot también lo tiene en cuenta. También hay otro problema con la apelación. ¿Debería apelar porque el juez no es humano? Hasta ahora, los robots han sido tan o más sesgados que los jueces humanos. En caso afirmativo, ¿existe un órgano decisorio justo e imparcial? Cuando los bots se implementan en el sistema judicial, ¿cuáles serían sus funciones en la Corte Suprema?

Noticias y vídeos falsos

 Ya nos resulta difícil lidiar con noticias falsas o información errónea. El aprendizaje automático se utiliza para entrenar a los robots para que puedan pensar qué tipo de contenidos mostrar a diferentes personas. Debido a que los modelos de publicidad se utilizan como base para la mayoría de las plataformas de medios sociales, la regla principal del éxito es el tiempo que se pase frente a una pantalla. Nuestro cerebro se ha desarrollado para detectar las cosas malas y los temas controvertidos, por lo que esas historias se propagan rápido como incendios forestales, a pesar de que son sesgadas. La humanidad ahora está a un paso de crear videos falsos virales que son tan realistas que muchos no pueden distinguirlos. Por ejemplo, dado que las noticias falsas se difunden mucho más rápido que las verdaderas, las primeras tienen un 80% más de probabilidades de ser compartidas que las segundas. Por lo tanto, hay mucha gente que está tratando de influir en los principales acontecimientos políticos, como las elecciones o las opiniones políticas, utilizando noticias falsas. Una reciente investigación encubierta sobre Cambridge Analytica reveló que algunas personas utilizaron noticias falsas para influir en las elecciones. También se ha informado ampliamente que los bots tuvieron un papel en la influencia de las elecciones presidenciales de 2016 en Estados Unidos al difundir propaganda política. Estas cuentas automatizadas de medios sociales se utilizan para ayudar en la creación y difusión de información errónea en Internet en un intento de manipular a los votantes y alimentar el fuego del enfrentamiento partidista. La IA está mejorando cada vez más en la producción de imágenes falsas, videos, conversaciones, así como en la producción de textos. Incluso sin bots, las personas tienen suficientes problemas para creer todo lo que ven, oyen o leen. ¿Qué sucede cuando la línea entre la imagen genuina y una fabricada es difusa, cuando la gente ya no puede distinguir la verdad de las mentiras? Los robots pueden trabajar 24 horas al día, 7 días a la semana y nunca se cansan, por no hablar de cometer errores. Por lo tanto, pueden generar una gran cantidad de datos falsos en muy poco tiempo. Estos datos pueden ser compartidos entre los usuarios en muchas plataformas de medios sociales y los inundan cuando se convierten en virales, incluso a través de todo el asunto es un engaño. Para empeorar las cosas, cuando las noticias falsas se vuelven virales, es imposible detenerlas. Los bots también pueden difundir hechos falsos o muy alterados de manera muy efectiva, de modo que pueden ser utilizados para amplificar mensajes y, en última instancia, controlar la mente de las personas. El peligro que representan los robots en esta área es insuperable. Los delincuentes y los actores estatales pueden utilizar imágenes o audio falsos para causar daño a todo aquel que se atreva a interferir con sus intereses. Entonces, todo lo que se necesita son unas cuantas personas para hacer rodar la piedra y cambiar drásticamente la opinión pública y el punto de vista. Con el conocimiento de que las noticias pueden ser fabricadas fácilmente, ¿qué puede ser aceptado como una pieza de prueba genuina en la sala del tribunal? ¿Existe realmente una manera de frenar la difusión de información falsa? ¿Quién decide si las noticias son ciertas? Tanto los gobiernos como las empresas deben pensar en cómo pueden resistir los daños causados por los contenidos producidos por AI. En realidad, puede ser prudente considerar que los contenidos falsos son tan maliciosos y peligrosos como las amenazas a la ciberseguridad y responder en consecuencia. La propaganda, la desinformación, la interferencia maliciosa, el chantaje y otras formas de delitos contra la información deben ser tratados tan perjudiciales como los ataques físicos o los ciberataques a los sistemas y organizaciones.  En la actualidad, el mundo no está preparado para que la IA se desate sobre civiles desprotegidos. Las empresas que trafican libremente con contenido generado por los usuarios deberían ser tan responsables como los gobiernos de impedir el uso indebido de la IA.

Transparencia de los algoritmos


 Piense en ello como una extensión de la preocupación ética anterior. En este caso, las empresas no están dispuestas a hacer públicos sus bots para que sean examinados por el público. Es otro problema que ciertos algoritmos son oscuros incluso para sus creadores debido a la tecnología de aprendizaje profundo. El aprendizaje profundo es una tecnología en crecimiento bajo el paraguas para el aprendizaje automático que permite a los robots hacer predicciones precisas. Como se explicó antes, no sabemos cómo los bots hacen esas predicciones, que es otra preocupación ética.
Por ejemplo, echemos un vistazo a los bots que están diseñados para monitorear el comportamiento de los maestros. Cuando los robots despiden a los maestros de bajo rendimiento, no pueden explicar exactamente por qué se despide a los maestros. No pueden producir una tabla detallada de las cosas que los robots buscan para despedir a un profesor. La mejor explicación que cualquiera puede dar es señalando los datos que se le han dado al bot. Por lo tanto, el problema aquí está surgiendo de una manera de equilibrar la necesidad de un bot preciso con la necesidad de transparencia para las personas cuyas vidas dependen de él. Cuando la humanidad se encuentra en una encrucijada, todos deben elegir entre la precisión y la transparencia. El nuevo Reglamento general de protección de datos de Europa es un buen ejemplo. Si no somos conscientes de nuestro verdadero motivo para hacer algo, ¿no deberían los robots ser mejores en esto?

Armas

 Las armas con IA es otra preocupación ética. Según muchos investigadores de la IA, es posible crear sistemas de armas letales y autónomos en menos de diez años. La IA puede utilizarse en los aviones no tripulados que se despliegan sobre el terreno y eliminar las amenazas sin la confirmación de los seres humanos, lo que los hace mucho más peligrosos que los actuales aviones no tripulados militares.
 Investigadores de Amnistía Internacional han preparado un vídeo que muestra cómo se puede utilizar a los pequeños aviones teledirigidos autónomos para cometer genocidio. Como resultado, unos 4.000 investigadores de IA o robótica han firmado una carta abierta solicitando la prohibición de las armas autónomas ofensivas. Estos robots resultan ser mucho más letales que las armas nucleares. También hay varias cuestiones asociadas con el control de los bots como armas autónomas. ¿Sobre qué base deberían prohibirse estos tipos de armas cuando cada Estado quiere utilizarlas en su beneficio, al menos como moneda de cambio? Incluso si la prohibición es posible, ¿qué medidas deberían adoptarse para garantizar que no se desarrollen en secreto armas tan peligrosas?

Privacidad y vigilancia

 Cuando haya muchas cámaras de seguridad con capacidad de reconocimiento facial, habrá más problemas éticos en torno a la vigilancia. Los bots pueden reconocer a las personas con sólo mirarles a la cara y luego rastrearlas mientras se mueven. Esto es muy preocupante. Antes del desarrollo de la tecnología de reconocimiento facial, ni siquiera las cámaras de seguridad vulneraban la privacidad de las personas, ya que seres humanos están obligados a vigilar la pantalla en todo momento, lo que es sencillamente imposible. Cuando se trata de robots, pueden mirar cientos de imágenes al mismo tiempo.
 Por ejemplo, China ya ha empezado a utilizar sus cámaras de circuito cerrado de televisión para vigilar la ubicación de Algunos de sus ciudadanos.
 Algunos
La policía también tiene gafas especiales con software de reconocimiento facial para que puedan obtener información sobre los civiles que ven en la calle en tiempo real. La cuestión sería entonces si debería haber reglamentos contra el uso de esas tecnologías. Dado que el cambio social a menudo comienza como un desafío al statu quo y a la desobediencia civil, ¿puede una tecnología tan capaz llevar a la pérdida de libertad y al cambio social?
 Microsoft instó al Congreso a estudiar más a fondo la tecnología después de enterarse de que las tecnologías de vigilancia y reconocimiento facial pueden ser tan fácilmente objeto de abuso. Bradford Smith, presidente de la compañía, dijo que el gobierno necesita tener un papel crítico en la regulación de la tecnología de reconocimiento facial porque todo el mundo vive en una nación de leyes.

El hecho de que los gigantes de la tecnología no suelen ser partidarios de usar ellos o sus hijos sus propias innovaciones dice mucho de la amenaza a la libertad que suponen las tecnologías de vigilancia y reconocimiento facial.

Autos

 Este es un concepto muy reconocido para el uso de los bots. Tesla, Uber, Google y muchos otros fabricantes de automóviles se están uniendo a esta carrera tecnológica para crear un robot totalmente capaz que pueda conducir mejor que un humano. Si bien esto no es tan difícil de lograr y muchas de las preocupaciones éticas están sin resolver.
En marzo de 2018, un vehículo automotor Uber mató a un peatón. Había un conductor de seguridad para emergencias, pero no fue lo suficientemente rápido para detener el vehículo. En tal situación, ¿quién debe ser considerado responsable? ¿Es la compañía? ¿Son los conductores los que deberían estar vigilando? ¿Son los ingenieros los que deben garantizar el buen funcionamiento? Si debido a un fallo de software o hardware que hace que el coche vaya demasiado rápido y el bot tiene que elegir entre atropellar a alguien o caerse por un precipicio, ¿qué debe hacer el bot? Este es un tema ampliamente debatido, y algunos incluso lo han convertido en un juego de ordenador. Además, cuanto más se utilizan los coches autopilotados más se demuestra su eficacia en evitar accidentes, ¿debe prohibirse la conducción humana?

Prevención de errores

Ya sea un ser humano o una máquina, la inteligencia debe desarrollarse a través del aprendizaje. El sistema aprende a hacer lo correcto basándose en las informaciones que recibe, lo que se denomina fase de aprendizaje. Después de haber sido entrenados, estos robots pasarán a una fase de pruebas para ver cómo funciona. Debido a que es imposible suministrar el bot con todos y cada uno de los ejemplos posibles, los bots pueden ser engañados de una forma que nosotros no podemos. Si la humanidad depende de la IA para llevar a cabo la mayor reforma del mercado laboral, la eficiencia y la seguridad, debería haber una manera de comprobar si esos robots funcionan como se pretende y que la gente no puede abusar de ella para su propio beneficio.

Inteligencia Artificial Ética

Ahora mismo, hay una carrera para convertirse en una superpotencia en tecnología de IA a través de avances tecnológicos para convertirse en el mejor desarrollador de IA. Muchos estados como Estados Unidos, Singapur, Japón, Canadá y China están invirtiendo mucho dinero en investigación y desarrollo de la IA. Detrás de la prisa por mejorar continuamente las capacidades de la IA, también hay una necesidad de directrices y estándares para asegurar que la investigación, el desarrollo y el uso de la IA sean éticos. Todavía hay
otro debate en torno a la IA ética. ¿Debería tomar decisiones éticas o debería haber algún tipo de regulación?

Desafíos de la IA

Los avances en la tecnología de IA a menudo son vistos como un beneficio para todos nosotros. Sin embargo, tenga en cuenta que la creencia de que los bots intrínsecamente hacen el bien a la sociedad es ser un idealista. Mantener este punto de vista significaría pasar por alto la investigación y el desarrollo críticos necesarios para crear una IA ética y segura. En su estado actual, hay una falta de transparencia en el flujo de datos, y hasta ahora ha habido una certificación que garantiza la seguridad de la IA. Se han identificado algunos problemas con los datos utilizados en el aprendizaje automático. El conjunto de datos para entrenar a los robots puede ser costoso de recoger o comprar porque no muchas personas tienen acceso al mercado de aprendizaje de máquinas. Por lo tanto, los datos pueden ser sesgados o estar llenos de errores acerca de las clases de individuos que viven en áreas rurales en países de bajos ingresos o aquellos que eligieron no compartir sus datos. Incluso si los robots son entrenados usando un conjunto de datos apropiado, todavía hay espacio para empujar al bot en la dirección equivocada usando el modelo incorrecto o incorporando deliberadamente una característica discriminatoria. Debido a que no hay supervisión ni participación humana en esta etapa del aprendizaje automático, el sistema será impredecible e inescrutable. Debido a que los ingenieros no entienden completamente cómo funcionan sus propios bots, se pueden producir resultados sesgados cuando se utilizan datos que no representan a toda la población o cuando los bots se diseñan de forma irresponsable. Esto se conoce como los algoritmos de caja negra donde se conocen las entradas y salidas, pero el proceso es un misterio.

Cuando la IA se equivoca

Según los investigadores de DeepMind, la IA puede actuar agresivamente. Hicieron una prueba para estudiar cómo reaccionaría la IA cuando se enfrenta a ciertos dilemas sociales. En 2015, Google Photos etiquetó erróneamente a dos afroamericanos como gorilas. Un Microsoft Chatbot, Tay, hizo declaraciones racistas, incendiarias y políticas apenas una hora después de su lanzamiento. Ambos causaron alboroto público. Esto abre la posibilidad de que los prejuicios puedan ser incorporados intencionalmente en la IA que tiene poder sobre la vida de las personas. Además, es difícil saber si un bot se está comportando mal porque no conocemos todo el código. Si una compañía no quiere contratar a mujeres que podrían quedar embarazadas, pueden usar bots para filtrar a ese grupo de mujeres cuando están contratando. Los bots ya han comenzado a trabajar para conseguirlo. Dos compañías de seguros multinacionales en México utilizaron bots para maximizar sus ganancias y eficiencia, ignorando las posibles implicaciones para los derechos humanos de un acceso justo a una atención médica adecuada. La IA puede ser utilizada en el futuro recogiendo datos como el historial de compras de los clientes para entender su patrón de compra y así determinar si su estilo de vida es de alto riesgo y cobrarles más o negarles cobertura de seguro. Entonces, las personas más pobres y enfermas no podrán pagar ningún servicio de salud. Según el informe del FEM, con 745 líderes encuestados en empresas, gobiernos, instituciones académicas, ONG y organizaciones internacionales, la IA es la primera tecnología con el mayor potencial para causar consecuencias negativas en la próxima década.

Lo que se ha logrado

 Hace dos años, Google, IBM, Amazon, Microsoft, Facebook y otros gigantes tecnológicos crearon un consorcio sin ánimo de lucro, liderado por la industria, conocido como "Partnership on AI to Benefit People and Society" (Asociación sobre la IA en beneficio de las personas y la sociedad), con el objetivo de encontrar estándares éticos para los investigadores de la IA en cooperación con académicos y científicos, especialistas en políticas y en cuestiones éticas. Además de asegurar que la IA sirva para beneficiar a la sociedad en su conjunto, se trata también de una medida para calmar al público sobre la posible sustitución de los humanos por los bots. El año pasado, otras compañías se unieron a la fiesta como Accenture y Mckinsey. Muchas compañías de tecnología han tomado medidas para asegurar que su tecnología esté a salvo de las manos equivocadas. DeepMind ha creado su propio comité de Ética y Sociedad que llevará a cabo investigaciones sobre seis temas clave como la privacidad, la transparencia, la justicia y el impacto económico, incluyendo la inclusión y la igualdad. AETHER, un comité de ética de Microsoft, también está buscando desarrollar algoritmos de decisión para los servicios de la empresa en la nube. En este momento, la junta sólo tiene empleados de Microsoft, pero la compañía planea contar con personal externo para asegurar que los bots que desarrollan sean verdaderamente éticos.

Conclusión

En resumen, es inevitable que los robots se hagan realidad y revolucionen el mercado laboral. Es cierto que los robots se harán cargo de algunos trabajos, pero eso no será nuestro fin. Ese futuro sombrío sólo ocurrirá cuando no estemos preparados. Afortunadamente, tenemos tiempo suficiente para prepararnos si tomamos medidas ahora. Para asegurar un futuro brillante, necesitamos desarrollar un código ético para esos bots además de las legislaciones más recientes para controlar el desarrollo, la implementación y la función de los bots.


Comentarios

Entradas populares