Las aplicaciones de inteligencia artificial más extendidas en la actualidad son las que vemos en los vehículos autónomos; en los sistemas de reconocimiento de voz capaces de identificar el lenguaje humano, procesarlo e interactuar con él; en aplicaciones de visión artificial que procesan, analizan y comprenden imágenes para formalizarlas y ser tratadas por un ordenador; y en sistemas de machine learning que son capaces de aprender una tarea y mejorar su desempeño en base a experiencias previas.

Como ejemplo de estas dos últimas aplicaciones, en PICVISA hemos diseñado Ecopick, nuestro robot inteligente para separar residuos utiliza visión artificial y machine learning para optimizar el proceso de triaje en plantas de reciclaje o procesos de control de calidad. Gracias a Ecopick, las plantas de residuos podrán incrementar su productividad en distintas fases de la cadena de valor, con el consiguiente ahorro económico. La automatización inteligente de las plantas de reciclaje permite además aumentar la seguridad laboral en las tareas de gestión de residuos.

La inteligencia artificial sigue evolucionando y se esperan futuros avances y desarrollos, pero sus beneficios ya son numerosos: gracias a esta tecnología podemos entender mejor y más rápido los resultados de una radiografía, o somos capaces de conocer mejor a nuestros clientes y adaptar nuestro marketing en consecuencia.

Nadie cuestiona los beneficios, pero sí existe un debate abierto sobre las posibles consecuencias de la inteligencia artificial, y sus aplicaciones en la robótica y otros sistemas, para la economía, el empleo y la sociedad en su conjunto. En el debate participan gobiernos, universidades e industria, y desde cada institución se están planteando los dilemas éticos que serán la base de la legislación futura.

 

Los retos éticos de los sistemas y aplicaciones con inteligencia artificial

Enumeramos a continuación algunos de los dilemas éticos asociados a la inteligencia artificial; en la enumeración veremos que estos riesgos no son ajenos a otras tecnologías o aplicaciones de automatización:

  1. ¿La adopción y mayor penetración de los sistemas inteligentes se traducirá en la desaparición masiva de puestos de trabajo? Esta tecnología propicia la aparición de otras formas de empleo y de nuevas competencias profesionales, pero ¿serán suficientes para compensar las posibles pérdidas de empleo?

Aún no tenemos la respuesta, pero creemos que el desafío de esta tecnología disruptiva radica en la capacidad de adaptación de las empresas, de los empleados y de las sociedades y gobiernos en general.

  1. ¿Los riesgos de manipulación, seguridad y sesgo son mayores que en otros sistemas informáticos? Muchas aplicaciones de inteligencia artificial operan con algoritmos basados en gran cantidad de datos y en modelos estadísticos, y esto puede conducir a decisiones sesgadas o desviaciones hacia algún tipo de preferencia que suponga algún tipo de discriminación. Además, esta tecnología puede ser manipulada para orientarla a conseguir un fin -modificar precios, manipular o influir en las elecciones-. En este artículo de McKinsey profundizan más en este punto, e incluso dan claves a los dirigentes para afrontar tales retos.
  2. ¿Existe una posible transformación de nuestras habilidades cognitivas y de algunas relaciones humanas? El hecho de delegar la toma de decisiones, la comunicación, la planificación e incluso algún diagnóstico en aplicaciones con inteligencia artificial, podría derivar en una pérdida de capacidades y habilidades personales, como defienden algunos autores (AI & Global Governance: A New Charter of Rights for the Global AI Revolution, 2018. Groth, Nitzberg y Esposito).
  3. Pérdida de poder por parte de la sociedad y, en algunas aplicaciones, falta de control sobre datos y privacidad. Todos recordamos casos como el de Cambridge Analytica7 que, aunque no utilizaba inteligencia artificial, podemos revisarlo como ejemplo de que la tecnología y los datos pueden manipularse en beneficio de ciertos intereses políticos o económicos.
  4. Dificultad para asignar responsabilidades en caso de errores o fallos de las aplicaciones con inteligencia artificial. Podemos pensar que, si un error en un sistema inteligente provoca un daño, la responsabilidad podría recalar en las personas que diseñaron el algoritmo. Pero esto es difuso a medida que aumenten la autonomía y capacidad de decisión de los sistemas inteligentes. Como caso de ejemplo siempre se menciona al coche autónomo, que puede decidir estrellarse contra otro individuo para evitar un accidente mortal del viajero del coche. En esta decisión es el algoritmo el que decide qué vida vale más, y si esta decisión provoca daños a terceros, quién es el responsable: ¿el dueño del vehículo, el sistema inteligente o los fabricantes? Y otro tema importante: ¿en qué se basa un algoritmo para decidir que una vida vale más que otra?

Asociada a esta problemática encontramos el hecho de que es difícil explicar o trazar la decisión que tomó el sistema inteligente.  Cuanto más complejo sea el algoritmo más difícil será de explicar el proceso de toma de decisiones, y esto dificulta la asignación de responsabilidades.

 

La regulación ética y la legislación son necesarias para acompañar al desarrollo de la inteligencia artificial

Desde sus inicios, la inteligencia artificial ha tenido sus defensores y sus detractores. Científicos famosos como el físico Stephen Hawking y Marvin Minsky, creador del concepto de IA en 1956, se postularon en varias ocasiones, a lo largo de su vida, en contra de ella o, al menos, avisaron de sus enormes riesgos. Hawking llegó a afirmar que “el día que la inteligencia artificial se desarrolle por completo podría significar el fin de la raza humana”. En cambio, otros expertos le ven múltiples ventajas, aunque admiten que la necesidad de regular su aplicación. Por ejemplo, Jeff Bezos, CEO de Amazon, defiende que “la IA es un ejemplo perfecto de algo que tiene aplicaciones realmente positivas, por lo que no debes frenarlo; pero, al mismo tiempo, también existe la posibilidad de abusar de esta clase de tecnología, por lo que las regulaciones son deseables”.

Actualmente son muchos los expertos que coinciden en la necesidad de una regulación del buen uso de algunos aspectos de la inteligencia artificial a escala mundial para garantizar que esta sea una tecnología justa, segura y transparente. De hecho, uno de los temores más difundidos en torno a la IA es que se pueda llegar a usar en una guerra armamentística. Precisamente, una reciente campaña, denominada Stop Killer Robots, persigue que se firme un acuerdo internacional para que los países miembros de Naciones Unidas se comprometan a no utilizar esta tecnología aplicada al armamento.

 

Los dilemas de una industria automatizada con tecnología de inteligencia artificial

En los últimos años distintos sectores industriales han apostado por la automatización de sus procesos aprovechando los avances en inteligencia artificial y robótica. En PICVISA, con 15 años de experiencia en el sector del reciclaje, somos muy conscientes de ello. Cada vez más industrias demandan soluciones robóticas que suponen una mayor automatización de sus plantas de reciclaje para mejorar su eficiencia.

Una de las críticas más recurrentes a la automatización de los procesos industriales es que conlleva la pérdida de puestos de trabajo. No obstante, un informe de la consultora McKinsey&Company, a pesar de reconocer que en un futuro la mitad de la actividades industriales podrían automatizarse, también defiende que esto podría beneficiar a los trabajadores ya que mejorarán sus condiciones de seguridad y salud. Además, la automatización de algunas tareas permitirá mayor dedicación de tiempo y recursos para realizar otras de mayor valor añadido.

Por tanto, dar por hecho que la creciente automatización supone una destrucción de empleo es un error, ya que los robots se dedicarán a realizar las tareas repetitivas, de menor valor añadido y de mayor riesgo, y los humanos se centrarán en agregar valor donde las máquinas no pueden, e incluso se espera que se generen nuevos puestos de trabajo que ahora mismo ni podemos imaginar. La solución pasa por trabajar en crear un entorno en el que puedan convivir y complementarse ambos actores, los robots y los seres humanos.

 

La Unión Europea ha creado una Guía Ética para el manejo de aplicaciones con Inteligencia Artificial

En el informe Ética y e inteligencia artificial publicado por la cátedra CaixaBank de Responsabilidad Social Corporativa (IESE) encontramos la mención a las publicaciones de muchos organismos e instituciones que han elaborado una lista de recomendaciones para garantizar el uso ético y justo de la inteligencia artificial. Destacan:

Como hemos visto, los riesgos enumerados preocupan a los dirigentes públicos y privados, y aunque no haya una legislación firme al respecto. La UE han redactado una Guía Ética que pretende marcar buenas prácticas para el manejo de la IA.

 

Destacamos estos puntos clave:

  • Las aplicaciones con IA deben apoyar los derechos fundamentales de los humanos, y no disminuir, limitar o desviar la autonomía de estos.
  • La inteligencia artificial requiere que los algoritmos sean lo suficientemente seguros, confiables y sólidos como para enfrentar errores o inconsistencias durante todas las fases del ciclo de vida de los sistemas.
  • Los ciudadanos deben tener control total sobre sus propios datos, y estos no se utilizarán para perjudicar a los ciudadanos o discriminarlos. En el caso de la gestión de residuos, trabajar con sistemas de selección inteligentes puede limitar el derecho a la privacidad, ya que se puede obtener mucha información acerca de los hábitos de consumo de los ciudadanos.
  • Es importante garantizar la trazabilidad de los sistemas de IA para mantener la transparencia en todo momento.
  • Las aplicaciones con IA deben considerar todo tipo de habilidades, características y requisitos de todo tipo de personas, y garantizar la accesibilidad y la no discriminación.
  • Las aplicaciones con inteligencia artificial deben utilizarse para mejorar el cambio social positivo y mejorar la sostenibilidad y la responsabilidad ecológica.
  • Es importante establecer mecanismos para garantizar la responsabilidad de los sistemas de IA y sus resultados. El diseño y el empleo de sistemas inteligentes deben estar precedidos por una clara asignación de responsabilidades ante los posibles daños y perjuicios que estos puedan ocasionar.

En el desarrollo de nuestras líneas de negocio BRAIN y ROBOTICS nos preocupan que todos los dilemas éticos de las aplicaciones de inteligencia artificial queden bien cubiertos; para PICVISA es especialmente preocupante cómo puede afectar la inteligencia artificial al empleo. Cuando diseñamos ECOPICK pensamos en aportar valor a las plantas de reciclaje liberando a los operarios de las tareas más repetitivas y de las que entrañan mayor riesgo para la salud. Como ejemplo de ello, una de las aplicaciones de ECOPICK es la separar y clasificar residuos peligrosos como los medicamentos.

 

Para saber más recomendamos estas lecturas, que además han sido la bibliografía de consulta para este post:

  • Fourth Industrial Revolution: aquí
  • ¿Sobrevivirán las viejas profesiones a la creciente automatización?: aquí
  • How are the Forum and partners shaping the future of internet of things, robotics and smart cities?: aquí
  • Cómo usar la inteligencia artificial para lograr una sociedad más justa: aquí
  • Evento online. Estrategia de la UE en materia de ‘big data’ e inteligencia artificial: vídeo
  • Building trust in human-centric artificial intelligence: aquí
  • Directrices éticas para la inteligencia artificial: aquí
  • Ficha informativa sobre la inteligencia artificial: aquí
  • Grupo de expertos de alto nivel sobre inteligencia artificial: aquí
  • Alianza europea de la inteligencia artificial: aquí
  • Inteligencia artificial: Una perspectiva europea: aquí