La ética es el conjunto de normas morales que rigen la conducta de las personas en cualquier ámbito de la vida. En general, la ética busca determinar la actuación ideal de los individuos. Si su objetivo es el comportamiento de las personas, ¿tiene sentido que las máquinas sigan unos principios éticos? El grupo de 52 expertos europeos en inteligencia artificial (IA en adelante) designados por la Comisión Europea considera que sí y que, para minimizar los riesgos de esta tecnología, es necesario que su desarrollo ponga a los seres humanos en el centro y sea confiable para lo cual debe de respetar los derechos fundamentales, ser técnicamente robusta y tener un propósito ético.

Dicho grupo de expertos acaba de someter a consulta pública un borrador de documento con principios éticos para una IA confiable, cuya versión final está prevista para marzo de 2019. Su objetivo no es tanto ofrecer una lista de valores y principios generales, sino una guía concreta sobre cómo implementarlos y hacerlos operativos. Tampoco pretende sustituir o modificar ninguna norma sustantiva sino más bien complementarlas. Cuando esté finalizado, cualquier entidad interesada podrá adherirse a dichos postulados de forma voluntaria.

El documento está dividido en tres partes y va de lo general a lo específico. En el primer apartado ofrece una guía para asegurar el propósito ético de la IA. En el segundo y el tercero, el foco está en que esta sea confiable y evaluable. Se parte de la premisa de que los principios éticos tienen que estar basados en los derechos fundamentales consagrados en los tratados europeos, en especial, el respeto por la dignidad humana, la democracia, la libertad individual, la igualdad, la solidaridad y la no discriminación.

Los expertos consideran que los cinco principios que debe tener en cuenta cualquier desarrollo técnico basado en IA son: a) beneficencia, que implica buscar el bien común; b) no maleficencia o no causar daño, en especial a las minorías pero también debería ser aplicable al medio ambiente; c) autonomía humana, de forma que nunca estemos subordinados a las máquinas; d) justicia, en el sentido de evitar discriminaciones o repartos inequitativos; e) explicabilidad y transparencia de las decisiones basadas en IA.

En aplicación de lo anterior, el documento enumera un listado de diez requerimientos para que la IA sea confiable:

  • Incorporar mecanismos de responsabilidad y compensación por los fallos del sistema.
  • Que los datos que se utilicen para alimentar a la IA sean completos, apropiados y no sesgados y que no se puedan usar contra las personas que los han facilitado.
  • Universalidad: que el servicio se diseñe para todo tipo de usuarios, incluyendo a personas con cualquier discapacidad.
  • Que pueda existir control humano de las decisiones de los algoritmos.
  • No discriminación.
  • Respeto y desarrollo de la autonomía humana. Esto implicaría, entre otras cosas, asegurar una distribución justa de los beneficios de la IA y que los sistemas diseñados para ayudar a los usuarios, permitan que el bienestar general de estos sea una de sus funcionalidades prioritarias. Parece que este será uno de los requerimientos más complicados de llevar a la práctica porque los desarrollos actuales están yendo en el sentido opuesto, como ilustra el profesor y escritor israelí Yuval Noah Harari en su último artículo.
  • Respecto a la privacidad.
  • Robustez.
  • Seguridad.
  • Transparencia.

Para cumplir con estos requisitos los expertos recomiendan utilizar tanto medidas técnicas y como no técnicas. Entre las segundas se menciona la educación, que parece uno de los elementos clave en este debate puesto que, a día de hoy, solo una pequeña minoría tiene los conocimientos necesarios para poder entender el impacto y las implicaciones globales de los servicios que utilizan IA.

El último de los apartados del informe es el más interesante puesto que enumera preguntas concretas para cada uno de los requerimientos mencionados anteriormente, que ayudan a evaluar si realmente estamos cumpliéndolos o no. Son cuestiones aplicables a cualquier sector de actividad pero los expertos se comprometen a hacer una lista específica para salud, seguros o coches autónomos.

En resumen, se trata de un buen punto de partida con el que la Comisión Europea busca liderar el debate sobre el impacto ético de una tecnología que actualmente controla un número reducido de empresas tecnológicas. El grupo de expertos prevé publicar en mayo de este año un nuevo documento con recomendaciones sobre regulación e inversión.

Como ya expusimos en un artículo anterior, este aspecto de la financiación es clave: si Europa no es capaz de invertir en los próximos años por encima de lo que están haciendo los gigantes americanos y chinos, perderemos definitivamente el tren de la IA y correremos el riesgo de tener que limitarnos a ser usuarios de unos servicios que han sido diseñados fuera de nuestras fronteras.