
Estamos acostumbrados a ver en el cine películas que desde hace bastantes años exponen alguna de las, entonces futuras, problemáticas que la aplicación de la inteligencia artificial (IA) podría suponer. En multitud de ocasiones está representación de la futura, y casi ya presente, realidad muestra una relación con la humanidad un tanto descorazonadora donde la toma de conciencia de las máquinas a través de su inteligencia individual y colectiva artificial nos desafían queriendo ser algo más que meros sirvientes. Quién no recuerda películas tan exitosas como Terminator, Yo robot, o la ya mítica y consagrada Blade Runner. Todas ellas se centran en la parte física (robótica) de la IA para mostrar sus acciones y consecuencias, pero es precisamente esta apariencia la que menos la representa ya que en realidad, la IA reside en la parte más etérea de la ingeniería: la representación del conocimiento de nuestro entorno y la capacidad de aprender a través del uso de modelos y algoritmos que permanecen en constante funcionamiento en alguno de los millones de procesadores que nos rodean a diario. ¿Cómo uno de estos algoritmos ubicado en la memoria de un procesador en algún centro de datos de alguna localización remota puede llegar a ser tan peligroso?
Esta pregunta ha dado lugar que un gran número de científicos y expertos del área hayan planteado el dilema ético sobre qué debe y no debe poder hacer la inteligencia artificial en referencia a su inclusión dentro de los sistemas sanitarios, transporte, educación, energía o en el más comprometido, defensa. ¿Debería la IA decidir si una persona joven tiene prioridad sobre una mayor en la recepción de una donación de riñón?, ¿debería un robot poder identificar y atacar personas sin supervisión humana?; o en el último caso, ¿debería un sistema IA poder declarar una guerra?
Se abre un intenso debate sobre cómo debe alinearse la IA con los valores humanos y también cómo debe lograrse que este alineamiento se respete y cumpla por todos los agentes implicados sin que ello impida el progreso y el avance para la mejora del bienestar social. En realidad, lo que estamos viviendo no es más que una gran oportunidad para definir y regular cómo queremos que sea nuestra relación con los sistemas inteligentes autónomos que se irán desarrollando durante los próximos años y décadas. Y para ello es necesario preguntar qué hace ético a un algoritmo de IA. Existen tres características necesarias para ello.
Primero, que sea transparente. Esto hace que pueda ser inspeccionado y auditado el comportamiento pasado y que también esté descrito el modelo en el que se basa dicho comportamiento (para entenderlo mejor con terminología industrial, sería la patente del sistema). En segundo lugar, es necesario que dicho comportamiento sea predecible, es decir, que ante un estímulo dado podamos saber de antemano su comportamiento. Esto implica un contexto de pruebas de control ético exhaustivo que actualmente no está definido y que casi ninguno de los sistemas de IA tiene en cuenta (el caso de los vehículos autónomos puede que sea la única excepción). Y tercero, que posea robustez frente a posibles manipulaciones. De nada sirven las dos primeras características si no podemos asegurar que no pueden ser violentadas por accesos malintencionados logrando manipular la IA y, por tanto, también los criterios éticos que tiene.
En una de mis últimas charlas [1] pregunté a los alumnos de la escuela de verano: ¿Qué características creéis que tiene que tener un sistema basado en IA para no dañar ni física
ni moralmente a una persona? Y con su sabiduría estudiantil me contestaron: “Que se pueda apagar”.
[1]http://projectbasedschool.universidadeuropea.es/blogs/dsl/wp-content/uploads/sites/11/2018/10/InteligenciaArtificialyCiberseguridad-Aplicaciones-Etica-VWeb.pdf