IA Y ÉTICA APLICADA

Artículo de opinión por Jorge Navarrete Bustamante, Director. Magister en Gestión y Políticas Públicas. FEN. Universidad de Talca.

La Inteligencia Artificial (IA) se enraízo en nuestras vidas, y ya no podemos salirnos de ese mundo.  Debemos entonces, construir un marco de ética aplicada supeditado a la libertad humana; y también a la Justicia, en el sentido que debe existir en el mundo una equilibrada distribución.

¿Cómo hacerlo?

Con éticas aplicadas generadas de la interdisciplinariedad y transdisciplinariedad entre especialistas en informática, científicos sociales, economistas, expertos en políticas públicas, filósofos morales, entre otros, imprescindibles para construir una Ética Aplicada de la IA.

Precisemos.

Expertos distinguen tres niveles en la ética de la IA que tratarían de responder la pregunta planteada: ¿La ética de la IA es la que deberíamos adoptar los seres humanos para tratar a los sistemas inteligentes?; ¿O es la que deben aplicar, desde sus valores morales, los sistemas inteligentes?; ¿Cómo interactuaremos con eventuales agentes morales artificiales perfectamente autónomos, que tengan capacidad de hacer razonamientos éticos a partir de su propio código moral?

Explícitamente:

  1. El primer nivel, se refiere a la ética respecto de cómo los seres humanos debemos tratar a los sistemas inteligentes. Ello involucraría a los diseñadores de sistemas inteligentes, los propietarios, los usuarios, e investigadores, en pos de generar marcos, reglas, orientaciones para tratar con los sistemas inteligentes, teniendo en cuanta que se les considera instrumentos al servicio de los seres humanos.  

Por tanto, debemos tener capacidad de antelación pues, como nos enseña Kant, “el descubrimiento del puñal fue anterior a la conciencia del imperativo categórico”.

Ergo, después del “puñal” vinieron las leyes y las orientaciones éticas para el bien de la humanidad.

¿Cuál sería entonces, el marco adecuado para una ética de este nivel?

Universalmente se reconocen los siguientes principios: El de NO maleficencia o no dañar; el de beneficencia o beneficiar; el de autonomía; el de justicia; y el que Adela Cortina ha agregado: el de trazabilidad.

  • El segundo nivel, es el de la ética que deben aplicar los sistemas inteligentes desde los valores introducidos por seres humanos, entendiéndose que, a través de ciertos “despliegues”, las maquinas pueden ir modificando sus posturas y actuando de una forma no dependiente de su creador, razón por la cual se les llama sistemas autónomos. Esto nos plantea, a su vez, dos problemas éticos:
  • ¿Qué valores deberían introducirse inicialmente en las maquinas teniendo en cuenta el pluralismo moral de las sociedades libres, y las diferencias entre las distintas culturas? ¿Cómo descubrir acuerdos nacionales y transnacionales?
  • ¿Se trataría de autonomía o “automatismo”, si la maquinas pudieran tomar decisiones por sí mismas?
  • El tercer nivel, es el de los agentes morales artificiales perfectamente autónomos, que se refiere a la capacidad de hacer razonamientos éticos a partir de su propio código moral.

Por suma, tenemos desafíos fundamentales que resolver con inmediatez, no vaya a ser que, otra vez, el: “descubrimiento del puñal vaya por delante del imperativo categórico”