Ética e inteligencia artificial: los dilemas del futuro están ya muy presentes

En un mundo cada vez más automatizado y robotizado, la inteligencia artificial forma ya parte muy destacada de nuestras vidas. El reto a medio plazo consiste en crear sistemas compatibles con nuestro sentido de la ética, que nos respeten, no nos pongan en peligro y no nos controlen ni vulneren nuestros derechos.

La UNESCO lo ha bautizado como “el dilema del coche autónomo”. Un automóvil autónomo (o robótico) es un vehículo dotado de inteligencia artificial que le permite percibir el entorno por el que circula y, en consecuencia, moverse con poca o ninguna intervención humana. No hablamos de una simple posibilidad teórica, sino de una realidad: compañías como Honda, Waymo, Toyota, Mercedes Benz o Cruise disponen ya de prototipos comerciales por encima del nivel 3 de autonomía efectiva, es decir, perfectamente capaces de circular por sí mismos. Los vehículos se nutren de una gran cantidad de información contextual captada por sus múltiples sensores y estos son procesados por su sistema de conducción autónoma, dotado de un complejo algoritmo de autoaprendizaje que le permite tomar decisiones en tiempo real.

El dilema se produce cuando el algoritmo tiene que tomar decisiones con riesgo potencial para la integridad de las personas. Por ejemplo, en el caso de que un vehículo con los frenos rotos se dirija a gran velocidad hacia un cruce en el que hay una anciana y un niño y tenga que decidir a cuál de los dos pone en peligro con un golpe brusco de volante. Si el conductor fuese un ser humano, estaríamos hablando de una decisión moral. En el caso de un algoritmo, se trataría de una decisión técnica, pero no por ello carente de implicaciones éticas.

 

La responsabilidad comienza por el diseño

Tal y como explica Raquel Jorge, experta en tecnología y agenda digital del Instituto Elcano, “el algoritmo hará lo que sus programadores humanos le hayan enseñado a hacer”. Son seres humanos los que habrán decidido qué vida tiene más valor, la de la anciana o del niño, o si se trata en realidad de un falso dilema, porque la única decisión éticamente consecuente sería buscar una opción intermedia que redujese todo lo posible el riesgo para ambos.

Jorge insiste en que lo que estamos haciendo con la inteligencia artificial no es “externalizar nuestros debates éticos, algo por definición imposible, porque la ética es un producto humano, sino llevarlos a un nuevo ámbito de actividades en el que la responsabilidad va a seguir siendo nuestra, aunque sea una máquina la que actúe”.

En su Acuerdo Internacional sobre Ética en la Inteligencia Artificial, aprobado en París el 28 de noviembre de 2021, la UNESCO se propuso definir con precisión, en palabras de su directora general, Audrey Azoulay, “cuáles son los valores y principios que deben servirnos de guía en la construcción de una infraestructura legal que haga posible un desarrollo saludable de los sistemas de IA”.

La UNESCO se propuso definir con precisión, en palabras de su directora general, Audrey Azoulay, “cuáles son los valores y principios que deben servirnos de guía en la construcción de una infraestructura legal que haga posible un desarrollo saludable de los sistemas de IA”.

 

No estamos lejos de las tres leyes de la robótica, enunciadas por Isaac Asimov ya en la década de 1940: un robot debe no hacer daño, obedecer cualquier orden humano que no entre en conflicto con la primera ley y protegerse a sí mismo siempre que eso sea compatible con las dos leyes anteriores. Hoy en día, la UNESCO se plantea, además, evitar el sesgo étnico y de género en los programas de inteligencia artificial, respetar la privacidad y el sentido de la dignidad de los ciudadanos o hacer un uso equitativo de la tecnología. En palabras de Raquel Jorge, “necesitamos una IA que, además de no atropellar ancianas ni niños, nos respete, nos reconozca y no nos discrimine”.

 

Cuestiones morales y marcos legales

Se trata de un reto formidable. Carmen Jordá Sanz, profesora de Criminología en la Universidad Camilo José Cela y responsable de Prosegur Research, asistió el pasado mes de marzo a un taller de expertos sobre gobernanza de la inteligencia artificial organizado por Esglobal. “En él se habló mucho de los cambios en el contexto geopolítico que está produciendo el desarrollo de este tipo de tecnologías”, explica Jordá, “pero también, muy especialmente, de dilemas éticos y de marcos legales que los tengan en cuenta”. Los talleres de debate contaron con ponentes como Ángel Alonso Arroba, vicedecano de la School of Global and Public Affairs de la IE University, o Carmen Colomina, profesora del Colegio Europa e investigadora principal del Barcelona Centre for International Affairs (CIDOB).

Para Jordá, que también está al frente de la Unidad de Inteligencia y Prospectiva de Prosegur, el nivel de las ponencias y lo mucho que se centraron en cuestiones éticas demuestra que “la hora de afrontar esos debates ha llegado, ya no basta con referencias menores al uso médico de la IA o a los problemas que plantean los robots de seguridad o los vehículos autónomos”. La clave de cara al futuro, según Jordá, “pasa por desarrollar tecnologías que pongan a las personas en el centro”. La inteligencia artificial ética solo puede prosperar en el marco de “sociedades éticas y empresas éticas que le den una dimensión moral tanto a la convivencia como a la actividad económica”.

En otras palabras, “solo de países y de compañías privadas con propósito y valores puede surgir una inteligencia artificial plenamente responsable y respetuosa”. La Unión Europea, que se rige por una serie de principios y se esfuerza por crear un marco legislativo que garantice que estos se respeten, explica Carmen.

La Unión Europea, que se rige por una serie de principios y se esfuerza por crear un marco legislativo que garantice que estos se respeten, explica Jordá.

 

Aunque la legislación puede ser, en ocasiones, “algo rígida y no del todo adaptada a la evolución del marco tecnológico”, es importante que se regulen “cuestiones como la protección de datos, la restricción en el uso de la biometría, la corrección de los sesgos de género y tantas otras cuestiones que están ya sobre la mesa y van a estarlo mucho más en los próximos años”. El reto es “legislar y regular de manera eficiente y exhaustiva, pero sin que eso suponga un freno para la innovación, porque el de la inteligencia artificial es un entorno muy competitivo en el que Estados Unidos y China le llevan una ventaja sustancial a Europa en términos de investigación e implementación comercial”.

En su papel de representante de una empresa privada como Prosegur, de clara vocación tecnológica y disruptiva, Jordá destaca que “la responsabilidad ética recae, en primer lugar, en la fase de diseño”. Son los creadores y desarrolladores de sistemas los que deben “pensar en términos morales y tener muy en cuenta las implicaciones de lo que hacen”. Los algoritmos “son matemáticas, y las matemáticas no tienen una dimensión ética, son los productores de algoritmos los que deben esforzarse por dársela”.

 

La dimensión social de la tecnología

Para Raquel Jorge, “más allá del impacto económico y geopolítico de la inteligencia artificial está su dimensión social, que es aún más importante”. La investigadora del Instituto Elcano destaca que, en este sentido, “España es un ejemplo a nivel internacional, por lo muy en serio que se está tomando estas cuestiones”. En su opinión, resulta muy significativo que “cuando la Unión Europea inició, en 2018, los trámites para dotarse de un nuevo marco jurídico en materia de inteligencia artificial, España fue propuesta como país tester a la hora de dar voz a colectivos sociales o a grupos demográficos a los que muy rara vez se escucha, como a los niños”.

Nuestro país “es uno de los más escrupulosos a la hora de reconocer derechos digitales, como la privacidad”. También resulta pionero “por su reconocimiento de la diversidad sexual”, un aspecto “que los sistemas de IA deberían tener cada vez más en cuenta”. No se trata, en opinión de la experta, de un detalle anecdótico: “De hecho, un motivo de queja muy frecuente entre los ciudadanos es que muchos de los sistemas de inteligencia artificial con los que interactúa siguen estando pensados por defecto para un perfil muy concreto, por lo general hombres de mediana edad heterosexuales y de piel blanca. Corregir esos sesgos para que nadie se sienta excluido es también un imperativo ético”.

A medio plazo, los grandes debates pendientes son, en opinión de Jorge, “en primer lugar, el de la transparencia y la trazabilidad ética, es decir, la necesidad de explicar de manera clara a los ciudadanos qué se hace y por qué se hace, porque los criterios que aplican las inteligencias artificiales no siempre resultan inteligibles para las personas, y deberían serlo”. Después, “el de los límites a la acumulación de datos y la manera de hacer esa información compatible con el respeto a la privacidad”. También el de “la equidad: que la inteligencia artificial no suponga una nueva desventaja cualitativa para los más vulnerables”. Y, por último, “debemos estar seguros de que la IA no va a ser en ningún caso un sistema de control social, que no va a restringir nuestras libertades ni vulnerar nuestros derechos”.

Son debates fundamentales que acabarán de conformar el tipo de sociedades en que viviremos a medio plazo. Y van mucho más allá de preguntarnos a quién debe atropellar o no atropellar un vehículo autónomo.