Prosegur: Definiendo el Futuro Ético de la IA en la Seguridad

La inteligencia artificial (IA) es uno de los campos más prometedores en el contexto actual de transformación y disrupción tecnológica. Su reciente aparición en el ámbito empresarial plantea importantes incertidumbres y dilemas éticos como la falta de transparencia de las herramientas, la toma de decisiones inteligibles para los humanos y los resultados discriminatorios y sesgos incrustados.

Para enfrentar estos desafíos, Prosegur desarrolló a principios de este año su propio sistema de Gestión de IA Responsable, garantizando así el cumplimiento normativo y el respeto de los valores éticos y morales en los proyectos de adquisición o desarrollo tecnológico que incorporan tecnología de IA. 

Este sistema, pionero en el panorama corporativo español, incluye la primera Política de Inteligencia Artificial Responsable de la compañía. Dicha política se establece como una guía de actuación que parte del respeto a la autonomía humana y principios como equidad, transparencia y prevención de daño. Aunque en España, por ahora, solo un pequeño porcentaje de empresas cuentan con normativas de esta naturaleza, en un futuro cercano, la IA responsable se convertirá en la norma, impulsando soluciones éticas y transparentes que generan impactos positivos tangibles para la sociedad en su conjunto. 

Con la intención de resaltar el compromiso continuo de la compañía con la innovación tecnológica de vanguardia, conversamos con Diolimar García Directora Legal, Daniel Bastida Data Protection Officer y Carolina Cortés Innovation Manager, integrantes del comité de IA Responsable de Prosegur. Estos expertos representan la apuesta firme de la compañía por fusionar la innovación, la tecnología y los valores éticos en la creación de soluciones de seguridad avanzadas. 

 

Trazando Criterios Éticos y Técnicos 

 

El Comité de IA Responsable, como parte de la Unidad de Compliance, se encarga de supervisar que todas las soluciones de IA implantadas en Prosegur sigan los lineamientos dispuestos en la Política en todo su ciclo de vida. Estos proyectos deben ser respetuosos con los valores éticos y morales, y lo suficientemente robustos, tanto desde un punto de vista técnico como social. 

De acuerdo con Diolimar García, este Comité supervisa el cumplimiento de los requerimientos en materia de IA y la defensa de los derechos y libertades fundamentales de las personas. Además, lleva un registro de todas las soluciones implantadas en Prosegur y asesora a las distintas áreas en todas las cuestiones legales y éticas que afectan a proyectos de IA. 

“Con esta política de uso responsable de la IA queremos sumarnos a otras grandes compañías que ubican a la tecnología en el centro de sus operaciones, pero pretendemos hacerlo de una manera ética, lícita y robusta, como indica nuestra normativa”, declara García. 

 

Innovación libre sesgos 

 

En este sentido, la política intenta dar una respuesta adecuada a una de las mayores inquietudes planteadas por la irrupción de la IA: cómo evitar sesgos indeseados a la hora de desarrollar algoritmos. Según explica Carolina Cortés, “es muy importante seguir un proceso orientado a garantizar la calidad del dato, tanto en su obtención como en su tratamiento, ya que los sesgos pueden expandirse desde los datos hasta la toma de decisiones de los modelos”.   

El comité cuenta con una metodología especializada para evaluar el cumplimiento de los requisitos establecidos en la política. Esto no solo asegura su cumplimiento, sino que también contribuye de manera eficaz a minimizar el riesgo de sesgos en el proceso de desarrollo de la IA y en los algoritmos utilizados. 

 

Principio de Ethics By Design 

 

Cuando se habla de una IA segura y responsable, se hace referencia a aquella que pretende evitar impactos o externalidades negativas derivadas de su mal uso. En el contexto actual, este tipo de IA es una necesidad apremiante que se encuentra en constante evolución.  

Según Daniel Bastida, Data Protection Officer de Prosegur, en la política implementada en la compañía, se recoge el principio de "Ethics By Design’’. Este principio implica la necesidad de aplicar la ética desde el inicio en todos los proyectos de desarrollo tecnológico de IA, con el fin de obtener una solución cuyo resultado sea una IA Responsable en sí misma.  

Para poder garantizar este principio, el comité ha elaborado una metodología específica. En primer lugar, el responsable de proyecto expone el modelo de negocio y la finalidad de la solución presentada. Posteriormente el Comité supervisará y garantizará el cumplimiento de la solución de IA, definiendo los requisitos que se van a evaluar. El desarrollador de IA diseña, implementa y prueba la solución y, por último, el operador de IA la ejecutará y supervisará. 

 

Supervisión humana y solidez técnica 

 

Prosegur opera en el sector de la seguridad privada y servicios tecnológicos, un ámbito con una importante exigencia ética y altamente regulado. En consecuencia, debe regirse por unos códigos internos de actuación muy rigurosos que den respuesta a estas exigencias. Por esta razón, para la elaboración de esta política, se han tomado como referencia los principios éticos recogidos por la Comisión Europea, dentro de los que se destaca el respeto a la autonomía humana. 

Según detalla Diolimar García, “una Inteligencia Artificial lo suficientemente robusta debe garantizar un mínimo de intervención y supervisión humana en el desarrollo y uso de la misma”, de esta manera se puede establecer un correcto control de los sistemas y evitar que tomen decisiones de manera completamente autónoma.  

“Aunque la aplicación de la IA conlleva grandes beneficios, también debemos prevenir sus riesgos. Estos sistemas tienen que diseñarse de forma que complemente y potencien las aptitudes de las personas, y la única manera de garantizar su seguridad es a través de la supervisión y el control humano sobre los procesos de trabajo de estos sistemas”, explica.  

Además, esta normativa también vela por la solidez técnica de los sistemas para así asegurar una gestión adecuada de la privacidad de los datos, preservación de la diversidad, la no discriminación y la equidad. Por lo que introduce criterios de transparencia o rendimiento de cuentas sobre los sistemas de IA y sus resultados tanto antes como después de su implantación.  

 

IA Responsable en acción: casos de éxito 

 

Al alinearse con los más rigurosos estándares europeos de cumplimiento, todos los productos y servicios potenciados por IA de Prosegur se sitúan como referencia ética y modelos en materia de cumplimiento normativo. 

Recientemente Prosegur, ha sido galardonado con el premio “Mejor iniciativa ética en materia de Compliance” en los Premios de Compliance del Diario Expansión 2022, tras la presentación de su Modelo de IA Responsable.  Este Modelo, no solo se limita a mejorar la eficacia y eficiencia en la gestión de los proyectos que incorporan tecnología de IA, sino que también representa un punto de inflexión en la aplicación de la ética en la IA.  

Entre las soluciones propuestas por Prosegur que incorporan tecnología de IA y han superado con éxito el cumplimiento de este de Modelo de IA responsable destacan, un perro-robot con capacidad para detectar eventos de riesgo y envia alertas al centro de control para la adopción de las medidas adecuadas, otro robot con capacidad para detectar personas, obstáculos o intrusiones, que permite emitir alertas por humo, fuego o abandono de maletas. Además de otras soluciones como son el sistema G-Watch, diseñado para verificar el correcto funcionamiento de las cámaras de videovigilancia, y el Reconocimiento Inteligente de G-Home. 

Los proyectos de Prosegur que incorporan tecnología de IA, ya sean desarrollos propios o de terceros, al superar con éxito las exigencias del Modelo de Gestión de IA y cumplir rigurosamente los principios y requisitos establecidos en la Política de IA Responsable, garantizan el cumplimiento de la ética y el respeto a los derechos y libertades de las personas, y se convierten en ejemplos tangibles de responsabilidad en la aplicación de esta tecnología. 

En definitiva, la incursión de la IA en el ámbito empresarial ha abierto un abanico de dilemas éticos y desafíos que requieren respuestas contundentes y transparentes. Con estos avances, Prosegur ha dado un paso más en su propósito de cuidar a las personas y las empresas, demostrando que la innovación tecnológica y los valores éticos pueden coexistir, promoviendo así un impacto positivo y sostenible en la sociedad.