SAP considera que la inteligencia artificial puede abrir posibilidades ilimitadas a empresas, gobiernos y a la sociedad en general, pero también puede generar desafíos económicos, políticos y sociales, dependiendo de cómo se utilice e implemente.
Por ello, la compañía ha lanzado un Manual para el uso ético de la IA, con el propósito de guiar a sus empleados en la aplicación de su política de inteligencia artificial. Esta política, que rige el desarrollo, la implementación, el uso y la comercialización de los sistemas de IA en SAP establece unas reglas éticas claras que están alineadas con los principios rectores establecidos por SAP para la IA y los valores de la organización:
- SAP se guía por sus valores.
- Diseña para las personas.
- Hace posibles los negocios sin prejuicios.
- Busca la transparencia y la integridad en todo lo que hace
- Cumple los estándares de calidad y seguridad.
- Da prioridad a la protección de datos y la privacidad.
- Se compromete a abordar los grandes retos sociales que plantea la inteligencia artificial.
Además, esta política se basa en tres pilares que persiguen generar confianza en las soluciones de IA: la dirección y la supervisión humanas; el abordaje del sesgo y la discriminación; y la transparencia y la explicación del proceso para comprender las decisiones tomadas por el software. La base del enfoque de SAP respecto a la ética en la IA es su compromiso de defender y apoyar la Declaración Universal de los Derechos Humanos. Una parte esencial de ello es la prohibición de la discriminación y el acoso de seres humanos por factores personales, como la raza, el origen étnico, la religión, la edad y el sexo.
Dos capítulos: líneas rojas y proceso de desarrollo
El manual consta de dos capítulos. El primero de ellos, denominado «Líneas rojas«, aclara qué casos de uso de la IA están prohibidos en SAP: aquellos que atenten contra la libertad individual de los usuarios – desglosada en la pérdida del anonimato, la discriminación y la vigilancia–; los derechos sociales –la IA nunca debe comprometer el debate humano ni ser empleada para la manipulación de los usuarios–; y los daños al medioambiente. Además, incluye la definición de casos de alto riesgo, es decir, aquéllos que no están prohibidos, pero necesitan aprobación para poder desarrollarse. En esos casos, es imprescindible consultar al Comité directivo de ética de la IA de SAP.
En el segundo, «AI Factory Process«, se ofrecen las directrices generales a seguir en cada paso del proceso de desarrollo, que consta de cinco etapas: la ideación, la validación, la realización, la creación del producto y las operaciones, en cada una de las cuales deben aplicarse los tres pilares para lograr una IA de confianza. Es imprescindible que el uso de la Inteligencia Artificial sea ético en todas y cada una de las fases del proceso, desde la identificación inicial de necesidades hasta la recepción del producto final por parte de los clientes, pasando por el diseño de las soluciones y su integración en los procesos de negocio existentes.
¿Por qué es necesario que las empresas diseñen estos manuales entre sus plantillas?
Durante 50 años, los clientes han confiado en SAP para dirigir sus negocios con agilidad. Por eso, durante años, ha sido su responsabilidad construir la IA sobre estándares líderes de ética y privacidad de datos.
El negocio de SAP se basa en la confianza, y los clientes confían sus procesos empresariales más críticos y sus datos más confidenciales. La IA no debería ser diferente, y un componente básico de la confianza es la ética de la IA. Es esencial para alinear sus inversiones y productos con los valores de SAP como empresa.
Desde SAP piensan que este manual puede ser inspirador para otras organizaciones, puesto que, «tanto desde el mundo empresarial como del gubernamental, cada vez hacemos más hincapié en la ética de la IA, introduciendo la transparencia, la capacidad de explicación y las auditorías de sesgo.» Creen que la Inteligencia (IA) tiene un gran potencial, pero para que la gente confíe en las soluciones de IA deben regirse por normas morales claras.