Si bien la implementación de la IA se ha convertido en una herramienta de impulso de la eficiencia, la innovación y la toma de decisiones, su uso malicioso por parte de terceros representa un riesgo reputacional significativo para las compañías y sus directivos, con efecto directo en su línea de negocio.
El robo de datos sensibles, el espionaje corporativo, la difusión de información falsa, la suplantación de identidad, la manipulación de fotografías, vídeos y voz, entre otros, son algunos de los riesgos que preocupan a los directivos y gestores de riesgos en España, en un baremo de 51%, el mismo nivel de preocupación que les suscita el Covid-19 y la posibilidad de nuevas medidas de bloqueo. Son datos del reciente estudio 2023 Global Directors’ and Officers’ Liability Survey Report, realizado por WTW (antes Willis Towers Watson) en colaboración con Clyde & Co LLP en 40 países, y que cifra en un 42% la preocupación a nivel global de directivos y gestores ante los riesgos relacionados con la inteligencia artificial y el machine learning (aprendizaje automático).
Ulysses Grundey, director de D&O y Riesgos reputacionales en WTW España, señala que “la gestión del riesgo reputacional en relación con la inteligencia artificial es de vital importancia para las organizaciones, ya que los problemas con la IA pueden tener un impacto significativo en la percepción pública y la confianza del público en la marca. Una buena gestión de este riesgo es fundamental para asegurar el éxito a largo plazo de una empresa”.
Para mitigar estos riesgos, desde WTW señalan que es esencial tomar medidas proactivas y establecer los controles adecuados. Para ello, es necesario contar de antemano con una estrategia cuidadosamente planificada y ejecutada, que incluya la identificación previa de los posibles riesgos, su prevención y, en el caso de que ya se haya producido el daño reputacional, el contar con las herramientas y los recursos necesarios para mitigarlo. Acciones que, lógicamente, deberían ir acompañadas en paralelo de una legislación sólida que contribuya a garantizar un uso ético y responsable de la IA desde las Administraciones.
Estas son algunas claves para luchar contra este tipo de riesgo reputacional que pueden llevar a cabo las empresas:
- Evaluación de riesgos personalizada: trabajar en colaboración con empresas para identificar áreas de riesgo y evaluar los riesgos específicos relacionados con la IA. Esto puede implicar la revisión de prácticas recogida de datos, procesos de toma de decisiones automatizadas y políticas de privacidad para mitigar estos riesgos.
- Formación y concienciación: llevar a cabo programas de formación y concienciación sobre los riesgos de la IA dentro de las empresas; que puede también incluir las áreas de prácticas éticas y privacidad de datos.
- Gestión de crisis y comunicación: contar con planes de gestión de crisis específicos para situaciones relacionadas con la IA. Saber cómo comunicar de manera efectiva en caso de un problema reputacional.
- Colaboración con expertos en IA: establecer alianzas con expertos en inteligencia artificial y ética de la IA que puedan ayudar a evaluar los riesgos y proporcionar asesoramiento en la toma de decisiones éticas. La propia inteligencia artificial puede ser utilizada tanto para perpetrar daños reputacionales como para mitigarlos.
- Auditorías y evaluaciones regulares: realizar auditorías periódicas de los sistemas de IA y prácticas de las empresas aseguradas para garantizar el cumplimiento de estándares éticos y legales.
- Investigación y análisis de tendencias: mantenerse al tanto de las tendencias en el uso de la IA y los riesgos emergentes para adaptar las ofertas de seguros a medida que evoluciona el panorama tecnológico.
- Seguros de reputación: considerar la contratación de una póliza de seguro personalizada que cubra los posibles riesgos reputacionales específicos relacionados con la IA y que pueda ayudar a las empresa a recuperarse más rápidamente de un daño a su imagen.
“La IA ofrece innumerables beneficios para las empresas, pero también conlleva riesgos reputacionales que no deben pasarse por alto. Controlar estos riesgos requiere un enfoque proactivo en la ética, la transparencia y la responsabilidad. Al adoptar medidas sólidas y comprometerse con la toma de decisiones éticas, las empresas pueden proteger su reputación en esta era de la inteligencia artificial y mantener la confianza de sus stakeholders”, concluye Grundey.