El 70% de las grandes empresas mundiales que actualmente utilizan Inteligencia Artificial (IA) forman en ética a sus especialistas en la materia, según un informe de SAS, que también desvela queel 92% de las empresas consideran esencial capacitar a sus tecnólogos en ética y que más del 63% cuenta con comités de ética para revisar el buen uso de la IA.
Del total de las organizaciones mundiales encuestadas, el 72% aplica en la actualidad Inteligencia Artificial (IA) en una o más áreas de negocio. Por ello, es necesario poner en relieve la importancia de contar con un marco ético sólido en torno al uso de la IA, dado el impacto real que tiene ya en la vida de las personas.
Según los datos aportados por el informeImpulso, madurez y modelos de éxito de la Inteligencia Artificial, las empresasreconocen la fuerte conexión entre el uso de la analítica y el éxito de la IA. El 79 %del total de las empresas que utilizan IA afirman que la analítica desempeña un papel importante o principal en los esfuerzos de la IA de su organización, en comparación con sólo el 14 % de los que aún no se han beneficiado del uso de la IA en su empresa.
«Las empresas que han implementado la IA reconocen que el éxito se haya en la analítica que hay por detrás», ha dicho Oliver Schabenberger, Vicepresidente Ejecutivo y Director de Operaciones y Tecnología de SAS. «Para ellos, la analítica ha alcanzado un papel central en la IA.»
El 74% de las organizacionescuentan con una supervisión rigurosa con, al menos, una revisión o evaluación semanal de los resultados que están obteniendo de la IA. Además, el 43%de las empresasaseguran que su organización tiene un proceso para reducir o anular los resultados que se consideran cuestionables durante la revisión. Aun así, el informe de SAS afirma que los procesos de supervisión tienen todavía un largo camino por recorrer hasta correlacionarse con los avances de la tecnología de IA.
Esta supervisión de la IA y la aplicación de la ética por parte de las empresas se debe a las posibles repercusiones que puede tener un resultado defectuoso. De las organizaciones que ya han implementado la IA o que planean hacerlo, el 60%afirman estar preocupadas por el impacto de las decisiones impulsadas por la IA en la relación con los clientes; por ejemplo, que sus acciones no muestren suficiente empatía o que los clientes confíen menos en ellas.
Para Rumman Chowdhury, Responsable de IA en Accenture Applied Intelligence,«las organizaciones han comenzado a abordar los problemas que se sabe que puede causar la IA, tales como el trato sesgado e injusto de las personas.Estos son pasos positivos, pero, sin embargo, las organizaciones necesitan ir más allá de los códigos de ética de la IA que están en el Juramento Hipocrático parano hacer daño. Deben proporcionar directrices prescriptivas, específicas y técnicas para desarrollar sistemas de IA que sean seguros, transparentes, explicables y responsables, a fin de evitar consecuencias imprevistas y problemas de cumplimiento que puedan ser perjudiciales para las personas, las empresas y la sociedad. Los científicos de datos necesitan estas directrices».
Los comentarios están cerrados.