22 de diciembre de 2024
RRHHDigital - El periódico online referente en Recursos Humanos

El 64% de los directivos españoles teme pérdidas económicas por el uso de la IA Generativa

Un informe de Kaspersky realizado entre directivos españoles revela el aumento de la preocupación de los altos cargos de las empresas por los riesgos que supone el uso de sistemas de Inteligencia Artificial Generativa (GenIA), como Chat GPT, por la posible pérdida de información confidencial y el control comercial. El 96% de los encuestados en España cree que sus empleados utilizan regularmente este tipo de sistemas

La Inteligencia Artificial Generativa se ha convertido en un aliado empresarial capaz de automatizar procesos y realizar un amplio abanico de tareas, pero la alta dirección de las empresas desconfía por los riesgos de seguridad que puede implicar para el negocio.

Del total de los directivos encuestados por Kaspersky en España, solo el 19% ha debatido la imposición de reglas para controlar el uso de GenAI, a pesar de que el 95% afirma que es necesario un mayor conocimiento del uso que los empleados hacen de esta tecnología para estar protegidos frente a riesgos de seguridad críticos o fugas de datos. La cosa va más allá: un 64% teme pérdidas económicas en las organizaciones.

Otro estudio de Kaspersky entre los usuarios empresariales de GenIA de nuestro país desvela que el 25% de quienes usan Chat GPT en el trabajo, el sistema de GenIA más popular, no sabe lo que pasa con los datos que introduce en la herramienta. Hay que destacar que Chat GPT puede almacenar información como la dirección IP, el tipo de navegador y la configuración del usuario, así como datos sobre las funciones más utilizadas. 

La concienciación y regulación por parte de las empresas juega un papel importante para mantener segura la información, pero, según los empleados encuestados, el 45,5% de las empresas no tiene ninguna normativa interna relativa al uso de Chat GPT. Un 19% dice que sí hay normas, pero no suficientemente claras; un 7% señala que las normas son claras, pero no se cumplen; y solo en un 27% son claras y, además, se cumplen.

Son datos paradójicos si se tiene en cuenta que la mitad de los directivos españoles tiene planes a futuro para utilizar GenIA y automatizar tareas. El 46% señaló su intención de integrar esta tecnología en sus propias rutinas para mejorar la productividad, y también en las de los empleados (43%).

“GenIA ofrece enormes beneficios de productividad a las empresas. Nuestros análisis revelan que los directivos han detectado su presencia en las organizaciones, si bien reconocen que el alcance de su uso es un misterio. Los sistemas GenIA se encuentran en claro crecimiento, y cuanto más tiempo funcionen sin control más difícil será proteger áreas del negocio como recursos humanos, finanzas, marketing o incluso TI”, alerta David Emm, analista principal de Seguridad de Kaspersky.

A pesar de todo esto, el 16% de los españoles que usa Chat GPT en el trabajo considera que no es importante mantener la privacidad en las preguntas que realizan al chatbot, y el 31% considera que es importante no compartir datos privados, pero aun así lo hace

Chat GPT asegura que no comparte la información facilitada por el usuario con terceros. Solo la retiene para mejorar la plataforma y proporcionar respuestas lo más precisas posibles, usando los datos recopilados para mejorar el modelo de lenguaje y afinar al máximo la experiencia del usuario. “Sin embargo, hay que tener en cuenta que la política de privacidad de Chat GPT se refiere únicamente al uso de los datos de los usuarios registrados en dicha plataforma, pero no especifica nada sobre el uso de datos personales que puede hacer la IA de otras fuentes, como las que usa para generar los textos que devuelve”, explica Marc Rivero, Senior Security Researcher de Kaspersky.

Además de los posibles datos confidenciales que los empleados puedan introducir en Chat GPT, los ciberestafadores ya utilizan la herramienta para generar código malicioso o estafas de phishing lo más creíbles posibles. Por ello, los expertos de Kaspersky comparten algunos consejos para mantenerse protegido tanto a la hora de usar ChatGPT como para enfrentarse a las ciberamenazas desarrolladas a través de esta plataforma: 

  • Evitar introducir información delicada y datos confidenciales, tanto personales como corporativos, que puedan ser susceptibles de caer en manos de ciberdelincuentes. 
  • En el caso de las empresas, crear normas internas que regulen el uso de Chat GPT y concienciar a los empleados sobre la importancia de no compartir ciertos datos, educando al empleado en ciberseguridad.
  • Ser precavido al recibir enlaces de sitios web desconocidos. Pueden contener programas maliciosos o redirigirnos a sitios de phishing.
  • Utilizar una solución de seguridad de confianza como Kaspersky Premium. Ofrece protección avanzada frente a virus y supervisa en tiempo real filtraciones de datos.
  • Usar una herramienta para la gestión de claves como Kaspersky Password Manager. Permite generar contraseñas complejas y guardarlas con seguridad.

NOTICIAS RELACIONADAS

DEJA UNA RESPUESTA

Los lectores opinan

¿Qué tendencia en RRHH crees que transformará más las organizaciones en 2025?

Ver los resultados

Cargando ... Cargando ...
Lo más leído

Regístrate en el boletín de RRHHDigital

* indicates required
Opciones de Suscripción
En cumplimiento de lo dispuesto en el artículo 5 de la Ley Orgánica 15/1999, de 13 de diciembre, de Protección de Datos de Carácter Personal (en adelante, "LOPD"), EDICIONES DIGITALES SIGLO 21, SL., le informa de que los datos de carácter personal que nos ha proporcionado mediante la cumplimentación de cualquier formulario electrónico que aparece en nuestras Web Site, así como aquellos datos a los que EDICIONES DIGITALES SIGLO 21, SL. acceda como consecuencia de su navegación, de la consulta, solicitud o contratación de cualquier servicio o producto, o de cualquier transacción u operación realizada a través de las Webs de nuestro grupo editorial EDICIONES DIGITALES SIGLO 21, SL., serán recogidos en un fichero cuyo responsable es EDICIONES DIGITALES SIGLO 21, SL. provista de CIF B86103140 con domicilio a estos efectos en Calle Comandante Franco, 24 28016, Madrid. Con carácter general, los datos de carácter personal que nos proporcione serán utilizados para atender sus solicitudes de información, así como informarle sobre nuevas actividades, productos y servicios de EDICIONES DIGITALES SIGLO 21, SL. Aquí puede leer nuestro aviso legal y política de privacidad.
rrhhdigital