Personalizar las Preferencias

Utilizamos cookies para ayudarlo a navegar de manera eficiente y realizar ciertas funciones. Encontrará información detallada sobre todas las cookies en cada categoría de consentimiento a continuación.

Las cookies que se clasifican como "Necesarias" se almacenan en su navegador, ya que son esenciales para habilitar las funcionalidades básicas del sitio.... 

Always Active

Necessary cookies are required to enable the basic features of this site, such as providing secure log-in or adjusting your consent preferences. These cookies do not store any personally identifiable data.

Functional cookies help perform certain functionalities like sharing the content of the website on social media platforms, collecting feedback, and other third-party features.

Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics such as the number of visitors, bounce rate, traffic source, etc.

Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.

Advertisement cookies are used to provide visitors with customized advertisements based on the pages you visited previously and to analyze the effectiveness of the ad campaigns.

7 de abril de 2025
rrhhdigital

¿Cómo afecta la nueva ley IA a las empresas y a los negocios?

INTELIGENCIA-ARTIFICIAL-Y-RRHH
  • La Unión Europea da luz verde a la histórica Ley de Inteligencia Artificial.
  • La ley afecta a empresas públicas y privadas que operen en Europa.
  • El experto en IA y Fundador de ISDI, Nacho de Pinedo, aporta claves sobre esta nueva legislación.

En un movimiento histórico, el Parlamento Europeo ha dado luz verde recientemente a la Ley de Inteligencia Artificial (AI Act), adelantándose en la regulación de estas tecnologías a nivel global. Esta normativa integral, la primera en su tipo, entra en vigor tras completar un extenso proceso legislativo, iniciando la cuenta atrás para que empresas de todos los sectores adapten sus operaciones a los nuevos estándares establecidos.

«Esta ley coloca a Europa a la cabeza en regulación de tecnología, cambiando el escenario para todos, desde gigantes corporativos hasta startups y entidades del sector público.», afirma Nacho de Pinedo, experto en Inteligencia Artificial y fundador de ISDI. «El modelo legislativo europeo gira alrededor del concepto de IA responsable: pone la seguridad y el respeto a las personas primero, prohibiendo o limitando su uso en categorías altamente sensibles como la biométrica o la manipulación subliminal, pero a la vez abre un campo de juego suficientemente amplio en otras aplicaciones de mercado para que las empresas puedan desarrollar competitividad a través de esta tecnología.»

La ley tiene como objetivo central el respeto y la protección de los derechos fundamentales y la dignidad humana en el desarrollo y aplicación de la inteligencia artificial, estableciendo un marco regulatorio que promoverá una innovación responsable.

La nueva legislación se aplica tanto a entidades públicas como privadas, afectando a cualquier empresa, dentro y fuera de la UE, que desarrolle o implemente herramientas de IA en el mercado europeo. Este enfoque inclusivo garantiza que los productos y servicios de IA respeten los principios éticos y de seguridad antes de su comercialización, llevando una etiqueta de cumplimiento y proporcionando la documentación necesaria.

Bajo la nueva Ley de Inteligencia Artificial de la UE, las empresas enfrentarán una clasificación de sus sistemas de IA en cuatro categorías de riesgo: inaceptable, alto limitado y mínimo. Por ejemplo,  la aplicación de técnicas subliminales o de clasificación de individuos con fines discriminatorios es inaceptable y está prohibida. La identificación biométrica o el uso en educación o reclutamiento es de alto riesgo y requiere una serie de controles y aprobaciones.  En cambio, otras categorías limitan su obligación nada más que al deber de transparencia.

Esta clasificación dictará el nivel de responsabilidad y las restricciones aplicables a cada sistema, poniendo especial énfasis en aquellos considerados como de alto riesgo o inaceptables debido a su potencial para comprometer la seguridad y los derechos fundamentales.

Para cumplir con la ley, las empresas deberán evaluar cuidadosamente sus sistemas de IA, asegurándose de que no caigan en categorías de usos prohibidos como las tecnologías que manipulan comportamientos de forma subliminal, categorización biométrica de datos sensibles, recolección ilimitada de imágenes faciales en internet, reconocimiento emocional indebido en entornos laborales o educativos, sistemas de puntuación social y la vigilancia policial predictiva.

Con la proliferación de deepfakes y otros contenidos generados por IA, esta ley también aborda la necesidad urgente de proteger nuestra capacidad para discernir la realidad, imponiendo regulaciones estrictas para combatir la desinformación y proteger la integridad de la información.

Sin embargo, Nacho de Pinedo también advierte: Europa ha tomado la delantera generando un regulación firme sobre IA que permite su progreso buscando un compromiso entre la protección del ciudadano y su aplicación competitiva por parte del mercado.  Pero preocupa que algunas empresas opten por operar desde ‘refugios’ de legislación laxa, similares a paraísos fiscales. Esto trasciende una cuestión ética y subraya la necesidad crítica de una normativa global y cohesiva en torno a la inteligencia artificial.”

Implementación y sanciones

La ley se implementará por etapas, comenzando con prohibiciones inmediatas en algunos ámbitos y estableciendo normativas detalladas para las IA de alto impacto. Las empresas deberán estar preparadas para adaptarse rápidamente, con sanciones significativas previstas para el incumplimiento.

Fase 1: Implementación Inicial (6 meses)

  • Todas las entidades, tanto públicas como privadas, deben revisar los sistemas de IA que emplean.
  • Ajustar las operaciones a los requisitos de seguridad y ética estipulados por la ley.

Fase 2: Regulaciones para Modelos Fundacionales (1 año después)

  • Aplicable a modelos de IA generativa de alto impacto (ej. GPT-4 de OpenAI).
  • Cumplimiento de normativas de transparencia, seguridad informática y documentación técnica previa al lanzamiento al mercado.
  • Los modelos menos complejos las regulaciones se activarán en el momento de la comercialización

Fase 3: Plena Aplicabilidad de la Ley (2 años después)

  • La ley es totalmente aplicable.
  • Sanciones:
    • Para infracciones menores: 1.5% de los ingresos globales o 7.5 millones de euros.
    • Para infracciones graves: Hasta el 7% de los ingresos globales o 35 millones de euros.

NOTICIAS RELACIONADAS

DEJA UNA RESPUESTA

Los lectores opinan

¿Cuál crees que será el impacto más significativo de la IA en el futuro del trabajo?

Ver los resultados

Cargando ... Cargando ...
Lo más leído