23 de diciembre de 2024
RRHHDigital - El periódico online referente en Recursos Humanos

¿La IA puede extender los límites de la privacidad hasta la mente inconsciente?

Innovador ecosistema de desarrollo profesional con Inteligencia Artificial para impulsar el talento interno

La nueva Ley de Inteligencia Artificial de la Unión Europea podría dejar la puerta abierta a que la IA tuviese acceso a nuestra mente inconsciente El 95 % de nuestra actividad cerebral discurre por debajo del nivel consciente, sin que nosotros tengamos realmente control alguno sobre ella Influir en las elecciones de los Estados Unidos o en el futuro político del Reino Unido con la información personal que millones de personas publican en Facebook y una tecnología potente de análisis de datos. Hace no demasiado tiempo, algo así nos habría parecido salido de una novela de ciencia ficción, pero el escándalo de Cambridge Analytica, desvelado en 2018, demostró que es posible y que el avance de la tecnología y de la inteligencia de las máquinas nos pone frente a dilemas fundamentales que nunca antes nos habíamos planteado.

La iniciativa de los neuroderechos, liderada desde la Neurorights Foundation, promueve el reconocimiento de una nueva batería de medidas de protección para hacer frente a los desafíos derivados de estos avances técnicos. Algunos de ellos forman parte del debate de la Ley de Inteligencia Artificial que se está negociando en el seno de la Unión Europea, una ley que deberá regular, entre otros aspectos, la capacidad de la IA para influir en el subconsciente de las personas (como en el caso de Cambridge Analytica, pero a niveles mucho más profundos). Ignasi Beltran de Heredia, profesor de los Estudios de Derecho y Ciencia Política de la Universitat Oberta de Catalunya (UOC) y autor del libro Inteligencia artificial y neuroderechos (Aranzadi, 2023), acaba de publicar en abierto un artículo en el que analiza los desafíos que plantea el avance de la IA y cuestiona la última propuesta de ley de la Unión Europea a través de una perspectiva neurocientífica.

Los riesgos de darle a la IA acceso a nuestro subconsciente

Se estima que solo el 5 % de nuestra actividad cerebral discurre de forma consciente. El 95 % restante funciona por debajo del nivel consciente, sin que nosotros tengamos realmente control alguno de ella ni percibamos siquiera que se está produciendo.

Tal como señala Ignasi Beltran de Heredia en su artículo, no nos percatamos de este extraordinario torrente de actividad neuronal porque la interacción entre la mente consciente y el comportamiento inconsciente es sumamente compleja, y las fuerzas que guían nuestras vidas están muy lejos de nuestro control. Sin embargo, eso no significa que no haya formas de influir más allá de la conciencia. «La inteligencia artificial lo puede hacer de dos formas», señala el investigador. «La primera, recopilando datos sobre nuestra vida y creando una arquitectura de las decisiones que te lleve a tomar una decisión determinada. La otra, menos desarrollada por ahora, consiste en aplicaciones o dispositivos que directamente generen impulsos irresistibles para nuestra mente inconsciente y que de forma subliminal logren generar respuestas impulsivas, es decir, que lleguen a fabricar impulsos». «A medida que vayamos desarrollando máquinas mejores y más potentes y estemos más conectados con ellas, las dos opciones serán más y más habituales. Los algoritmos tendrán más datos de nuestra vida y será más fácil crear instrumentos que generen esas respuestas impulsivas», añade Beltran de Heredia.

«El riesgo que estas tecnologías atesoran es que, como en el flautista de Hamelín, las personas acaben bailando sin saber por qué». Para el investigador, el campo donde probablemente empecemos a ver los intentos de condicionar el comportamiento humano mediante la IA es el del trabajo y, más concretamente, el de la salud laboral. Argumenta que son diversas las tecnologías intrusivas en uso, como los dispositivos para controlar los microsueños de los conductores de autobús o los sensores de electroencefalografía (EEG), que permiten a los empleadores rastrear las ondas cerebrales de los empleados para detectar niveles de estrés y atención mientras trabajan.

«Es difícil hacer proyecciones sobre cómo será el futuro, pero si no ponemos límites a este tipo de tecnologías intrusivas, que todavía están en una fase de desarrollo muy inicial, lo más probable es que sigan mejorando y extendiéndose en aras de la productividad», recalca Beltran de Heredia, también director de los Estudis de Derecho y Ciencia Política de la UOC.

Los límites (difusos) que propone la UE

El nuevo reglamento de inteligencia artificial que se está debatiendo en la Unión Europea pretende anticiparse a los posibles riesgos derivados de este y otros usos de la IA en el futuro. El artículo 5.1 de la propuesta de ley original recogía la prohibición expresa de la comercialización, la puesta en servicio o el uso de una IA capaz de influir más allá del nivel consciente de una persona con el fin de distorsionar su comportamiento. Sin embargo, desde entonces, se han ido introduciendo enmiendas y modificaciones que han ido diluyendo la rotundidad de esta prohibición.

La propuesta que está actualmente sobre la mesa, y que servirá de referencia para la redacción final, establece la prohibición de este tipo de técnicas siempre que sean deliberadamente manipuladoras o engañosas y que afecten considerablemente la capacidad de la persona para tomar una decisión informada, causando así que la persona tome una decisión que de otro modo no habría tomado y que de alguna manera cause un daño significativo a alguien. Esta prohibición, además, no se aplicará a los sistemas de IA con fines terapéuticos aprobados. «La propuesta recoge la prohibición cuando haya un daño grave y la persona acabe haciendo algo que no iba a hacer. Pero eso es un imposible. Si yo no tengo acceso a mi yo inconsciente, es imposible que yo pueda acreditar qué otra cosa hubiera hecho si no hubiera sido estimulado ni tampoco acreditar el daño», explica Ignasi Beltran de Heredia.

«Si la publicidad subliminal está hoy totalmente prohibida, sin ningún tipo de matices, ¿por qué estamos dejando espacio a que exista un condicionamiento subliminal por parte de la inteligencia artificial?». El investigador sostiene que, si dejamos la puerta de nuestra mente inconsciente abierta, aunque sea con buenos propósitos, no vamos a poder controlar quién tiene acceso a ella, cómo es ese acceso y qué objetivos busca. «Alguien podría pensar que estas reflexiones apelan a un futuro distópico difícilmente realizable. No obstante, lo que no cabe duda es que ya estamos siendo víctimas de intromisiones a un nivel de profundidad hace unos años inimaginable y, por este motivo, los ciudadanos deberían disponer del máximo nivel de protección. Nuestra mente inconsciente se refiere a lo más íntimo de nuestra personalidad y debería estar absolutamente blindada. De hecho, estas cosas no deberían ni estarse discutiendo», añade.

Todavía hay mucho que no conocemos del funcionamiento de nuestro cerebro y de las relaciones entre nuestras mentes consciente e inconsciente. El cerebro sigue siendo un órgano muy esquivo y, aunque la ciencia está avanzando mucho y muy rápido, no conocemos muchos de los efectos que un determinado estímulo puede tener en su funcionamiento.

«Tenemos que ser conscientes del riesgo que supone darle a otras personas y empresas acceso a esos niveles tan profundos de nuestro ser. En el contexto de la economía de datos, son muchas las instituciones públicas y privadas que compiten por acceder a nuestra información, pero, paradójicamente, son muchos los ejemplos que permiten constatar que los ciudadanos atribuyen escaso valor a la privacidad», concluye Beltran de Heredia.

NOTICIAS RELACIONADAS

DEJA UNA RESPUESTA

Los lectores opinan

¿Qué tendencia en RRHH crees que transformará más las organizaciones en 2025?

Ver los resultados

Cargando ... Cargando ...
Lo más leído

Regístrate en el boletín de RRHHDigital

* indicates required
Opciones de Suscripción
En cumplimiento de lo dispuesto en el artículo 5 de la Ley Orgánica 15/1999, de 13 de diciembre, de Protección de Datos de Carácter Personal (en adelante, "LOPD"), EDICIONES DIGITALES SIGLO 21, SL., le informa de que los datos de carácter personal que nos ha proporcionado mediante la cumplimentación de cualquier formulario electrónico que aparece en nuestras Web Site, así como aquellos datos a los que EDICIONES DIGITALES SIGLO 21, SL. acceda como consecuencia de su navegación, de la consulta, solicitud o contratación de cualquier servicio o producto, o de cualquier transacción u operación realizada a través de las Webs de nuestro grupo editorial EDICIONES DIGITALES SIGLO 21, SL., serán recogidos en un fichero cuyo responsable es EDICIONES DIGITALES SIGLO 21, SL. provista de CIF B86103140 con domicilio a estos efectos en Calle Comandante Franco, 24 28016, Madrid. Con carácter general, los datos de carácter personal que nos proporcione serán utilizados para atender sus solicitudes de información, así como informarle sobre nuevas actividades, productos y servicios de EDICIONES DIGITALES SIGLO 21, SL. Aquí puede leer nuestro aviso legal y política de privacidad.
rrhhdigital