Un artículo publicado en la Harvard Gazette menciona los retos éticos a medida que la Inteligencia Artificial (IA) interviene cada vez más en la toma de decisiones. Estas decisiones abarcan ya diversos sectores y pueden afectar al bienestar económico, físico y psicológico de las personas. De hecho, la Unión Europea (UE) tiene previsto multar a las empresas con hasta el 4% de su facturación anual global si sus aplicaciones de IA ponen en peligro la seguridad y los derechos y libertades fundamentales de las personas. Sin duda, la IA conlleva beneficios en términos de eficiencia y comodidad. Sin embargo, surgen retos cuando se trata de la ética, que ya es compleja, incluso en las interacciones humanas. Debido a sus antecedentes culturales, las personas pueden diferir mucho en cuanto a lo que se considera ético. Esto plantea la cuestión: ¿La ética de quién debe reflejar la IA en el mercado global para reducir los posibles daños y desigualdades?
Algunos estudios demuestran que la IA puede ser parcial e incluso racista, lo que conduce a una toma de decisiones poco ética. Por ejemplo, la visión computarizada con IA se utiliza para etiquetar automáticamente las imágenes, con la posibilidad de tomar una decisión basada en esa etiqueta. En el contexto de la pandemia actual, un estudio demostró que un servicio de visión computarizada de Google etiquetó como «arma» una imagen de una persona de piel oscura que sostenía un termómetro de mano. En cambio, una imagen similar con una persona de piel clara fue etiquetada como «dispositivo electrónico». Esta claro que la diferencia entre un arma y dispositivo electrónico puede llevar a la elaboración de perfiles erróneos, etiquetando a la persona de piel oscura como peligrosa. Imaginemos ahora que este software dotado de IA es utilizado por las fuerzas de seguridad. En efecto, la persona de piel oscura correría un peligro injusto al sostener un dispositivo tan inofensivo como un termómetro. Es probable que ese tipo de parcialidad en la IA se deba a algunos estereotipos injustos social y culturalmente arraigados que han sido alimentados directa o indirectamente en su algoritmo. Por lo tanto, si queremos crear una IA ética es crucial comprender el vínculo entre la cultura y la ética.
Geert Hofstede describe la cultura como «la programación colectiva de la mente que distingue a los miembros de un grupo o categoría de personas de otros». La cultura influye en la forma en que una persona ve el mundo y puede determinar la percepción de diferentes escenarios éticos. Por ejemplo, hacer regalos entre empleados de empresas es una práctica muy común y aceptada en la sociedad china. Sin embargo, esta práctica puede no ser vista como ética en otros contextos culturales en los que tales regalos pueden ser vistos como una forma de soborno. Si se detecta, ¿debe una IA notificar y «castigar» tales prácticas? Ahora piense aún más allá. Imaginemos que un dispositivo militar impulsado por la IA tiene que decidir a quién matar o salvar. No hace falta decir que los prejuicios éticos inducidos culturalmente en un escenario así podrían llevar a resultados terribles. Esto nos lleva a preguntarnos: ¿De dónde vienen los sesgos de la IA y cómo podemos abordar este problema?
En un artículo reciente se afirma que muchos sistemas de IA son programados y diseñados por personas con una formación similar. Por ejemplo, el artículo lo denomina enfoque ético de Silicon Valley, en referencia a la gran cantidad de empresas tecnológicas que tienen su sede en esta parte del mundo. Los autores sostienen que muchos estudiantes de tecnología pueden ser formados con un enfoque singular de la ética que abarca las perspectivas occidentales. Mientras tanto, países como China, Corea del Sur y Japón están invirtiendo mucho en el desarrollo de la IA[HG5] . Del mismo modo, la IA desarrollada en estas naciones puede conllevar sesgos éticos basados en sus marcos culturales. Sin embargo, en un mercado global, una IA debe ser lo más «libre de prejuicios» posible, ya que puede aplicarse más allá de las fronteras del país en el que se desarrolló inicialmente.
¿Qué debemos hacer?
En primer lugar, la diversidad y la colaboración en la programación de la IA serán fundamentales. Es fundamental que las principales partes interesadas en el desarrollo de la IA en todo el mundo colaboren para garantizar la eliminación de los principales sesgos éticos. Esto será un reto, ya que las empresas pueden no estar dispuestas a colaborar debido a la protección de la propiedad intelectual. Por lo tanto, es importante contar con un órgano rector internacional de la ética de la IA que establezca una norma mundial a la que deban adherirse los desarrolladores de IA. Este órgano de gobierno debería estar compuesto por equipos interdisciplinarios que incluyan especialistas de ámbitos como la informática, la filosofía, el derecho, la ingeniería, la empresa, etc.
En segundo lugar, las personas deben actuar de forma responsable en Internet. Algunas aplicaciones de IA extraen y aprenden directamente de lo que está disponible en Internet. Por ejemplo, la IA puede procesar texto, grabaciones de sonido e imágenes para aprender cómo es el comportamiento humano. Por lo tanto, nosotros, como humanidad, tenemos que actuar con responsabilidad en cuanto a lo que publicamos en la red para reducir los prejuicios, el odio y los estereotipos. Al igual que un niño, si una IA se nutre de mensajes racistas en Internet, puede desarrollar tendencias racistas. Es importante que la libertad de expresión en la red siga estando garantizada, pero hay que dar prioridad a la conducta ética.
Estas son sólo algunas reflexiones. Puede que las soluciones iniciales no sean perfectas, pero abordar críticamente y concienciar sobre estas cuestiones ya es un gran paso hacia un futuro más seguro y ético para todos nosotros.
Los comentarios están cerrados.