El Sesgo y la Justicia en la Inteligencia Artificial

En una entrevista reciente al filósofo y tecnólogo David Weinberger, cuyo trabajo se centra en cómo Internet está cambiando las relaciones humanas, la comunicación, el conocimiento y la sociedad, señala que estamos confiando cada vez más en máquinas que extraen conclusiones de modelos que ellas mismas han creado y que, a veces, están más allá de la comprensión humana, porque sus reglas conciben el mundo de una manera diferente a nuestra forma de pensar.

En ocasiones, parece ser que estos modelos con los que el aprendizaje automático entiende el mundo parecen resultar más precisos o veraces que nuestra propia manera de analizar o de entender.

Logistica el sesgo y la justicia en la inteligencia artificial Cajasiete

Se ha demostrado que la IA puede amplificar las injusticias en la sociedad y que es posible que eso sea algo muy difícil de evitar, por lo que supone un problema. Otra forma de verlo es que, quizás, estemos aprendiendo sobre nuestro propio concepto de imparcialidad gracias a los resultados que se están obteniendo como resultado de aplicar la Inteligencia Artificial.

Si queremos que un sistema de Machine Learning sea justo, primero hay que tener en cuenta qué tipo de imparcialidad se debe tener en cuenta a la hora de entrenarlo. Es por ello, que cada vez más estamos asistiendo a innumerables debates en torno a lo que nos parece justo e injusto. Tal y como ha expresado Weinberger, “ya no se trata de lograr una IA justa, sino que la propia IA está haciendo mucho por nosotros porque nos obliga a revisar las diferentes ideas de justicia que las personas tenemos”.

En varias ocasiones se ha detectado que las conclusiones de muchos algoritmos que se basan en la Inteligencia Artificial, no solo están repitiendo los sesgos que introducimos los humanos, sino que incluso podrían amplificarlos. No está muy claro que siempre vayamos a ser capaces de detectar el punto en el que se han equivocado, precisamente porque a veces no sabemos cómo entienden el mundo, a la par que estos modelos cada vez serán más complejos.

Es un hecho que, cada vez más, las empresas están creando sistemas que aprenden tareas mediante el análisis de grandes cantidades de datos, incluidas las fotos, los sonidos, el texto y las grabaciones audiovisuales, incluso de datos generados en tiempo real. La creencia era que, si un sistema aprendía de la mayor cantidad de datos posible, se seguiría la justicia, pero muchas veces, se ha demostrado que esto no es así.

A fines de 2019, los reguladores estatales de Nueva York abrieron una investigación a UnitedHealth Group después de que un estudio descubrió que un algoritmo utilizado priorizaba la atención de los pacientes blancos sobre los negros, incluso cuando los pacientes blancos eran más saludables. 

Ese mismo año se investigó el servicio de crédito Apple Card, después de una demanda que aseguraba que discriminaba a las mujeres.

También se ha dado el caso de que sistemas de visión artificial no reconozcan rostros diferentes a los asiáticos, ya que la empresa que comercializaba el producto había sesgado la muestra de entrenamiento. Otro caso importante ocurrió en Nueva York, cuando los prejuicios de los diferentes agentes de la policía se colaron en la identificación de sospechosos. No intencionados e inconscientes, pero prejuicios.

A menor heterogeneidad en los conjuntos de datos que entrenan a estas redes neuronales, más sesgo tendrán las máquinas. Hoy tenemos la capacidad de crear, gracias a la tecnología, una sociedad más justa, pero para ello necesitamos unas bases más equilibradas.

Muchos en la industria de la tecnología creen que las empresas deben comenzar a prepararse para estar sujetas a algún tipo de legislación o regulación. En abril de este año, 2021, la Comisión Federal de Comercio de EEUU  advirtió contra la venta de sistemas de inteligencia artificial que tuvieran prejuicios raciales o pudieran impedir que las personas recibieran empleo, vivienda, seguro u otros beneficios.

Una semana después, la Unión Europea dio a conocer un borrador de regulaciones que podrían sancionar a las empresas que generen software o herramientas que creen un sesgo.

Google Plus

Artículos Relacionados

Sobre el Autor

Ginés León

Ginés León

Licenciado en Estadística, ha centrado la carrera profesional en el campo de la logística, la gestión de equipos y la eficiencia de procesos. Alta formación en Investigación Operativa, Métodos de Predicción, Programación, Análisis y Explotación de Datos mediante diferentes Técnicas Estadísticas.

Además de la licenciatura, su formación cuenta con un Máster de Logística, un Máster en Matemáticas Aplicadas, un MBA, un Máster en Big Data y Business Intelligence y un Experto en Blockchain.

Ha trabajado y organizado operativas y procesos con los departamentos logísticos de diferentes empresas como Nespresso, La Caixa, Canal +, Disa, Bimbo, Endesa, y otras de calado internacional como Amway y NuSkin. En el ámbito público, ha colaborado y desarrollado operativas especiales con el Servicio Canario de Salud, especialmente el HUNSC y Gerencia de Atención Primaria de Tenerife.

Durante su etapa en el Grupo Valora, fue el responsable del desarrollo e implantación del Proyecto GDP, motivado por el cambio de normativa que regula el Transporte de Medicamentos a Temperatura Ambiente (15ºC - 25ºC), desde la valoración y decisión de compra de los equipos, a las operativas, Cuadros de Mando Integrales (CDMI) y Kpi.

Después de una carrera profesional de más de 9 años en los puestos de Subdirector de Operaciones para Canarias de SEUR y la Dirección Logística de 3 empresas del Grupo Valora, se plantea un nuevo reto en TITSA, empresa de transporte interurbano de Tenerife.

Durante el primer año desempeñó su trabajo como responsable de la Zona Sur de Tenerife. A partir del segundo año, Octubre 2017, ejerce como responsable de un nuevo departamento en Titsa, el departamento de Big Data & Data Science.

El Dpto. de Big Data & Data Science de TITSA fue reconocida como la Mejor Iniciativa Empresarial o de Administración Pública de Big Data de España en la cuarta edición de los Data Science Awards, que organiza anualmente, LUCA, la unidad de datos e Inteligencia Artificial de Telefónica.

Deja un comentario

Estás comentando como invitado.
Cajasietecontunegocio
Comprometidosconnuestragente

Suscríbete a nuestra Newsletter