Vanessa Arenas
En 1984, la máquina de radioterapia Therac 25 funcionaba en los tratamientos contra el cáncer a través de un software que recibía datos de edad, peso, sexo, entre otros, del paciente. Errores en su código provocaron que al menos seis de esos pacientes murieran tras recibir una cantidad de radiación fatal.
Así ejemplificó el gerente I+D de Practia, Alejandro Núñez, el sesgo en la data y la Inteligencia Artificial, el tema del webinar de este martes. «Todo producto de Inteligencia Artificial tiene el potencial de hacer daño aunque esté libre de errores».
El experto en IA señaló que muchos de los sistemas están integrados con datos que vemos todos los días y la mayoría tiene sesgos culturales. Un bot que responde con violencia y racismo en Twitter, un software que decide si un individuo es inocente o culpable de acuerdo a sus características físicas y, en la industria financiera, la analítica prescriptiva que decide si aprobar o no un crédito sin tener mayor información del cliente.
¿Puede ser un sistema castigado por determinar las cosas? ¿Podemos darle esa responsabilidad de hacerse pasar por un humano?, preguntó Núñez.
Para orientar sobre qué se puede hacer ante esto, se enumeraron la siguientes acciones:
-Incorporar ética y sesgo como parte de la evaluación de proyectos relacionados con datos.
-Entrenar y general una cultura de calidad que incluya ética computacional.
-Promover la existencia de guardianes de la ética computacional.
-Definir las políticas de calidad y de-bias para los sets de datos históricos de la compañía.
-Ajustar los procesos que se detecten como fuentes de datos sesgados.