Fuente: gestion.pe
Al igual que la mayoría de los algoritmos que se implementan en la actualidad, el reconocimiento facial es en gran parte una caja negra.
Un grupo de accionistas de Amazon ha agregado un nuevo giro al concepto de responsabilidad social corporativa, y le pide a la compañía que deje de vender su servicio de reconocimiento facial con fines que podrían infringir los derechos civiles de las personas. Al hacerlo, han planteado una interrogante importante: ¿Podría ser esta la forma de frenar el uso espeluznante de nuevos algoritmos? ¿Apelando al interés propio ilustrado de sus creadores?
Lamentablemente, creo que no. Confiar en las empresas es un criterio errado, porque generalmente no saben -y no quieren saber- cómo funciona realmente la tecnología.
Al igual que la mayoría de los algoritmos que se implementan en la actualidad, el reconocimiento facial es en gran parte una caja negra. Basada en amplias bases de datos de rostros y en su propia experiencia de las características más relevantes, una computadora identifica a una persona como, por ejemplo, a su abuelita Rosa, un presunto delincuente o un blanco de ataque con aviones no tripulados.
Los usuarios rara vez saben exactamente cómo lo hace; los acuerdos de licencia suelen estipular que no tienen acceso al código fuente. Los vendedores también prefieren permanecer en la ignorancia. Están enfocados en las ganancias y el desconocimiento los aleja de la responsabilidad ante cualquier cosa que sea poco ética, ilegal o negativa.
En otras palabras, todo el ecosistema de inteligencia artificial está optimizado para una falta de responsabilidad. Ni los constructores ni los usuarios necesitan pensar demasiado en las posibles consecuencias de su aplicación, o en los errores en el código.
Esto resulta preocupante en el ámbito del reconocimiento facial, que puede cruzar con facilidad el límite entre lo útil y lo espeluznante. Las aerolíneas pueden usarlo para identificar a viajeros frecuentes o miembros de listas de vigilancia de terroristas, minoristas para clientes favorecidos o ladrones de tiendas conocidos, casinos para ayudar a los adictos a los juegos de azar o para atrapar a contadores de tarjetas, escuelas para ahorrar tiempo en tomar asistencia o para monitorear el paradero de los estudiantes. Juega un papel integral en el sistema de crédito social de China.
Lo horripilante depende en gran medida del contexto. Me gustaría que me ofrecieran un ’upgrade’ en el mostrador de la aerolínea, pero no me gustaría ser identificada como una ladrona de tiendas en caso de que me confundan con mi hermana gemela.
Las consecuencias pueden ser particularmente graves para ciertos grupos de personas: un estudio reciente del MIT sobre sistemas de reconocimiento facial disponibles públicamente concluyó que la tasa de error para las mujeres de piel oscura es muchas veces más alta que para los hombres de piel blanca.
Incluso si la precisión mejora, los problemas permanecerán. Las mujeres de raza negra tienden a vivir más cerca de los centros urbanos con muchas cámaras, por lo que son más propensas a ser etiquetadas.
También es más probable que a los hombres de raza negra los arresten y, por lo tanto, tengan su foto de prontuario en la base de datos de la policía. En otras palabras, incluso si la tecnología se puede volver «justa» en todos los grupos, eso no garantiza que se aplique de manera justa.
Este es un negocio complicado y conlleva mucha más responsabilidad de la que una compañía como Amazon está preparada para asumir. Mi conjetura es que, si los accionistas ejercen suficiente presión, la compañía saldrá del mercado antes de controlar el uso del software por parte de los clientes. Esa no es una solución, porque otras empresas, probablemente con perfiles públicos más pequeños, tomarán su lugar.
¿Qué hacer? Lo más probable es que el gobierno deba intervenir con una regulación orientada y específica para el contexto. Una iniciativa llamada Safe Face Pledge, que inició la investigadora del MIT Joy Buolamwini, ha comenzado a esbozar cómo se vería eso.
Por ejemplo, exige la prohibición de ataques con aviones no tripulados basados en el reconocimiento facial. De manera similar, cualquier algoritmo que juegue un papel en las decisiones de alto nivel, como las condenas penales, debe ser controlado a un nivel muy elevado.
Es probable que tengamos que pasar por algunas interacciones para poder hacerlo bien, pero debemos comenzar por algún lado. A todas luces, la ignorancia no es una solución.