Amazon e IBM reniegan de la tecnología de reconocimiento facial por su sesgo racista
La empresa de Jeff Bezos prohíbe a la policía usar durante un año su tecnología Rekognition y el gigante azul se retira de este negocio para "vigilancia masiva" tras la muerte de George Floyd
El gigante tecnológico Amazon prohibirá durante un año a los cuerpos de Policía usar su controvertido software de reconocimiento facial Rekognition, como respuesta a las demandas de justicia racial y contra la brutalidad policial en EE UU derivadas de la muerte del afroamericano George Floyd a manos de un agente en Mineápolis.
La decisión de la empresa de Jeff Bezos llega apenas dos días después de que IBM anunciara que se retira del negocio de la tecnología de reconocimiento facial para "vigilancia masiva o perfil racial". Ambas decisiones llegan tras las crecientes presiones sobre las compañías tecnológicas, tras días de masivas protestas en el país por la muerte de Floyd.
En un escueto mensaje en su blog oficial, Amazon explicó que se trata de una "moratoria" de un año para que los reguladores promulgen leyes qué regulen cómo se utiliza esta tecnología. "Hemos abogado porque los gobiernos establezcan regulaciones más estrictas para regular el uso ético de la tecnología de reconocimiento facil y, en los últimos días, el Congreso parece estar listo para asumir ese desafío", añadió la compañía en un comunicado. Amazon añadió que espera que esta moratoria de un año de al Congreso el suficiente tiempo para implementar las reglas apropiadas y estamos listos para ayudar si lo solicitan".
Amazon no ha aclarado cómo aplicará tal prohibición, aunque es probable que lo haga negándose a ofrecer sus servicios a los cuerpos de Policía y eliminando el apoyo técnico a aquellos que ya dispongan de esta tecnología. La compañía también precisó que seguirá permitiendo el uso de su tecnología a las organizaciones que se ocupan de la trata de personas.
Rekognition de Amazon utiliza, como otras soluciones de reconocimiento facial, inteligencia artificial para comparar rápidamente las imagenes que toman las cámaras instaladas en la calle o un móvil de un policia, por ejemplo, con las fotos de la base de datos de la policía.
La decisión de Amazon e IBM llega tras duras críticas a la tecnología de reconocimiento facial por supuesto sesgo racial. Algunos estudios demuestran, según informa la BBC,que la mayoría de los algoritmos tienen más probabilidades de identificar erróneamente los rostros de las personas negras y otras minorias que los de las personas blancas. Por ejemplo, un estudio llevado a cabo en 2018 por la Unión Estadounidense de Libertades Civiles (ACLU, en inglés) halló que el reconocimiento facial había identificado incorrectamente a 28 congresistas de EE UU (en su mayoría pertenecientes a minorías étnicas) como criminales al comparar sus fotografías con imágenes policiales.
El año pasado, San Francisco se convirtió en la primera gran ciudad de EE UU en prohibir a todas las agencias locales, entre ellas la policía, el uso de técnicas de reconocimiento facial, cada vez más empleadas por las autoridades para identificar a criminales pero criticadas por las organizaciones proderechos civiles, informa Efe.
Esta agencia recuerda que gobiernos y agencias de seguridad de todo el mundo hace años que utilizan las técnicas de reconocimiento facial para tareas como identificar a criminales, ayudar en las tareas de búsqueda de menores desaparecidos y prevenir el fraude documental. Sin embargo, los grupos en defensa de los derechos civiles aseguran que esta tecnología invade la privacidad de los ciudadanos de forma excesiva, a la vez que puede perpetuar sesgos policiales contra minorías étnicas ya que se ha probado que tiende más al error con personas de piel oscura.
En una carta al Congreso, el presidente ejecutivo de IBM, Arvind Krishna, aseguró que "la lucha contra el racismo es tan urgente como siempre" y apuntó tres áreas en las que su compañía quería colaborar con la institución: reforma policial, uso responsable de la tecnología y ampliación de habilidades y oportunidades educativas.
El ejecutivo cree que la inteligencia artificial tiene unos prejuicios que deberían ser corregidos antes de ser utilizada por los cuerpos de seguridad. "Creemos que ahora es el momento de comenzar un diálogo nacional" sobre el uso de esta tecnología de reconocimiento facial por parte de los cuerpos y fuerzas de seguridad. Krishna dejó claro que la tecnología puede y debe estar al servicio de la policía en su trabajo de protección de la comunidad, pero nunca puede estar tras la discriminación o injusticias raciales.