IBM regresa al mercado de reconocimiento facial a pesar de compromisos anteriores
En una sorprendente vuelta de tuerca, IBM ha decidido reincursionar en el mercado de reconocimiento facial, apenas tres años después de anunciar que abandonaría el desarrollo de esta tecnología debido a preocupaciones por el perfilado racial, la vigilancia masiva y otras violaciones de derechos humanos.
En junio de 2020, en medio de las protestas del movimiento Black Lives Matter tras el asesinato de George Floyd, el director ejecutivo de IBM, Arvind Krishna, escribió una carta al Congreso anunciando que la compañía ya no ofrecería tecnología de reconocimiento facial de «propósito general».
«La lucha contra el racismo es tan urgente como siempre. IBM se opone firmemente y no tolerará el uso de ninguna tecnología, incluida la tecnología de reconocimiento facial ofrecida por otros proveedores, para la vigilancia masiva, el perfilado racial, las violaciones de los derechos humanos y las libertades básicas, o cualquier propósito que no sea coherente con nuestros valores y Principios de Confianza y Transparencia».
Arvind Krishna, el director ejecutivo de IBM
Más tarde ese año, la compañía reafirmó su compromiso, solicitando controles de exportación en EE. UU. para abordar las preocupaciones de que el reconocimiento facial pudiera utilizarse en el extranjero «para reprimir el disenso, infringir en los derechos de las minorías o eliminar las expectativas básicas de privacidad».
A pesar de estos anuncios, el mes pasado, IBM firmó un contrato de £54.7 millones (USD 69.8 millones) con el gobierno británico para desarrollar una plataforma nacional de biometría que ofrecerá una función de reconocimiento facial a funcionarios de inmigración y fuerzas del orden, según documentos revisados por The Verge y Liberty Investigates, una unidad de periodismo de investigación en el Reino Unido.
Un aviso de contrato para la Plataforma de Emparejamiento Biométrico del Ministerio del Interior describe cómo el proyecto involucra inicialmente el desarrollo de una capacidad de emparejamiento de huellas dactilares, mientras que en etapas posteriores se introduce el reconocimiento facial para fines de inmigración, descrito como «un facilitador para el emparejamiento estratégico de rostros para las fuerzas del orden». La etapa final del proyecto se describe como la entrega de un «caso de uso de emparejamiento facial para las fuerzas del orden».
La plataforma permitirá que las fotos de las personas se comparen con las imágenes almacenadas en una base de datos, lo que a veces se conoce como un sistema de emparejamiento «uno a muchos». En septiembre de 2020, IBM describió estos sistemas de emparejamiento «uno a muchos» como «el tipo de tecnología de reconocimiento facial más probable de utilizarse para la vigilancia masiva, el perfilado racial u otras violaciones de los derechos humanos».
Imtiaz Mufti, portavoz de IBM, negó que su trabajo en el contrato entrara en conflicto con sus compromisos de 2020. «IBM ya no ofrece reconocimiento facial de propósito general y, de acuerdo con nuestro compromiso de 2020, no respalda el uso de reconocimiento facial para la vigilancia masiva, el perfilado racial u otras violaciones de derechos humanos», declaró.
«La Plataforma de Emparejamiento Biométrico del Ministerio del Interior y el contrato de servicios asociados no se utilizan en la vigilancia masiva. Ayuda a la policía y a los servicios de inmigración a identificar a sospechosos en una base de datos de datos de huellas dactilares y fotos. No es capaz de capturar video, lo que normalmente sería necesario para admitir el uso biométrico de reconocimiento facial en una multitud».
Arvind Krishna, el director ejecutivo de IBM.
Sin embargo, los defensores de los derechos humanos afirmaron que el trabajo de IBM en el proyecto es incompatible con sus compromisos de 2020. Kojo Kyerewaa de Black Lives Matter en el Reino Unido afirmó: «IBM ha demostrado estar dispuesta a pasar por encima del cuerpo y la memoria de George Floyd para perseguir un contrato del Ministerio del Interior. Esto no se olvidará».
Matt Mahmoudi, PhD, investigador tecnológico de Amnistía Internacional, expresó: «La investigación en todo el mundo es clara; no hay ninguna aplicación de reconocimiento facial uno a muchos que sea compatible con la ley de derechos humanos, y las empresas, incluida IBM, deben dejar de venderlo y cumplir sus declaraciones anteriores de eliminar estas herramientas, incluso y especialmente en el contexto de la aplicación de la ley y la ejecución de la inmigración, donde las implicaciones para los derechos se están agravando».
«No hay ninguna aplicación de reconocimiento facial uno a muchos que sea compatible con la ley de derechos humanos».
Matt Mahmoudi, PhD, investigador tecnológico de Amnistía Internacional
El uso policial del reconocimiento facial ha sido relacionado con arrestos injustos en los Estados Unidos y ha sido cuestionado en los tribunales del Reino Unido. En 2019, un informe independiente sobre el uso de reconocimiento facial en vivo por parte del Servicio de Policía Metropolitana de Londres encontró que no existía una «base legal explícita» para el uso de la tecnología por parte de la fuerza y planteó preocupaciones de que podría haber violado la ley de derechos humanos.
En agosto del año siguiente, el Tribunal de Apelación del Reino Unido dictaminó que el uso de la tecnología de reconocimiento facial por parte de la Policía de South Wales infringía los derechos de privacidad y quebrantaba las leyes de igualdad. La fuerza suspendió su uso de reconocimiento facial después del fallo, pero desde entonces ha vuelto a utilizar la tecnología.
Otras empresas tecnológicas han impuesto prohibiciones parciales al uso de sus servicios de reconocimiento facial para las fuerzas del orden. En los días posteriores al anuncio de IBM de abandonar el sector de reconocimiento facial, tanto Amazon como Microsoft anunciaron moratorias en la venta de sus servicios de reconocimiento facial a departamentos de policía en los Estados Unidos.
Amazon anunció inicialmente una moratoria de un año en el uso policial de su software Rekognition en junio de 2020 y dijo que extendería la prohibición «indefinidamente» al año siguiente. Una portavoz de la compañía confirmó que la moratoria, que prohíbe «el uso de la función de comparación de rostros de Amazon Rekognition por parte de los departamentos de policía en relación con investigaciones criminales», sigue vigente.
Microsoft afirmó en junio de 2020 que no vendería software de reconocimiento facial a departamentos de policía en los Estados Unidos hasta que se introdujera una ley nacional que regulase el uso de la tecnología. Cuando The Verge y Liberty Investigates se pusieron en contacto con Microsoft, una portavoz de la compañía se refirió al sitio web de la empresa, que establece que el uso del servicio de reconocimiento facial de Azure AI «por o para la policía estatal o local en los Estados Unidos está prohibido por la política de Microsoft».
Fuente: The Verge.