Inteligencia artificial es una de las grandes tendencias del momento, con muchas variantes y aplicaciones entre las que destacan reconocimiento facial y sus diferentes niveles de uso, que van desde autenticación de la identidad en smartphones de última generación hasta procesos simplificados de verificación de la identidad en aeropuertos.
El reconocimiento facial, apareado a extensas bases de datos, mecanismos de comunicación fluida y data histórica, sirve también como arma para prevención de delitos y combate de la delincuencia, siendo este uno de los usos que mayor cantidad de alarma y escepticismo genera por el lado de la privacidad y potenciales abusos por esa vía.
La idea de una sociedad distópica a manos de estas tecnologías, donde el efecto “gran hermano” sería a gran escala, es una que mete miedo a la mayoría de la gente, sobre todo cuando se observa una tendencia a combinar reconocimiento facial con programas predictivos que en base a inteligencia artificial y data histórica señalan posibles ocurrencias delictivas o criminales por zona y la posible reincidencia de personas con un historial delictivo.
Estos programas, en uso en países como Reino Unido y Estados Unidos, generan tanto controversia como presión de parte de activistas que abogan por la privacidad y los derechos de los ciudadanos en temas afines, yéndose la discusión por el mismo lado de la cuestión de que si es legal, ético o justificable forzar el acceso a un smartphone para fines de investigación policial y casos que se ventilan en la justicia. El uso del reconocimiento facial en instancias similares también genera el mismo efecto.
¿Es bueno o malo el uso de estas tecnologías? La cuestión suele mirarse a largo plazo y en general hay un rechazo hacia las mismas por considerarse invasivas. El ejemplo más extremo es China, donde el reconocimiento facial es extensivo, al punto que se usa tanto en arrestos proactivos como en mecanismos que buscan combatir a peatones imprudentes al exponerlos en público. Esta tecnología es igualmente utilizada en el área de servicios a modo de pago y otras facilidades. Se habla incluso de que representa un arma para mantener a raya a grupos separatistas y como mecanismo de control del régimen.
En Occidente estas tecnologías están también en uso, muchas veces de manera poco transparente y a niveles no del todo conocidos, de ahí que los activistas constantemente denuncian lo que consideran prácticas violatorias de los derechos del ciudadano y exigen los pormenores del uso y funcionamiento de esos mecanismos.
El año pasado hubo un pequeño escándalo en Estados Unidos cuando se reportó que Rekognition, el software de reconocimiento facial de Amazon, estaba siendo usado por algunas autoridades del orden. En lo que respecta a software predictivo y su uso para prevenir o combatir delincuencia el señalamiento es que estos sistemas tienden a ser racistas, y la razón de ello es muy sencilla: estos programas trabajan en base a data histórica que a su vez se ve sujeta al sesgo personal y prejuicios de quien realiza (o realizó) la investigación.
Hay una situación curiosa que se está desarrollando de este lado del mundo con el tema de inteligencia artificial y tecnologías afines por parte de las autoridades: mientras que un reporte del grupo de derechos humanos Liberty afirma que la herramienta de predicción de delitos fue adoptada por 14 fuerzas policiales del Reino Unido, en Estados Unidos San Francisco podría convertirse en la primera ciudad en prohibir la tecnología de reconocimiento facial por parte de las autoridades.
Llama la atención que sea San Francisco justamente que tome la delantera en este tema, pues allá y en otras ciudades del estado de California se encuentra el epicentro de muchas de esas tecnologías que tan disruptivas e invasivas resultan, pero en realidad hay un precedente aun más fuerte con Seattle y su rechazo casi total a los Google Glass, un dispositivo que va por esta misma línea al integrar cámara, sensores y realidad aumentada.
La movida que busca prohibir reconocimiento facial en San Francisco es una propuesta de un miembro del Consejo de Supervisión de la ciudad, Aaron Peskin, quien sostiene que todavía no le ve beneficio a esta tecnología. Como parte de su propuesta contempla una ordenanza que exija a las autoridades una justificación y reporte anual de uso de cualquier tecnología de vigilancia existente que esté en uso por la ciudad, entre las que se cuentan sistemas de detección de disparos, cámaras de vigilancia o lectores automáticos de matrículas. El reporte deberá incluir las quejas de la comunidad y con quién se comparte la información.
Una prohibición del reconocimiento facial a este nivel en San Francisco podría tener un efecto dominó en otras ciudades. El tema no es tan simple y podría tener implicaciones sobre otros usos personales de estas tecnologías, sobre todo cuando ocurren en público y con el potencial de implicar a terceros. Mientras tanto, y en previsión de un futuro que podría fácilmente estar dominado por estas situaciones, hay mecanismos que ayudarían a evadir estos sistemas de detección facial, pero requieren de maquillaje y otras formas de creatividad.