Buenos Aires en un escenario cyberpunk, con policías inteligentes, identificación facial en banners, y una población empobrecida utilizando gadgets avanzados. Créditos: Muta
75
Views

No hay noticia actual que no involucre a las inteligencias artificiales y no es para menos que el ojo público se encuentre sobre ellas. Desde hacernos los quehaceres académicos y laborales, hasta generarnos videos cada vez más sofisticados solo tecleando texto en pantalla: la IA parece que ha venido a solucionar problemas tediosos. En esta ocasión, el debate se centra en su uso “político”, las formas de vigilancia y la implementación de las inteligencias artificiales en lo que respecta a la distribución de la riqueza. La IA tiene mucha utilidad al momento de automatizar tareas, pero debemos tener en cuenta que, por lo menos de momento, solo es una herramienta para agilizar actividades y aún le falta mucho para poder (sí es que llegase) tener un criterio para discernir una moral acerca de las decisiones que toma.

 

Sobre las implicaciones políticas y sociales de una tecnología en expansión

Steven Feldstein publicó un estudio en The Carnegie Endowment for International Peace acerca de la proliferación de la inteligencia artificial como herramienta de vigilancia social. Establece que 75 de 176 países ya han implementado vigilancia mediante IA, esto incluye plataformas para ciudades inteligentes seguras, sistemas de reconocimiento facial y “policía inteligente”. Sin duda, la implementación de esta tecnología agiliza y sofistica la forma en que somos constantemente vigilados, ya no solo somos vulnerados con nuestros datos que se encuentran en línea, sino que también es posible ser identificados simplemente con exponernos a plataformas de reconocimiento.

La justificación para la implementación de dispositivos de vigilancia siempre se centra en la mejora de los servicios de seguridad para dar confianza a la población, sin embargo, es indudable que no hay manera de saber si se está o no utilizando.

El estudio citado señala que se monitorea, registra y vigila al ciudadano con el fin de alcanzar objetivos políticos. Esta nota aborda las cuestiones que emanan de la implementación de IA no solamente desde la perspectiva de la vigilancia policíaca, sino también de otras formas que pueden segregar de forma económica y social a sectores, poblaciones o ciudadanos de países considerados problemáticos.

 

Policía predictiva: ¿Automatización de la segregación y represión?

 

Minority report Fuente: Google

Screenshot de la película de 2002 “Minority Report” una visión distópica del futuro, donde las fuerzas del orden utilizan inteligencia artificial avanzada para predecir y prevenir delitos antes de que ocurran. Fuente: Google

 

Según informa el medio DW, la “policía predictiva” es el análisis mediante IA de una zona en busca de patrones delictivos, en ciertos espacios de las ciudades. Los análisis de informes de delitos, la frecuencia de llamadas a líneas de emergencia, los antecedentes penales, la actividad en redes sociales, el análisis incluso del aumento de la venta y el consumo de alcohol en las zonas de interés.  

Incluso el clima es un factor para enfatizar los esfuerzos policíacos en ciertas zonas de las ciudades y, por supuesto, en el reconocimiento facial. Electronic Frontier Foundation refuerza la idea de que esta tecnología se alimenta de información sesgada; no es secreto que en las zonas marginales de las ciudades, la presencia policíaca suele ser más abundante. Donde la IA se alimente con datos redundantes provocaría que ciertas zonas sean vigiladas de forma excesiva con el fin de evitar los delitos “predecibles”.  

El algoritmo utilizado para la “predicción” de los crímenes se alimenta con registros de delitos, arrestos, imágenes y fotografías de delincuentes. Si bien existen estudios en donde se expone la practicidad y la necesidad de que el aparato policial se anticipe a los crímenes, también se estaría hablando de derechos coartados debido a la vigilancia constante que esto llevaría a los barrios. Se puede deducir que las inteligencias artificiales no cuentan con la capacidad de discriminar información y analizarla como lo haría la inteligencia humana.

Recomendamos para ampliar información el informe realizado por la Asociación Fundación via Libre Guía de desafíos y recomendaciones para la implementación de una IA mas justa.

Continuando con nuestro tema, la vigilancia mediante IA es una acción coactiva ya que si residimos en un lugar que esta tecnología considera peligroso, todos los residentes estarán bajo el ojo policial con el pretexto de la predicción de criminalidad en pro del bienestar de la mayoría de los habitantes.

Esto pone muchos claroscuros en el tema, porque debido a la naturaleza automatizada de la IA es posible que existan confusiones o acoso por parte del aparato policial hacia los segmentos sociales antes descritos, dejando sin respuesta la pregunta: ¿estamos dispuestos a sacrificar la libertad por la seguridad?

Una figura pública que se sumo al debate fue el  periodista y analista de inteligencia de la CNN John Miller reconocido por haber cubierto decenas de entrevistas entre ellas una curiosa con Osama Bin Laden:También se debería considerar el perpetrador predictivo. Debemos preguntarnos qué fuentes de datos han obtenido los delincuentes. No somos los únicos que estamos analizando datos”. Una curiosa reflexión  para no dejar pasar por alto a todos los jugadores involucrados.

Pero no solo el debate de libertad y seguridad se encuentra en tela de juicio dentro del concepto de la policía predictiva, ya que nuestra información personal podría estar expuesta al escrutinio de la IA, lo que puede ser una violación a la privacidad de datos. No solamente la información de presidiarios o ex prisioneros será utilizada, sino que también lo estará la información de civiles que pudieran ser sujetos de interés. 

 

El uso de algoritmos para la distribución económica

 

Imagen generada por Dall-e

Imagen creada en Inteligencia Artificial. Crédito: Muta Magazine

Human Rights Watch,  es una organización no gubernamental internacional que ejerce presión sobre personas e identidades para hacer respetar los derechos humanos, ve una problemática discriminatoria en la utilización de la vigilancia por IA de movimiento y el flujo de efectivo en los bancos. Esta preocupación también se refleja en el ámbito de los sistemas financieros.

De acuerdo con una investigación publicada por la ONG el 13 de junio, un algoritmo financiado por el Banco Mundial, diseñado para seleccionar qué familias en Jordania deben recibir asistencia económica, está dejando fuera a algunas personas que cumplen con los requisitos para recibir esa ayuda. En el articulo concluye que el algoritmo no considera el contexto individual de aquellos que apelan a unirse a este modelo de seguro, ya que la implementación de la tecnología no cuenta con la capacidad ética para tomar decisiones conforme a las condiciones específicas de las personas.

En el propio documento se considera este punto como “focalización de la pobreza”, a la par de una discriminación de género por parte del modelo, debido a que las mujeres jordanas no tienen capacidad legal para transmitir la ciudadanía a sus cónyuges e hijos; La National Aid Fund (NAF) reconoce que son 57 los indicadores con los que cuenta el algoritmo y afirman que estos por separado no segregan a los receptores de la ayuda.

“Por ejemplo, los hogares con automóviles que tienen más de cinco años tendrían menos probabilidades de calificar para transferencias de efectivo que los hogares que no poseen automóviles, en igualdad de condiciones. Sin embargo, la agencia reconoció que poseer un automóvil de menos de cinco años o un negocio con un valor de 3.000 dinares o más (4.231 dólares) excluiría automáticamente a las familias del programa”. Human Right Watch (2023)

A pesar de los avances en el desarrollo de inteligencias artificiales y algoritmos analíticos, la distribución económica dejada en manos de la IA es una gran preocupación debido a la desigualdad que nace de la falta de un actor humano que considere el contexto social de las personas que intentan acceder a seguros o recursos económicos.

 

¿Máscaras y maquillaje contra la vigilancia con IA?

Si bien los avances tecnológicos pueden ser utilizados para control de masas, siempre buscaremos la forma de contrarrestarlos. La inteligencia artificial viene a sofisticar los servicios de espionaje y vigilancia, pero se resalta que uno de los puntos fuertes de la vigilancia social se basa en las cámaras capaces de detectar rostros. ¿Y si existiera o hubiera manera de evitar tanto en línea como en la vida real?

Los métodos utilizados por los chinos fueron el ocultamiento de su rostro por mascarillas y cascos, pero debido a la rápida implementación del reconocimiento facial utilizado para sofocar movimientos populares, a la par han nacido alternativas para evitar que las cámaras de vigilancia puedan detectarlos.

En el año 2019, los pobladores de la región de Hong Kong se unieron en una serie de protestas que se oponían a la Ley de Extradición a China teniendo también en cuenta la creciente desigualdad de la zona que derivó en “casas-jaula”. El país no solo reprimió los movimientos sociales, sino que la vigilancia a los ciudadanos se dio en ambientes virtuales, por lo que les fue necesario el uso de aplicaciones de citas, airdrop e incluso Pókemon Go para organizar a los manifestantes. 

A partir de esto, los manifestantes también han hecho uso de soluciones “modernas”, siendo la principal el derribo de postes de cámaras, el uso del flash de los teléfonos y láseres para bloquear y distraer a la policía.

Las protestas de Hong Kong demostraron que la población puede utilizar la propia tecnología, aunque esta no sea tan sofisticada como la gubernamental, para enfrentarse al aparato de vigilancia de una superpotencia tecnológica. 

Con el fin de desmentir y contribuir a claificar sobre la invulnerabilidad de estos mecanismos de reconocimiento; investigadores de la Universidad de Negev en BeersebaIsrael llevaron a cabo un experimento en el cual mediante la aplicación de maquillaje común en ciertas zonas del rostro bastaban para que las cámaras tuvieran problemas con el reconocimiento de las personas. Para las pruebas se utilizó el modelo de reconocimiento ArcFace (este mismo que usa la geometría facial). El reconocimiento facial por IA lleva a cabo una lectura de las líneas geométricas de los rostros, con esto se obtiene una plantilla única de la cara de los individuos.  El maquillaje puede alterar de forma muy drástica el cómo nos vemos, pero el modelo geométrico que proponen los investigadores no se basa en llevar uno exagerado, sino en, a partir de determinados patrones, aplicarlo en zonas estratégicas del rostro.

Como resultado, tan solo el 1.22% de los participantes del experimento que usaron maquillaje fueron reconocidos, en comparación con el 47.57% de aquellos que no lo utilizaron y un 33.73% de las participantes que usaron maquillaje común.  

Esto nos deja en claro que si bien las tecnologías de reconocimiento facial van en avance y aumento, esta no es infalible y solo con conocer su funcionamiento es posible vulnerar esta tecnología.

 

 

Si bien es una manera muy discreta de burlar el reconocimiento facial, también se han desarrollado prendas que tienen como objetivo el ocultamiento total del rostro de las personas, estas son las llamadas: máscaras anti reconocimiento facial. Isao Echizen es un profesor del Instituto Nacional de Informática de Tokio (National Institute of Informatics), que ha creado unas gafas las cuales llevan una serie de leds infrarrojos que tienen como objetivo bloquear la detección. Pero no solo han sido lentes los utilizados para este fin. En el año 2017, la joven China Jing-Cai Liu junto con sus compañeros en ese entonces estudiantes de la Universidad de Artes Utrecht (University of Arts Utrecht), desarrollaron un concepto de proyector facial colocado por encima de la cabeza, el cual proyecta una imagen superpuesta de un rostro sobre nuestra cara para evadir los sistemas de reconocimiento. Debo admitir que este proyecto es perturbador ya que sí somos sensibles al valle inquietante.

Jip Van Leeuwenstein también estudiante de la HKU (como lo fue Jing-Cai Liu) diseñó una máscara transparente con patrones curvos en la parte interna; esto tiene como objetivo el desdibujar el rostro de la persona que la utiliza y de esta manera sortear el reconocimiento facial, mientras que la transparencia de la máscara permite continuar interactuando con personas, sin perder nuestra personalidad detrás de una barrera facial. Pero estos ejemplos no son los únicos de personas o estudiantes que buscan combatir las cámaras, otros tantos han experimentado con maquillaje, piedras de fantasía adornando el rostro, máscaras de tela con patrones de caras impresos en ellas y cualquier otro aditamento que cubra el rostro.

Cada vez iremos viendo la IA más presente en nuestra cotidianidad. Pero al ser una herramienta relativamente nueva aún es muy pronto para delegarle tareas demasiado complejas, de momento lo mejor que se puede hacer es utilizarlo como una herramienta más allá de verlo como una solución. La inteligencia artificial, a pesar de que pueda sorprendernos por la forma y rapidez que tiene para procesar información y darnos un “razonamiento”, se encuentra lejos de ser una inteligencia mínima a la humana, por lo que dejarle la distribución económica y la vigilancia policial llevará sin duda a cometer abusos, porque son pocas las personas que dentro de estos ámbitos harán un trabajo de revisión de información para evitar irregularidades.

Por otra parte, la humanidad siempre buscará formas de saltar filtros o evitar los problemas a las libertades personales que la tecnología trae consigo, ya sea con prendas, maquillaje, mediante el hackeo o cualquier otro medio, siempre habrá un contrapeso y es de igual manera es necesario mantener una postura crítica en cuanto a la aplicación de las IA para evitar ser afectados en nuestro día a día por ellas. Por lo pronto solo nos queda seguir el rastro de la evolución de las mismas y no dejar todo en sus manos, la inteligencia humana hasta la fecha no cuenta con competencia en la naturaleza (por gracia o por desgracia).

 


 

Fuentes:

Categorías:
Cyberpunk

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *