Friday, November 22

¿Cómo usan la Inteligencia Artificial en protestas?

Ante medidas inconstitucionales que limitan el derecho de protesta, surge la preocupación sobre cómo las fuerzas policiales podrían utilizar la Inteligencia Artificial (IA) para identificar manifestantes y afectar sus derechos, especialmente en relación con planes sociales. A nivel mundial, el uso del Reconocimiento Facial (RF) plantea riesgos, como demostraron los manifestantes en Hong Kong que se enfrentaron a drones y el estudio del NIST en 2020 que reveló la capacidad de la IA para reconocer rostros parcialmente tapados.

En Estados Unidos, la investigación sobre el movimiento #BLM evidenció el uso de sistemas de IA por parte de la policía, incluyendo a proveedores como ClearviewAI, cuestionada por su recopilación de datos. Sin embargo, el RF no es infalible, como lo demostró el incidente en el que el sistema Rekognition de Amazon identificó erróneamente a congresistas.

Los sesgos en los datos de entrenamiento afectan desproporcionadamente a personas de piel no blanca, generando falsos positivos. La resistencia a la identificación se ha manifestado mediante tácticas como el maquillaje adversarial y el uso de stickers para confundir a los sistemas de reconocimiento facial. Es esencial comprender las limitaciones de estas tecnologías y abogar por la defensa constitucional en este panorama.

Leave a Reply

Your email address will not be published. Required fields are marked *