, a continuación, llamar a la policía humana. Puede que los robots policiales no sean capaces de herir a las personas como los drones depredadores armados que se utilizan en combate, pero, como demuestra la historia, llamar a la policía puede resultar igualmente mortal.
Mucho antes de la película de 1987 Robocop, incluso antes de que Karel Čapek inventara la palabra robot en 1920, la policía ha tratado de encontrar formas de estar en todas partes a la vez. Las cámaras de seguridad generalizadas son una solución, pero ni siquiera una manta de cámaras de CCTV podría seguir a un sospechoso en cada rincón del espacio público. Así, la visión de un robot policial siguió siendo un sueño, hasta ahora. Tanto si se parecen a los Boston Dynamics como a los de Knightscope, los robots están llegando a una calle, un centro comercial o una tienda de comestibles cerca de ti.
Puede que la amenaza orwelliana de los robots fisgones no sea inmediatamente evidente. Los robots son divertidos. . Puedes con ellos. Esto es por diseño. Tanto los departamentos de policía como las empresas que venden estos robots saben que su mayor contribución no es sólo la vigilancia, sino también la buena voluntad. En
Pero en esta época en la que se está debatiendo desde hace tiempo el papel de la policía en nuestra sociedad -y en la que una ciudad está reclamando la privacidad restringiendo las tecnologías de vigilancia policial- estos robots no son más que una forma más lúdica de normalizar el panóptico de nuestras vidas.
Los robots de la policía son de vigilancia
Los robots de Knightscope necesitan cámaras para navegar y atravesar el terreno, pero eso no es lo único que hacen sus sensores. Según la propuesta que el departamento de policía de Huntington Park (California) envió al alcalde y al consejo municipal, estos robots están equipados con numerosas cámaras infrarrojas capaces de leer las matrículas. También cuentan con tecnología inalámbrica "capaz de identificar los smartphones dentro de su alcance hasta las direcciones MAC e IP".
La próxima vez que estés en una protesta y te sientas aliviado al ver un robot en lugar de un agente con bastón, debes saber que ese robot puede estar utilizando la dirección IP de tu teléfono para identificar tu participación. Esto hace que los manifestantes sean vulnerables a las represalias de la policía y, por lo tanto, enfría el futuro ejercicio de los derechos constitucionales. "Cuando un dispositivo que emite una señal Wi-Fi pasa dentro de un radio de casi 500 pies de un robot", explica la empresa en su blog, se captura la inteligencia procesable de ese dispositivo, incluyendo información como: dónde, cuándo, la distancia entre el robot y el dispositivo, la duración del dispositivo en la zona y cuántas otras veces fue detectado en el lugar recientemente".
En la primavera de 2019, la compañía también anunció que estaba para que los robots fueran capaces de "detectar, analizar y comparar rostros." La EFF lleva tiempo la prohibición total del uso policial de la tecnología de reconocimiento facial.
¿A quién se reprende cuando un robot de policía toma una mala decisión?
Los materiales de marketing de Knightscope y los los medios de comunicación sugieren que la tecnología puede reconocer eficazmente paquetes, vehículos y personas "sospechosos".
Pero cuando un robot escanea una multitud en busca de alguien o algo sospechoso, ¿qué busca realmente? No está claro qué quiere decir la empresa. La decisión de calificar ciertas acciones y atributos como "sospechosos" tiene que ser tomada por alguien. Si los robots están diseñados para pensar que las personas encapuchadas son sospechosas, pueden dirigirse a los jóvenes de color. Si los robots están programados para centrarse en personas que se mueven rápidamente, pueden acosar a un corredor o a un peatón en un día lluvioso. Si la máquina ha sido supuestamente problema es aún mayor. El racismo en el sistema de justicia penal prácticamente ha garantizado que cualquier programa de aprendizaje automático al que se le enseñe a ver "delincuentes" basándose en los datos de la delincuencia, inevitablemente verá a .
El aprendizaje automático de un robot y la supuesta detección de comportamientos sospechosos llevarán a la elaboración de perfiles raciales y otros acosos infundados. Esto nos lleva a preguntarnos: ¿A quién se reprende si un robot acosa indebidamente a una persona inocente o llama a la policía? ¿El robot? ¿Las personas que entrenan o mantienen el robot? Cuando se desata la violencia del Estado sobre una persona porque un robot la ha señalado falsamente como sospechosa, "cambiar la programación" del robot y enviarlo de nuevo a la calle será poco consuelo para una víctima que espera que no vuelva a ocurrir. Y cuando los errores de programación causen daños, ¿quién revisará los cambios para asegurarse de que pueden solucionar el verdadero problema?"