2 min
Càmera de seguridad al exterior de un inmueble en Barcelona durante la pandemia.

Los adelantos tecnológicos en el campo de la vigilancia de personas, y la carencia de control con el que se implementan, ya hace tiempo que preocupan a los expertos. Pero ha sido a raíz de la pandemia que se ha detectado un aumento en el uso de estas tecnologías, tanto por parte de los estados como de los privados. Así lo recoge un informe, publicado por el Observatorio de Derechos Humanos y Empresas en el Mediterráneo, el European Network of Corporate Observatories, el Multinationals Observatory y la cooperativa Shoal, y que es parte de un conjunto de estudios que analizan la situación de otros países, como por ejemplo Francia o Gran Bretaña.

En el caso español se citan casos como el uso de drones por parte de la policía para hacer tareas de vigilancia, el aumento exponencial de la instalación de cámaras de seguridad (sobre todo en el centro de Madrid) y la compra por parte de empresas privadas, como por ejemplo supermercados, de programas de reconocimiento facial capaces de reconocer el rostro de ladrones fichados incluso con mascarilla. También se cita el caso de espionaje que sufrió en su móvil el expresidente del Parlament Roger Torrent con el programa Pegasus, diseñado por una firma israelí.

Este caso concreto es un delito flagrante, pero en otros no es tan evidente porque no hay una normativa clara. No se sabe, por ejemplo, qué se hace con las grabaciones de los drones de la policía. Es imprescindible encontrar un equilibrio entre la seguridad, que es un valor importante, y el derecho a la intimidad y a no ser grabado sin permiso. Cada vez más las grandes ciudades corren el riesgo de convertirse en una especie de platós donde toda nuestra vida quedará, desde el momento en que salimos de casa, grabada. Y no estamos hablando de los datos que ofrecemos de forma más o menos voluntaria a las grandes compañías de redes sociales (Facebook, Google, etc), sino de nuestra propia imagen.

Donde sí que hay más dudas es en el uso de tecnologías, a través de algoritmos, que juegan a anticipar el comportamiento de personas. Se sabe que hay empresas que vienen programas que, por ejemplo, avisan a la policía cuando detectan una persona que tiene un aspecto determinado o hace movimientos que se pueden interpretar como hostiles. Imaginemos el caso de un local donde se han producido dos robos con la coincidencia de que los dos ladrones iban vestidos de rojo. Pues existe el peligro, porque los algoritmos de la inteligencia artificial funcionan así, que la alarma se dispare cada vez que entre una persona vestida de este color. Y ahora imaginemos que a esto se le añade el perfil étnico. El riesgo de vincular perfiles étnicos con delincuencia convertiría en sospechosos a millones de inocentes de la noche a la mañana.

Como sociedad necesitamos abrir un debate sobre los límites que hay que poner a estos dispositivos que ya hacen posible, por ejemplo en China, la distopía de Gran Hermano imaginada por George Orwell: un estado todopoderoso que lo sabe todo de nosotros porque aplica la técnica del reconocimiento facial a gran escala. La Unión Europea se tiene que convertir en un fortín de los derechos individuales y poner límites a estas prácticas.

stats