Clearview identifica a víctimas de abuso infantil - Niixer

Clearview identifica a víctimas de abuso infantil

El uso de la aplicación

Agencias de seguridad de Estados Unidos y Canadá están usando Clearview AI.

Una empresa que usa tecnología de reconocimiento facial a partir de una base de datos de 3.000 millones de imágenes.

Clearview es un poderoso incentivo para usar la tecnología, pero genera nuevas preguntas sobre la precisión de esa herramienta y el manejo de los datos que hace la compañía, las herramientas de Clearview les permiten saber los nombres o el paradero de menores que aparecen en videos o fotos de explotación sexual y que tal vez no habrían sido identificados.

En un caso en Indiana, los detectives pasaron imágenes de 21 víctimas del mismo delincuente por la aplicación de Clearview y recibieron catorce identidades.

Uno de los responsables de la identificación de víctimas en Canadá, describió la tecnología de Clearview como “el avance más importante en la última década” en los delitos de abuso sexual infantil.

Según defensores de la privacidad, no se ha probado ni regulado la base de datos de la empresa, la cual podría causar nuevos daños.

Reconocimiento facial
Alfiky, A. (2020). The New York Times. https://static01.nyt.com/images/2020/02/07/business/10ClearviewES-1/merlin_167287035_0c3ff0e2-b4b7-4c2b-a1a7-e5054b500409-superJumbo.jpg?quality=90&auto=webp

Riesgos que podría tener

Clearview promueve el uso que le dan las agencias de seguridad a su tecnología para resolver casos de abuso sexual infantil.

No obstante, hasta hace poco, la empresa se centraba en su participación para identificar a los perpetradores, no a las víctimas.

Sin embargo, los algoritmos de reconocimiento facial pueden ser deficientes en las personas jóvenes, ya que sus rostros cambian con la edad y también porque los niños a menudo no están incluidos en los archivos de datos que se usan para entrenar a los algoritmos.

Hay riesgos legales asociados con el manejo de este tipo de imágenes.

La empresa violaría la ley si recibe imágenes de abuso y no informa de inmediato a las autoridades y borra el material de sus servidores.

Ton-That señaló que la aplicación de Clearview solo transmite rostros, no imágenes completas.

Desde que salieron a la luz las prácticas de Clearview, compañías como Facebook, LinkedIn, Twitter, Venmo y YouTube han enviado cartas en las que le solicitan a la empresa dejar de tomar fotos de sus sitios y borrar las imágenes existentes de sus bases de datos

Recientemente, en Nueva York y Washington, se han presentado proyectos de ley que le prohíben el uso del reconocimiento facial a la policía.

Autor: Brandon Bello

Editor: Carlos Pinzón

Editor: Hisle Àngela Gutièrrez Garcìa

Codigo: UCP2-3

Leer mas artículos relacionados aquí.

Hill, K./JX Dance, G. (2020). Una aplicación de reconocimiento facial ha identificado a víctimas de abuso infantil. The New York Times. https://www.nytimes.com/es/2020/02/10/espanol/negocios/clearview-reconocimiento-facial.html 

Alexa_Fotos.(2016). Pixabay. https://pixabay.com/es/photos/ni%C3%B1o-abuso-el-miedo-parada-1152327/

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *