El Servicio de Inmigración y Control de Aduanas de EE. UU. (ICE) ha comenzado a utilizar un software de inteligencia artificial que reconoce rostros de migrantes mediante imágenes públicas de redes sociales. La empresa que proporciona esta tecnología es Clearview AI, cuyo contrato con ICE supera los 9 millones de dólares.
Originalmente, ICE adquirió esta herramienta para investigar ataques a sus agentes y casos de explotación infantil, pero recientemente amplió su uso para búsquedas más generales. El sistema compara fotos candidatas con enormes bases de datos recolectadas en redes sociales y otras páginas públicas.
Clearview AI ha sido objeto de controversias en varios países. Reguladores europeos y británicos lo multaron por recolectar imágenes sin consentimiento. ICE, por su parte, sostiene que las imágenes se recopilan legalmente, pero defensores de derechos humanos advierten que esto genera riesgos grandes para personas migrantes que podrían ser identificadas incorrectamente o usadas para detenciones arbitrarias.
Expertos señalan varios peligros reales: errores de reconocimiento facial, imágenes antiguas o de mala calidad, perfiles falsos o robados, y uso indebido de esta información. Además, muchas personas migrantes no tienen acceso a representación legal que les permita cuestionar identificaciones erróneas o cómo se alcanzó dicha identificación.
Organizaciones defensoras también advierten que esta tecnología podría aumentar el temor entre comunidades migrantes, hacer que eviten servicios públicos o incluso no salir de sus hogares, lo que puede agravar su aislamiento y vulnerabilidad. Éstas piden claridad sobre los protocolos, supervisión independiente y límites legales al uso de reconocimiento facial.