La Policía Metropolitana de Londres está considerando el uso de inteligencia artificial (IA) para ayudar a identificar a las víctimas de abuso sexual infantil en línea y categorizar imágenes según su gravedad. La Met investigó más de 5,400 delitos de abuso sexual infantil en el último año, con más de 1,300 niños que requerían protección.
La fuerza policial cree que la IA podría ayudar a identificar potenciales nuevas víctimas más rápidamente y reducir el tiempo entre la intervención. El Comisionado Adjunto Matt Jukes afirmó que esto podría "reducir significativamente la cantidad de tiempo que los oficiales y el personal están expuestos al material más angustiante", añadiendo que "el juicio humano, una supervisión sólida y el cuidado de las víctimas siguen siendo el corazón de cada investigación".
Las investigaciones sobre casos de abuso y explotación sexual infantil en línea están aumentando año tras año, y actualmente la Met gestiona más del 12% de los casos a nivel nacional. Actualmente, los oficiales revisan manualmente el material de abuso sexual infantil para vincular a las víctimas con casos conocidos o identificar a víctimas desconocidas que necesitan protección. El contenido se clasifica según su gravedad en categorías A, B y C.
La fuerza está en conversaciones con empresas tecnológicas sobre cómo las herramientas de IA podrían ayudar en este proceso de identificación sin someter al personal al contenido gráfico. Esto se suma a la consideración de otra tecnología que permitiría a los oficiales revisar y evaluar el riesgo de 641,000 mensajes en aproximadamente 35 minutos.
La Met añadió que cualquier uso de IA operaría dentro de "estrictos marcos legales, éticos y de protección", con oficiales especializados "reteniendo la responsabilidad de la toma de decisiones". Sin embargo, el uso de IA en la policía ha atraído controversia en el pasado, especialmente en relación con el reconocimiento facial en vivo.
La fuerza enfrenta un desafío en el Tribunal Superior por parte de activistas que afirman que la tecnología escanea rostros en espacios públicos sin suficientes salvaguardias y corre el riesgo de un uso injusto o discriminatorio. Mientras la Met la describe como una herramienta para ayudar a combatir el crimen, los grupos han argumentado que plantea serias preocupaciones sobre la privacidad y carece de regulación clara.
Los planes futuros de IA vienen acompañados de una inversión de £10 millones en suites de Entrevista Visual Grabada (VRI) dedicadas para víctimas. La Met describe estas como "espacios que reducirán el trauma y mejorarán los resultados para las víctimas infantiles". Se han seleccionado un total de 23 ubicaciones de suites VRI para renovación, incluyendo estaciones con alta demanda como Brixton, Holborn y Bethnal Green. Seis sitios ya están completos, siendo la estación de policía de Plumstead elegida como piloto.
La Comisionada de Víctimas de Londres, Andrea Simon, dijo: "Las suites de evidencia renovadas que están diseñadas en torno a las necesidades de las víctimas vulnerables y los niños son un paso importante hacia adelante. Sin embargo, mejorar las instalaciones es solo una parte del cuadro. Muchos víctimas se retiran del proceso de justicia antes de que se tome una decisión de acusación, y para abordar esto es fundamental que las víctimas sean tratadas con cuidado, dignidad y apoyo en cada interacción con la policía."
¿Cómo puede la inteligencia artificial transformar la forma en que se manejan los casos de abuso infantil en línea sin comprometer la ética y la privacidad?
.
.
.
RESUMEN BASADO EN EL ARTÍCULO PUBLICADO EN BBC EL hace 59 minutos. Leer original
https://www.bbc.com/news/articles/c86evlqxl02o