Como si Steven Spielberg hubiese escrito el guion, el Reino Unido avanza con un sistema basado en inteligencia artificial que promete anticipar quién podría convertirse en asesino. Aunque suena a ciencia ficción, el plan es real y ya está en marcha: se trata de un proyecto que analiza datos personales y antecedentes para evaluar riesgos de homicidio antes de que se cometa un crimen.

🎥 El paralelismo con Minority Report es inevitable. En la película de 2002 protagonizada por Tom Cruise, una unidad especial detenía a los delincuentes antes de que cometieran el crimen. En la vida real, la tecnología detrás de esta idea se llama ahora “Intercambio de datos para mejorar la evaluación de riesgos”, un nombre menos cinematográfico, pero igual de inquietante.
🧠 Esta iniciativa está siendo desarrollada por el Ministerio de Justicia británico, en colaboración con la Policía Metropolitana de Londres, la Policía de Manchester y el Ministerio del Interior. El sistema analiza información extremadamente sensible: salud mental, historial de autolesiones, adicciones, antecedentes penales, e incluso datos de víctimas, testigos y personas desaparecidas.
📊 Según la filtración de la organización Statewatch, entre 100.000 y 500.000 personas podrían estar siendo escaneadas por esta herramienta predictiva. El objetivo, según el Ministerio, es encontrar “indicadores más potentes del riesgo de cometer homicidios”.
⚖️ Pero el debate no tardó en estallar. Para muchos defensores de los derechos humanos, este sistema es una distopía en tiempo real. Sofía Lyall, investigadora de Statewatch, advirtió que se está perfilando a las personas como potenciales asesinos sin que hayan hecho nada, usando datos profundamente intrusivos.

🚨 “Los algoritmos para predecir delitos son inherentemente defectuosos”, alertó Lyall. “Replican y amplifican prejuicios estructurales, afectando sobre todo a comunidades minoritarias o vulnerables. En lugar de proteger, estigmatizan”.
📉 De hecho, estudios previos mostraron que modelos similares fallaron al identificar con precisión a personas de etnia negra, marcándolas con mayor frecuencia como potenciales criminales frente a blancos con el mismo perfil.
🤔 El dilema es grande: ¿puede una sociedad democrática justificar el uso preventivo de datos para anticiparse a delitos? ¿O se trata, como denuncian algunos, de una forma encubierta de vigilancia masiva y discriminación?
📌 ¿Sabías esto? En Estados Unidos, entre 2011 y 2016, un software llamado COMPAS fue utilizado para predecir reincidencias delictivas, y se descubrió que clasificaba injustamente a personas negras con el doble de probabilidad de reincidir en comparación con personas blancas con antecedentes similares ⚖️🤯.