La película es de 2002. La realidad viene en 2006. Leo en Barrapunto una referencia a una investigación en la Universidad de Pennsylvania que, utilizando procedimientos de data mining masivo a partir de datos anónimos del registro criminalístico, es capaz de correlacionar una matriz de diferentes antecedentes con variables de un sujeto específico, para predecir así la tendencia a cometer un asesinato. El sistema permitiría deducir cuál de las personas en una base de datos de, por ejemplo, libertar condicional, tienen más posibilidades de convertirse en asesinos (lethality), lo que permitiría orientar los esfuerzos de supervisión.
El programa analiza variables de manera aislada que de por sí no tendrían porqué significar nada concluyente, pero que unidas a otras variables o antecedentes caracterizan de manera acusada una incidencia de crimen determinada. Por ejemplo, tener entre 18 y 30 años, ser hombre, haber cometido un delito grave con una edad temprana, etc. pueden ser variables que, de por sí, no indicarían necesariamente nada, pero que tomadas todas juntas caracterizan claramente un perfil determinado. Obviamente, no puede detenerse a nadie por ello, pero sí someterlo a un nivel de vigilancia superior si se cree que existe un riesgo serio de que se convierta en ese uno de cada cien sujetos sometidos a libertad condicional que acaba cometiendo un crimen.
El sistema tiene, evidentemente, unas implicaciones morales complejísimas, al atribuir a una persona un comportamiento antes de que lo realice basándose en elementos cuya valoración proviene del comportamiento de otros individuos diferentes en circunstancias igualmente diferentes. El procedimiento estadístico no deja lugar a dudas: asigna variables, mide su nivel de correlación y decide si mantenerlas o no en la función de predicción teniendo en cuenta lo que aportan al porcentaje de varianza explicada por cada una de ellas. Pero si bien el procedimiento estadístico no deja lugar a dudas, su aplicación sí puede generarlas de maneras muy claras.
Minority Report, tan sólo cuatro años después de haber sido estrenada, y en Philadelphia en lugar de en Washington D.C.
Buenas…
Como creo que es evidente la clase de comentarios que va a suscitar este post (fascismo, orden versus justicia, etc) voy a salirme un poquillo por la tangente; me preguntaré lo siguiente: este programa o método de predicción ¿incluirá el efecto que produce en los ciudadanos su propia existencia? Al no haber existido antes, ¿cómo va a realizar una deducción estadística acerca del peso que tiene sobre los ciudadanos, criminales o no, el conocimiento de que un programa así los evalúa y cuyos parámetros son, aproximadamente, conocidos por todos?
A mí lo que me llamó realmente la atención de Minority Report fue la adaptación de la publicidad al usuario. Cuando el protagonista andaba por las calles, diversos objetos le reconocían y adaptaban su publicidad a él. Otra aplicación de la Inteligencia Ambiental.
#Anonymous: el programa es anónimo, es decir, usa datos anónimos del registro de la policía, por tanto será algo saí como «varón, blanco, edad 21 años, cometió atraco a mano armada a los 19, etc. etc.» pero sin mención a «se llama John Smith». A partir de esos datos, la policia podrá decidir asignar una vigilancia especial a un tipo o lo que sea. Es el uso de la información el que se convierte en peligroso, no la generación de la información en sí, que se produce a partir de información pública…
#Jorge: a mí también me encanta esa secuencia de cuando entra en el metro… «John Anderton!! You could use a Guiness right about now!!»… De hecho, la uso en mis clases…
Respecto a la publicidad, puede ser que sea una realidad en unos años. Me gustó mucha la peli ya que hay que tener mucha imaginación para pensar algo asi.
Existe una empresa en españa que hace estudios de data mining masivo (MetaEmotion MetaEmotion) como los que utiliza esa universidad en estados unidos.
Técnicas muy interesantes…
Ops.. se fue el enlace.. el bueno MetaEmotion
Hola a todos, a mi el concepto de aplicar estimaciones estadísticas me parece algo totalmente reprobable.
Me recuerda cuando estudiaba en la Universidad el Análisis Coste Beneficio, y se discutía sobre el tema del valor que se le puede dar a una vida humana.
En ocasiones, en obras o dotaciones públicas el nivel de inversión determina de manera directa el número de victimas a evitar o provocar por dicha actuación. En estos casos, es preciso contrastar lo que implica ahorrar XX vidas contra el incremento en coste.
Se llegaba a la cínica conclusión de que de manera individual, el coste de una vida es infinito, y que solo se podrían hacer contrastes de este tipo utilizando el concepto de coste estadístico, es decir haciendo que el dato deje de circunscribirse a un individuo con ojos y boca.
Respecto al análisis de conducta en función de los datos estadísticos de muestras de secuencias de comportamientos, podría aceptarlo si se aplica a grupos o masas, pero no de manera individual, ya que sería admitir un nivel falta de autonomía y determinismo para mi inadmisible
Es una noticia revolucionaria, porque como todo el mundo sabe, hasta la llegada de este sistema, la policía no daba ningún valor a «variables de manera aislada que de por sí no tendrían porqué significar nada concluyente», como por ejemplo: hombre de 25 a 30 años; condenado por pederastia; sale de la cárcel a pesar del informe en contra de los psiquiatras; se instala en las inmediaciones de un colegio.
Y ahora, con esta máquina del diablo, esos malditos fascistas se dejarán llevar por su paranoia y todo tipo de Cosas Horribles nos sucederán a nosotros, Pobres Ciudadanos Indefensos.
el programa es anónimo, es decir, usa datos anónimos del registro de la policía, por tanto será algo así como «varón, blanco, edad 21 años, cometió atraco a mano armada a los 19, etc. etc.» pero sin mención a «se llama John Smith».
Parece una contradiccion en los terminos el anonimato de los datos y la pertinencia de la aplicacion de los mismos a un sujeto, por lo visto tambien anonimo, del cual se sabe, o debe saberse, que es varon, blanco, edad 21 años, cometio un atraco a mano a armada a los 19… y se ignore que se llama John Smith.
A lo pronto es obvio que lo que sea que «escanea» al tal John Smith conoce que le son atribuibles todos esos datos y que se trata de John Smith.
El que el perfil de peligrosidad haya sido extraido de una base de datos de la policia sin mencion o referencia de la identidad concreta de los sujetos a quienes aluden los datos en nada ayuda a la preservacion de la privacidad del tal John Smith.
Y bueno, excusatio non petitia pero obviamente necesaria:
A uno no le mueve preocupacion alguna por la privacidad de los John Smith varones, blancos y que a los 19 fueron condenados por asalto a mano a armada, pero sucede que, como siempre ha sucedido, los malos se benefician siempre de las cautelas y respeto que merecen los buenos.
En definitiva, el respeto y cautelas de que se benefician los malos es el necesario cuidado que hay que tener para no atropellar a los buenos.
¿A vosotros os ha parado alguna vez, o más de una, un policía por la calle y os ha pedido la documentación? ¿No? Entonces es que no sois negros, ni magrebís, ni paquistanís… pero, aunque rubios y con ojos azules, podríais ser igualmente extranjeros y no tener la documentación en regla. Aunque, claro, estadísticamente hablando, el policía de turno tiene más probabilidades de pillar a un inmigrante sin papeles si detiene al hombre de tez oscura.
Quizás de una forma menos sofisticada (y claramente poco eficiente, dado el alto porcentaje de delitos de «cuello blanco» que soportamos en este país) la policía lleva tiempo aplicando eso de vigilar a individuos con «altas probabilidades» de cometer delitos (o, por lo menos, eso creen). El problema es que los delitos que no se denuncian (¿os suena lo de la violencia doméstica?) o que no se persiguen (¿y pelotazo inmobiliario, os suena?) no generan estadísticas.
Los seres humanos somos geniales fabricando los infiernos que hemos sido capaces de imaginar previamente. Cuando los anuncios «hablen» a nuestro paso quizás ya no nos sintamos nunca más solos, ¿o si?
Bueno, a mi no me parece que sea algo tan descabellado ni que atente contra la libertad (si la protección de datos es efectiva claro), como se ha comentado antes seguro que la policía «discrimina» ciertas poblaciones como grupos de riesgo sin un estudio científico detrás (¿hay alguien que sepa qué tipo de datos personales se facilitan si vuelas por ejemplo a EEUU?).
Por otro lado, nadie se rasga moralmente las vestiduras cuando los bancos utilizan información personal en modelos estadísticos para determinar la calidad crediticia de un cliente y conceder, o no, un crédito.
Lo único nuevo son las tecnologías implicadas, por lo demás ese tipo de predicciones se vienen haciendo desde hace bastante tiempo (las unidades de análisis de datos son muy antiguas en los cuerpos policiales).
Esto ya lo hacían en Numbers también y era muy divertido, antes de que Antena 3 nos marease como audiencia, díselo, díselo a la Chica de la Tele.
En serio, creo que la Policía no es idiota y no le va a dar la espalda a nuevas técnicas de investigación. Mirad en CSI lo que hacen con unos epiteliales…
Me han salido dos series de TV en un momento.
Creo que si las empresas utilizan estas técnicas para mejorar su negocio también lo utilizarán otras como la Policía.
Muy divertido el artículo por tu capacidad para incluirlo en un contexto de cine.
Me parece un sistema tan aleatorio como el método de Lombroso, que también era estadístico según contaba.
Yo creo que quien elige para el estudio un juego de caracteres como, «varón, blanco, edad 21 años, cometió atraco a mano armada a los 19» aporta en la eleccion sus propios prejuicios y solo busca una confirmación estadistica a su pensamiento.
Otro investigador con otros prejuicios, habría elegido como partida los caracteres
«hijo de divorciados, hipertenso, no proimogénito, sin titulo de bachiller, delgado, dolicocefalo, extranjero etc, habria aplicado las estadísticas, apartado el par de conceptos que se apartan de la regla y ya esta, otro perfil de «potenial enemigo». Lo único que estaría es proyectando sus propios temores.
A mí no me parece tan escandaloso. Si utilizan nuestros datos personales para invadirnos con publicidad o para denegarnos o no un crédito, ¿por qué no usar esa información con un fin más noble, como evitar muertes violentas?
Nadie ve como un atropello que la vigilancia a futuros o presuntos violadores se haga con más celo entre los varones que entre las mujeres.
Esto se hace en la actualidad también con los asesinos, y por el mismo motivo: Es más probable que un varón cometa este tipo de delitos que una mujer.
La iniciativa en cuestión sólo trataría de perfeccionar los rudimentos de búsqueda que la policía ya usa en la actualidad.
Dicho esto, quiero hacer dos consideraciones:
1- Toda precaución es poca en temas tan resbaladizos.
2- Por muy fantásticas que sean nuestras fantasías sobre un futuro lejano, algunas de ellas siempre se adelantan, y vienen a nosotros atropelladamente. ¿Recuerdan la videollamada de Desafío Total?
La idea de la publicidad personalizada lleva siendo buscada por las marcas desde el principio de los tiempos (del marketing, se entiende). Las principales barreras siempre han sido las tecnológicas, pero gracias a Dios estas barreras caen cada vez más deprisa. Me parece que a la cabeza de Spielberg también en este terreno el mundo real le acabará ganando la carrera.
Un problema que se obvia en todo este tipo de análisis, es la cuestión temporal. La probabilidad de que un individuo vaya a cometer un delito hay que situarla en su cuarta dimensión, ya que si no no tiene sentido.
Un ejemplo, típico es la «probabilidad de morir». Esa probabilidad tiende asintóticamente a 1 a medida que nos hacemos más viejos.
Pos yo soy blanco, rubio pero no de ojos azules (casiiii!!!) y si me a parado la poli. Pero en Pamplona es normal que te paren, pasa a diario y no solo a negros o magrebies.
Yo sigo diciendo lo mismo, una persona es inocente mientras no se demuestre lo contrario, y no creo que una máquina pueda anticipar nada, que acertará muchas, indudablemente, no vivo en la utopia, pero que fallará muchas, también, y como va ha fallar, no quiero utilizarla en ese sentido. ¿porque no se utiliza en el ambito de la medicina por ejemplo y no en el control social?
como era el poema? primero vinieron a por los comunistas, pero como yo no lo era…
Google, Yahoo y Ask… pre-crimen ya existe
:)
Buenas, actualmente trabajo en minería de datos y conozco de alguna forma el funcionamiento de estos sistemas basados en la IA. Lo curioso de estos sistemas es que a diferencia de sistemas estadísticos y de ajustes lineales o de otro tipo, genera hipótesis y los resultados de muchos de estos estudios son «espeluznantes», en el sentido de la fiabilidad que tienen.
El concepto en el que están basado este tipo de sistemas (en el caso de las aplicaciones sociales) es el siguiente:
A partir de un conjunto de características relevantes del tema tratado, determinados grupos de personas con características parecidas actúan de igual forma.
Utilizando estas técnicas, en la universidad de Málaga creamos un sistema de clasificación de individuos agresores en casos de violencia de género con resultados cuando menos sorprendentes. Estos resultados tuvieron las mismas repercusiones, críticas y rechazo que el tema tratado, pero son resultados avalados por métodos matemáticos válidos y díficiles de asumir.
Podría seguir hablando de las consecuencias éticas de este tipo de técnicas, pero da para mucho, y para los amantes de las teorías de la conspiración os puedo advertir del control que ciertas multinacionales ejercen sobre nosotros a través de este tipo de técnicas, pondré un ejemplo únicamente:
Los supermercados, a través del pago por tarjeta de crédito o de técnicas tipo «Tarjeta Cliente», tienen listados de lo que comprais, consumís, etc…
Para ilustrar todo esto (y para concluir) pondré un ejemplo de un chiste corto:
Un borracho espera en la cola de un supermercado que era muy muy muy largaaa… una mujer comienza a decir al ver las compras de un hombre:
M:Tu estás casado y tienes un niño pequeño!
H1: Si, como lo has sabido ?
M: Porque has comprado pañales y compresas para tu mujer…
La mujer se dirige a otro hombre joven y le dice: Tu eres soltero
H2: Si, como lo has sabido ?
M: Mucha comida precocinada, pizzas, etc…
A todo esto el borracho se vuelve y le dice:
B: Pues tu eres soltera!
M: Como lo has sabido? Tras mirar su compra Jamon york, queso, yoguress…
y el borracho le contesta:
Porque eeeereeeeeeesss muuuuu feeeaaaaa! :D
Espero que este pequeño chiste os ilustre!, Saludos y perdón por la longitud del texto!
No estoy de acuerdo con el problema moral. Desde siempre ha habido intentos de predicción de la criminalidad y acciones ‘sociales para prevenir bla, bla’… En Minority Report el problema moral no era vigilar sino condenar sin crimen: el dilema moral es que si evito un crimen, ¿puedo condenar?
En lo que cuenta E. Dans no hay condena, sólo sospecha, lo cual es libre en nuestro sistema jurídico. La única diferencia es que se sospecha en función de un sofisticado análisis estadístico en lugar de pensar en el aspecto del sujeto.
Miedo me da a mi que esto pueda hacerser realidad, desde el momento que la tecnología sea tan capaz por para no ser importante el juicio de una persona para matarte, mandarte a la carcel o considerarte culpable de cualquier hecho. En la pelicula Dejavu que han estrenado hace poco no controlan en tiempo… pero pueden ver que paso hace 4 días en cualquier lugar y desde cualquier ángulo…. que miedo dan ciertas herramientas.
AP
Team Tactical Airsoft
www.team-tactical.net