Saltar al contenido

Investigadores crean máquina que puede decir si alguien es un criminal

investigadores-crean-maquina-que-puede-decir-si-alguien-es-un-criminal-condenado
Investigadores crean máquina que puede decir si alguien es un criminal
Califica esta publicación

Investigadores crean máquina que puede decir si eres un criminal

Los investigadores han creado una máquina que puede decir si alguien es un criminal condenado simplemente de sus rasgos faciales.

La inteligencia artificial, creada en la Universidad de Shanghái Jiao Tong, fue capaz de identificar al criminal correcto de una serie de 186 fotos, nueve de cada 10 veces mediante la evaluación de sus ojos, nariz y boca.

Sería muy polémico, que se utilize, pero da lugar a temores de que China podría añadir dicha información a su capacidad de supervisión, y que ya incluye un dossier sobre el dang’an llamado casi todos. Los archivos que han sido recogidos desde la época de Mao, contiene información personal y confidencial como registros médicos y de informes de la escuela.

Como parte de la investigación, Xiaolin Wu y Zhang Xi entrenan la inteligencia artificial alrededor 1670 imágenes de hombres chinos, de los cuales la mitad eran criminales convictos. Las imágenes analizadas fueron tomadas de tarjetas de identificación, donde los hombres, entre 18 y 55 años, se afeitó y mantener postura neutral.

Después de haber enseñado en el sistema, Wu Xiang alimentó 186 imágenes adicionales y lo pidió para clasificar a los criminales y no criminales.Investigadores

La veracidad de su conjetura, que se basa en funciones, se conecta con la delincuencia, llevó a los investigadores que afirman que “a pesar de las controversias históricas”, personas que han cometido un delito tiene ciertas características faciales únicas.

Rostros de ciudadanos respetuosos de la ley tiene un mayor grado de similitud en relación con las caras de los criminales o delincuentes tienen un mayor grado de diversidad en la apariencia facial que gente normal,” dijo Wu y Xiang.

Más investigación es necesaria para cubrir las diferentes razas, géneros y expresiones faciales antes de que la herramienta pudiera implementarse ampliamente.

Los investigadores pueden Agregar al aparato de seguridad de China, que ya incluye basada en AI “predictivo policing”.

Este año, Beijing empleó la China Electronics Technology Group, contratista de defensa más grande de la nación, para crear una inteligencia artificial que puede analizar el comportamiento de las personas en las imágenes de CCTV para las muestras que están a punto de cometer un delito terrorista. investigadores

Cuando haya terminado los investigadores, el sistema se utilizará para predecir ‘eventos de seguridad’ para que la policía o las fuerzas armadas pueden desplegarse por adelantado.

Los Derechos digitales expertos advirtieron que utilizar AI de esta forma puede ser peligroso y “llegar a conclusiones generalizadas de esas poses de datos pequeños grandes problemas a personas inocentes”.

Dr. Richard Tynan, tecnólogo en Privacy International, dijo: “esto no es diferente de la de la craneometría 1800-siglo, que ha sido desacreditado, de hecho el problema va mucho más profundo, ya que es imposible saber por qué una máquina ha hecho una cierta decisión. Acerca de usted. investigadores

Muestra los contextos arbitrarios y absurdos como algoritmos, AI, y el aprender de máquina se puede encontrar en pequeños conjuntos de datos. Esto no es culpa de estas tecnologías sino más bien el peligro de la aplicación de sistemas complejos en contextos inadecuados.

Funtes