El informe minoritario de 2002. Año "mostró una unidad de policía especializada para arrestar a los crímenes todavía. Dick, el drama giró en torno a" precrima ", el sistema que informó al trío que colgaba, o" impedía "que predijeron los futuros asesinatos, permitiendo que los oficiales de policía intervinieran y eviten que los oficiales de policía intervinieran y eviten a los oficiales de policía que los oficiales de policía que hicieron y evitan que los oficiales de policía atacaron y eviten que hubo atacantes.
Probaciones de películas sobre cuestiones éticas hefti: ¿Cómo puede alguien ser culpable del crimen que aún no se ha cometido? ¿Y qué sucede cuando el sistema está mal?
Aunque no hay "antepasados para" los "componentes clave del futuro", el informe minoritario "se ha convertido en una realidad aún más rápido de lo que imaginó a sus creadores. Durante más de una década, los departamentos de policía de todo el mundo han usado sistemas impulsados por predecir cuándo y dónde pueden ocurrir crímenes y quién podría comprometerlos.
Lejos del diseño abstracto o futurista, la policía predictiva es la realidad. Y los analistas de mercado predicen el auge de la tecnología.
Dados los desafíos de usar maquinaria predictiva eficiente y justa, la policía de trabajo predictivo establece una atención ética significativa. En ausencia de reparaciones tecnológicas en el horizonte, hay acceso a resolver estos problemas: tratar contra la tecnología del uso del gobierno como una cuestión de responsabilidad democrática.
Historia preocupante
La predicción de la policía se basa en la inteligencia artificial y el análisis de datos para predecir una actividad criminal potencial antes de que ocurra. Puede incluir análisis de datos a gran escala de delincuentes, registros de arresto e información social o geográfica para identificar patrones y pronósticos donde pueden ocurrir delitos o los delitos o delitos delicados.
Las agencias de aplicación de la ley utilizaron análisis de datos para seguir tendencias amplias durante más décadas. Sin embargo, la poderosa tecnología de IA de hoy en día requiere grandes cantidades de supervisión y un informe sobre Crimin para proporcionar un análisis muy finamente de granos.
Los departamentos de policía utilizan estas técnicas para ayudar a determinar dónde deben concentrar sus recursos. La predicción basada en un lugar se centra en identificar ubicaciones de alto riesgo, conocidas como puntos de acceso, donde es más probable que ocurran crímenes. Una ventaja basada en caras, opuestas, intentos de marcar a las personas que se consideran de alto riesgo para comprometerse o convertirse en víctimas de delitos.
Estos tipos de sistemas están sujetos a preocupaciones significativas del público. En el llamado distrito de servicio de inteligencia "guiado", el Departamento de Personas del Sheriff que probablemente ha considerado los delitos, incluidos los menores, estaban sujetos a visitas aleatorias de agentes de policía y es como perder el número de buzones y el césped exagerado.
Las demandas obligaron a la Oficina del Sheriff del condado de Pasco, Florida, a poner fin a su problemático programa de predicción.
Cuatro residentes demandaron al condado de 2021. años, y el año pasado llegaron a un acuerdo en el que la Oficina del Sheriff reconoció que ella ha violado los derechos constitucionales de los habitantes de la privacidad y la igualdad de trato según la ley. El programa ha sido interrumpido desde entonces.
Esto no es solo un problema con Floridas. En 2020. Años, Chicago detuvo su "lista de casos estratégicos", y el sistema en el que la policía usó un análisis para predecir que probablemente dieron nuevos crímenes o se convirtieron en víctimas de futuros tiros. 2021. El Departamento de Policía de Los Ángeles detuvo su uso de Presol, un programa de software diseñado para pronosticar puntos calientes del crimen, pero fue criticado por la baja precisión y las tasas de fortalecimiento de sesgos raciales y socioeconómicos.
¿Innovación necesaria o reinversión peligrosa?
El fracaso de estos programas altos enfatiza las tensiones críticas: aunque las agencias de seguridad pública a menudo están comprometidas con herramientas de seguridad pública, grupos de protección civil y han recopilado preocupaciones sobre las violaciones de la privacidad y la falta de privacidad y la falta de transparencia. Y a pesar de estos altos jubilados de la policía predictiva, muchos departamentos de policía más pequeños usan tecnología.
La mayoría de los departamentos de policía estadounidenses carecen de políticas claras sobre la adopción de decisiones algorítmicas y para no publicar formas en que los modelos predictivos utilizados por desarrollados, capacitados o seguidos para su precisión o sesgo. El análisis para las instituciones de broteging descubrió que en muchas ciudades del autogobierno local no tenía documentación pública sobre cómo funcionaba el software de policía predictivo, qué datos se utilizaron o cómo se evaluaron los resultados.
El trabajo policial predictivo puede profundizar el sesgo racial.
Esta opacidad es lo que se conoce en la industria como una "caja negra". Previene la supervisión independiente y plantea serias preguntas sobre las estructuras que rodean la IA de toma de decisiones. Si el ciudadano está marcado como un alto riesgo de algoritmo, ¿qué regresos tienen? ¿Quién supervisa la justicia de estos sistemas? ¿Qué están disponibles los mecanismos de monitoreo independientes?
Estos problemas se llevan a cabo en comunidades en comunidades sobre si la policía predictiva debe reformarse como un método, estrechamente regulado o abandonado. Algunos ven estas herramientas como necesarias innovaciones, mientras que otras las ven como una transmisión peligrosa.
Una mejor manera en San José
Pero hay evidencia de que las herramientas se proponen en los valores democráticos debido, la transparencia y la responsabilidad pueden proporcionar una alternativa más fuerte a los sistemas policiales predictivos de hoy. ¿Qué pasaría si el público pudiera entender cómo funcionan estos algoritmos, qué datos dependiendo y qué protección hay para evitar resultados discriminatorios y abuso de tecnología?
La ciudad de San José, California, comenzó un proceso destinado a aumentar la transparencia y la responsabilidad en torno a su uso y sistema. San José mantiene un conjunto y principios que requieren que las herramientas de IA utilizadas por los gobiernos de la ciudad usen, el público transparente y más justo en sus influencias en la vida de las personas. Los departamentos de la ciudad también están obligados a evaluar los riesgos de los sistemas de IA antes de integrarlos en su negocio.
Si se toman adecuadamente, estas medidas pueden abrirse de manera efectiva mediante una caja negra, reduciendo drásticamente el grado en que las empresas pueden ocultar su código o sus datos detrás de cosas como la protección para la protección de importancia. Habilitar datos de revisión pública puede revelar problemas como el sesgo racial o económico, que se puede aliviar, pero son extremadamente difíciles, si no imposibles, de erradicar.
La investigación ha demostrado que cuando los ciudadanos sienten que las instituciones gubernamentales se comportan de manera justa y transparente, es más probable que involucren en la vida civil y apoyen las políticas públicas. Las agencias de aplicación de la ley probablemente tendrán resultados más fuertes si tratan la tecnología como una herramienta, no un reemplazo, por la justicia.
0 Comentarios