Y si la próxima oración decide que nuestro futuro escribe el programa tan complejo que incluso sus creadores saben cómo explicar lo razonable.
La ley siempre se volvió de la mano con la tecnología. Se han posibles muchos hitos legales debido a las marcas de giro tecnológicas previas: la escritura es posible para un anuncio normalmente posible; Imprimir presione Multiplicar el acceso a fuentes legales; La informatación y la digitalización marcaron a los profesionales legales desde finales del siglo pasado. Incluso hoy, la inteligencia artificial, especialmente los modelos de idiomas grandes, se sientan en el escenario.
Este nuevo "asociado" es poderoso: resume mil láminas en segundos e identifica las formas de decisión en la legislación, a la jurisprudencia y la doctrina con celo y velocidad excepcionales. También puede ver las pruebas; Por ejemplo, tomas de testimonio, encontrar tonos que pasan desapercibidos por el humano.
Pero su entrada a la sala de observación no es inofensiva.
Jurisdicción, junto con la legislación, cuerpos vitales de la ley. Su legitimidad se basa en resolver casos especiales sobre una base exclusiva de normas legales (normas preestimadas). "El juez es la boca que suaviza la ley de las palabras; seres no vivos que no pueden moderar la fuerza o el rigor de la ley", escribió Montescui en 1748. Años en su obra del espíritu de la ley.
Subjetividad humana inevitable
A pesar del ideal de un juez neutral, el juez real inevitablemente sufre de subjetividad. Aquí no hablamos ni politizamos la justicia, mucho menos refuerzos. Sin embargo, virtuoso interpretará la realidad legal de sus esquemas cognitivos.
Los abogados, teóricos y prácticos, han luchado para preservar el principio de legalidad, es decir, proteger la imparcialidad e independencia de los jueces. Aunque este objetivo es inalcanzable en el cien por ciento debido a la subjetividad humana notable.
Por lo tanto, es paradójico que ahora pueda acercarse al hecho de que el "alto riesgo" califica como un "alto riesgo" en cualquier sistema de interpretación de los hechos o normas (de acuerdo con el artículo 6 del reglamento para interpretar los hechos o normas).
El mensaje es irresistible: la tecnología puede asistir, nunca reemplazar la decisión de los jueces humanos.
Sistemas de alto riesgo
AI también crea entusiasmo y preocupaciones y dudas. Ya en 2014, el filósofo sueco Nick Bostrom enfatizó que la automatización del aprendizaje, el aspecto clave en la IA, puede conducir a una "explosión explosiva".
"Artificial Supericaligelged" no solo incluiría nuevos esquemas de ideas incomprensibles para humanos, sino también algoritmos libres, excluidos de nuestros valores, para que las máquinas puedan dirigir el rendimiento general en objetivos absurdos o nocivos para la humanidad.
Sin la necesidad de criar escenarios duraderos o futuristas como Bostr, los riesgos presentes son tangibles. En cuanto a la jurisdicción de IA, los modelos, a menudo "alucinan", inventaron las resoluciones de los tribunales no no distintos. También funcionan como "cajas negras", sin trazabilidad o explicando sus respuestas. Y comunicarse con ellos sin el rastro de comportamiento legal, problemas introducidos, aplicando el procesamiento del lenguaje natural, que tuvo lugar.
Además, heredan el sesgo ideológico de los datos que están capacitados. Es decir, hacen sus respuestas basadas en el aprendizaje de habitaciones o formas infundadas en relación con la raza, el género, las tendencias sexuales, la capacidad de compra, el nivel de endeudamiento, etc.
Junto con los problemas que suponen estos sesgos, el sesgo estadístico es consultar, comprender la prevalencia de datos que estadísticamente tienen más peso. En cuanto a la ley, puede ser algún tipo de "clonación" de la última justicia, congelando la evolución en la interpretación de las normas.
Última palabra para un juez
¿Solución? Diseño consciente y responsable de tales problemas y supervisión humana. Por lo tanto, un marco de trabajo pluridisciplinario es esencial, una estrecha cooperación entre expertos y sistemas y expertos en derechos.
Las regulaciones de IA requieren documentación técnica integral, sesgo y la posibilidad de recreación de cada paso del razonamiento legal algorítmico. Carta de la Comisión Europea de Eficiencia en Justicia (Cepej), o XXIV Opinion de la Comisión Ibero-Americana para la Ética de la Justicia, si la palabra crítica generada por el sistema automático debe criticar la última palabra y carga de motivar su decisión.
Nada de esto significa demonizar la tecnología. Bien manejado, el servicio de inteligencia artificial es el tiempo, por lo que es necesario para la protección judicial que será realmente efectivo. Pero si se lleva a cabo sin medidas de protección, una promesa de eficiencia puede mutar en la justicia "mecánica" algorítmica en los peores sentidos, porque no porque sería objetivo, sino accidental y opaco al elegir las reglas aplicadas.
El cerebro sintético que nunca debe tener un juez más deseable de la carne y la sangre, con la experiencia de la complejidad de la práctica legal. En cambio, el juez también debe ser un experto en derecho y en el algoritmo que lo ayuda a aplicarlo.
0 Comentarios