Antes de encontrar computadoras e inteligencia artificial, los algoritmos ya han seguido nuestras vidas: por ejemplo, cuando seguimos la receta a la carta o cuando realizamos operaciones matemáticas manualmente. Los algoritmos consisten en la sucesión …
Antes de encontrar computadoras e inteligencia artificial, los algoritmos ya han seguido nuestras vidas: por ejemplo, cuando seguimos la receta a la carta o cuando realizamos operaciones matemáticas manualmente. Los algoritmos consisten en la sucesión de pasos buenos y establecidos que nos permiten convertir la contribución a la salida. Las computadoras modernas pueden ejecutarlas, según las instrucciones expresadas en la programación del lenguaje.
Desde el principio, los científicos informáticos estudiaron las propiedades de los algoritmos que producimos rigurosos y teóricamente, a menudo utilizando herramientas matemáticas. Por ejemplo: ¿Cuál es la eficiencia del algoritmo que ordena listas de números correctamente? ¿Cuánta memoria necesitas?
Con el tiempo y, especialmente, en los últimos años, los algoritmos son sofisticados, impulsados en dos razones principales. Por un lado, comenzamos a desarrollar sistemas que sean capaces de aprender directamente del ejemplo, sin programar explícitamente cada instrucción. En segundo lugar, logramos recopilar grandes cantidades de datos de capacitación, lo que a su vez mejoró su capacidad de generalización y precisión.
Este nivel de sofisticación ha llevado a la transición del paradigma en la relación entre los algoritmos y la sociedad. Hoy, en lugar de aplicarlos solo en objetos como cuadros o matrices (por ejemplo, para encontrar la distancia más corta entre dos ciudades en Google Maps), también los usamos para tomar las decisiones de las personas. Y no ningún tipo de decisión: en muchos casos, la inteligencia artificial puede cambiar nuestra vida; Por ejemplo, cuando se usa para decidir si contratar a alguien o sí para dar una hipoteca.
Su uso en los campos públicos también se ha intensificado, desde la educación hasta un sistema legal o tarea de recursos sociales. Del mismo modo, en algunos países se utilizan para advertir casos de violencia de género o decidir qué vecindarios requieren más vigilancia policial.
Decisiones sobre las personas
A medida que deleguamos una importante toma de decisiones (participación en el campo social, los sistemas algorithmithic, aparecieron la necesidad de nuevas propiedades fuera de las métricas "clásicas", como la eficiencia o el uso de la memoria. Por ejemplo, ¿el algoritmo representa una precisión más baja significativa en ciertos subgrupos de la población?
Estos sesgos también pueden fomentar patrones históricos discriminatorios en los datos utilizados para la capacitación modelo, así como la falta de criterios de optimización apropiados en el diseño de algoritmos, entre muchas otras razones.
Si usamos algoritmos sesgados, podemos automatizar las desigualdades existentes o excluir a las personas de ciertas opciones injustas. En el Reino Unido, por ejemplo, por ejemplo, el sistema de distribución para acceder a la universidad se ha retirado porque un estudiante es un alumno sistemático de menos recursos.
En España, se informan casos de algoritmos que causan el cierre incorrecto de las cuentas bancarias y las decisiones arbitrarias sobre la probabilidad de reincidencia en las cárceles.
En los Estados Unidos, los modelos de riesgo financiero utilizados por los resultados más bajos para las personas que viven en códigos postales específicos.
También necesitamos analizar cuán seguro es el algoritmo para sus decisiones. ¿Eso es consistentemente o, por el contrario, arbitrario? Puede suceder, por ejemplo, que a partir del mismo conjunto de datos, el modelo evalúa un alto riesgo de enfermedad para una persona, mientras que el segundo modelo predice un bajo riesgo. ¿Qué hacemos entonces? Responder esta pregunta implica un pensamiento cuidadoso qué decisión es justa, explica o reforma en el contexto de un sistema automatizado.
Programación intestinal
Varias líneas de investigación actuales se centran con precisión en términos matemáticos, de análisis y cuantificación, como el sesgo y la evaluación del seguro de algoritmo. Las nuevas técnicas, como "múltiples cámaras", nos permiten construir algoritmos que alcanzan una alta precisión en todos los grupos de recolección de recolección de subgrupos al mismo tiempo. También le permite procesar un algoritmo que representa un sesgo para corregirlos.
Este último se realizó para reducir el error que se cometió cuando los algoritmos con datos médicos se originan en el estudio clínico que no tienen suficiente representación de individuos de grupos minoritarios. Otros campos relacionados de la informática sobre cómo evaluar la seguridad de los algoritmos para predecirlo.
Siempre debemos asegurarnos de lo siguiente: si la decisión se considera injusta o ilegal cuando se toma el ser humano, también debemos identificarlo como tal cuando la computadora también la toma en consecuencia.
Aunque la motivación de estos problemas generalmente tiene un origen social, nos lleva a profundizar nuestra comprensión de los sistemas algorítmicos que nos rodean, así como el nivel de estricto que estamos buscando en su análisis.
Por lo tanto, el progreso de la computadora, fuera de su motivación social, también conduce a un desarrollo teórico significativo. Por ejemplo, el progreso en "múltiple -diabrace" nos ha permitido mejorar los teoremas matemáticos en el campo de la complejidad informática que no han progresado desde la década de 1990.
El mundo que vemos
Hoy, los algoritmos no solo toman decisiones sobre nuestro futuro y futuro, sino que también configuran la percepción de que tenemos nuestro entorno, así como opciones e información que creemos que tenemos dentro de nuestro alcance. Determinan las ofertas de trabajo que vemos en LinkedIn, anuncios y publicaciones propuestas en Instagram, noticias que leemos en las redes sociales, los productos que compramos en Amazon.
Toda esta información nos llega ya filtrados, prioridades y criterios organizados que no siempre entendemos y seamos potencialmente dañinos (por ejemplo, diseñados para maximizar nuestra dependencia del contenido digital). Al mismo tiempo, pueden profundizar nuestra percepción del mundo y las elecciones cotidianas. Por lo tanto, es crucial estudiar y comprender cómo se forman y evolucionan estas clasificaciones, redes y plataformas.
En este sentido, los investigadores de la Universidad de Harvard fueron establecidos por el Instituto para evitar la discriminación algorítmica en plataformas como la Universidad de Princeton, mientras que la Universidad de Princetone, o Dordaš, analiza algoritmos opacos para analizar Wicked y Programar.
Otros expertos se centran en la causa de los algoritmos en el comportamiento futuro de sus usuarios, cómo evaluar los efectos de los anuncios políticos personalizados de Facebook durante las decisiones de las decisiones de que el algoritmo se inscribió efectivamente en el algoritmo de anuncios de anuncios de anuncios para evaluar los efectos del anuncio político personalizado de Facebook durante las campañas o formas electorales.
Por otro lado, aparecieron como un acuerdo algorítmico: algoritmos de una manera coordinada de limitar la competencia en un entorno comercial que aprende a mantener precios artificialmente altos a los productos vendidos de precios artificialmente altos que han aplicado a los consumidores.
Todo este tipo de problema se multiplica por inteligencia artificial generativa. Se ha demostrado varias veces, ya que ChatGGPT puede cambiar sus respuestas dependiendo del género u otras características concluyadas de los usuarios; Por ejemplo, sugiriendo tiendas salariales estereotípicas o inferiores de acuerdo con el género de la persona que debe dirigirse la respuesta.
Debido a la gran cantidad de datos que requieren modelos como un chatggpt que se capacitarán, otro riesgo que se expande drásticamente es recopilar datos personales, que incluyen problemas de privacidad de productos nuevos y crecientes.
Nos falta garantías claras sobre cómo se almacenan y procesan nuestros datos, además del progreso tecnológico para garantizar que todo este proceso realmente pueda mantener el anonimato, porque es muy difícil garantizar que el modelo no detecte datos privados.
Informática para traer teorías en la práctica
En resumen, cuando hablamos de justicia algorítmica, se refiere al estudio de los algoritmos de impacto inmobiliario y de bienes raíces, ya sea que decidan el precio de los alimentos que compramos, sobre el acceso a servicios esenciales, sobre oportunidades de trabajo o libertad gratuita.
Por supuesto, es un problema interdisciplinario que no se puede resolver solo en el campo de la informática. Durante años, numerosos abogados, filósofos, expertos en regulación, entre otros, trabajan en este campo.
Sin embargo, la investigación realizada en el campo de la informática es básica: no podemos llevar estos principios de teoría éticos o legales si no tenemos formas de cuantificar y analizar matemáticamente en sistemas algorítmicos.
Los problemas sociales que conducen a un uso cierto de la inteligencia artificial no solo provienen de la mala implementación de la tecnología, sino que a menudo es la tecnología en sí la que no está suficientemente desarrollada. Tenemos que dejar de pensar cuidadosamente sobre las consecuencias del sistema algorítmico una vez que lo dejemos en nuestra sociedad.
Muchos han asumido esta responsabilidad con la seriedad que merecen en los últimos años, en los últimos años, el estudio de estos temas y la mayoría de las principales compañías tecnológicas de hoy tienen equipos especializados responsables de la implementación de evaluaciones y auditoría algorítmicas.
Necesitamos asegurarnos de que la presencia de estas iniciativas sea robusta en el campo académico, donde la investigación debe permanecer sin intereses financieros, así como en el sector público, donde los algoritmos se llevan a cabo en una evaluación apresurada, mal diseñada y sin suficiente evaluación.
Como ciudadanos, es crucial que hoy haga que una narración muy ordinaria represente la inteligencia artificial como un sistema mágico, insuperable e impistito. Esta visión permite a las grandes empresas y otras instituciones usar sistemas algorítmicos que nos afectan directamente sin asumir que la responsabilidad está involucrada en realizar tal poder en nuestras vidas.
Como con cualquier otra tecnología, debemos solicitar el nivel máximo de rigor científico, por lo que las decisiones automáticas siempre se toman de manera responsable y segura. De esta manera, podemos integrar la inteligencia artificial en nuestra sociedad sin renunciar a los principios básicos de justicia y transparencia.
La versión original de este artículo fue publicada en la revista Telos, por Foundation Telephone.
Silvia Casacuberta recibe fondos de Stipendi Global Rhodes.
0 Comentarios