La inteligencia artificial (IA) transforma el mundo, desde el diagnóstico de enfermedades en los hospitales para capturar el engaño en los sistemas bancarios. Pero también hace preguntas urgentes.
Mientras los líderes del G7 se están preparando para una reunión en Alberta, un problema es grande: ¿cómo podemos construir sistemas de IA poderosos sin sacrificar la privacidad?
La Cumbre del G7 es una oportunidad para establecer el tono de cómo las naciones democráticas manejan las tecnologías emergentes. Aunque las regulaciones progresan, no tendrán éxito sin fuertes soluciones técnicas.
En nuestra opinión, lo que se conoce como aprendizaje federal, o FL, es una de las herramientas más prometedoras y merece estar en el centro de entrevistas.
A Lire Aussi: 6 formas de IA puede asociarse con nosotros en una consulta creativa, el mariscal de los medios inspirado McLuhan
Como investigadores en IA, perfecta y de salud pública, hemos visto la primera mano del dilemo de datos. La IA tiene éxito en los datos, mayores que los antecedentes médicos profundamente personales, las transacciones financieras, los registros críticos de infraestructura. Cuantos datos más centralizados, mayor sea el riesgo de fugas, abuso o Cibert.
El Servicio Nacional de Salud del Reino Unido también detuvo la prometedora iniciativa de IA debido al temor de manejar datos. En Canadá, se preocupan por el almacenamiento de datos personales, incluidos los registros de inmigración y salud, en servicios en la nube extranjera. La confianza en los sistemas AI es frágil. Una vez rota, la innovación está firmada.

El presidente francés, Emmanuel Macron, trae el discurso durante la inteligencia artificial en París en febrero de 2025. Años. Impresión canadiense / Sean Kilpatrick ¿Por qué es la responsabilidad centralizada y creciente?
El enfoque dominante para capacitar la IA es que todos los datos se reúnen en un lugar centralizado. Es efectivo en papel. En la práctica, crea pesadillas de seguridad.
Los sistemas centralizados son objetivos atractivos para los piratas informáticos. Es difícil regular, especialmente cuando los datos fluyen según los límites nacionales o sectoriales. Y concentran demasiada potencia en manos de varios titulares de datos o gigantes tecnológicos.
Pero en lugar de traer datos en el algoritmo, FL trae el algoritmo de datos. Cada institución local, ya sea un hospital, una agencia gubernamental o un banco, capacita y modela datos propios. Solo actualizaciones del modelo, no son datos, se comparten con el sistema central. Como si los estudiantes hicieran la tarea en el hogar y apliquen solo sus respuestas finales, no sus cuadernos.
Este enfoque reduce el riesgo de violación de datos al tiempo que preserva la capacidad de aprender de grandes tendencias.
¿Dónde está haciendo todavía?
FL podría ser un intercambiador del juego. Cuando se evaporan con técnicas como la privacidad diferente, el cálculo de varios años o el cifrado homomórfico, podría reducir drásticamente el riesgo de fuga de datos.
En Canadá, los investigadores ya han utilizado FL para entrenar los modelos de detección de cáncer en las provincias, y nunca mover tarjetas de salud sensibles.

La inteligencia artificial se utilizó para entrenar el cáncer detectando. (Shutterstock)
Proyectos como aquellos que involucran protección de red de redes centinela canadiense han demostrado que FL puede usarse para predecir enfermedades crónicas como la diabetes, al tiempo que mantiene todos los datos del paciente al mismo tiempo.
Los bancos lo usan para detectar fraude sin compartir la identidad del cliente. Las agencias de Ciberia se investigan sobre cómo coordinar a través de jurisdicciones sin la exposición de sus registros.
A Lire Aussi: Health Care AI: Potencial y diagnóstico de trampas por aplicación
Por qué G7 tiene que funcionar ahora
Los gobiernos de todo el mundo se ejecutan para regular la IA. La inteligencia artificial propuesta y el acto de datos en Canadá, y la ley sobre la Unión Europea y la orden ejecutiva de IA segura, segura y confiable en los Estados Unidos son los principales pasos hacia adelante. Pero sin una forma segura de cooperar en problemas de datos intensivos, como la pandemia, el cambio climático o las amenazas cibernéticas pueden caer.
FL permite que diferentes jurisdicciones trabajen juntas en desafíos comunes sin comprometer el control local o la soberanía. El estante se convierte en práctica al permitir la cooperación técnica sin complicaciones legales y privadas comunes.
E igualmente importante, la adopción del FL envía una señal política: que la democracia solo puede conducir a innovaciones, pero en ética y gestión.
El alojamiento de la cumbre G7 en Alberta no solo es simbólico. La provincia es el hogar de exitosos y ecosistemas, instituciones como la inteligencia y la industria de Alberta, desde la agricultura hasta la energía, que crean grandes cantidades de datos valiosos.
Imagen del Grupo de Trabajo del Sector Agrícola: agricultores que usan monitoreo de datos locales, compañías de energía que analizan formularios de emisiones, agencias públicas que modelan riesgos de incendios salvajes: todos los que trabajan juntos, todos los que trabajan juntas. No es una fantasía futurista: es un programa piloto que espera suceder.

Vecindario devastado en Jasper, Alta. 19. Agosto de 2024. Años. Los incendios forestales causaron evacuaciones y daños generalizados en el parque nacional y el sitio de la ciudad de Jasper. Canadian Print / Amber Bracken Trust Foundation?
La IA es solo confiable como los sistemas detrás de él. Y demasiados sistemas, se basa en ideas obsoletas sobre centralización y control.
FL ofrece una nueva base, la que la privacidad, la transparencia y la innovación pueden moverse juntos. No tenemos que esperar a que funcione la crisis. Ya existen herramientas. Lo que falta es una voluntad política para elevarlos de prototipos prometedores en la práctica estándar.
Si el G7 se toma en serio la construcción de más seguros, más justo y el futuro, debería hacer una parte central de su plan, no la nota al pie.
0 Comentarios