La inteligencia artificial es fascinante, transformadora y está cada vez más integrada en la forma en que aprendemos, trabajamos y tomamos decisiones.
Pero por cada ejemplo de innovación y eficiencia –como el asistente de IA personalizado desarrollado recientemente por un profesor de contabilidad de la Universidad de Quebec en Montreal– hay otro que destaca la necesidad de supervisión, alfabetización y regulación que puedan seguir el ritmo de la tecnología y proteger al público.
Un caso reciente en Montreal ilustra esta tensión. Un hombre de Quebec ha sido multado con 5.000 dólares tras presentar "citas de expertos y jurisprudencia que no existe" para defenderse ante los tribunales. Fue la primera sentencia de este tipo en la provincia, aunque ha habido casos similares en otros países.
La IA puede democratizar el acceso al aprendizaje, al conocimiento e incluso a la justicia. Sin embargo, sin salvaguardias éticas, capacitación adecuada, experiencia y alfabetización básica, las mismas herramientas diseñadas para empoderar a las personas pueden fácilmente socavar la confianza y resultar contraproducentes.
Por qué las barandillas son importantes
Las salvaguardas son sistemas, normas y controles que garantizan que la inteligencia artificial se utilice de forma segura, justa y transparente. Permiten que florezca la innovación y al mismo tiempo previenen el caos y los daños.
La Unión Europea se ha convertido en la primera jurisdicción importante en adoptar un marco integral para la regulación de la IA con la Ley de IA de la UE, que entrará en vigor en agosto de 2024. La ley divide los sistemas de IA en categorías basadas en riesgos e introduce reglas en fases para dar a las organizaciones tiempo para prepararse para el cumplimiento.

Los eurodiputados de la Unión Europea votan la Ley de Inteligencia Artificial en el Parlamento Europeo el 13 de marzo de 2024 en Estrasburgo, Francia. (Foto AP/Jean-François Badias)
Esa ley hace que algunos usos de la IA sean inaceptables. Entre ellas se incluyen la puntuación social y el reconocimiento facial en tiempo real en espacios públicos, que fueron prohibidos en febrero.
La inteligencia artificial de alto riesgo utilizada en áreas críticas como la educación, el empleo, la atención sanitaria o la policía estará sujeta a requisitos estrictos. A partir de agosto de 2026, estos sistemas deben cumplir con estándares de calidad de datos, transparencia y supervisión humana.
Los modelos de IA de propósito general quedaron sujetos a requisitos regulatorios en agosto de 2025. Los sistemas de riesgo limitado, como los chatbots, deben detectar que los usuarios están interactuando con un algoritmo.
El principio clave es que cuanto mayor sea el impacto potencial sobre los derechos o la seguridad, más fuertes serán las obligaciones. El objetivo no es frenar la innovación, sino hacerla responsable.
Fundamentalmente, la ley también exige que cada estado miembro de la UE establezca al menos un entorno regulatorio operativo. Se trata de marcos controlados en los que las empresas pueden desarrollar, entrenar y probar sistemas de IA bajo supervisión antes de su implementación total.
Para las pymes que carecen de recursos para una infraestructura de cumplimiento amplia, los entornos sandbox ofrecen una vía para la innovación y al mismo tiempo crean capacidad.
Canadá todavía se está poniendo al día con la IA
Canadá aún tiene que establecer un marco legal integral para la IA. La Ley de Datos e Inteligencia Artificial se introdujo en 2022 como parte del Proyecto de Ley C-27, un paquete conocido como Ley de Implementación de la Carta Digital. Se suponía que se crearía un marco legal para el desarrollo responsable de la inteligencia artificial, pero la ley nunca se adoptó.
Canadá debe ahora actuar rápidamente para corregir esto. Esto incluye fortalecer la gobernanza de la IA, invertir en educación pública y profesional y garantizar que una amplia gama de voces (educadores, expertos en ética, expertos laborales y la sociedad civil) participen en la configuración de la legislación sobre IA.
Un enfoque gradual similar al marco de la UE podría brindar seguridad y al mismo tiempo apoyar la innovación. Las aplicaciones más riesgosas serían prohibidas de inmediato, mientras que otras enfrentarían requisitos cada vez más estrictos, lo que daría a las empresas tiempo para adaptarse.

El Ministro de Inteligencia Artificial e Innovación Digital, Evan Solomon, pronuncia un discurso durante la conferencia All In AI en Montreal el 25 de septiembre de 2025. PRENSA CANADIENSE/Christopher Katsarov
Los entornos de pruebas regulatorios podrían ayudar a las pymes a innovar de manera responsable y, al mismo tiempo, desarrollar la capacidad que tanto necesitan ante la actual escasez de mano de obra.
El gobierno federal lanzó recientemente el Grupo de Trabajo de Estrategia de IA para ayudar a acelerar la adopción de la tecnología en el país. Se espera que en unos meses entregue recomendaciones sobre competitividad, productividad, educación, trabajo y ética.
Pero como han señalado varios expertos, el grupo de trabajo está fuertemente inclinado hacia las voces de la industria, lo que corre el riesgo de tener una visión estrecha de los impactos sociales de la IA.
Las vallas protectoras por sí solas no son suficientes
Las regulaciones pueden establecer límites y proteger a las personas de daños, pero las barreras de seguridad por sí solas no son suficientes. Otro fundamento vital de una sociedad de IA ética e inclusiva es la alfabetización y el desarrollo de habilidades.
La alfabetización en IA respalda nuestra capacidad de cuestionar las herramientas y el contenido de la IA y se está convirtiendo rápidamente en un requisito fundamental en la mayoría de los trabajos.
Sin embargo, casi la mitad de los empleados que utilizan herramientas de inteligencia artificial en el trabajo no han recibido capacitación y más de un tercio solo han recibido una orientación mínima de sus empleadores. Menos de una de cada 10 pequeñas o medianas empresas ofrecen programas formales de formación en IA.
Como resultado, la adopción se produce de manera informal y, a menudo, sin supervisión, lo que deja expuestos a los trabajadores y las organizaciones.
La alfabetización en IA funciona en tres niveles. Básicamente, esto significa comprender qué es la IA, cómo funciona y cuándo cuestionar sus resultados, incluida la conciencia de los prejuicios, la privacidad y las fuentes de datos. La alfabetización intermedia implica el uso de herramientas generativas como ChatGPT o Copilot. En la cima se encuentran las habilidades avanzadas, donde las personas diseñan algoritmos teniendo en cuenta la equidad, la transparencia y la responsabilidad.
Lograr la alfabetización en IA significa invertir en mejora de habilidades y reciclaje que combine el pensamiento crítico con el uso práctico de la inteligencia artificial.
Como profesor universitario, a menudo veo la IA enmarcada principalmente como un riesgo de hacer trampa, más que como una herramienta que los estudiantes deben aprender a utilizar de manera responsable. Si bien es cierto que se puede abusar de él, los educadores deben proteger la integridad académica mientras preparan a los estudiantes para trabajar junto con estos sistemas.
Un equilibrio entre innovación y responsabilidad
No podemos prohibir ni ignorar la IA, pero tampoco podemos permitir que la carrera por la eficiencia supere nuestra capacidad para gestionar sus consecuencias o abordar cuestiones de equidad, responsabilidad y confianza.
El desarrollo de habilidades y las barreras de seguridad deben avanzar juntos. Canadá necesita voces diversas en la mesa de negociaciones, una inversión real que esté a la altura de sus ambiciones y una sólida rendición de cuentas integrada en todas las leyes, estándares y protecciones de IA.
Se diseñarán más herramientas de IA para apoyar el aprendizaje y el trabajo, y se producirán errores más costosos debido a la confianza ciega en sistemas que no entendemos completamente. La cuestión no es si la inteligencia artificial se extenderá, sino si construiremos las barreras de seguridad y la alfabetización necesarias para dar cabida a ella.
La IA puede convertirse en un complemento de la experiencia, pero no puede sustituirla. A medida que la tecnología evoluciona, también lo hace nuestra capacidad para comprenderla, cuestionarla y guiarla hacia el bien público.
Necesitamos combinar la innovación con la ética, la velocidad con el pensamiento y el entusiasmo con la educación. La protección y el desarrollo de habilidades, incluida la alfabetización básica en IA, no son fuerzas opuestas; estas son dos manos que apoyarán el progreso.
0 Comentarios