La inteligencia artificial es fascinante, transformadora y estƔ cada vez mƔs integrada en la forma en que aprendemos, trabajamos y tomamos decisiones.
Pero por cada ejemplo de innovación y eficiencia –como el asistente de IA personalizado desarrollado recientemente por un profesor de contabilidad de la Universidad de Quebec en Montreal– hay otro que destaca la necesidad de supervisión, alfabetización y regulación que puedan seguir el ritmo de la tecnologĆa y proteger al pĆŗblico.
Un caso reciente en Montreal ilustra esta tensión. Un hombre de Quebec ha sido multado con 5.000 dólares tras presentar "citas de expertos y jurisprudencia que no existe" para defenderse ante los tribunales. Fue la primera sentencia de este tipo en la provincia, aunque ha habido casos similares en otros paĆses.
La IA puede democratizar el acceso al aprendizaje, al conocimiento e incluso a la justicia. Sin embargo, sin salvaguardias éticas, capacitación adecuada, experiencia y alfabetización bÔsica, las mismas herramientas diseñadas para empoderar a las personas pueden fÔcilmente socavar la confianza y resultar contraproducentes.
Por quƩ las barandillas son importantes
Las salvaguardas son sistemas, normas y controles que garantizan que la inteligencia artificial se utilice de forma segura, justa y transparente. Permiten que florezca la innovación y al mismo tiempo previenen el caos y los daños.
La Unión Europea se ha convertido en la primera jurisdicción importante en adoptar un marco integral para la regulación de la IA con la Ley de IA de la UE, que entrarĆ” en vigor en agosto de 2024. La ley divide los sistemas de IA en categorĆas basadas en riesgos e introduce reglas en fases para dar a las organizaciones tiempo para prepararse para el cumplimiento.

Los eurodiputados de la Unión Europea votan la Ley de Inteligencia Artificial en el Parlamento Europeo el 13 de marzo de 2024 en Estrasburgo, Francia. (Foto AP/Jean-François Badias)
Esa ley hace que algunos usos de la IA sean inaceptables. Entre ellas se incluyen la puntuación social y el reconocimiento facial en tiempo real en espacios públicos, que fueron prohibidos en febrero.
La inteligencia artificial de alto riesgo utilizada en Ć”reas crĆticas como la educación, el empleo, la atención sanitaria o la policĆa estarĆ” sujeta a requisitos estrictos. A partir de agosto de 2026, estos sistemas deben cumplir con estĆ”ndares de calidad de datos, transparencia y supervisión humana.
Los modelos de IA de propósito general quedaron sujetos a requisitos regulatorios en agosto de 2025. Los sistemas de riesgo limitado, como los chatbots, deben detectar que los usuarios estÔn interactuando con un algoritmo.
El principio clave es que cuanto mayor sea el impacto potencial sobre los derechos o la seguridad, mÔs fuertes serÔn las obligaciones. El objetivo no es frenar la innovación, sino hacerla responsable.
Fundamentalmente, la ley también exige que cada estado miembro de la UE establezca al menos un entorno regulatorio operativo. Se trata de marcos controlados en los que las empresas pueden desarrollar, entrenar y probar sistemas de IA bajo supervisión antes de su implementación total.
Para las pymes que carecen de recursos para una infraestructura de cumplimiento amplia, los entornos sandbox ofrecen una vĆa para la innovación y al mismo tiempo crean capacidad.
CanadĆ” todavĆa se estĆ” poniendo al dĆa con la IA
CanadĆ” aĆŗn tiene que establecer un marco legal integral para la IA. La Ley de Datos e Inteligencia Artificial se introdujo en 2022 como parte del Proyecto de Ley C-27, un paquete conocido como Ley de Implementación de la Carta Digital. Se suponĆa que se crearĆa un marco legal para el desarrollo responsable de la inteligencia artificial, pero la ley nunca se adoptó.
CanadÔ debe ahora actuar rÔpidamente para corregir esto. Esto incluye fortalecer la gobernanza de la IA, invertir en educación pública y profesional y garantizar que una amplia gama de voces (educadores, expertos en ética, expertos laborales y la sociedad civil) participen en la configuración de la legislación sobre IA.
Un enfoque gradual similar al marco de la UE podrĆa brindar seguridad y al mismo tiempo apoyar la innovación. Las aplicaciones mĆ”s riesgosas serĆan prohibidas de inmediato, mientras que otras enfrentarĆan requisitos cada vez mĆ”s estrictos, lo que darĆa a las empresas tiempo para adaptarse.

El Ministro de Inteligencia Artificial e Innovación Digital, Evan Solomon, pronuncia un discurso durante la conferencia All In AI en Montreal el 25 de septiembre de 2025. PRENSA CANADIENSE/Christopher Katsarov
Los entornos de pruebas regulatorios podrĆan ayudar a las pymes a innovar de manera responsable y, al mismo tiempo, desarrollar la capacidad que tanto necesitan ante la actual escasez de mano de obra.
El gobierno federal lanzó recientemente el Grupo de Trabajo de Estrategia de IA para ayudar a acelerar la adopción de la tecnologĆa en el paĆs. Se espera que en unos meses entregue recomendaciones sobre competitividad, productividad, educación, trabajo y Ć©tica.
Pero como han señalado varios expertos, el grupo de trabajo estÔ fuertemente inclinado hacia las voces de la industria, lo que corre el riesgo de tener una visión estrecha de los impactos sociales de la IA.
Las vallas protectoras por sĆ solas no son suficientes
Las regulaciones pueden establecer lĆmites y proteger a las personas de daƱos, pero las barreras de seguridad por sĆ solas no son suficientes. Otro fundamento vital de una sociedad de IA Ć©tica e inclusiva es la alfabetización y el desarrollo de habilidades.
La alfabetización en IA respalda nuestra capacidad de cuestionar las herramientas y el contenido de la IA y se estĆ” convirtiendo rĆ”pidamente en un requisito fundamental en la mayorĆa de los trabajos.
Sin embargo, casi la mitad de los empleados que utilizan herramientas de inteligencia artificial en el trabajo no han recibido capacitación y mĆ”s de un tercio solo han recibido una orientación mĆnima de sus empleadores. Menos de una de cada 10 pequeƱas o medianas empresas ofrecen programas formales de formación en IA.
Como resultado, la adopción se produce de manera informal y, a menudo, sin supervisión, lo que deja expuestos a los trabajadores y las organizaciones.
La alfabetización en IA funciona en tres niveles. BÔsicamente, esto significa comprender qué es la IA, cómo funciona y cuÔndo cuestionar sus resultados, incluida la conciencia de los prejuicios, la privacidad y las fuentes de datos. La alfabetización intermedia implica el uso de herramientas generativas como ChatGPT o Copilot. En la cima se encuentran las habilidades avanzadas, donde las personas diseñan algoritmos teniendo en cuenta la equidad, la transparencia y la responsabilidad.
Lograr la alfabetización en IA significa invertir en mejora de habilidades y reciclaje que combine el pensamiento crĆtico con el uso prĆ”ctico de la inteligencia artificial.
Como profesor universitario, a menudo veo la IA enmarcada principalmente como un riesgo de hacer trampa, mƔs que como una herramienta que los estudiantes deben aprender a utilizar de manera responsable. Si bien es cierto que se puede abusar de Ʃl, los educadores deben proteger la integridad acadƩmica mientras preparan a los estudiantes para trabajar junto con estos sistemas.
Un equilibrio entre innovación y responsabilidad
No podemos prohibir ni ignorar la IA, pero tampoco podemos permitir que la carrera por la eficiencia supere nuestra capacidad para gestionar sus consecuencias o abordar cuestiones de equidad, responsabilidad y confianza.
El desarrollo de habilidades y las barreras de seguridad deben avanzar juntos. CanadÔ necesita voces diversas en la mesa de negociaciones, una inversión real que esté a la altura de sus ambiciones y una sólida rendición de cuentas integrada en todas las leyes, estÔndares y protecciones de IA.
Se diseñarÔn mÔs herramientas de IA para apoyar el aprendizaje y el trabajo, y se producirÔn errores mÔs costosos debido a la confianza ciega en sistemas que no entendemos completamente. La cuestión no es si la inteligencia artificial se extenderÔ, sino si construiremos las barreras de seguridad y la alfabetización necesarias para dar cabida a ella.
La IA puede convertirse en un complemento de la experiencia, pero no puede sustituirla. A medida que la tecnologĆa evoluciona, tambiĆ©n lo hace nuestra capacidad para comprenderla, cuestionarla y guiarla hacia el bien pĆŗblico.
Necesitamos combinar la innovación con la ética, la velocidad con el pensamiento y el entusiasmo con la educación. La protección y el desarrollo de habilidades, incluida la alfabetización bÔsica en IA, no son fuerzas opuestas; estas son dos manos que apoyarÔn el progreso.
0 Comentarios