En la educación especial de Estados Unidos, la financiación es escasa y la escasez de personal es generalizada, lo que hace que muchos distritos escolares tengan dificultades para contratar profesionales cualificados y dispuestos.
En medio de estos desafĆos de larga data, existe un interĆ©s creciente en el uso de herramientas de inteligencia artificial para ayudar a solucionar algunas de las brechas que enfrenta actualmente el campo y reducir los costos laborales.
MĆ”s de 7 millones de niƱos reciben prestaciones financiadas con fondos federales en virtud de la Ley de Educación para Personas con Discapacidades, que garantiza a los estudiantes el acceso a una educación adaptada a sus necesidades fĆsicas y psicológicas Ćŗnicas, asĆ como a procesos legales que permiten a las familias negociar apoyos. La educación especial involucra una variedad de profesionales, incluidos especialistas en rehabilitación, logopedas y asistentes de enseƱanza. Pero estos especialistas son escasos, a pesar de la probada necesidad de sus servicios.
Como profesor asociado de educación especial que trabaja con inteligencia artificial, veo su potencial y sus dificultades. Si bien los sistemas de IA pueden reducir las cargas administrativas, brindar orientación experta y ayudar a los profesionales sobrecargados a administrar su carga de casos, tambiĆ©n pueden presentar desafĆos Ć©ticos, desde el sesgo de las mĆ”quinas hasta problemas mĆ”s amplios de confianza en los sistemas automatizados. TambiĆ©n corren el riesgo de exacerbar los problemas existentes con la forma en que se prestan los servicios especiales.
AĆŗn asĆ, algunos en el campo estĆ”n optando por probar herramientas de inteligencia artificial en lugar de esperar la solución perfecta.
IEP mĆ”s rĆ”pido, pero ¿quĆ© tan individualizado?
La IA ya estÔ dando forma a la planificación, la preparación y la evaluación del personal de la educación especial.
Un ejemplo es el programa de educación individualizada, o IEP, el principal instrumento para guiar los servicios que recibe un niño. Un IEP se basa en una variedad de evaluaciones y otros datos para describir las fortalezas de un niño, determinar sus necesidades y establecer metas mensurables. Cada parte de este proceso depende de profesionales capacitados.
Pero la persistente escasez de fuerza laboral significa que los distritos a menudo tienen dificultades para completar evaluaciones, actualizar planes e integrar las opiniones de los padres. La mayorĆa de los distritos desarrollan IEP utilizando software que requiere que los profesionales elijan entre un conjunto generalizado de respuestas u opciones memorizadas, lo que lleva a un nivel de estandarización que no logra satisfacer las verdaderas necesidades individuales del niƱo.
La investigación preliminar ha demostrado que los modelos de lenguaje grandes, como ChatGPT, pueden generar documentos clave de educación especial, como los IEP, utilizando mĆŗltiples fuentes de datos, incluida información de estudiantes y familias. Los chatbots que pueden crear rĆ”pidamente IEP podrĆan ayudar a los profesionales de la educación especial a satisfacer mejor las necesidades de cada niƱo y sus familias. Algunas organizaciones profesionales de educación especial incluso han alentado a los profesores a utilizar la IA para documentos como planes de lecciones.
Formación y diagnóstico de discapacidad.
TambiĆ©n existe potencial para que los sistemas de IA ayuden a respaldar la capacitación y el desarrollo profesional. Mi propio trabajo de desarrollo de personal combina varias aplicaciones de inteligencia artificial con realidad virtual para permitir a los profesionales ensayar rutinas de enseƱanza antes de trabajar directamente con los niƱos. En este caso, la IA puede funcionar como una extensión prĆ”ctica de los modelos de capacitación existentes, ofreciendo prĆ”ctica repetida y apoyo estructurado de maneras que son difĆciles de sostener con personal limitado.
Algunos distritos han comenzado a utilizar inteligencia artificial para las evaluaciones, que pueden incluir una variedad de evaluaciones acadƩmicas, cognitivas y mƩdicas. Las aplicaciones de inteligencia artificial que combinan el reconocimiento automƔtico del habla y el procesamiento del lenguaje se estƔn utilizando ahora en evaluaciones de lectura oral mediadas por computadora para calificar las pruebas de capacidad de lectura de los estudiantes.
Los profesionales a menudo tienen dificultades para comprender el volumen de datos que recopilan las escuelas. Las herramientas de aprendizaje automÔtico impulsadas por IA también pueden ayudar en este sentido, al identificar patrones que pueden no ser inmediatamente visibles para los docentes para su evaluación o toma de decisiones educativas. Dicho apoyo puede ser particularmente útil en el diagnóstico de discapacidades como el autismo o las dificultades de aprendizaje, donde el enmascaramiento, la presentación variable y las historias incompletas pueden dificultar la interpretación. Mi investigación en curso muestra que la IA actual puede hacer predicciones basadas en datos que probablemente estén disponibles en algunos condados.
Preocupaciones sobre privacidad y confianza
Existen serias cuestiones Ʃticas (y prƔcticas) sobre estas intervenciones respaldadas por IA, que van desde riesgos para la privacidad de los estudiantes hasta prejuicios de las mƔquinas y problemas mƔs profundos de confianza familiar. Algunos dependen de si los sistemas de IA pueden o no brindar servicios que realmente cumplan con la ley existente.
¿QuĆ© sucede si un sistema de inteligencia artificial utiliza datos o mĆ©todos sesgados para generar una recomendación para un niƱo? ¿QuĆ© pasa si el sistema de IA hace un mal uso o filtra datos de los niƱos? El uso de sistemas de IA para realizar algunas de las funciones descritas anteriormente coloca a las familias en una posición en la que se espera que confĆen no solo en su distrito escolar y su personal de educación especial, sino tambiĆ©n en los sistemas de IA comerciales, cuyo funcionamiento interno es en gran medida insondable.
Estos dilemas Ć©ticos no son exclusivos de las ediciones especiales; muchos se criaron en otros campos y fueron tratados por los primeros usuarios. Por ejemplo, si bien los sistemas de reconocimiento automĆ”tico de voz o ASR han tenido dificultades para evaluar con precisión el acento del inglĆ©s, muchos proveedores ahora estĆ”n entrenando sus sistemas para adaptarse a acentos Ć©tnicos y regionales especĆficos.
Pero las investigaciones en curso sugieren que algunos sistemas ASR tienen una capacidad limitada para adaptarse a las diferencias del habla relacionadas con la discapacidad, tener en cuenta el ruido en el aula y distinguir entre diferentes voces. Aunque estos problemas pueden resolverse mediante mejoras tƩcnicas en el futuro, tienen consecuencias en el presente.
Sesgo incorporado
A primera vista, puede parecer que los modelos de aprendizaje automĆ”tico mejoran la toma de decisiones clĆnicas tradicionales. Sin embargo, los modelos de IA deben entrenarse con datos existentes, lo que significa que sus decisiones pueden seguir reflejando sesgos de larga data en la forma en que se identifican las discapacidades.
De hecho, las investigaciones han demostrado que los sistemas de IA se ven habitualmente limitados por sesgos tanto en los datos de entrenamiento como en el diseƱo del sistema. Los modelos de IA tambiĆ©n pueden introducir nuevos sesgos, ya sea al omitir información sutil revelada durante las evaluaciones personales o al sobrerrepresentar las caracterĆsticas de los grupos incluidos en los datos de entrenamiento.
Tales preocupaciones, podrĆan argumentar los defensores, se abordan mediante salvaguardias ya incorporadas en la ley federal. Las familias tienen considerable libertad en lo que aceptan y pueden optar por alternativas, siempre que sean conscientes de que pueden dirigir el proceso del IEP.
De manera similar, el uso de herramientas de inteligencia artificial para crear IEP o lecciones puede parecer una mejora obvia con respecto a planes superficiales o poco desarrollados. Sin embargo, una verdadera individualización requerirĆa ingresar datos protegidos en grandes modelos lingüĆsticos, lo que podrĆa violar las normas de privacidad. Y si bien las aplicaciones de IA pueden producir fĆ”cilmente IEP y otros trĆ”mites administrativos mĆ”s atractivos, eso no necesariamente resulta en mejores servicios.
Llenando el vacĆo
De hecho, todavĆa no estĆ” claro si la IA proporciona un estĆ”ndar de atención equivalente al tratamiento convencional de alta calidad al que tienen derecho los niƱos con discapacidades del desarrollo segĆŗn la ley federal.
En 2017, la Corte Suprema rechazó la idea de que la Ley de Educación para Personas con Discapacidad solo da derecho a los estudiantes a un progreso trivial y "de minimis", socavando una de las principales razones para perseguir la inteligencia artificial: que pueda cumplir con un estĆ”ndar mĆnimo de atención y prĆ”ctica. Y dado que la IA en realidad no ha sido evaluada empĆricamente a escala, no se ha demostrado que cumpla adecuadamente con el bajo estĆ”ndar de mejora simple mĆ”s allĆ” del status quo defectuoso.
Pero eso no cambia la realidad de los recursos limitados. Para bien o para mal, la IA ya se estĆ” utilizando para llenar el vacĆo entre lo que exige la ley y lo que el sistema realmente ofrece.
0 Comentarios