4 pasos para la implementación responsable de la IA
Investigadores del Centro de Innovación, Diseño y Aprendizaje Digital de la Universidad de Kansas (CIDDL) han publicado un nuevo marco para la implementación responsable de la inteligencia artificial en todos los niveles de educación. Desarrollado bajo un acuerdo cooperativo con el Departamento de Educación de los Estados Unidos, el marco «está destinado a proporcionar orientación sobre cómo las escuelas pueden incorporar IA en sus operaciones y planes de estudio diarios», dijo la universidad en un anuncio de noticias.
El documento ofrece cuatro recomendaciones clave:
1) Establecer una base estable y centrada en el ser humano.
«Priorice el juicio del educador, las relaciones de los estudiantes y los aportes familiares en todos los procesos habilitados para la AI», aconseja el Marco. «Evite la excesiva dependencia de la automatización para las decisiones que afectan las trayectorias de aprendizaje, las respuestas del comportamiento o la colocación de instrucciones». Además, el informe enfatiza la importancia de la transparencia y el cumplimiento de las leyes de protección de datos.
2) Implementar la planificación estratégica centrada en el futuro para la integración de la IA.
Aquí, el informe aconseja establecer un grupo de trabajo de integración de IA con la representación de educadores, administración, familias, asesores legales, tecnología de instrucción y educación especial. Realice un análisis de auditoría y riesgos antes de la adopción de herramientas de IA y priorice las herramientas que se alineen con los objetivos estratégicos.
3) Asegure las oportunidades educativas de IA para cada estudiante.
Las escuelas deben requerir que las herramientas de IA ofrezcan múltiples medios de acceso al contenido, múltiples opciones para la respuesta y expresión de los estudiantes, y los soportes personalizables para la función y el enfoque ejecutivo, así como para cumplir con las pautas de accesibilidad. El marco también advierte a las escuelas que salvaguarden contra el juicio erróneo algorítmico al prohibir que las herramientas de IA tomen decisiones finales sobre elegibilidad IEP u otras decisiones de servicio, acciones disciplinarias o decisiones de progreso del estudiante.
4) Realizar evaluación continua, aprendizaje profesional y desarrollo comunitario.
El marco recomienda que las escuelas establezcan bucles continuos de revisión y mejora, preparen a los educadores como usuarios informados y tomadores de decisiones, y creen preparación de IA y juicio digital en toda la institución.
«Vemos este marco como una fundación», dijo James Basham, director de CIDDL y profesor de educación especial en la Universidad de Kansas, en un comunicado. «A medida que las escuelas consideren formar un grupo de trabajo de IA, por ejemplo, probablemente tendrán preguntas sobre cómo hacerlo, o cómo realizar un análisis de auditoría y riesgos. El marco puede ayudar a guiarlos a través de eso, y continuaremos construyendo sobre esto».
«La prioridad en CIDDL es compartir recursos transparentes para los educadores sobre temas que son de tendencia y de una manera fácil de digerir», dijo Angelica Fulchini Scruggs, asociada de investigación y directora de operaciones para CIDDL. «Queremos que las personas se unan a la comunidad y les ayuden a saber dónde comenzar. También sabemos que esto evolucionará y cambiará, y queremos ayudar a los educadores a mantenerse al día con esos cambios para usar AI de manera responsable en sus escuelas».
El informe completo está disponible en el sitio CIDDL aquí.
Sobre el autor
Rhea Kelly es editor en jefe de Campus Technology, The Journal y Spaces4learning. Se puede llegar a ella en [email protected].
