Por qué la educación superior debe tomar conciencia de los riesgos antes de que lleguen los titulares – Campus Technology

La amenaza de la IA en la sombra: por qué la educación superior debe darse cuenta de los riesgos antes de que lleguen los titulares

Cuando la IA generativa captó por primera vez la atención mundial, la mayoría de los titulares se centraron en la innovación. En la educación superior, ese mismo entusiasmo está surgiendo, pero también el riesgo.

Según el Estudio del panorama de la IA de Educause, mientras que el 77% de los colegios y universidades informan tener algún nivel de estrategia relacionada con la IA, sólo el 30% considera que la preparación para la IA y el análisis es una prioridad máxima. Aún más preocupante es que la gobernanza y el cumplimiento se ubicaron entre las prioridades institucionales más bajas, y solo el 27% les prestó atención significativa.

Esa brecha es importante, porque el riesgo más apremiante puede no estar en las herramientas en sí, sino en cuán silenciosamente se utilizan sin supervisión.

Definición de Shadow AI y su problema raíz

La IA en la sombra es un subconjunto de un desafío más amplio y de larga data conocido como TI en la sombra: el uso de tecnologías no examinadas ni aprobadas por los equipos de seguridad o de TI de una organización. Si bien la TI en la sombra siempre ha planteado riesgos, la IA en la sombra intensifica esos riesgos de maneras nuevas y complejas.





Las herramientas de IA actuales están basadas en la web, son gratuitas y ampliamente accesibles. Eso los hace atractivos para los profesionales ocupados, pero difíciles de monitorear o gobernar para los equipos de ciberseguridad. En la educación superior, podemos ser especialmente vulnerables, no por descuido, sino porque nuestros entornos suelen estar descentralizados y motivados por la curiosidad.

Queremos que nuestros profesores y personal exploren la IA. Necesitamos que lo hagan. Pero debemos proporcionar una forma segura y responsable de hacerlo, o correr el riesgo de perder el control de datos confidenciales sin darnos cuenta.

Por qué la educación superior está especialmente en riesgo

La educación superior funciona de manera diferente. Los departamentos suelen funcionar de forma independiente. Los equipos de investigación adoptan sus propias plataformas. Y las decisiones sobre nuevas herramientas se pueden tomar sin involucrar a TI ni al ámbito legal, lo que crea brechas en lo que respecta a la supervisión de la IA.

Los profesores, por ejemplo, pueden utilizar la IA para redactar programas de estudios o resumir investigaciones. El personal puede reescribir los correos electrónicos de los estudiantes con chatbots. Los equipos de recursos humanos pueden probar herramientas para agilizar la incorporación. Estas decisiones no son intrínsecamente imprudentes, pero cuando se toman sin orientación, aumentan las posibilidades de exponer datos confidenciales.

Esto no es hipotético. Según la encuesta de IA de Ellucian, el 84 % de los profesores y administradores ya utilizan herramientas de IA, y el 93 % espera que ese uso crezca. Mientras tanto, las preocupaciones sobre los prejuicios, la privacidad y la seguridad han aumentado considerablemente.

Del uso a la exposición: por qué es importante la gobernanza

La IA de las sombras rara vez comienza con malas intenciones. A menudo comienza con una decisión bien intencionada: un profesor que intenta ahorrar tiempo, un miembro del personal que busca claridad, un equipo que prueba la automatización. Pero sin barreras de seguridad, estas opciones pueden llevar a una exposición involuntaria de los datos.

Imagine a un instructor que utiliza una herramienta pública de inteligencia artificial para personalizar un plan de lección y pega los datos de los estudiantes para mejorar el resultado. O un miembro del personal que carga documentos internos para redactar comunicaciones. Estas acciones pueden parecer inofensivas, pero si las herramientas no están aprobadas o no son seguras, nadie sabe adónde van esos datos ni cómo se utilizan. La innovación sin supervisión se convierte en riesgo.

Las instituciones se sienten presionadas para «entrar en la IA», pero a menudo sin un marco claro. Y cuanto más poderosa es la IA, más datos específicos requiere, lo que incita a los usuarios a cargar registros de estudiantes, investigaciones o archivos institucionales.

Por eso es importante la gobernanza.

Los colegios y universidades deben establecer juntas de gobierno de IA multifuncionales con voces de TI, ciberseguridad, legal, facultad y liderazgo académico. Estos equipos pueden evaluar casos de uso, alinear prácticas de datos, priorizar inversiones y guiar la adopción responsable.

We use cookies in order to give you the best possible experience on our website. By continuing to use this site, you agree to our use of cookies.
Accept