Por qué las universidades necesitan alinear el almacenamiento de datos con el valor de los datos – Campus Technology

Por qué las universidades necesitan alinear el almacenamiento de datos con el valor de los datos

Las universidades son voraces generadoras de datos, y una institución muy conocida con alrededor de 40.000 estudiantes produce actualmente más de 15 TB por día sólo a partir de actividades de investigación. Este tipo de volumen coloca los requisitos de almacenamiento firmemente en el rango de los petabytes, comparables a los de las grandes empresas, y las necesidades de infraestructura crecerán aún más a medida que se adopten más ampliamente las herramientas de inteligencia artificial con uso intensivo de datos.





En muchos entornos, el crecimiento desenfrenado de datos está superando la capacidad de los equipos de TI para gestionarlos de forma eficaz. Es una situación que tiene un efecto dominó potencialmente grave en todo, desde el rendimiento tecnológico y la puntualidad de la investigación hasta los presupuestos, que, en términos generales, siguen bajo una presión significativa.

Lo central del desafío es que las instituciones tienden a abordar el crecimiento de los datos de una manera unidimensional: cuando el almacenamiento se llena, sigue agregando más. Para agravar el problema, una proporción significativa de los conjuntos de datos universitarios consiste en información inactiva o de bajo acceso que permanece en el almacenamiento primario simplemente porque nunca ha sido evaluada o clasificada. De manera similar, es comprensible que las universidades sean reacias al riesgo, hasta el punto de que los datos se conservan indefinidamente porque las instituciones no tienen la confianza para archivarlos o eliminarlos.

Si bien este enfoque proporciona un cierto nivel de tranquilidad, en términos prácticos también significa que los datos de alto y bajo valor se tratan de la misma manera. Esto no sólo aumenta los costos generales sino que también limita la efectividad de las inversiones en tecnología a largo plazo.

Ver el problema y la solución del crecimiento de los datos principalmente a través de una lente de capacidad de almacenamiento también pasa por alto un punto crítico: cualquier falta de visibilidad sobre qué datos existen, dónde residen y cómo se utilizan crea una desconexión fundamental entre el gasto y el valor que los datos realmente ofrecen.

Un cambio de enfoque

El primer paso es recuperar el control de los datos para que puedan gestionarse y presupuestarse de acuerdo con su valor. Se trata entonces de gestionar los requisitos de acceso, los cuales requieren un cambio de enfoque. Las instituciones deben alejarse del hábito reactivo de ampliar el almacenamiento y adoptar un modelo de gestión de datos más deliberado, basado en la comprensión y el control.

El punto de partida es la visibilidad, porque sin una visión unificada del conjunto de datos, es difícil, si no imposible, distinguir entre los datos que respaldan la investigación activa, por ejemplo, y aquellos a los que ya no se accede pero que continúan consumiendo recursos de almacenamiento costosos y de alto rendimiento.

Este enfoque depende de la capacidad de analizar grandes volúmenes de datos no estructurados a escala universitaria, lo que normalmente significa miles de millones de archivos en múltiples sistemas y ubicaciones. Este es un desafío para el software de gestión de datos, con sistemas modernos capaces de analizar miles de millones de archivos para brindar la visibilidad necesaria para una toma de decisiones informada.

A esta escala, la gestión de datos simplemente no puede depender de procesos manuales y, en cambio, depende de inteligencia automatizada para cerrar la brecha entre requisitos y recursos. Esto proporciona la base para tomar decisiones coherentes basadas en datos sobre cómo se deben manejar los diferentes conjuntos de datos, garantizando que la infraestructura de almacenamiento esté alineada adecuadamente con el valor real y los requisitos de acceso de cada conjunto de datos y los procesos de cumplimiento asociados.

Independientemente de dónde residan los datos, las instituciones también deben garantizar que los permisos de acceso se definan y mantengan de manera consistente en todos los entornos. Sin este nivel de control, los datos confidenciales o regulados pueden permanecer expuestos incluso si se han trasladado a un nivel de almacenamiento más apropiado, lo que podría socavar tanto la gobernanza como el cumplimiento.

Armadas con información definitiva, las instituciones pueden comenzar a tomar decisiones informadas sobre qué conjuntos de datos deben permanecer en una infraestructura de alto rendimiento y cuáles pueden trasladarse a entornos de archivo más rentables o eliminarse por completo. Esto ofrece una base sólida para adoptar una gestión del ciclo de vida basada en políticas, en la que los datos se gobiernan activamente a lo largo de su vida útil y, cuando se alcanzan ciertas etapas, pueden trasladarse a una configuración más adecuada o eliminarse permanentemente.

El impacto a corto plazo suele ser una reducción de la presión sobre los sistemas de almacenamiento primario y un enfoque más controlado para la planificación de la capacidad. Más importante aún, permite que los presupuestos se alineen con las necesidades reales de datos, de modo que la inversión se dirija a respaldar las prioridades institucionales fundamentales en lugar de limitarse a seguir absorbiendo fondos que podrían utilizarse mejor en otros lugares.

Y seamos claros: no se trata sólo de reducir los costos de almacenamiento, por muy importante que sea. También se trata de mejorar la forma en que las instituciones operan a escala y prepararlas para un futuro en el que los volúmenes de datos crecerán aún más. Romper el ciclo de expansión periódica del almacenamiento y reemplazarlo con un modelo más predecible y sostenible es fundamental para una inversión sostenible en TI. Aquellas instituciones que logren el equilibrio adecuado podrán beneficiarse de un mejor control de costos y un apoyo más eficaz a la investigación y la innovación.

Sobre el autor


Steve Leeper es vicepresidente de marketing de productos en Datadobi.



We use cookies in order to give you the best possible experience on our website. By continuing to use this site, you agree to our use of cookies.
Accept