Indicadores de calidad en educación superior. Jairo Sánchez Quintero
de la calidad con indicadores secundarios, triviales o inútiles que opacaban a los primeros, e incluso estos también eran percibidos como descontextualizados por cuanto ignoraban las diversas condiciones del ambiente interno y externo en el que operan los programas en un país multicultural como el colombiano, donde en muchas ocasiones los directivos (rectores, vicerrectores, decanos y miembros de consejos directivos o máximos órganos de gobierno) no cuentan con una suficiente preparación en gestión7. Sin embargo, los indicadores tenían un valor relativo en el análisis de la calidad de los programas, por lo cual la solución no era eliminarlos, como ocurrió en la versión 2013 de los lineamientos del CNA, sino mejorarlos, jerarquizarlos y conectarlos en un sistema de indicadores cruciales.
Desde la perspectiva del CNA existen, dentro de los 183 indicadores referidos a 42 características y ocho factores, algunos que son esenciales o centrales8 a la característica a la que están asociados y otros que son complementarios. La tabla 1 muestra el número de factores, características e indicadores en los lineamientos de acreditación del CNA de 2006.
Tabla 1. Número de indicadores y características por factor del CNA
Fuente: elaboración propia. Información tomada de CNA (2006).
Es claro que no todos los 183 indicadores del CNA son considerados cruciales, relevantes y esenciales para el mejoramiento de la calidad expresada en mejores resultados en los ECAES y para el impacto de la acreditación en el desempeño de los estudiantes. No obstante, no se pudo establecer tal distinción entre los de mayor jerarquía y los secundarios o incluso triviales o inútiles, a pesar de que esta claridad permitiría a los directivos, docentes y estudiantes de los programas académicos tomar mejores decisiones ya que podrían dedicar más tiempo y recursos a lo esencial y menos tiempo a lo trivial (principio de Pareto), lo que incidiría significativamente en el aprendizaje, el desarrollo de competencias, el mejoramiento de la responsabilidad social pública, los resultados en los ECAES o Saber Pro y el mejoramiento de la calidad de la educación superior y la calidad de vida de los profesionales colombianos.
Los indicadores del CNA de 2006 fueron determinados de manera preestablecida, habiéndose estudiado parcialmente la situación real de los programas académicos sin avanzar en los últimos años en su revisión, evaluación, ajuste o replanteamiento hacia indicadores pertinentes para la época (siglo XXI). A su vez, no hubo participación profunda de los actores universitarios claves, por ejemplo, en cuanto a los indicadores que conducen a mejores resultados en las pruebas ECAES o a los que generan personas más éticas y con proyectos de vida cimentados y consolidados desde los programas de pregrado. En consecuencia, esta investigación cobra un importante sentido, que, de todos modos, no desconoce la relevancia de la propuesta del CNA.
Según Misas (2004):
La construcción de un conjunto de indicadores sobre la calidad de la educación superior en Colombia debe ir acompañado de una amplia discusión, dentro de las universidades y demás establecimientos de la educación superior, sobre los conceptos de calidad y de eficiencia del quehacer universitario que permita cimentar las bases para crear una cultura de la evaluación del trabajo docente e investigativo (p. 47).
La discusión amplia que plantea Misas (2004) no ocurrió para el caso de los 183 indicadores propuestos por el CNA en el 2006. Ahora bien, en el caso de los lineamientos elaborados y presentados por el CNA en el 2012, se realizaron algunos eventos de carácter informativo durante el año, en diferentes regiones del país, donde además escucharon algunos puntos de vista que condujeron a la incorporación de los indicadores a los aspectos, aumentando el número de indicadores-aspectos a más de 200.
Corvalán (2000) señala que
El estado de desarrollo de los indicadores en educación es aún incipiente, aunque se está avanzando en forma más integral, más participativa y a mayor velocidad que en la década pasada. Se están superando las dificultades encontradas para concebir y construir y usar indicadores comparables en ese campo. Hay mayor voluntad política para desarrollarlos (p. 160).
En relación con el número de indicadores, Scheele (2009) manifiesta que “se supone que el número de estándares e indicadores no puede ser demasiado grande para no desanimar a las instituciones en su decisión de mantener un sistema efectivo de aseguramiento de la calidad” (p. 13). Así pues, los 183 indicadores del CNA de Colombia resultan excesivos al compararlos con los 38 de España, los 12 propuestos por Cruz (2009), los 40 de Sudáfrica, los 52 de Egipto, los 27 deen India, 68 en México, 24 en los Países Bajos y 27 de la Global University Network for Innovation (GUNI). Frente al número excesivo de indicadores, “el CNA invita a las propias instituciones y a las asociaciones de Facultades, a elaborar y precisar indicadores más específicos” (CNA, 2006, p. 5), es decir, a identificar los que son realmente cruciales para cada tipo de programa académico. En varios apartados del documento de lineamientos del CNA se insiste adicionalmente en que las instituciones construyan sus propios indicadores para evaluar las características de calidad de los programas de pregrado según su naturaleza.
Luhmann, citado por Schepelmann (2007), afirma:
Una característica constituyente de la diferenciación funcional es la selección funcional de información. Solamente la información relevante a la función de un sistema diferenciado es seleccionada. Cualquier otra información es ruido innecesario, que disminuye la eficiencia definida funcionalmente de un sistema y en consecuencia necesita ser suprimida (p. 5).
Según la Agencia Nacional de Evaluación de la Calidad y Acreditación de España (Aneca, 2005):
La generación de una multitud de índices no supone, necesariamente, la obtención de una imagen más completa de la realidad, sino que más bien suele complicar la percepción de la misma. Es preciso por tanto llevar a cabo una clasificación de aquellos indicadores que proporcionen la información relevante. […] Para poder llevar a cabo esta selección, el sistema debe estar presidido por un marco estratégico que constituya la guía básica que determine cuáles son los principales objetivos a alcanzar y cuáles las mejores medidas de su logro (p. 440).
De manera que, en resumen, un número excesivo de indicadores trae consecuencias negativas para la evaluación y el mejoramiento de la calidad educativa universitaria por cuanto complican las percepciones de los actores universitarios (Aneca, 2005), los desaniman (Scheele, 2009) y producen ruido innecesario que disminuye la eficiencia del sistema (Luhmann, citado por Schepelmann, 2007).
Asimismo, según Aneca (2010):
En la actualidad es ineludible revalorizar el papel de la información como instrumento para la toma de decisiones en el ámbito universitario. Sin un conocimiento profundo de la realidad actual es difícil orientar con eficiencia las actuaciones de mejora de las instituciones. […] La información es un instrumento de sensibilización que promueve la autocrítica y contribuye a aprovechar la capacidad de autorregulación del sistema universitario. Con ello se fortalece, al mismo tiempo, la autonomía universitaria y el necesario rendimiento de cuentas a la sociedad. […] La selección de un número reducido de indicadores pretende que la reflexión de las Universidades sobre sus enseñanzas se concentre en unos pocos elementos críticos comunes a todos los títulos. Ello sin menoscabo de otros datos, derivados de la implantación de los sistemas de garantía de la calidad de los títulos, en los que las Universidades pueden fundamentar dicha reflexión (pp. 105-106).
En este orden de ideas, la presente investigación adopta la necesidad de seleccionar un número reducido de indicadores críticos o cruciales para que la reflexión se concentre en unos pocos elementos críticos comunes, es decir imprescindibles y vitales.
Por otra parte, no se han producido, identificado, analizado ni propuesto indicadores asociados a los resultados de las pruebas ECAES creadas mediante el Decreto 1781 de junio 26 de 2003. Según Rudnykh (2007) y Rudnykh y Barraza (2009), la información resultante de su implementación ha sido poco analizada desde una perspectiva global, a pesar de que es muy valiosa para evaluar y mejorar la calidad y tomar decisiones en relación con el uso de indicadores claves.
El Decreto 3963 de octubre