Se llevó a cabo el Taller "Indicadores, Rankings y Evaluación"

  

 

Con el propósito de discutir sobre las características técnicas y la utilización de indicadores y rankings en la gestión y la evaluación, el 6 de diciembre de 2016 se realizó en Buenos Aires el Taller "Indicadores, Rankings y Evaluación". La reunión fue organizada en forma conjunta por el Observatorio Iberoamericano de la Ciencia, la Tecnología y la Sociedad (OCTS-OEI), el Centro REDES y el Centro de Altos Estudios Universitarios de la OEI en Argentina (CAEU-OEI).

 

La modalidad fue la de mesa redonda con expertos de larga trayectoria en el tema, incluyendo a productores de estadísticas oficiales, académicos y gestores de las áreas de ciencia, tecnología y educación superior. Esto permitió un intenso intercambio de opiniones y un análisis crítico de los indicadores en general y de los rankings de universidades en particular, así como de su impacto a nivel nacional y regional.

 

En la apertura del encuentro, Andrés Delich, director de la Oficina de OEI en Argentina, planteó la importancia de dirigir la discusión hacia “cómo se producen, qué sentido tienen y cómo son leídos” los rankings e indicadores en materia de educación, ciencia y tecnología. A continuación Mario Albornoz, coordinador del Observatorio CTS, expuso los resultados de un estudio sobre el uso público de la información en ciencia, tecnología y educación superior, con el énfasis puesto en el caso de los rankings de universidades. “No se puede hacer política pública sin datos objetivos”, dijo Albornoz. “Por el contrario, los rankings tienden a uniformar una realidad compleja y pueden en gran medida desorientar. Nuestra propuesta es debatir acerca de los rankings con una lógica distinta a la de los medios masivos, donde se resalta el aspecto competitivo de los rankings, como si se tratara de un deporte.”

 

 

El taller se completó con cuatro sesiones, cada una de ellas marcada por un eje temático particular.

 

La primera de ellas se tituló “Indicadores: credibilidad y usos sociales”. Contó con la moderación de Rodolfo Barrere, coordinador de RICYT, y la participación de María Elina Estébanez, investigadora del Centro REDES, y Jorge Robbio, subsecretario de estudios y prospectiva del Ministerio de Ciencia, Tecnología e Innovación Productiva de la República Argentina (MINCYT). Se revisaron los aspectos conceptuales y metodológicos en los que se apoyan los indicadores para ser comparables y confiables. Se reservó un espacio especial para discutir sobre las consecuencias de la interpretación de los datos, donde el contexto de uso resulta clave.

 

La segunda sesión, “Información, ideología e intereses”, fue moderada por Mario Albornoz y contó con la participación de Osvaldo Barsky, coordinador del Centro de Altos Estudios en Educación de la Universidad Abierta Interamericana (UAI), y Alfredo Boselli, gerente de desarrollo tecnológico y proyectos especiales y asesor de presidencia de la Comisión Nacional de Energía Atómica (CNEA). Se indagó en los implícitos que existen al interior de los datos numéricos, en particular las visiones ideológicas y los intereses subyacentes.

 

 

El tercer panel, “Los rankings y el sistema educativo”, fue introducido por Carlos Pérez Rasetti, director de la maestría en educación superior de la Universidad Nacional de La Matanza, quien luego dio paso a las contribuciones de Mónica Marquina, directora ejecutiva del Programa de Calidad Universitaria del Ministerio de Educación de la República Argentina (ME); Mabel Dávila, integrante del Centro de Altos Estudios en Educación de la UAI; y Ana García de Fanelli, investigadora principal del CONICET en el área de educación superior del Centro de Estudios de Estado y Sociedad (CEDES). Durante la sesión se discutió sobre las consecuencias de la falta de reflexión en el uso de los rankings en la academia y los medios masivos, ya que esta información suele pasar por alto la calidad de las fuentes y los sesgos propios de quienes elaboran los rankings.

 

“Indicadores y evaluación: ¿homogeneización o reconocimiento de la diversidad” fue el título del cuarto panel, moderado por Lucas Luchilo, subsecretario de evaluación institucional de la Secretaría de Articulación Científico-Tecnológica del MINCYT, e integrado por Cynthia Jeppesen, gerenta de evaluación y planificación del CONICET, y Adolfo Stubrin, secretario de planeamiento de la Universidad Nacional del Litoral, en el rol de expositores. Se abrió el debate hacia la necesidad de desarrollar tipologías que permitan organizar comparaciones significativas, reconociendo similitudes y heterogeneidades. Además, se discutió sobre las implicancias del sesgo de la evaluación hacia los instrumentos y no hacia las políticas, así como también la proliferación de evaluaciones de impacto de dudosa solidez metodológica.

 

De las presentaciones y debates del Taller “Indicadores, Rankings y Evaluación” surgirá una publicación que se presentará en 2017.