Daniel Torres-Salinas Seminario sobre Metodologías de los Rankings Universitarios Universidad de Granada 22 de Junio ASPECTOS METODOLÓGICOS
Daniel Torres-Salinas
Seminario sobre Metodologías de los Rankings Universitarios
Universidad de Granada 22 de Junio
ASPECTOS METODOLÓGICOS
Índice de contenidos
1.Introducción general a ranking i-ugr2.Construcción de los rankings i-ugr3.Aspectos metodológicos4.Resultados generales y de la UGR
INTRODUCCIÓN
• Soft Computing and Intelligent Information Systems• Grupo Evaluación de la Ciencia y la Comunicación Científica
¿Quiénes hacemos el ranking?
Ah! En esta 3ª Edición 2012 hemos cambiado el nombre
¿Cómo se definen Rankings I-UGR?
Ranking de investigación de universidades españolas públicas y privadas
Investigación publicada en revistas de impacto internacionales.
No es un ranking general sino una suma de rankings por campos y disciplinas
Utilización de períodos cronológicos amplios: quinquenios y décadas. Mayor estabilidad.
¿Porqué es necesario?
No existen rankings a nivel nacional que estudien las universidades por áreas temáticas de forma sistemática y continuada
No todas las universidades tienen el mismo perfil de investigación, la misma especialización temática
Las universidades españolas no están los suficientemente representadas en los rankings internacionales más empleados
La fuente de datosWeb of Knowledge
- Web of Science- Journal Citation Reports
REFERENCIA EN LAS AGENCIAS EVALUACIÓN
- CNEAI- ANECA- ETC…
REFERENCIA EN OTROS RANKINKGS
- SHANGAI- THE RANKING
- TAIWAN
Filosofía que nos guía1) Presentar los datos con la mayor actualidad posible de forma que sean útiles. Por ejemplo este años en junio hemos ofrecido datos hasta 2011.
2) Ser conscientes de las limitaciones del ranking y transmitirlas a nuestros usuarios. En esta presentación veremos algunas de ellas.
3) Ofrecer indicadores objetivos que puedan ser replicados fácilmente por los usuarios. Se pueden consultar todos los indicadores brutos.
4) Presentar la mayor cantidad de materiales posible sobre los detalles de la construcción del ranking.
5) Aceptar errores y corrección de los mismos con la mayor agilidad posible
6) Ofrecer una herramienta que vaya más allá de los propios rankings de universidades y ayude a las universidades a comprender su situación.
Construcción de los rankings i-ugr 2012
El criterio de ordenación
NDOC: Número de documentos citables
NCIT: Número de citas
ÍNDICE H: Índice H según Hirsch
TOPCIT: Porcentaje altamente citados
1Q: % indexados en el primer cuartil
PCIT: Promedio de citas
DIMESIÓN CUANTITATIVA
DIMESIÓN CUALITATIVA
Ejemplo cálculo IFQ2A-Index. 1. Se calculan los indicadores. El valor máximo normaliza.
Ejemplo cálculo IFQ2A-Index.
3. Se calculan las medias para cada dimensión
X
Cobertura campos & disciplinas
12 CAMPOS CIENTÍFICOS 37 DISCIPLINAS CIENTÍFICAS
Ed. QUINQUENIOS y DÉCADAS Campos Disciplinas
2010 2005-2009 | 2000-2009 12 Campos
No se publicaron disciplinas
2011 2006-2010 |2001-2010 12 Campos
19 disciplinas
2012 2007-2011 |2002-2011 12 Campos
37 disciplinas
2 PERIODOS CRONOLÓGICOS
¿Cómo se han creado?
Agregación de las 230 Categorías del JCR
Portal ‘Rankings I-UGR’http://www.rankinguniversidades.es/
1
2 3
Aspectos Metodológicos de rankings i-ugr
La necesidad de campos y disciplinas
La excelencia cuenta. BidimensionalidadMATEMÁTICAS 2007-2011
En rankings I-UGR no hay HumanidadesHeredamos las limitaciones de nuestra fuente (WoK).
¿Cuánto perdemos?. Veamos el caso de la UGR
Retrato de la UGR 2007-2011 por grandes áreas
La regla de la producción mínimaPara figurar en los rankings por campos y disciplinas las
universidades deben contar con una producción mínima.Utilizamos los cuartiles y terciles de producción (NDOC).
¿Qué queremos evitar? El EFECTO PANAMÁ
UNIVERSIDADES CON POQUÍSIMA PRODUCCIÓN PUEDEN CONDICIONAR RESULTADOS
Uno de los aspectos que se deberían medir son los recursos destinados por las universidades. Como por ejemplo los recursos humanos o proyectos de
I+D obtenidos para crear una 3ª dimensión
¿Y los recursos? ¿Y la productividad?
Sin embargo en la actualidad no contamos con las fuentes necesarias que nos permitan éstas variables por campos y disciplinas y menos
asignarlas debidamente. Por tanto mejor presentar un ranking objetivo que un ranking equivocado
Necesariamente los rankings no reflejan la producción científica de una facultad o un
departamento. Es la producción en un área temática
¿Hablamos de rankings de facultades?
LA FACULTAD DE CIENCIAS DEL DEPORTE UGR
No todo lo que publica está en la disciplina de “Actividad Física y Deporte”. Reparte su
producción científica en otras categorías JCR
LA DISCIPLINA I-UGR DE DOCUMENTACIÓN
No todo lo que se publica en esa disciplina ni en la
categoría JCR pertenece a profesores de la Facultad de Comunic. y Documentación
Existen profesores en la UGR de la ETSIIT y de la Facultad de Psicología publicando en está área científica.
Resultados de la Universidad de Granada
El sistema universitario español
J. A. García, Rosa Rodríguez-Sánchez, J. Fdez-Valdivia, N. Robinson-García, D. Torres-Salinas. Mapping Academic Institutions According to Their Journal Publication Profile: Spanish Universities as a Case Study. Journal of the American Society for Information Science & Technology. (2012) (Accepted Paper)
Resultados generales. Campos. 2007-2011
8 universidades que aglutinan el 92% de las tres primeras posiciones en los
Campos Científicos
Resultados generales. Disciplinas. 2007-2011
por 8 universidades que aglutinan el 61% de las tres primeras posiciones en el caso de las disciplinas
Resultados generales. Campos. 2007-2011
Resultados generales. Campos. 2007-2011
Resultados generales. Disciplinas. 2007-2011
http://www.rankinguniversidades.es/
[email protected]@torressalinas