Carta abierta: Por un cambio radical en la evaluación de la investigación en España

Autores de la carta y afiliación. Clic para descargar la carta en PDF

Resumen

Esta carta es un llamamiento a las autoridades científicas españolas para que abandonen las políticas de evaluación de la investigación basadas en un uso excesivo e indiscriminado de los indicadores bibliométricos para casi todos los ámbitos de la actividad científica y, muy especialmente, para valorar el desempeño individual de los académicos. Para ello, describimos en primer lugar los usos y contextos en los que se está empleando el Impact Factor (IF) y otros indicadores bibliométricos. Después repasamos los efectos tóxicos que este abuso de indicadores está generando. Finalmente, describimos algunas transformaciones e iniciativas significativas que se están introduciendo en varios campos académicos y regiones del mundo. Estas iniciativas internacionales ofrecen alternativas a la bibliometría que pueden mejorar los procesos de evaluación. Instamos a los líderes políticos en España a adoptarlas y desarrollarlas.

Palabras clave

Evaluación de la investigación; Evaluación rendimiento investigadores; Política científica; Indicadores bibliométricos; Declaración de San Francisco sobre evaluación de la investigación; Manifiesto Leiden; Factores de impacto; índices de impacto de revistas, recuentos de citas; Revistas científicas, Comunicación científica, Ética de la investigación

A call for a radical change in research evaluation in Spain

Abstract

This letter is a call to the Spanish scientific authorities to abandon current research evaluation policies, which are based on an excessive and indiscriminate use of bibliometric indicators for nearly all areas of scientific activity. This narrow evaluation focus is especially when applied to assess the individual performance of researchers. To this end, we first describe the contexts in which the Impact Factor (IF) and other bibliometric indicators are being used. We then consider the toxic effects of this abuse of indicators. Finally, we outline some significant transformations and initiatives being introduced in various academic fields and regions of the world. These international initiatives offer alternatives to bibliometrics that can improve evaluation processes, and we urge political leaders in Spain to adopt and develop them.

Keywords

Research evaluation; Performance assessment of researchers; Research policy; Bibliometric indicators; San Francisco Declaration on Research and Assessment, DORA, Leiden Manifesto; Journal Impact Factor; Journal level metrics; Citation counts; Scientific journals; Scholarly publishing; Scientific ethics

Carta publicada originalmente en la revista Profesional de la Información. Referencia:
Delgado-López-Cózar, Emilio;Ràfols, Ismael; Abadal, Ernest (2021). “Letter: A call for a radical change in research evaluation in Spain”. Profesional de la información, v. 30, n. 3, e300309. https://doi.org/10.3145/epi.2021.may.09
Referencia del artículo original. Mayo 2021

1. España: el reino del factor de impacto

En España, a día de hoy, no es posible ingresar, progresar o coronar con éxito la carrera científica sin disponer de un cuantioso número de artículos publicados en revistas con un buen factor de impacto en los Journal Citation Reports (JCR) o en otros rankings de parecida naturaleza (SJR: Scimago Journal Rank, Ranking de revistas Fecyt). Ningún espacio científico escapa a la soberanía del Impact Factor, que es el patrón oro de la evaluación científica en España.

Hace unas semanas se publicó una carta firmada por un profesor español de dilatada trayectoria con el elocuente título “publish, publish … cursed!” (Fernández-Cano 2021). En ella, sin mencionar expresamente España, se describe fielmente el ambiente en la que se desenvuelve la actividad científica española. El uso de indicadores basados en los índices de impacto de las revistas se ha extendido:

  • A todos los campos de conocimiento desde las ciencias experimentales, tecnológicas, sociales hasta las artes y humanidades.
  • A todas las instituciones que articulan la estructura científica del país, ya sean agencias de financiación, evaluación, universidades, organismos de I+D+I, hospitales u otros tipos de entidades públicas o privadas generadoras de conocimiento científico.
  • A todas las actividades que conforman la vida académica: petición de becas, ayudas, proyectos, programas, concursos de acceso y promoción de profesores e investigadores, evaluación de programas docentes (máster, doctorado), premios.
  • A todos los actores de la investigación bien sea a nivel individual (profesores, investigadores, profesionales) o grupal (grupos de investigación y departamentos).

En definitiva, todos los hitos que jalonan el quehacer diario de un investigador desde que se inicia en la carrera científica hasta que la finaliza quedan mediatizados por la exigencia de publicar artículos en revistas JCR o similares:

  • Un estudiante que disfrute de una beca de iniciación a la investigación en grados o máster será premiado con un bonus si el periodo formativo se concreta en un artículo publicado en una revista JCR[1].
  • Un doctorando, en muchos programas de doctorado españoles, no podrá defender su tesis doctoral si no ha publicado previamente una publicación normalmente en forma de artículo en revistas indexadas. Cuando la tesis se defienda por compendio de publicaciones deberán presentarse no menos de tres artículos en revistas JCR (ciencias), exigiéndose incluso la publicación en posiciones relevantes (cuartiles)[2].
  • Un aspirante a becas para realización de la tesis doctoral (FPU, FPI) deberá venir avalado por un tutor y un equipo de investigación que cuenten con un importante caudal de publicaciones[3].
  • Para un doctor que aspire a contratos posdoctorales (Juan de la Cierva, Ramón y Cajal u otros similares) será muy importante el número de publicaciones que haya producido él, su tutor y el equipo de investigación que le avale[4].
  • Un aspirante a ser contratado como profesor en una universidad o como investigador en un centro de investigación deberá contar con un número de artículos en revistas bien posicionadas en JCR en todas las áreas de conocimiento, valorándose en el caso de humanidades también las revistas con buenas puntuaciones en SJR [5].
  • Un profesor universitario que desee ser acreditado por la Agencia Nacional de de la Calidad y Acreditación (ANECA) y promocionar en el escalafón pasando por las distintas categorías profesionales (ayudante doctor, contratado doctor, titular y catedrático) es obligatorio que publique un mínimo de artículos en revistas en JCR (también SJR o ranking Fecyt para humanidades y ciencias sociales), parte de los cuales deben figurar en el primer o segundo cuartil[6]. El número oscila de 20 a 150 (Delgado López-Cózar; Martín-Martín, 2019).
  • Un profesor o investigador del CSIC para obtener un sexenio de investigación (CNEAI) deberá presentar en un periodo de seis años un mínimo de 5 artículos publicados en revistas posicionadas en determinados cuartiles del JCR o SJR. Se dispone de baremos con escalas de puntuación muy precisas para cada revista (10-9 puntos a las que figuren en Q1 de JCR y a partir de ahí se van modulando) (Delgado López-Cózar, 2021). Poseer sexenios es clave. Sólo los profesores que dispongan de ellos pueden avalar becas, tutelar tesis, impartir docencia en másteres oficiales y doctorados, formar parte de tribunales académicos (tesis y plazas de profesorado), dirigir proyectos I+D+I, recibir bonus de productividad abonados por las universidades o gobiernos regionales) (ANECA 2009). Incluso, a partir de 2012 se utiliza para incrementar la carga docente del profesorado funcionario sin sexenios y para reducirla a aquellos que los tenían activos[7].
  • Los investigadores que deseen obtener proyectos de investigación financiados con cargo a fondos nacionales, regionales o locales deberán contar en sus currículos con un buen número de publicaciones en revistas de prestigio. El historial científico del equipo investigador es un factor clave.
  • Los centros de investigación que aspiren a ser considerados centros y unidades de excelencia (programas Severo Ochoa y MarÍa de Maeztu), y por ello recibir la más generosa financiación que se pueda recibir en España, deben cumplir como requisito previo para optar a esta etiqueta el que un 75% de todas sus publicaciones se publiquen en revistas de primer cuartil[8].

Este empecinamiento en emplear los índices de impacto de las revistas para evaluar todo, a todos, a todas horas, en todos los lugares y en todos los momentos se ve atizado por la repercusión que tiene en la gobernanza y líneas estratégicas de las universidades y centros de investigación los rankings de universidades, especialmente el ranking Shangai (ARWU), QS, THE, Leiden Ranking. Dado que el posicionamiento de las instituciones en dichos rankings depende del número de artículos en revistas de alto impacto bien en la Web of Science o Scopus, los gestores y responsables de estas instituciones introducen todo tipo de estímulos, programas y acciones destinados a conseguir subir en ellos. Se tiene el profundo convencimiento de que los ranking de universidades no son solo poderosos instrumentos de marketing sino que constituyen  el sello de calidad distintivo de la institución.

Esta situación es el corolario lógico de una política de evaluación científica instaurada en los años noventa del pasado siglo, sostenida a lo largo de tres décadas. Pocas políticas públicas de investigación han sido mantenidas tantos años y en una misma dirección. De ahí los importantes efectos tóxicos a los que ha dado lugar.

2. Los efectos tóxicos 

Esta visión reduccionista de la evaluación está generando consecuencias lesivas a nivel individual y colectivo, unos efectos que no se ciñen exclusivamente a escala estatal sino que tienen alcance internacional. Vamos a enumerar algunas de ellas (Welpe et al.  2015).

  1. La estimulación de la cultura del “publica o perece”: la publicación es el fin último, justificador e imprescindible de la actividad de investigación. La vida científica, por tanto, se transforma en un obsesivo juego dirigido a acumular más publicaciones y a incrementar el número de citas. Publicar por publicar aunque los trabajos sean vacuos, fútiles, reiterativos, sin conocimiento significativo, innovador y socialmente útil (RodríguezNavarro 2009; Delgado López-Cózar; Martín-Martín, 2019; Fernández-Cano, 2021).
  2. La actividad académica también se ha visto empobrecida. La dedicación equilibrada a la triple misión de la universidad (docencia, investigación y transferencia) se ha visto alterada por los efectos del IF. Existe una amplia evidencia de que las actividades docentes se descuidan por parte de los profesores, como consecuencia de un sistema de reclutamiento y promoción que se enfoca exclusivamente en recompensar las publicaciones científicas en revistas de alto IF, bajo el supuesto de que las publicaciones constituyen un buen proxy de un profesor. Los investigadores, por tanto, se concentran en la publicación como labor suprema, abandonando o desatendiendo actividades no “productivas”, que no rinden en la carrera científica (docencia, divulgación, transferencia) (Rijcke et al., 2016, Feenstra; Delgado López-Cózar, 2021). Un problema que se siente especialmente con los investigadores jóvenes (Rodríguez-Bravo; Nicholas, 2019). 
  3. Las líneas de investigación también se han visto alteradas (Lopez; Hicks, 2015)  porque está claro que existen temáticas que son más susceptibles de ser publicadas que otras, que quizá puedan tener una mayor incidencia (transferencias y/o impacto social) en la mejora del entorno pero que no son especialmente atractivas para los editores de revistas. Estos cambios en las agendas de investigación están sustituyendo las líneas lentas en producir resultados, inciertas, complejas y costosas por temas de moda, confección rápida y resultados seguros e inmediatos (Rijcke et al. 2016, Feenstra; Delgado López-Cózar, 2021). El miedo al fracaso anula el riesgo y la creatividad, nutrientes esenciales de la ciencia de vanguardia.
  4. El afán de publicar a cualquier precio alienta la proliferación de comportamientos poco éticos, relacionados con la autoría de artículos en los que no se ha participado de manera suficiente, malas prácticas de publicación (plagio, autoplagio, publicación duplicada, manipulación de citas, etc. (Martin, 2013; Feenstra, Delgado López-Cózar, Pallarés 2021) o, directamente, de conductas fraudulentas (fabricación de resultados, etc.).
  5. Finalmente, se ha alterado de manera notable el mercado internacional de las revistas científicas. En primer lugar, el IF genera un efecto “reputacional” en las revistas que provoca un desequilibrio de artículos publicados a favor de las revistas indexadas en el primer y segundo cuartiles (Q1 y Q2), ya que a pesar de ser el 50% de los títulos, publican más del 70% de los artículos (Moya, 2020). En segundo lugar, y esto es realmente grave, la presión de los autores para publicar en revistas de impacto ha desbocado el precio de los APC, que están fuera de control, sin ningún mecanismo que pueda frenar la escalada alcista porque la demanda de espacio para publicar permite que los precios puedan seguir subiendo. Así, p.e., Nature estableció en 9500$ el precio por publicar un artículo en abierto[9]. Las revistas de acceso abierto con pago de APC o las híbridas, además, lógicamente, están ubicadas en los primeros cuartiles. Esto solo es la punta del iceberg de unos incrementos generalizados de las tasas que se reclaman a los autores para publicar en muchas revistas científicas. 

3. Reformas internacionales en la evaluación 

La situación de evaluación española, centrada en el factor de impacto y sin cuestionamiento institucional, contrasta con las reformas que se están gestando a nivel mundial. En esta sección revisaremos los importantes cambios e iniciativas que se están realizando en múltiples ámbitos científicos y regiones mundiales.

En 2013 la Declaración de San Francisco de Evaluación de la Investigación (DORA)[10]  supuso el primer gran movimiento contra el uso del IF, abogando por la eliminación del uso de métricas basadas en revistas en las evaluaciones para la financiación de proyectos, o los concursos de plaza o promoción. Inicialmente impulsada por editores en el ámbito de la biología, DORA ha sido apoyada en los últimos ocho años por más de 17.000 investigadores, y casi 2.200 organizaciones en 145 países. A partir de la declaración, DORA se ha constituido en los últimos años como una organización con el fin de fomentar buenas prácticas en evaluación, con el apoyo de importantes instituciones como el Howard Hughes Medical Institute, la Fundación Suiza de Ciencia, el Consejo de Ciencia Noruego o la Wellcome Trust.

En 2015, se publicó el Manifiesto de Leiden (Hicks et al., 2015) que destilaba diez principios para un buen uso de indicadores cuantitativos en la evaluación. Este Manifiesto pone el foco en el uso contextualizado de los indicadores para la evaluación, de acuerdo con los objetivos, el área geográfica y disciplinaria, prestando especial atención a las incertidumbres de los indicadores a nivel individual. También en 2015, se publicó The Metric Tide (Wilsdon et al. 2015), un informe para el gobierno británico, que desarrolló la idea de ‘métricas responsables’, es decir, un uso de los indicadores que sea justo y que apoye distintas cualidades y contribuciones en investigación, no solamente la visibilidad bibliométrica.

Después de estas iniciativas, prestigiosas instituciones científicas han apoyado cambios en la evaluación para fomentar un uso apropiado de los indicadores, con especial énfasis en evitar el uso evaluativo del factor de impacto como proxy de calidad científica. Por ejemplo, en 2016, en el Reino Unido se creó el Forum for Responsible Research Metrics[11] con el objetivo de asesorar a las universidades británicas sobre el uso de indicadores en evaluación. El Forum incluye expertos de UKRI (la agencia de financiación en Gran Bretaña) y principales universidades. Otro ejemplo es el Grupo de trabajo sobre evaluación[12] creado en 2018 por la International Network of Research Management Societies (INORMS).

Las iniciativas para la Ciencia Abierta supusieron un nuevo paso hacia delante para la adopción de reformas. Dado que las revistas más prestigiosas, con IF alto, no son de acceso abierto, los gestores científicos llegaron a la conclusión que sin un cambio en la evaluación no se conseguiría una rápida difusión de la ciencia abierta (Wilsdon et al, 2017).  Por ejemplo, la Asociación Europea de Universidades (EUA) publicó en 2018 un informe [13] que apoya el desarrollo de una evaluación flexible, transparente, justa y sólida que fomente la ciencia abierta.

Los últimos años ha habido una lluvia de iniciativas institucionales hacia nuevos modelos de evaluación en los que haya un equilibrio entre la información cuantitativa y cualitativa, y en la que el valor del artículo vaya por delante del de la revista. Algunas de estas iniciativas son recogidas por la página web de DORA (vean el blog, la página de recursos y los estudios de caso). Se podrían destacar las siguientes iniciativas por su potencial impacto en sus respectivas regiones:

  • Varias agencias de financiación europeas, incluidas las fundaciones para la investigación en los Países Bajos, Irlanda, Suiza y el Reino Unido, han revisado el impacto de la evaluación en las carreras, y están adoptando el uso de formatos narrativos de CV.
  • El Consejo Latinoamericano en Ciencias Sociales (CLACSO) creó en 2019 el Foro Latinoamericano sobre Evaluación Científica (FOLEC) [14], con el apoyo de la mayoría de los Consejos nacionales de la región, para avanzar hacia una evaluación que apoye la ciencia abierta, con enfoques democratizadores y comprometidos con problemáticas sociales.
  • Las políticas científicas chinas en 2020 abandonaron su foco en bibliométrico (muy centrado en la Web of Science), y se han abierto hacia modelos que incorporan más bases de datos, la evaluación por pares y la valoración de la relevancia local (Zhang; Sivertsen, 2020)

Todos estos movimientos sugieren que la evaluación de la investigación ha entrado en una nueva era, hacia modelos más plurales que tienen en consideración varios factores de la ciencia (impacto científico pero también social y local, prestigio pero también accesibilidad, etc.) durante el proceso de evaluación.

4. Un llamamiento a la acción para los encargados de la formulación de políticas científicas: ¡ya es hora de firmar y cumplir con DORA y Leiden! 

Ante los efectos tóxicos de la evaluación por índices de impacto, y en vista a los cambios a nivel mundial, hacemos un llamamiento a las autoridades científicas españolas, especialmente las que ocupan los Ministerios de Ciencia y Universidades a nivel nacional y regional, como a los responsables de la ANECA y agencias regionales de evaluación, así como a los gestores de universidades y centros  de investigación para que suscriban y cumplan con la declaración DORA y sigan las recomendaciones en el uso de indicadores bibliométricos señalados en el Manifiesto Leiden. Un primer paso ya lo dieron las agencias de financiación en Cataluña (AQU e ICREA) y el País Vasco (Ikerbasque), y algunas universidades (la UOC) firmando DORA.  Recientemente (el 20 de abril de 2021), la Agencia Española de Investigación (AEI) también comunicó que firmaba DORA[15]. Las instituciones que suscriban estas declaraciones no solo deben firmar, sino adherirse, cumplir e implementar genuinamente sus postulados. Es inaceptable que después de haber firmado se mantengan los índices de impacto como elementos fundamentales de las evaluaciones; esperamos que los signatarios españoles se comprometan rápidamente a reformar sus prácticas de evaluación. Estas agencias han dado el primer paso. Ahora debe seguir una acción política para confirmar que de hecho se aplican nuevos modelos de evaluación y que la firma no es una operación meramente cosmética.

Esperamos que más instituciones se unan a las iniciativas para reformar la evaluación y que esta carta pueda hacer una pequeña contribución para apoyar el cambio. Creemos que esta convocatoria pública también puede ser relevante en otros países que todavía utilizan modelos de evaluación similares a los de España..

Referencias

  • ANECA (2009). Informe sobre el estado de la evaluación externa de la calidad en las universidades españolas. Madrid: ANECA. http://deva.aac.es/include/files/deva/informes/evaluacion_externa/Informe_Calidad_2009.pdf?v=202012120360
  • Fernandez-Cano, Antonio (2021). “Publish, publish … cursed!”. Scientometrics v. 126, n 4, pp. 3673–3682. https://doi.org/10.1007/s11192-020-03833-7
  • Delgado López-Cózar, Emilio; Martín-Martín, Alberto  (2019). “El factor de impacto de las revistas científicas sigue siendo ese número que devora la ciencia española: ¿hasta cuándo?”. Anuario ThinkEPI, v. 13. https://doi.org/10.3145/thinkepi.2019.e13e09
  • Feenstra, Ramón A., Delgado López-Cózar, Emlio, Pallarés-Domínguez, Daniel (2021). “Research misconduct in the fields of ethics and philosophy: researchers’ perceptions in Spain”. Science and Engineering Ethics, v. 27, n. 1, pp. 1-21. https://doi.org/10.1007/s11948-021-00278-w
  • Feenstra, Ramón A., Delgado López-Cózar, Emlio. (2021). The footprint of a metrics-based research evaluation system on Spanish philosophical scholarship: an analysis of researchers perceptions. https://arxiv.org/abs/2103.11987
  • Hicks, Diana; Wouters, Paul; Waltman, Ludo; De Rijcke, Sarah; Rafols, Ismael (2015). “Bibliometrics: the Leiden Manifesto for research metrics”. Nature, v. 520, n. 7548, pp. 429.  https://doi.org/10.1038/520429a 
  • López Piñeiro, Carla; Hicks, Diana (2015). “Reception of Spanish sociology by domestic and foreign audiences differs and has consequences for evaluation”. Research Evaluation, v. 24, n. 1, pp. 78-89. https://doi.org/10.1093/reseval/rvu030 
  • Martin, Ben R (2013). “Whither research integrity? Plagiarism, self-plagiarism and coercive citation in an age of research assessment. Research Policy, v. 42, n. 5, pp. 1005-1014, https://doi.org/10.1016/j.respol.2013.03.011
  • Moya, Félix de (2020). “Frecuencia de publicación e impacto de la producción científica mundial”. Scimago Lab.
  • Rijcke, Sarah; Wouters, Paul; Rushforth, Alex D; Franssen, Thomas P; Hammarfelt, Björn (2016). “Evaluation practices and effects of indicator use: a literature review”. Research Evaluation, v. 25, n. 2, pp. 161-169. https://doi.org/10.1093/reseval/rvv038
  • Rodríguez-Bravo, Blanca.;  Nicholas, David (2019). “Reputación y comunicación científica: investigadores españoles en el inicio de su carrera”. Profesional de la Información, v. 28, n. 2, e280203. https://doi.org//10.3145/epi.2019.mar.03
  • Rodríguez‐Navarro, Alonso (2009). “Sound research, unimportant discoveries: research, universities, and formal evaluation of research in Spain”. Journal of the American Society for Information Science and Technology, v. 60, n. 9, pp. 1845-1858. https://doi.org/10.1002/asi.21104
  • Welpe, Isabel M.; Wollersheim, Jutta; Ringelhan, Stefanie; & Osterloh, Margit (eds.) (2015). “Incentives and performance”.  Heidelberg: Springer. ISBN 978-3-319-09784-8 https://doi.org/10.1007/978-3-319-09785-5
  • Wilsdon, James; Bar-Ilan, Judit; Frodeman, Robert; Lex, Elisabeth, Peters, Isabella; Wouters, Paul (2017). Next-Generation Metrics: Responsible Metrics and Evaluation for Open Science. Report of the European Commission Expert Group on Altmetrics. Brussel, European Commission. https://op.europa.eu/en/publication-detail/-/publication/b858d952-0a19-11e7-8a35-01aa75ed71a1
  • Wilsdon, James; Allen, Liz; Belfiore, Eleonora; Campbell, Philip, Curry, Stephen; Hill Steven; Jones, Richard; Kain, Roger; Kerridge, Simon R; Thelwall, Mike; Tinkler, Jane; Viney, Ian; Wouters, Paul (2016). The metric tide: Independent review of the role of metrics in research assessment and management. Sage. https://doi.org/10.13140/RG.2.1.4929.1363
  • Zhang, Lin; Sivertsen, Gunnar (2020). The new research assessment reform in China and its implementation. Scholarly Assessment Reports, v. 2, n.1 https://doi.org/10.29024/sar.15

Notas

[1] https://www.uma.es/servicio-de-investigacion/info/121916/plan-propio-becas-de-iniciacion  

[2] https://escueladoctoral.uca.es/doctorado/normativa-para-la-presentacion-y-lectura-de-tesis

[3] https://www.pap.hacienda.gob.es/bdnstrans/GE/es/convocatoria/733672/document/473444

[4] https://www.boe.es/eli/es/o/2019/06/20/cnu692

[5] https://www.ugr.es/sites/default/files/2018-09/ACG1343.pdf

[6] http://www.aneca.es/Programas-de-evaluacion/Evaluacion-de-profesorado/ACADEMIA/Criterios-Diciembre-2019

[7] https://www.boe.es/diario_boe/txt.php?id=BOE-A-2012-5337. https://www.boe.es/diario_boe/txt.php?id=BOE-A-2012-5337

[8] https://www.ciencia.gob.es/portal/site/MICINN/menuitem.791459a43fdf738d70fd325001432ea0/?vgnextoid=7331309550af5710VgnVCM1000001d04140aRCRD&vgnextchannel=76190d5a07de6610VgnVCM1000001d04140aRCRD&vgnextfmt=formato2&id3=fe21309550af5710VgnVCM1000001d04140a

[9] https://www.sciencemag.org/news/2020/11/9500-nature-journals-will-now-make-your-paper-free-read

[10] https://sfdora.org/

[11] https://www.universitiesuk.ac.uk/policy-and-analysis/research-policy/open-science/Pages/forum-for-responsible-research-metrics.aspx

[12] https://inorms.net/activities/research-evaluation-working-group/

[13] https://eua.eu/downloads/publications/eua-roadmap-on-research-assessment-in-the-transition-to-open-science.pdf

[14] https://www.clacso.org/folec/

[15] https://www.ciencia.gob.es/portal/site/MICINN/menuitem.edc7f2029a2be27d7010721001432ea0/?vgnextoid=54360b2a21fe8710VgnVCM1000001d04140aRCRD

A %d blogueros les gusta esto: