Publicado: Marin-Garcia, J. A., & Santandreu-Mascarell, C. (2015). What do we know about rubrics used in higher education? Intangible Capital, 11(1), 118-145.


Summary FINCODA project (January 2015 –December 2017) [EU-Grant-554493-EPP-1-2014-1-FI-EPPKA2-KA]

EICE IEMA (Innovación en la Evaluación para la Mejora del Aprendizaje)

Framework for Innovation Competencies Development and Assessment (FINCODA) 554493-EPP-1-2014-1-FI-EPPKA2-KA

Related to the following “Competencias transversales UPVlc”:

  • Creatividad
  • Innovación
  • Trabajo en equipo
  • Liderazgo


Universities don’t have tools to measure the development of students’ innovation competencies during their studies. Therefore we don’t actually know what teaching and learning methods are effective when aspiring the enhancement of innovation competencies, although we should organize higher education in a cost-effective way.

Companies are lacking of tools and methods to assess innovation competencies as part of their knowledge management activities: in recruitment processes, in internal development activities and when subcontracting training services for their staff.

We urgently need new reliable and valid tools for innovation competencies assessment that could be used throughout the young innovators path from university to working life organizations.

Our project perfectly implements two priorities of ET 2020 Strategic Framework, namely “Strategic objective 2: Improving the quality and efficiency of education and training” and “Strategic objective 4: Enhancing creativity and innovation, including entrepreneurship, at all levels of education and training”. To make these priorities true in higher education, we need active university-enterprise cooperation and valid tools to measure intended learning outcomes.

FINCODA project will produce several remarkable tangible outputs:

  • A toolkit for behaviour assessment: available as an electronic guide on the Internet. It can be used as a self learning material of guide for training purposes.
  • Software application for innovation competencies assessment (basic version is OER and more advanced versions may include small fee for maintenance work of the tool)
  • Massive Open Online Courses related to:
    • Behaviour assessment (MOOC 1)
    • Behaviour assessment and the use of innovation competencies assessment tool (MOOC 2)
  • Workshop (Joint Rater training workshop for all Partners). Month 13

Rater training workshop, targeted mainly for partner organizations. It will be organized in Hamburg Germany. It serves the purposes of training key staff from all partners to behaviour assessment as well as testing the novel toolkit. Participants will later on act as trainers in their own organizations and in cooperation events with other stakeholders.

  • Workshops (Innovation competencies assessment workshops). Months 26-35

Innovation competencies assessment workshops will be organized in all partner countries. There will be joint format agreed in project level and HE partners are responsible for organizing those workshops in their countries, by utilizing their expertise and premises. In English, Finnish, Dutch, Spanish, German.


5 European universities that form a strategic alliance called CARPE (Consortium of Applied Research and Professional Education).

  • TUAS (Turku University of Applied Science), HAW (Hamburg University of Applied Sciences), HU (University of Applied Sciences, The Netherlands) , MMU (Manchester Metropolitan University), UPVLC (Universitat Politècnica de València).

9 Employers of innovators and developers of new innovations; innovation intensive companies from 5 different corners of Europe.

  • Elomatic Ltd (Finland). Leading European consulting & engineering company and a global provider of 3D Plant & Ship Design Software Cadmatic with over 700 engineering professionals.
  • Hamburger Hafen und Logistik AG (HHLA, Germany) makes annually enormous investments in both vocational and in-service training for their nearly 5000 employees.
  • Lactoprot (Germany) use outstanding innovative technologies to optimize production processes and quality in their core business. Focused on the processing of milk.
  • ECDL (The Netherlands) is a multinational operator that has profound experience working with schools, educators and commercial enterprises.
  • John Caunt Scientific Ltd. (UK) specializes in product innovation as the core activity of their nuclear radiation detection, measurement and shielding products business.
  • Carter & Corson Partnership Ltd. (UK) has over 14 years’ experience in designing, developing and implementing competency frameworks and diagnostics in recruitment, assessment, development and training. They will work closely with partner HEIs in refinement and validation of assessment tool.
  • Enterprise Europe Northwest EENNW (UK). Professional network targeted at helping SMEs, Universities & organizations to grow, be competitive & partner within Europe & third country partners.
  • Celestica (Spain) provide electronics manufacturing services by their 30 000 employees and execute their business in Centers of Excellence strategically located in North America, Europe and Asia.
  • Schneider Electric España SA creates new innovations to meet the planet’s energy challenge and make the smart grid a reality.

HE students and staff of participating companies.

Overview of short term results and long term outcome indicators

Short term   results Target groups/potential beneficiaries Quantitative indicators Qualitative indicators
New practical and academic knowledge about the innovation competences Companies, work places, academics Number of publications Topics of discussion among practitioners and academics
Innovation competencies assessment Barometer HR people in companies, students and teachers in universities Frequency of use of Barometer Web service User feedback


Long term   outcome Target groups/potential beneficiaries Quantitative indicators Qualitative indicators
Curriculum development in HEIs Students Numbers of courses assessed by innovation competence criteria Completion rates

Feedback from students in student satisfaction surveys


Personnel assessment methods Companies, workers Performance of recruitment process, number of new innovations Maturity of staff to participate innovation intensive work
New cooperation level between companies and universities Companies, work places, students Number of agreements between companies and universities based on the recruitment path framework Succeeding in the first recruitment according to students and employers





Juan A. Marin-Garcia (DOE)

Coordinador del proyecto en UPVlc


Publicado: Marin-Garcia, J. A., Martínez-Gómez, M., & Giraldo-O’Meara, M. (2014). Redesigning work in university classrooms: factors related to satisfaction in engineering and business administration students. Intangible Capital, 10, 1026-1051.

Rediseñando el trabajo en las aulas universitarias: Factores relacionados con la satisfacción en estudiantes de ingeniería y administración de empresas
Marin-Garcia, J. A., Martínez-Gómez, M., & Giraldo-O’Meara, M. (2014). Redesigning work in university classrooms: factors related to satisfaction in engineering and business administration students. Intangible Capital, 10, 1026-1051.


Objeto: Con este trabajo se pretende analizar cómo afectan las características del contexto del aprendizaje, es decir, cómo es el trabajo de los estudiantes en la asignatura, al potencial motivador de la asignatura y a la satisfacción de los estudiantes

Diseño/metodología: Mediante ecuaciones estructurales (SEM) se ha analizado los datos de una muestra transversal (cursos 2008, 2009 y 2010) de 535 estudiantes de ingeniería industrial y administración de empresas, de una universidad pública española.

Aportaciones y resultados: Los resultados, utilizando un instrumento validado y adaptado al mundo docente, demuestran la asociación existente entre las características del tipo de trabajo de los estudiantes, el perfil motivador de la asignatura  y la satisfacción.

Limitaciones: la escala de identidad no tiene un ajuste excesivamente bueno y sus resultados deberían considerarse tentativos. La muestra es limitada para generalizar las conclusiones, debería extenderse en el futuro a otras universidades y contemplar estudiantes de posgrado.

Valor añadido: en este trabajo confirmamos que se cumple el modelo JDS adaptado a la docencia. Comprobamos que las variedad, la identidad, la significación, la autonomía, la retroalimentación del puesto y la retroalimentación social  son elementos de un constructo de segundo orden que representa el perfil motivador de de la asignatura y que los valores de este constructo están relacionados positiva, significativa y sustancialmente con la satisfacción general percibida por el estudiante. También hemos comprobado que estas relaciones se mantienen en muestras de alumnos de diferentes años o de titulaciones bastante dispares. Gracias a ello, los profesionales docentes pueden utilizar el modelo de  análisis y rediseño de puesto para ayudar a favorecer la motivación y la satisfacción de sus estudiantes.

Palabras clave

rediseño de puestos de trabajo; motivación; satisfacción; contexto del aprendizaje; JDS; educación universitaria

Texto completo: PDF[es]


Purpose: We analyze how it affects the teaching model to motivational potential of the course and student satisfaction. Design/methodology: Using structural equation modeling (SEM) has analyzed data from a cross-section (2008, 2009 and 2010) of 535 students of industrial engineering and business administration, a Spanish public university.

Findings: The results, using a validated instrument adapted to the teaching world, demonstrate the association between the characteristics of the type of student work, the motivating potential of the subject and satisfaction.

Research limitations/implications: The Identity scale does not have good fit and the results should be considered tentative. The sample is limited and does not allow to generalize the findings, it should be extended in the future to include other universities and graduate students.

Originality/value: This work confirm that the JDS model adapted to teaching is met. We found that the variety, identity, significance, autonomy, job feedback and social feedback are elements of a second-order construct representing the motivating potential of the subject and that the values of this construct are positively related, significantly and substantially to the overall satisfaction perceived by the student. We have also found that these relationships are maintained on samples of students from different years or rather different degrees. As a result, education professionals can use the model for analysis and redesign of jobs to help foster motivation and student satisfaction.


Job redesign, Motivation, Satisfaction, Learning context, JDS, Higher education, University

Full Text: PDF[es]


¿Me afecta el tema del plagio/deshonestidad académica si soy profesor de universidad?

Quiero aclarar desde el principio que no tengo ningún dato que me permita valorar si existe plagio (o comportamientos deshonestos) en la comunidad académica a la que presto mis servicios. Antes de valorar si esa falta de información me debe preocupar, voy a repasar, en calidad de profesor e investigador de universidad publica española, en qué aspectos me preocupa el plagio, qué necesidades de control detecto y cuáles serían sus requerimientos.

Para ello, tendré  en cuenta los diferentes roles que desempeño en mi universidad. Soy profesor en varias asignaturas de grado o máster y tutor de trabajos final de grado o máster; Subdirector de Investigación del DOE  y, por lo tanto, validador de los méritos científicos de las personas pertenecientes a esta estructura; Director Académico de los Títulos  GIOI y MUGESP;  miembro de la Comisión Académica del Titulo del Programa de Doctorado en Administración y Dirección de Empresas y editor jefe de la revista científica WPOM.

En la tabla siguiente relaciono los diferentes objetos, que me preocupan que puedan ser plagiados, con el rol que desempeño cuando los valoro.

Como punto de partida, creo que se necesitan dos cosas para acabar con el plagio o la deshonestidad académica: sensibilizara a alumnos/profesores sobre honestidad académica y tener un buen sistema antiplagio para detectar si alguien no se sensibiliza.

En el caso de memorias de trabajos académicos o preguntas de desarrollo me centraré en las que los alumnos entregan como documento electrónico, bien sobre plataformas on-line en situación de examen o en trabajo autónomo. Por ello descarto el poder detectar el plagio cuando entregan el trabajo escrito a “mano” (lo que tendría cierta implicación a la hora de reflexionar sobre las situaciones ideales para realizar un examen si quiero evitar el plagio). Lo que me preocupa en este caso es tener la seguridad de que los trabajos que me presentan mis alumnos son fruto de su trabajo y de su aprendizaje y no algo que se hayan “descargado” o “copiado y pegado” de documentos realizados por otras personas. Esto sería extensible a las propuestas de proyectos de tesis o a la propuesta de solicitud para acceder a un doctorado.

Para ello, considero imprescindible disponer de una herramienta admita documentos en texto plano, RTF,  PDF o en alguno de los formatos de procesador de texto habituales. Que detecte plagio, no sólo entre los trabajos de sus compañeros de curso, sino también de trabajos de otros años o de otras universidades/titulaciones, o de documentos accesibles en páginas web o de foros que requieran un login y password para acceder a los “servicios” y, por si fuera poco, que detecte fuentes en otros idiomas (es decir, el mismo texto en castellano, valenciano o inglés, como mínimo, pues los tres son idiomas oficiales de mis asignaturas).

Hasta el momento sólo he tenido la oportunidad de probar algunas herramientas gratis en internet, la versión gratuita de VIPER y la versión piloto de una herramienta de desarrollo local en la UPV (DOCODE).

Lo que he visto hasta el momento -ultima prueba en septiembre de 2014- no puede ser más inútil y más desalentador (por no poner adjetivos más negativos). Las plataformas web gratuitas son incómodas de manejar (hay que subir los textos uno a uno), muchas veces sólo admiten texto plano, no se puede subir un archivo, y limitan el número de palabras que permiten por “documento” o en todos los documentos revisados en un plazo de tiempo. Estos límites varían pero pocas veces permiten analizar un documento completo (solo unos pocos párrafos o páginas). Por otra parte, casi nunca detectan plagio (yo lo he probado subiendo una copia de textos que existen en internet con acceso público y no los detectan).

VIPER , en su versión gratuita 4.1.9, aparentemente supera alguno de estos problemas (al menos la de subir ficheros y varios de golpe), pero tiene una limitación de número de palabras por día. Además, el programa es bastante inestable, no permite subir documentos PDF (diga lo que diga su propaganda) y muy lento. Por otra parte los resultados no han resultado nada satisfactorios (son mejores que las páginas web o que DOCODE, pero insuficientes, por lo menos en la versión gratuita). Por ejemplo, tras descargar una página de wikipedia traducida en google translator, me ha detectado 3 fuentes de Scribd y otros servicios de trabajos de alumnos, pero no me ha detectado la fuente original. Además el programa no funciona bien con textos en castellano o textos que no estén codificados UTF-8 pues todas la tiles, “ñ” etc rompen la cadena de detección dejando unos porcentajes de similitud entre el 15%  y el 22% cuando en realidad es exactamente el mismo texto.

El programa DOCODE lo he probado con más detenimiento subiendo una batería de textos y los resultados son incluso peores que VIPER gratuito. He puesto un documento y su traducción al ingles y no detecta que son lo mismo (por lo tanto no me protege en absoluto contra el plagio entre idiomas oficiales en mis asignaturas: castellano, valenciano y en muchas ocasiones inglés, ni frente a traducciones de trabajos que localicen en la web). He descargado unos PDF de la web, los he metido en escalona y me salen solo parcialmente referenciados en la web cuando son una copia exacta en el mismo idioma. En otra prueba he descargado un documento del ministerio y otro de un repositorio, y las fuentes web que me cita son “wikipedia” cuando hace la definición de una de las frases en el contenido, en lugar de identificarme el documento que me he descargado de una web pública sólo 3 minutos antes.  He subido un PDF de un documento que está en un repositorio abierto en internet y no lo detecta como plagio. Por último, he metido dos TFG casi iguales, son dos versiones con mínimos cambios de un mismo alumno… y no me dice que son lo mismo.

No he tenido la posibilidad de probar Turnitin (y no se si es merecedor de la fama que tiene como el “mejor” sistema detector de plagio). Lo que si he podido comprobar es  que Trunitin es Caro, pero siempre me asalta la duda de si desarrollar algo que se parezca a Turnitin no será más caro todavía (y con el riesgo adicional que nos salga un producto que no resuelve nuestras necesidades). Por otra parte, en cosas como estas, dudo que un desarrollo local sirva de verdad para algo… Si no somos capaces de desarrollar un sistema que comparta mucha gente (la mayoría de las universidades de habla castellana: españolas y latinoamericanas, públicas y privadas…) esto será un coladero. Si lo compartimos muchos, el coste será mucho  menor (para mi esto debería ser un proyecto de software libre pagado por varias universidades o vía crowsourcing, para que realmente acabe siendo algo que se acerque o mejore a Turnitin). Hay experiencias de software desarrollado de esta manera (el que más lo necesita tira del carro y poco a poco se van enganchando otros que acaban aportando recursos o dinero para el desarrollo. Moodle, Limesurvey, Trello, son ejemplos de plataformas que se han creado así). Siendo algo que todas las universidades necesitan, supongo que habría masa suficiente para que aportando todos un poco, el proyecto vaya adelante… pero si en lugar de eso cada una opta por gastarse “su” dinero para crear “su” aplicación, al final no creo que logremos lo que se necesita y entre todos habremos gastado una fortuna para nada. Si no somos capaces de “pactar” un proyecto común (open) para algo que necesitamos y que, “necesariamente”, tenemos que parir entre todos para que sea útil y no deje resquicios al plagio entre universidades, creo que ya hemos perdido la batalla antes de comenzarla.

Y se trata de una batalla, desde mi punto de vista, importante. ¿Para qué me voy a esforzar como profesor en gastar mi tiempo en evaluar de manera fiable y justa unos trabajos, si no puedo tener la garantía de que el alumno que lo presenta es el autor del trabajo? Lo que ocurre es que, en estos momentos, no tengo ninguna herramienta para poder estimar si el plagio es un problema grave o no en mi contexto. ¿Hay mucho o pocos alumnos que plagian sus trabajos? Ni idea. Y no tengo forma de saberlo si mi institución no me proporciona unas herramientas adecuadas. Quizás habría que elegir una muestra de asignaturas y TFG/TFM, usar una plataforma fiable para analizar si hay plagio en los trabajos que han presentado los alumnos en los últimos dos años  (cueste lo que cueste no será caro porque estamos hablando de una muestra), y extrapolar los resultados para estimar si se trata de un problema grave o no.

Por otra parte, este problema no reside solo en grado… en posgrado y doctorandos parece que el problema también puede ser importante (  PH.D. IN “COPY-AND-PASTE”? Addressing the Rise of Plagiarism in Graduate Programs  ). No obstante, de nuevo habría que valorarlo, porque los autores de este informe son parte interesada en demostrar que el plagio es grave porque venden sistemas antiplagio.

También quiero aprovechar para reflexionar sobre el plagio de artículos científicos por dos motivos. Uno, es que en el máster y en el programa de doctorado donde participo, los alumnos pueden presentar su TFM o su tesis en dos formatos. Pueden hacer una monografía (en cuyo caso la detección de plagio seguiría un procedimiento similar al de los trabajos académicos que ya he comentado) pero también pueden presentar una colección de artículos.  En estos casos, se necesita un sistema especializado en detección de plagio de artículos científicos. Por otra parte soy editor de una revista científica y cada vez que se sube un artículo a la plataforma debería poder comprobar si es original o una copia de algo que ya se ha publicado. Y esto debería hacerlo antes de mandar el artículo a los revisores de la revista. Para que solo gasten su tiempo en aportaciones originales.

Por suerte, el mercado tiene una plataforma muy buena y probada para la detección de plagio iThenticate: Plagiarism Detection Software.  Pero, por desgracia, vuelve a ser cara (al menos para los presupuestos disponibles en el programa de doctorado, prácticamente cero, o en una revista OPEN JOURNAL que no tiene fuentes de ingresos). En este caso hemos podido contar con el apoyo de la editorial UPV para poder aplicar este sistema a los artículos remitidos a la revista a partir de 2015, lo que es algo muy de agradecer.


Publicado: Marin-Garcia, J. A., Bautista Poveda, Y., Garcia-Sabater, J. J. (2014). Levels in the evolution of continuous improvement: A multiple case study. Intangible Capital, 10(3), 584-618

Marin-Garcia, J. A., Bautista Poveda, Y., & Garcia-Sabater, J. J. (2014). Levels in the evolution of continuous improvement: A multiple case study. Intangible Capital, 10(3), 584-618.

Online ISSN: 1697-9818 – Print ISSN: 2014-3214

Etapas en la evolución de la mejora continua: Estudio multicaso


Objeto: El modelo de evolución de la mejora continua en las empresas está en un estado intermedio de desarrollo. En investigaciones previas se han planteado y validado las etapas o niveles y los comportamientos o conductas asociadas a cada una de ellas en los procesos de mejora continua. Sin embargo no está clara la relación entre etapas, rutinas entendidas como conjuntos de comportamientos y facilitadores. En este trabajo se propone una definición conceptual diferenciada para los facilitadores y para las conductas de la mejora continua. También se ha recopilado y resumido un listado de los facilitadores que dan soporte al desarrollo de la mejora continua en la empresa y propone un modelo de cuándo y cómo se activan los facilitadores y el impacto que tienen esos facilitadores para ir avanzando en las diferentes etapas de evolución del programa de mejora continua.

Diseño/metodología: Estudio cualitativo multicaso con 4 empresas medianas, líderes en sus sectores, y con recursos económicos.

Aportaciones y resultados: Presenta una propuesta de relación entre facilitadores, etapas de evolución y sus conductas asociadas y pone de manifiesto que la evolución de la implantación de la mejora continua no se trata de un continuo incremental, sino que existe un punto de discontinuidad entre las etapas 3 y 4, que exige un cambio radical en el proceso de implantación.

Valor añadido: Extiende el modelo de Bessant et al (2001) explicitando cómo avanzar en el desarrollo de la implementación de unos niveles a otros superiores a través de la activación de los facilitadores adecuados. También presenta ejemplos de aplicación que pueden resultar muy ilustrativos para los directivos de producción. Además, plantea una secuencia de activación de los facilitadores que permite orientar a los mandos en la toma de decisiones relacionadas con la implantación y despliegue de la mejora continua en sus empresas.

Palabras clave

mejora continua, facilitadores, conductas, evolución, caso, modelo de evolución


Purpose: The evolution model of continuous improvement is at an intermediate stage of development. Previous research had been raised and validated levels and behaviors of continuous improvement. However, there is no clear relationship between levels, routines in terms of group of behaviours, and enablers. We propose a differentiated conceptual definition for facilitators and for the behaviors. We have also collected and summarized a list of enablers that support the development of continuous improvement. In addition, we propose a model of when and how to activate the enablers and the impact of these enablers to go forward at different stages of evolution of the continuous improvement.

Design/methodology/approach: Qualitative Multicase study with 4 midsize businesses with financial resources and leaders in their industries.

Findings and Originality/value: Presents a relationship between facilitators, phases of evolution and its associated behaviors and demonstrates that the evolution of the implementation of continuous improvement is not a continuous incremental, but there is a point of discontinuity between stages 3 and 4 , which requires a radical change in the implementation process.

Originality/value: extend the model of Bessant et al. (2001) explaining how to advance the implementation to higher levels of continuous improvement through the activation of appropriate facilitators. It also presents examples of applications that can be very illustrative for production managers. Also raises an activation sequence of facilitators for guiding the manager in making decisions related to the implementation and deployment of continuous improvement in their companies.


Continuous improvement; enablers; behaviors; case-study; evolution model

Publicado: Alfalla-Luque, Marin-Garcia, Medina-Lopez. An analysis of the direct and mediated effects of employee commitment and supply chain integration on organisational performance, International Journal of Production Economics

Alfalla-Luque, Marin-Garcia, Medina-Lopez. An analysis of the direct and mediated effects of employee commitment and supply chain integration on organisational performance, International Journal of Production Economics

Available online 14 July 2014 ISSN 0925-5273 (

Abstract: Abstract This paper focuses on the interrelationships between the different dimensions of supply chain integration. Specifically, it examines the relationship between employee commitment and supply chain integration dimensions to explain several performance measures (flexibility, delivery, quality, inventory and customer satisfaction). Very little research has been conducted into this topic, since employee commitment is rarely included as an antecedent of the effect of supply chain integration on performance. Seven research models have been analysed with Structural Equation Models using a multiple-informant international sample of 266 mid-to-large-size manufacturing plants. The findings suggest that the relationship between employee commitment and operational performance is fully mediated by supply chain integration. Employee commitment contributes to improving internal integration, and internal integration affects performance both directly and indirectly. Moreover, obtaining internal integration helps to achieve supplier and customer integration. As a result, companies should strive to achieve both employee commitment and internal integration, as they mutually reinforce each other. Similarly, managers should achieve internal integration before external integration and include external integration at the strategic level in order to reap the greatest advantages from supply chain integration. Meanwhile, managers should promote employee commitment not only for better supply chain success, but also to mitigate the barriers of supply chain management implementation.

Keywords: Supply Chain Integration; Commitment; Performance; Mediation


Participando en V Workshop OMTech – Universidad de Navarra

La V edición de Workshop OMTech – Universidad de Navarra no sólo ha cumplido, sino que también ha superado mis expectativas. He escuchado cosas muy interesantes y me vuelvo con nuevas ideas, algunas cosas para probar en mis asignaturas, inquietudes de investigación, varias referencias interesantes que ya estoy leyendo y, sobre todo, estoy a la espera de los full papers” que pueden aportar información relevante para el avance de la investigación y práctica sobre docencia universitaria en dirección de operaciones.


Publicado Giraldo-O’Meara, M.; Marin-Garcia, J. A.; Martínez-Gómez, M. (2014). Validation of the JDS Satisfaction Scales Applied to Educational University Environments. Journal of Industrial Engineering and Management 7[1], 72-99

Giraldo-O’Meara, M.; Marin-Garcia, J. A. & Martínez-Gómez, M. (2014). Validation of the JDS Satisfaction Scales Applied to Educational University Environments. Journal of Industrial Engineering and Management 7[1], 72-99.

Purpose: The aim of this study is to review and summarize the main satisfaction scales used in publications about human Resource Management and educational research, in order to adapt the satisfaction scales of the Job Diagnostic Survey (JDS) to higher education and validate it with a sample of university students and to assess the concept of satisfaction in two different ways: as a single-item measure, with a global indicator and as a multi-item measure, analyzed as a global model and composed by several scales.

Design/methodology/approach: Confirmatory factor analysis with maximum likelihood, using structural equations model, was employed to assess the model fit in 152 business management undergraduates.

Findings and Originality/value: The satisfaction model measured as multi-item scale present an acceptable fit. Even though, some of the satisfaction scales did not present a satisfactory fit, they can be used and interpreted independently with carefulness. Nevertheless, the satisfaction single-item scale presents a better fit and has been validated as a simpler and less costly measure of satisfaction.

Originality/value: In the current process of change that is taking place in universities according to the plan developed by the European Space of higher Education, validated instruments as the satisfaction scale of JDS, adapted to teaching, may facilitate this process through the diagnosis, and follow-up of changes in satisfaction levels in university classrooms.


satisfaction; scale validation; higher education; JDS; university; SEM; EQS


Proyecto europeo INCODE Innovation Competencies Development

Una vez finalizado el proyecto pasamos a la fase de explotación en nuestras asignaturas de lo materiales producidos y difusión en la comunidad universitaria.

En la parte final del proyecto hemos producido varias publicaciones relacionadas con la evaluación de competencias de innovación (individuales, interpersonales y de trabajo en red) en estudiantes universitarios.

  1. Watts et. al., The Innovation Competencies Barometer and User Guide (ICB-Barometer.pdf)
  2. INCODE Rater Training Manual 2013 (Manual_Rater_Training_INCODE.pdf)
  3. Räsänen & Kylönen (eds) Research Hatchery as a cradle for new innovators. handbook for implementation.
  4. Anttoni Lehto & Taru Penttilä (eds.). PEDAGOGICAL VIEWS ON INNOVATION COMPETENCES AND ENTREPRENEURSHIP Innovation pedagogy and other approaches (

Página web del proyecto:

Lista de otras publicaciones originadas por el proyecto:


SCImago Journal & Country Rank vs Journal Citation Report (JCR). ¿Dos caras de la misma moneda?

En primer lugar quiero remarcar que me parece insensato valorar la calidad de la producción científica de un investigador utilizando el factor de impacto como instrumento de medida. El factor de impacto es, con todas sus limitaciones, un indicador para medir el impacto de las revistas. Para medir el impacto de las aportaciones personales deberían usarse otros índices, no exentos de problemas, pero mucho más adecuados que el factor de impacto. Por ejemplo, el índice h. Os recomiendo leer Quindós (2009) Confundiendo al confuso: reflexiones sobre el factor de impacto, el índice h(irsch), el valor Q y otros cofactores que influyen en la felicidad del investigador como ejemplo de los múltiples artículos y reflexiones en esta línea. También podéis leer San Francisco Declaration on Research Assessment DORA y China’s publication bazaar.

Tanto si se mide el impacto del investigador con índice h o como con el factor de impacto de las revista en las que publican, desde hace tiempo me vengo preguntando por qué  SCImago Journal & Country Rank sigue siendo un listado de “segunda fila” y las comisiones evaluadores se empecinan en dar más valor a los datos proporcionados  en el Journal Citation Report (JCR) que en SCImago Journal & Country Rank. Sin duda ambos calculan el índice h de la misma forma (pero incluyendo sólo las revistas de la base de datos de Scopus o de la de web Of Knowledge, lo que es siempre incompleto). Aparentemente ambos usan métodos similares para calcular sus factores de impacto y son igual de robustos y serios. Aunque SCImago usa una métrica diferente para hacer el ranking de revistas. Métrica que, curiosamente, han desarrollado unos colegas de universidades españolas (Granada, Estremadira, Carlos III y Alcalá de Henares) y el Consejo Superior de Investigaciones Científicas (CSIC) .

Por otra parte, el proceso de admisión de revistas parece más claro y transparente en Scimago/Scopus que en JCR/WoK-Thompson. Ademas, en Scopus  parece haber una sensibilidad especial hacia las revistas europeas. Es decir, hay más presencia de revistas europeas que en WoK-Thompson. Si a eso añadimos que las revistas publicadas en Europa, de management y otras ciencias donde el aspecto cultural sea importante,  tienen más tendencia a publicar investigaciones realizadas en el contexto europeo; lo lógico sería pensar que, en los organismos de evaluación españoles, ambos listados deberían tener el mismo peso o, en todo caso, tener más peso SCImago Journal & Country Rank que Journal Citation Report (JCR). Aunque solo sea porque Scimago (que es reconocido mundialmente) lo han parido compatriotas nuestros. Me resulta tan extraño que los mismos españoles despreciemos lo que producimos mientras que fuera lo consideran un buen producto…. Es una forma rara de promocionar la marca España.

Aunque poco a poco los Boletines Oficiales van incorporando a ambos listados como referente de la calidad de las revistas, en la práctica se da un peso mayor a las revisas de JCR que a las de SCImago. Parece que es habitual que se considere equivalente ser un Q1 (primer cuartil) en SCImago con ser un Q2 o Q3  en JCR.

Hasta hoy no tenía ningún argumento para este ¿sinsentido? Pero esta mañana me han comentado que en algunas áreas (como matemáticas), la politica de SCImago de clasificación de revistas puede generar una distorsión en los rankings. En SCImago una revista puede pertenecer a varias categorías y en cada una de ellas recibe un ranking (Q1 a Q4) comparando su factor de impacto con las otras revistas de la categoría. Si alguna categoría acaba siendo muy heterogénea (incluye revistas muy dispares con políticas de citación diferentes) puede distorsionar el ranking de esa categoría. En JCR, aunque una revista pueda esta clasificada en varias categorías, sólo se estable su ranking (T1 a T3) en la categoría principal. Y, parece ser que en determinadas áreas las categorías principales de JCR son más homogéneas y generan unos rankings más claros o, al menos, más parecidos a los que siempre se habían tenido.

No se si este asunto de la heterogeneidad de las categorías afecta a todas las áreas o sólo unas pocas. En especial, me gustaría saber si en las áreas de Business, Management and Accounting (miscellaneous) , Education , Decision Sciences (miscellaneous)  , Industrial and Manufacturing Engineering, Strategy and Management , Management of Technology and Innovation, Organizational Behavior and Human Resource Management   los rankings pueden verse afectados por errores de clasificación de las revistas o si “son todas las que están”, porque en el segundo caso no habría ningún motivo para seguir discriminando a SCImago Journal & Country Rank como se está haciendo en la actualidad .

PD: parece haber cierta evidencia que en áreas como márketing los listados ScimagoJCR y JCR generan unos rankings muy similares (correlación de 0.81) (ver Richard et al, 2012)