ROGLE
22Oct/14Off

¿Me afecta el tema del plagio/deshonestidad académica si soy profesor de universidad?

Quiero aclarar desde el principio que no tengo ningún dato que me permita valorar si existe plagio (o comportamientos deshonestos) en la comunidad académica a la que presto mis servicios. Antes de valorar si esa falta de información me debe preocupar, voy a repasar, en calidad de profesor e investigador de universidad publica española, en qué aspectos me preocupa el plagio, qué necesidades de control detecto y cuáles serían sus requerimientos.

Para ello, tendré  en cuenta los diferentes roles que desempeño en mi universidad. Soy profesor en varias asignaturas de grado o máster y tutor de trabajos final de grado o máster; Subdirector de Investigación del DOE  y, por lo tanto, validador de los méritos científicos de las personas pertenecientes a esta estructura; Director Académico de los Títulos  GIOI y MUGESP;  miembro de la Comisión Académica del Titulo del Programa de Doctorado en Administración y Dirección de Empresas y editor jefe de la revista científica WPOM.

En la tabla siguiente relaciono los diferentes objetos, que me preocupan que puedan ser plagiados, con el rol que desempeño cuando los valoro.

Como punto de partida, creo que se necesitan dos cosas para acabar con el plagio o la deshonestidad académica: sensibilizara a alumnos/profesores sobre honestidad académica y tener un buen sistema antiplagio para detectar si alguien no se sensibiliza.

En el caso de memorias de trabajos académicos o preguntas de desarrollo me centraré en las que los alumnos entregan como documento electrónico, bien sobre plataformas on-line en situación de examen o en trabajo autónomo. Por ello descarto el poder detectar el plagio cuando entregan el trabajo escrito a “mano” (lo que tendría cierta implicación a la hora de reflexionar sobre las situaciones ideales para realizar un examen si quiero evitar el plagio). Lo que me preocupa en este caso es tener la seguridad de que los trabajos que me presentan mis alumnos son fruto de su trabajo y de su aprendizaje y no algo que se hayan “descargado” o “copiado y pegado” de documentos realizados por otras personas. Esto sería extensible a las propuestas de proyectos de tesis o a la propuesta de solicitud para acceder a un doctorado.

Para ello, considero imprescindible disponer de una herramienta admita documentos en texto plano, RTF,  PDF o en alguno de los formatos de procesador de texto habituales. Que detecte plagio, no sólo entre los trabajos de sus compañeros de curso, sino también de trabajos de otros años o de otras universidades/titulaciones, o de documentos accesibles en páginas web o de foros que requieran un login y password para acceder a los “servicios” y, por si fuera poco, que detecte fuentes en otros idiomas (es decir, el mismo texto en castellano, valenciano o inglés, como mínimo, pues los tres son idiomas oficiales de mis asignaturas).

Hasta el momento sólo he tenido la oportunidad de probar algunas herramientas gratis en internet, la versión gratuita de VIPER y la versión piloto de una herramienta de desarrollo local en la UPV (DOCODE).

Lo que he visto hasta el momento -ultima prueba en septiembre de 2014- no puede ser más inútil y más desalentador (por no poner adjetivos más negativos). Las plataformas web gratuitas son incómodas de manejar (hay que subir los textos uno a uno), muchas veces sólo admiten texto plano, no se puede subir un archivo, y limitan el número de palabras que permiten por “documento” o en todos los documentos revisados en un plazo de tiempo. Estos límites varían pero pocas veces permiten analizar un documento completo (solo unos pocos párrafos o páginas). Por otra parte, casi nunca detectan plagio (yo lo he probado subiendo una copia de textos que existen en internet con acceso público y no los detectan).

VIPER , en su versión gratuita 4.1.9, aparentemente supera alguno de estos problemas (al menos la de subir ficheros y varios de golpe), pero tiene una limitación de número de palabras por día. Además, el programa es bastante inestable, no permite subir documentos PDF (diga lo que diga su propaganda) y muy lento. Por otra parte los resultados no han resultado nada satisfactorios (son mejores que las páginas web o que DOCODE, pero insuficientes, por lo menos en la versión gratuita). Por ejemplo, tras descargar una página de wikipedia traducida en google translator, me ha detectado 3 fuentes de Scribd y otros servicios de trabajos de alumnos, pero no me ha detectado la fuente original. Además el programa no funciona bien con textos en castellano o textos que no estén codificados UTF-8 pues todas la tiles, “ñ” etc rompen la cadena de detección dejando unos porcentajes de similitud entre el 15%  y el 22% cuando en realidad es exactamente el mismo texto.

El programa DOCODE lo he probado con más detenimiento subiendo una batería de textos y los resultados son incluso peores que VIPER gratuito. He puesto un documento y su traducción al ingles y no detecta que son lo mismo (por lo tanto no me protege en absoluto contra el plagio entre idiomas oficiales en mis asignaturas: castellano, valenciano y en muchas ocasiones inglés, ni frente a traducciones de trabajos que localicen en la web). He descargado unos PDF de la web, los he metido en escalona y me salen solo parcialmente referenciados en la web cuando son una copia exacta en el mismo idioma. En otra prueba he descargado un documento del ministerio y otro de un repositorio, y las fuentes web que me cita son “wikipedia” cuando hace la definición de una de las frases en el contenido, en lugar de identificarme el documento que me he descargado de una web pública sólo 3 minutos antes.  He subido un PDF de un documento que está en un repositorio abierto en internet y no lo detecta como plagio. Por último, he metido dos TFG casi iguales, son dos versiones con mínimos cambios de un mismo alumno… y no me dice que son lo mismo.

No he tenido la posibilidad de probar Turnitin (y no se si es merecedor de la fama que tiene como el “mejor” sistema detector de plagio). Lo que si he podido comprobar es  que Trunitin es Caro, pero siempre me asalta la duda de si desarrollar algo que se parezca a Turnitin no será más caro todavía (y con el riesgo adicional que nos salga un producto que no resuelve nuestras necesidades). Por otra parte, en cosas como estas, dudo que un desarrollo local sirva de verdad para algo… Si no somos capaces de desarrollar un sistema que comparta mucha gente (la mayoría de las universidades de habla castellana: españolas y latinoamericanas, públicas y privadas…) esto será un coladero. Si lo compartimos muchos, el coste será mucho  menor (para mi esto debería ser un proyecto de software libre pagado por varias universidades o vía crowsourcing, para que realmente acabe siendo algo que se acerque o mejore a Turnitin). Hay experiencias de software desarrollado de esta manera (el que más lo necesita tira del carro y poco a poco se van enganchando otros que acaban aportando recursos o dinero para el desarrollo. Moodle, Limesurvey, Trello, son ejemplos de plataformas que se han creado así). Siendo algo que todas las universidades necesitan, supongo que habría masa suficiente para que aportando todos un poco, el proyecto vaya adelante… pero si en lugar de eso cada una opta por gastarse “su” dinero para crear “su” aplicación, al final no creo que logremos lo que se necesita y entre todos habremos gastado una fortuna para nada. Si no somos capaces de “pactar” un proyecto común (open) para algo que necesitamos y que, “necesariamente”, tenemos que parir entre todos para que sea útil y no deje resquicios al plagio entre universidades, creo que ya hemos perdido la batalla antes de comenzarla.

Y se trata de una batalla, desde mi punto de vista, importante. ¿Para qué me voy a esforzar como profesor en gastar mi tiempo en evaluar de manera fiable y justa unos trabajos, si no puedo tener la garantía de que el alumno que lo presenta es el autor del trabajo? Lo que ocurre es que, en estos momentos, no tengo ninguna herramienta para poder estimar si el plagio es un problema grave o no en mi contexto. ¿Hay mucho o pocos alumnos que plagian sus trabajos? Ni idea. Y no tengo forma de saberlo si mi institución no me proporciona unas herramientas adecuadas. Quizás habría que elegir una muestra de asignaturas y TFG/TFM, usar una plataforma fiable para analizar si hay plagio en los trabajos que han presentado los alumnos en los últimos dos años  (cueste lo que cueste no será caro porque estamos hablando de una muestra), y extrapolar los resultados para estimar si se trata de un problema grave o no.

Por otra parte, este problema no reside solo en grado… en posgrado y doctorandos parece que el problema también puede ser importante (  PH.D. IN “COPY-AND-PASTE”? Addressing the Rise of Plagiarism in Graduate Programs  ). No obstante, de nuevo habría que valorarlo, porque los autores de este informe son parte interesada en demostrar que el plagio es grave porque venden sistemas antiplagio.

También quiero aprovechar para reflexionar sobre el plagio de artículos científicos por dos motivos. Uno, es que en el máster y en el programa de doctorado donde participo, los alumnos pueden presentar su TFM o su tesis en dos formatos. Pueden hacer una monografía (en cuyo caso la detección de plagio seguiría un procedimiento similar al de los trabajos académicos que ya he comentado) pero también pueden presentar una colección de artículos.  En estos casos, se necesita un sistema especializado en detección de plagio de artículos científicos. Por otra parte soy editor de una revista científica y cada vez que se sube un artículo a la plataforma debería poder comprobar si es original o una copia de algo que ya se ha publicado. Y esto debería hacerlo antes de mandar el artículo a los revisores de la revista. Para que solo gasten su tiempo en aportaciones originales.

Por suerte, el mercado tiene una plataforma muy buena y probada para la detección de plagio iThenticate: Plagiarism Detection Software.  Pero, por desgracia, vuelve a ser cara (al menos para los presupuestos disponibles en el programa de doctorado, prácticamente cero, o en una revista OPEN JOURNAL que no tiene fuentes de ingresos). En este caso hemos podido contar con el apoyo de la editorial UPV para poder aplicar este sistema a los artículos remitidos a la revista a partir de 2015, lo que es algo muy de agradecer.

15Oct/14Off

Publicado: Marin-Garcia, J. A., Bautista Poveda, Y., Garcia-Sabater, J. J. (2014). Levels in the evolution of continuous improvement: A multiple case study. Intangible Capital, 10(3), 584-618

Marin-Garcia, J. A., Bautista Poveda, Y., & Garcia-Sabater, J. J. (2014). Levels in the evolution of continuous improvement: A multiple case study. Intangible Capital, 10(3), 584-618.

Online ISSN: 1697-9818 – Print ISSN: 2014-3214

http://dx.doi.org/10.3926/ic.425

Etapas en la evolución de la mejora continua: Estudio multicaso

Resumen:

Objeto: El modelo de evolución de la mejora continua en las empresas está en un estado intermedio de desarrollo. En investigaciones previas se han planteado y validado las etapas o niveles y los comportamientos o conductas asociadas a cada una de ellas en los procesos de mejora continua. Sin embargo no está clara la relación entre etapas, rutinas entendidas como conjuntos de comportamientos y facilitadores. En este trabajo se propone una definición conceptual diferenciada para los facilitadores y para las conductas de la mejora continua. También se ha recopilado y resumido un listado de los facilitadores que dan soporte al desarrollo de la mejora continua en la empresa y propone un modelo de cuándo y cómo se activan los facilitadores y el impacto que tienen esos facilitadores para ir avanzando en las diferentes etapas de evolución del programa de mejora continua.

Diseño/metodología: Estudio cualitativo multicaso con 4 empresas medianas, líderes en sus sectores, y con recursos económicos.

Aportaciones y resultados: Presenta una propuesta de relación entre facilitadores, etapas de evolución y sus conductas asociadas y pone de manifiesto que la evolución de la implantación de la mejora continua no se trata de un continuo incremental, sino que existe un punto de discontinuidad entre las etapas 3 y 4, que exige un cambio radical en el proceso de implantación.

Valor añadido: Extiende el modelo de Bessant et al (2001) explicitando cómo avanzar en el desarrollo de la implementación de unos niveles a otros superiores a través de la activación de los facilitadores adecuados. También presenta ejemplos de aplicación que pueden resultar muy ilustrativos para los directivos de producción. Además, plantea una secuencia de activación de los facilitadores que permite orientar a los mandos en la toma de decisiones relacionadas con la implantación y despliegue de la mejora continua en sus empresas.

Palabras clave

mejora continua, facilitadores, conductas, evolución, caso, modelo de evolución

 

Purpose: The evolution model of continuous improvement is at an intermediate stage of development. Previous research had been raised and validated levels and behaviors of continuous improvement. However, there is no clear relationship between levels, routines in terms of group of behaviours, and enablers. We propose a differentiated conceptual definition for facilitators and for the behaviors. We have also collected and summarized a list of enablers that support the development of continuous improvement. In addition, we propose a model of when and how to activate the enablers and the impact of these enablers to go forward at different stages of evolution of the continuous improvement.

Design/methodology/approach: Qualitative Multicase study with 4 midsize businesses with financial resources and leaders in their industries.

Findings and Originality/value: Presents a relationship between facilitators, phases of evolution and its associated behaviors and demonstrates that the evolution of the implementation of continuous improvement is not a continuous incremental, but there is a point of discontinuity between stages 3 and 4 , which requires a radical change in the implementation process.

Originality/value: extend the model of Bessant et al. (2001) explaining how to advance the implementation to higher levels of continuous improvement through the activation of appropriate facilitators. It also presents examples of applications that can be very illustrative for production managers. Also raises an activation sequence of facilitators for guiding the manager in making decisions related to the implementation and deployment of continuous improvement in their companies.

Keywords

Continuous improvement; enablers; behaviors; case-study; evolution model
17Jul/14Off

Publicado: Alfalla-Luque, Marin-Garcia, Medina-Lopez. An analysis of the direct and mediated effects of employee commitment and supply chain integration on organisational performance, International Journal of Production Economics

Alfalla-Luque, Marin-Garcia, Medina-Lopez. An analysis of the direct and mediated effects of employee commitment and supply chain integration on organisational performance, International Journal of Production Economics

Available online 14 July 2014 ISSN 0925-5273

http://dx.doi.org/10.1016/j.ijpe.2014.07.004. (http://www.sciencedirect.com/science/article/pii/S0925527314002217)

Abstract: Abstract This paper focuses on the interrelationships between the different dimensions of supply chain integration. Specifically, it examines the relationship between employee commitment and supply chain integration dimensions to explain several performance measures (flexibility, delivery, quality, inventory and customer satisfaction). Very little research has been conducted into this topic, since employee commitment is rarely included as an antecedent of the effect of supply chain integration on performance. Seven research models have been analysed with Structural Equation Models using a multiple-informant international sample of 266 mid-to-large-size manufacturing plants. The findings suggest that the relationship between employee commitment and operational performance is fully mediated by supply chain integration. Employee commitment contributes to improving internal integration, and internal integration affects performance both directly and indirectly. Moreover, obtaining internal integration helps to achieve supplier and customer integration. As a result, companies should strive to achieve both employee commitment and internal integration, as they mutually reinforce each other. Similarly, managers should achieve internal integration before external integration and include external integration at the strategic level in order to reap the greatest advantages from supply chain integration. Meanwhile, managers should promote employee commitment not only for better supply chain success, but also to mitigate the barriers of supply chain management implementation.

Keywords: Supply Chain Integration; Commitment; Performance; Mediation

5Abr/14Off

Participando en V Workshop OMTech – Universidad de Navarra

La V edición de Workshop OMTech – Universidad de Navarra no sólo ha cumplido, sino que también ha superado mis expectativas. He escuchado cosas muy interesantes y me vuelvo con nuevas ideas, algunas cosas para probar en mis asignaturas, inquietudes de investigación, varias referencias interesantes que ya estoy leyendo y, sobre todo, estoy a la espera de los full papers” que pueden aportar información relevante para el avance de la investigación y práctica sobre docencia universitaria en dirección de operaciones.

5Feb/14Off

Publicado Giraldo-O’Meara, M.; Marin-Garcia, J. A.; Martínez-Gómez, M. (2014). Validation of the JDS Satisfaction Scales Applied to Educational University Environments. Journal of Industrial Engineering and Management 7[1], 72-99

Giraldo-O’Meara, M.; Marin-Garcia, J. A. & Martínez-Gómez, M. (2014). Validation of the JDS Satisfaction Scales Applied to Educational University Environments. Journal of Industrial Engineering and Management 7[1], 72-99.

http://www.jiem.org/index.php/jiem/article/view/906

http://www.upv.es/i.grup/repositorio/own/ART_2014_001_JIEM-JDS%20satisfaction%20scales%20university.pdf

Abstract:
Purpose: The aim of this study is to review and summarize the main satisfaction scales used in publications about human Resource Management and educational research, in order to adapt the satisfaction scales of the Job Diagnostic Survey (JDS) to higher education and validate it with a sample of university students and to assess the concept of satisfaction in two different ways: as a single-item measure, with a global indicator and as a multi-item measure, analyzed as a global model and composed by several scales.

Design/methodology/approach: Confirmatory factor analysis with maximum likelihood, using structural equations model, was employed to assess the model fit in 152 business management undergraduates.

Findings and Originality/value: The satisfaction model measured as multi-item scale present an acceptable fit. Even though, some of the satisfaction scales did not present a satisfactory fit, they can be used and interpreted independently with carefulness. Nevertheless, the satisfaction single-item scale presents a better fit and has been validated as a simpler and less costly measure of satisfaction.

Originality/value: In the current process of change that is taking place in universities according to the plan developed by the European Space of higher Education, validated instruments as the satisfaction scale of JDS, adapted to teaching, may facilitate this process through the diagnosis, and follow-up of changes in satisfaction levels in university classrooms.

Keywords

satisfaction; scale validation; higher education; JDS; university; SEM; EQS

10Ene/14Off

Proyecto europeo INCODE Innovation Competencies Development

Una vez finalizado el proyecto pasamos a la fase de explotación en nuestras asignaturas de lo materiales producidos y difusión en la comunidad universitaria.

En la parte final del proyecto hemos producido varias publicaciones relacionadas con la evaluación de competencias de innovación (individuales, interpersonales y de trabajo en red) en estudiantes universitarios.

  1. Watts et. al., The Innovation Competencies Barometer and User Guide (ICB-Barometer.pdf)
  2. INCODE Rater Training Manual 2013 (Manual_Rater_Training_INCODE.pdf)
  3. Räsänen & Kylönen (eds) Research Hatchery as a cradle for new innovators. handbook for implementation. http://julkaisut.turkuamk.fi/isbn9789522164223.pdf
  4. Anttoni Lehto & Taru Penttilä (eds.). PEDAGOGICAL VIEWS ON INNOVATION COMPETENCES AND ENTREPRENEURSHIP Innovation pedagogy and other approaches (http://julkaisut.turkuamk.fi/isbn9789522164087.pdf)

Página web del proyecto: http://www.incode-eu.eu/en/

Lista de otras publicaciones originadas por el proyecto: http://incode-eu.eu/en/publications/

3Ene/14Off

SCImago Journal & Country Rank vs Journal Citation Report (JCR). ¿Dos caras de la misma moneda?

En primer lugar quiero remarcar que me parece insensato valorar la calidad de la producción científica de un investigador utilizando el factor de impacto como instrumento de medida. El factor de impacto es, con todas sus limitaciones, un indicador para medir el impacto de las revistas. Para medir el impacto de las aportaciones personales deberían usarse otros índices, no exentos de problemas, pero mucho más adecuados que el factor de impacto. Por ejemplo, el índice h. Os recomiendo leer Quindós (2009) Confundiendo al confuso: reflexiones sobre el factor de impacto, el índice h(irsch), el valor Q y otros cofactores que influyen en la felicidad del investigador como ejemplo de los múltiples artículos y reflexiones en esta línea. También podéis leer San Francisco Declaration on Research Assessment DORA y China’s publication bazaar.

Tanto si se mide el impacto del investigador con índice h o como con el factor de impacto de las revista en las que publican, desde hace tiempo me vengo preguntando por qué  SCImago Journal & Country Rank sigue siendo un listado de “segunda fila” y las comisiones evaluadores se empecinan en dar más valor a los datos proporcionados  en el Journal Citation Report (JCR) que en SCImago Journal & Country Rank. Sin duda ambos calculan el índice h de la misma forma (pero incluyendo sólo las revistas de la base de datos de Scopus o de la de web Of Knowledge, lo que es siempre incompleto). Aparentemente ambos usan métodos similares para calcular sus factores de impacto y son igual de robustos y serios. Aunque SCImago usa una métrica diferente para hacer el ranking de revistas. Métrica que, curiosamente, han desarrollado unos colegas de universidades españolas (Granada, Estremadira, Carlos III y Alcalá de Henares) y el Consejo Superior de Investigaciones Científicas (CSIC) .

Por otra parte, el proceso de admisión de revistas parece más claro y transparente en Scimago/Scopus que en JCR/WoK-Thompson. Ademas, en Scopus  parece haber una sensibilidad especial hacia las revistas europeas. Es decir, hay más presencia de revistas europeas que en WoK-Thompson. Si a eso añadimos que las revistas publicadas en Europa, de management y otras ciencias donde el aspecto cultural sea importante,  tienen más tendencia a publicar investigaciones realizadas en el contexto europeo; lo lógico sería pensar que, en los organismos de evaluación españoles, ambos listados deberían tener el mismo peso o, en todo caso, tener más peso SCImago Journal & Country Rank que Journal Citation Report (JCR). Aunque solo sea porque Scimago (que es reconocido mundialmente) lo han parido compatriotas nuestros. Me resulta tan extraño que los mismos españoles despreciemos lo que producimos mientras que fuera lo consideran un buen producto…. Es una forma rara de promocionar la marca España.

Aunque poco a poco los Boletines Oficiales van incorporando a ambos listados como referente de la calidad de las revistas, en la práctica se da un peso mayor a las revisas de JCR que a las de SCImago. Parece que es habitual que se considere equivalente ser un Q1 (primer cuartil) en SCImago con ser un Q2 o Q3  en JCR.

Hasta hoy no tenía ningún argumento para este ¿sinsentido? Pero esta mañana me han comentado que en algunas áreas (como matemáticas), la politica de SCImago de clasificación de revistas puede generar una distorsión en los rankings. En SCImago una revista puede pertenecer a varias categorías y en cada una de ellas recibe un ranking (Q1 a Q4) comparando su factor de impacto con las otras revistas de la categoría. Si alguna categoría acaba siendo muy heterogénea (incluye revistas muy dispares con políticas de citación diferentes) puede distorsionar el ranking de esa categoría. En JCR, aunque una revista pueda esta clasificada en varias categorías, sólo se estable su ranking (T1 a T3) en la categoría principal. Y, parece ser que en determinadas áreas las categorías principales de JCR son más homogéneas y generan unos rankings más claros o, al menos, más parecidos a los que siempre se habían tenido.

No se si este asunto de la heterogeneidad de las categorías afecta a todas las áreas o sólo unas pocas. En especial, me gustaría saber si en las áreas de Business, Management and Accounting (miscellaneous) , Education , Decision Sciences (miscellaneous)  , Industrial and Manufacturing Engineering, Strategy and Management , Management of Technology and Innovation, Organizational Behavior and Human Resource Management   los rankings pueden verse afectados por errores de clasificación de las revistas o si “son todas las que están”, porque en el segundo caso no habría ningún motivo para seguir discriminando a SCImago Journal & Country Rank como se está haciendo en la actualidad .

PD: parece haber cierta evidencia que en áreas como márketing los listados ScimagoJCR y JCR generan unos rankings muy similares (correlación de 0.81) (ver Richard et al, 2012)

3Ene/14Off

Me adhiero a San Francisco Declaration on Research Assessment DORA

Acabo de firmar mi adherencia a la San Francisco Declaration on Research Assessment DORA- http://am.ascb.org/dora/

Por ello como investigador, me comprometo a:

1. Do not use journal-based metrics, such as Journal Impact Factors, as a
surrogate measure of the quality of individual research articles, to assess an
individual scientist’s contributions, or in hiring, promotion, or funding decisions.

15. When involved in committees making decisions about funding, hiring, tenure, or
promotion, make assessments based on scientific content rather than publication
metrics.
16. Wherever appropriate, cite primary literature in which observations are first
reported rather than reviews in order to give credit where credit is due.
17. Use a range of article metrics and indicators on personal/supporting statements,
as evidence of the impact of individual published articles and other research
outputs.
18. Challenge research assessment practices that rely inappropriately on Journal
Impact Factors and promote and teach best practice that focuses on the value
and influence of specific research outputs.

Y,  como editor de la revista WPOM-Working Papers on Operations Management me comprometo a:

6. Greatly reduce emphasis on the journal impact factor as a promotional tool,
ideally by ceasing to promote the impact factor or by presenting the metric in the
context of a variety of journal-based metrics (e.g., 5-year impact factor,
EigenFactor [8], SCImago [9], h-index, editorial and publication times, etc.) that
provide a richer view of journal performance.
7. Make available a range of article-level metrics to encourage a shift toward
assessment based on the scientific content of an article rather than publication
metrics of the journal in which it was published.
8. Encourage responsible authorship practices and the provision of information
about the specific contributions of each author.
9. Whether a journal is open-access or subscription-based, remove all reuse
limitations on reference lists in research articles and make them available under
the Creative Commons Public Domain Dedication [10].
10. Remove or reduce the constraints on the number of references in research
articles, and, where appropriate, mandate the citation of primary literature in
favor of reviews in order to give credit to the group(s) who first reported a finding

23Dic/13Off

Publicado Marin-Garcia, J. A.; Bonavía, T. (2013). La Organización De La Producción De Las Empresas De Pavimentos y Revestimientos Cerámicos. Alta Dirección [277/278], 42-50.

Marin-Garcia, J. A. & Bonavía, T. (2013). La Organización De La Producción De Las Empresas De Pavimentos y Revestimientos Cerámicos. Alta Dirección [277/278], 42-50.

http://www.upv.es/i.grup/repositorio/own/ART_2013_001_AD_Marin-Garcia&Bonavia.La%20organizacion-produccion-empresas%20de%20pavimentos.pdf
Abstract:
En este artículo, describimos los datos recogidos en las entrevistas realizadas a 101 directores de producción y en las visitas posteriores a sus plantas. En nuestros análisis, podemos observar que existen diferencias significativas en el grado de uso de determinadas herramientas de gestión de la producción, cuando agrupamos a las empresas por tipo de producto que fabrican. También hemos apreciado que las empresas con más de 150 trabajadores en plantilla, usan más las herramientas contempladas en nuestra investigación (ISO-9000, mejora continua en grupos, mantenimiento preventivo, controles de calidad…). Además, hemos comprobado que existen algunas herramientas, como por ejemplo el SMED, que apenas se han implantado en las empresas del sector.

23Dic/13Off

Publicado Marin-Garcia, J. A.; Perez-Peñalver, M. J. ; Watts, F. (2013). How to Assess Innovation Competence in Services: The Case of University Students. Dirección y Organización [50], 48-62.

Marin-Garcia, J. A.; Perez-Peñalver, M. J. & Watts, F. (2013). How to Assess Innovation Competence in Services: The Case of University Students. Dirección y Organización [50], 48-62.

http://www.revistadyo.com/index.php/dyo/article/viewFile/431/451

Abstract: The main purpose of this paper is to review the concept of innovation capacity in higher education students, proposing
constructs for a measurement model of innovation capacity as a second-order formative model and validation of measurement
scales with 332 students from a Spanish university. The proposed model can be considered to meet, in general, the criteria for
content validity and the validation tests suitable for the formative model. Thus, the academic community can benefit from a validated
measurement instrument that can be used in the future to collect data on dependent and independent variables in causal
models. The paper also presents a contribution for teaching professionals interested in measuring the degree of development of
innovation competence in their students.
Keywords: questionnaire validation, innovation, competence, capacity, skills, assessment, higher education, PLS.
Resumen: Este trabajo presenta una definición de la capacidad de innovación de los estudiantes universitarios. Para ello se propondrá
el modelo de medida de las variables latentes, considerando la capacidad de innovación como un modelo de segundo orden
formativo. Las escalas se han validado con una muestra de 332 estudiantes universitarios españoles. Podemos considerar que
el modelo propuesto cumple, en general, con los criterios de validez de contenido y las pruebas de validación de escalas formativas.
Ofrecemos a la comunidad académica un instrumento validado que puede ser usado, en el futuro, para medir variables dependientes
o independientes de modelos causales. También representa una contribución para los profesores universitarios interesados
en evaluar el grado de desarrollo de la competencia de innovación en sus alumnos.
Palabras clave: validación de cuestionario, innovación, competencia, capacidad, habilidades, evaluación, universidad, PLS.