ROGLE
6Sep/18Off

Publicado: Marin-Garcia, J. A., Alfalla-Luque, R., & Machuca, J. A. D. (2018). A triple-a supply chain measurement model: Validation and analysis. International Journal of Physical Distribution & Logistics Management, 48(10) doi:10.1108/IJPDLM-06-2018-0233

Marin-Garcia, J. A., Alfalla-Luque, R., & Machuca, J. A. D. (2018). A triple-a supply chain measurement model: Validation and analysis. International Journal of Physical Distribution & Logistics Management, 48(10), null. doi:10.1108/IJPDLM-06-2018-0233
 
 
 
Purpose The purpose of this paper is to establish definitions and dimensions of Triple-A supply chain (SC) variables based on a literature review and to validate a Triple-A SC measurement model using a worldwide multiple informant sample. Design/methodology/approach Following a literature review, Triple-A SC variables (agility, alignment and adaptability) are conceptualized and a list of possible items is created for their measurement. An international 309 plant sample is used to validate the convergent and criterion validities of the composites proposed to measure Triple-A SC. Findings Contributions to the literature: clarification of Triple-A SC variable concepts; identification of key dimensions of Triple-A SC variables; development of a validated Triple-A SC measurement scale for future empirical research and industrial applications. Research limitations/implications A rigorously validated instrument is needed to measure Triple-A SC variables and enable researchers to credibly test theories regarding causal links between capabilities, practices and performance. Practical implications Proposal of a scale for use by managers of different functions to analyze Triple-A SC deployment in the company. Originality/value The only Triple-A SC scale used in the previous literature has serious limitations: scales were not taken from an extended literature review; data were collected from single respondents in a single country. This is the first validated Triple-A SC measurement model to overcome these limitations
6Sep/18Off

Publicado: Marin-Garcia, J. A., Alfalla-Luque, R., & Machuca, J. A. D. (2018). A triple-a supply chain measurement model: Validation and analysis. International Journal of Physical Distribution & Logistics Management, 48(10) doi:10.1108/IJPDLM-06-2018-0233

Marin-Garcia, J. A., Alfalla-Luque, R., & Machuca, J. A. D. (2018). A triple-a supply chain measurement model: Validation and analysis. International Journal of Physical Distribution & Logistics Management, 48(10), null. doi:10.1108/IJPDLM-06-2018-0233
 
 
 
Purpose The purpose of this paper is to establish definitions and dimensions of Triple-A supply chain (SC) variables based on a literature review and to validate a Triple-A SC measurement model using a worldwide multiple informant sample. Design/methodology/approach Following a literature review, Triple-A SC variables (agility, alignment and adaptability) are conceptualized and a list of possible items is created for their measurement. An international 309 plant sample is used to validate the convergent and criterion validities of the composites proposed to measure Triple-A SC. Findings Contributions to the literature: clarification of Triple-A SC variable concepts; identification of key dimensions of Triple-A SC variables; development of a validated Triple-A SC measurement scale for future empirical research and industrial applications. Research limitations/implications A rigorously validated instrument is needed to measure Triple-A SC variables and enable researchers to credibly test theories regarding causal links between capabilities, practices and performance. Practical implications Proposal of a scale for use by managers of different functions to analyze Triple-A SC deployment in the company. Originality/value The only Triple-A SC scale used in the previous literature has serious limitations: scales were not taken from an extended literature review; data were collected from single respondents in a single country. This is the first validated Triple-A SC measurement model to overcome these limitations
2Jun/18Off

Publicado: Losilla et al (2018) Three risk of bias tools lead to opposite conclusions in observational research synthesis

Nuevo artículo publicado que me ha permitido colaborar con estupendos investigadores del área de la salud para seguir avanzando en instrumentos que nos permitan hacer mejor ciencia y, sobre todo, informarla mejor. Algo que me interesa doblemente como editor de WPOM y de JIEM. Por otra parte, sufrir los estándares de publicación de una Q1 en el área de CC de la salud también es una experiencia interesante.

1Jun/18Off

Apertura de la 7ª edicion del MOOC sobre grupos de mejora de procesos en EDX.org

22Ene/18Off

Rellenando Curriculum Vitae para un recién egresado: las herramientas

El otro día recibí un CV de una alumna para reenviarlo a una empresa.

La alumna, en último curso de carrera, había dedicado una parte importante de su vida a estudiar (como los últimos 20 de sus 25 años) y de sus primeros 5 años no se acordaba de nada.

Así que en el CV puso lo que había hecho (Secundaria, Bachillerato, Grado y Máster). Ocupando todo el espacio con información no útil para el empleador (no útil porque la da por supuesta si busca un Ingeniero). Peor aún, no interpretable por el empleador (lo de Bolonia no lo entendemos aún bien los que vivimos en la Universidad, imaginad lo de fuera, cuando hasta hace unos meses seguíamos produciendo ingenieros de planes pre-Bolonia)…

Mi propuesta es que en este caso rellenes el curriculum con la única info que puede ser útil: lista de herramientas que has aprendido a utilizar durante la carrera. ¿Aprendido? Las herramientas nunca se aprenden a utilizar: ¿sabes que existen,  para qué sirven,  cómo empezar a generar algún pequeño resultado? Ya es más que los demás

Por eso una parte muy importante de nuestra docencia en máster debiera ser aprender a manejar herramientas.

Si tienes experiencia profesional es otro enfoque.

 

8Ene/18Off

Mis aplicaciones favoritas. Paneles para interacción en grupo y KPIs individuales

Ayer descubrí tres aplicaciones “nuevas” para mi. En el fondo están relacionadas pues se pueden usar para gestionar tareas, aunque tienen dos enfoques totalmente distintos.

La primera de ella es PADLET (https://es.padlet.com/). Realmente es un “muro” que puedes compartir con un conjunto de personas para que interactúen sobre en el formato “post-it” (diferente de la cronología lineal de muros tipo facebook, instagram o twitter). Mi opinión es que no es diferente de Trello (https://trello.com/) o de Lino (http://en.linoit.com/) y, personalmente, lo veo mucho más limitado. Creo que trello es más potente y está mejor trabajado como herramienta para gestión de tareas en grupo y Lino es mucho más “visual” e interactivo. Realmente lino trabaja con toda la pantalla como si fuese un “corcho” donde pegar las cosas donde quieras (cualquiera del grupo puede mover las etiquetas a cualquier lugar). De momento Lino sigue siendo la herramienta más parecida a un post-it virtual que conozco. Trello (y Padlet) tienen otras funcionalidades (que las hacen muy interesantes) pero parecen restringidas a trabajar por columnas. Puedes desplazar las notas dentro de la columna,c rear columnas o mover notas a otras columnas, pero no tienes libertad de desplazamiento dos dimensiones como en Lino.

El segundo enfoque es el de GoalMeter (https://play.google.com/store/apps/details?id=com.goalmeterapp.www&hl=es) y HabitBull (http://www.habitbull.com/). Estas aplicaciones solo están disponibles en Android/IOs, no se pueden trabajar desde web. Ambas son una especie de panel de control (dashboard) de resultados (KPIs) individuales para evitar la procastinación. De alguna forma se relacionan con “Getting Things Done” y articulan las metas sobre tareas y agendas. Pero su enfoque principal es en el seguimiento de metas y el efecto motivador que puede producir el ver que las consigues o el “pique” personal por intentar lograr tus metas. Ambas tienen un entorno virtual atractivo (mucho más para GoalMeter) y recompensas gamificadas para mantener la motivación en el logro de las metas.

La base científica de ambos es el uso de KPIs e información visual de la evolución de los mismos (“dashboards”) como potenciadores de la motivación para mejorar la eficacia y la eficiencia. No he realizado una revisión sistemática que me permita valorar la evidencia de que existe una relación causa-efecto entre estas herramientas y un mayor logro de resultados individuales o del grupo. Sin embargo, lo que puedo apuntar es que parece que hay material escrito como para plantearse ese reto:

 

Entradas relacionadas:

Mis aplicaciones favoritas. Trackers y gestores de tareas

22Dic/17Off

¿La evaluación por competencias es algo más que evaluar conocimientos, habilidades y/o actitudes?

De momento sólo planteo la pregunta porque no tengo una respuesta clara al respecto por eso está, de momento en “preguntas no resueltas” . Cuando tenga alguna respuesta modificaré esta entrada.

En las organizaciones cada vez se habla más de gestión del talento y eso, de alguna manera, implica gestionar las competencias de los trabajadores. Soy de los que opinan que lo que no se puede medir, difícilmente se puede gestionar. O, dicho de otro modo, dime cómo mides y te diré realmente qué estás gestionando. Por otra parte, las universidades publicas españolas están queriendo moverse a un modelo de evaluación de competencias. De momento sólo es algo que aparece en las memorias de verificación de títulos, donde las competencias tienen un papel prioritario. Sin embargo, no parece que los profesores “de a pie”, los que están a cargo de las asignaturas que se imparten tengan muy claro cómo trabajar en este “nuevo” entorno y parece que se reproducen los sistemas o métodos tradicionales.

Por eso me parece relevante reflexionar sobre ¿Qué es la evaluación por competencias? Y, sobre todo, ¿cómo se realiza una adecuada evaluación por competencias?

20Dic/17Off

“Los dioses vuelven a Toyota”

Un ejemplo de 2 de los componentes del Toyota Way en situaciones complicadas.

Kaizen (ningún proceso puede ser declarado perfecto, siempre hay que mejorar): cuando parecía que ya no se podía mejorar fuerzan un cambio en el modo de trabajo para poder conseguirlo, aunque a primera vista fuera contra el sentido común (volver a los artesanos), se demostró que fue la manera de mejorar.

Genchi Genbutsu: cuando pierdes el conocimiento de lo que pasa en planta porque lo hacen robots hay que volver a los conceptos más básicos, conocer el producto.

Aquí la noticia (ya algo antigua):

‘Gods’ make comeback at Toyota as humans steal jobs from robots

 

20Nov/17Off

Los artículos científicos publicados en revistas más populares, ¿son de mayor calidad?

Empiezo a encontrarme aportaciones que parecen indicar todo lo contrario; o, al menos, que la popularidad (indice de citas/impacto) no está asociada a la calidad (o no hay una relación causal excesivamente fuerte una vez controladas otras variables de confusión). Un  ejemplo https://docs.google.com/document/d/18uyYykwoy6EAyX39eDfuVwsuPrjokPEuB5MyLmrdi2U
 
Los próximos dos-tres años quiero abrir una linea de trabajo en este sentido centrada en RRHH y OM (pues creo que todas estas cosas se deben analizar  sub-área por sub-área. Pues de un área (o sub-areas) científica a otra  puede haber diferencias -y mucho más si pasamos de Sciencie a Social Science-. En cualquier caso hay que probar que no las haya.

 
 
El trabajo no será rápido pues hay que hacer dos o tres cosas primero.:
  1. Identificar las “revistas del área”
  2. Definir impacto (popularidad) y calidad científica del trabajo (son dos cosas distintas evaluadas por métricas distintas y por “personas” o agentes distintos en momentos distintos de la investigación).
  3. Ver el acuerdo (agreement) entre rankings de impacto diferentes
  4. Probar si los artículos en revistas TOP (en impacto/citas) son de mejor calidad e incluso más impacto que los de revistas no TOP

Quizás nos llevemos la sorpresa de que el impacto del articulo no tenga nada que ver con su calidad, o que el impacto del articulo no tenga que ver con el impacto de la revista (eso es lo que yo sospecho, pero la investigación de los próximos tres años intentará dilucidar si tengo razón o no)

 
20Nov/17Off

Los artículos científicos publicados en revistas más populares, ¿son de mayor calidad?

Empiezo a encontrarme aportaciones que parecen indicar todo lo contrario; o, al menos, que la popularidad (indice de citas/impacto) no está asociada a la calidad (o no hay una relación causal excesivamente fuerte una vez controladas otras variables de confusión). Un  ejemplo https://docs.google.com/document/d/18uyYykwoy6EAyX39eDfuVwsuPrjokPEuB5MyLmrdi2U
 
Los próximos dos-tres años quiero abrir una linea de trabajo en este sentido centrada en RRHH y OM (pues creo que todas estas cosas se deben analizar  sub-área por sub-área. Pues de un área (o sub-areas) científica a otra  puede haber diferencias -y mucho más si pasamos de Sciencie a Social Science-. En cualquier caso hay que probar que no las haya.

 
 
El trabajo no será rápido pues hay que hacer dos o tres cosas primero.:
  1. Identificar las “revistas del área”
  2. Definir impacto (popularidad) y calidad científica del trabajo (son dos cosas distintas evaluadas por métricas distintas y por “personas” o agentes distintos en momentos distintos de la investigación).
  3. Ver el acuerdo (agreement) entre rankings de impacto diferentes
  4. Probar si los artículos en revistas TOP (en impacto/citas) son de mejor calidad e incluso más impacto que los de revistas no TOP

Quizás nos llevemos la sorpresa de que el impacto del articulo no tenga nada que ver con su calidad, o que el impacto del articulo no tenga que ver con el impacto de la revista (eso es lo que yo sospecho, pero la investigación de los próximos tres años intentará dilucidar si tengo razón o no)