ROGLE
23Nov/16Off

¿Qué revistas científicas se pueden considerar indexadas de prestigio? ¿existen los predatory indexes?

Con frecuencia recibo consultas acerca de mi opinión sobre la calidad de diferentes revisas. Supongo que me han preguntado porque consideran que soy una persona experta porque he invertido varios años como subdirector de investigación del Departamento de Organización de Empresas en diferentes equipos. O quizás sea por el seguimiento y apoyo que he dado a la comisión de Indice de Actividad Investigadora de la UPV a través de una cantidad bastante elevada de “gregales” (sistema de gestión de incidencias, quejas y sugerencias internas en la UPV) emitidos a lo largo de los últimos 10-12 años. También es posible que me pregunten por mi experiencia con todo el sistema de indexación ya que soy editor jefe o participo en el comité editorial de varias revisas “indexadas”.

La última tanda de preguntas recibidas tenía que ver sobre si se podía considerar como “indexada” determinada revista. Interesante cuestión que me ha animado a escribir esta entrada.

Primero quiero insistir en un asunto de terminología:  no se debería hablar de revistas indexadas o no indexadas… indexadas hay miles (es tremendamente sencillo estar indexada en algún sitio, es decir estar dada de alta en una base de datos de revistas científicas). Indexadas con indices relativos hay menos (muchas menos).

Indices relativos tienes en JCR, ScimagoJCR, pero también en Journal Scholar Metrics, google citations, DICE, MIAR, ICV de Copernicus … la dificultad está en definir cuáles de los indices relativos son fiables y dónde están los puntos de corte para marcar revistas de prestigio si el índice no crea bloques o cuartiles. Por ejemplo, Scimago JCR además del índice, agrupa la revistas en cuartiles; DICE tiene las revisas agrupadas en 4 niveles de mas a menos calidad;  pero MIAR o ICV-Copérnicus solo ponen un numero (cuanto más grande mejor, pero no sabes los puntos de corte por niveles).

A estos índices se pueden añadir aquellos desarrollos locales (nacionales, autonómicos, de una universidad o de una asociación científica) que se hayan creado con un fin específico. Por ejemplo, las universidades australianas han pactado un indice que les sirve de referencia; las universidades catalanas usan MIAR como referencia; la universidad de Cambridge tiene  un listado agrupado en 4 niveles (como hace el DICE) que indica cuáles son las revistas de más a menos prestigio; o, por poner un último ejemplo,  la UPV tiene una clasificación de revistas en 4 niveles (ahora están modificándolo para que sean 6), creada por la comisión del Valoración de la Actividad Investigadora de la UPV (que entra dentro del programa DOCENTIA, integra todos los campos científicos en la que la UPV se mueve y lo hace con el espíritu de que sea JUSTA la comparación inter-disciplinas. Además,  tiene un sistema de decisión auditado, sensato y establecido durante años). Por supuesto, ninguno de estos ejemplos es perfecto (no sólo porque es difícil tener claro el criterio que hace que una revisa científica sea de calidad o no) pero representan soluciones de compromiso alcanzadas a través de un consenso y que permiten tener un sistema más ajustado y acorde a las necesidades concretas de una institución.

Personalmente creo que, además de JCR y Scimago JCR, hay algunos otros indices solventes (Journal Scholar Metrics , google citations, DICE, MIAR, ICV de Copernicus…). Quizás, los más claros para el campo de la Organización de Empresas en España serían:

  • DICE-que surge de un convenido de CSIC con ANECA y la ANECA usa esta base de datos como referencia de calidad-
  • Journal Scholar Metrics (en el fondo se alimenta de datos de google scholar citations, pero lo mejora incorporando indicadores bibliométricos más potentes y categorizaciones).

Para finalizar, quería expresar una preocupación que me ha empezado a rondar por la cabeza. Me temo que pronto se disparará el negocio de crear indexadores. Hasta ahora, los índices de revistas que se valoran en España están en manos de grandes grupos editoriales multinacionales (Thompson, Elsevier y quizá Google se puede incluir en este paquete). Nos  hemos fiado de sus “rankings” porque son unas empresas monstruo que han intentado (y casi conseguido) tener el monopolio de este servicio. Pero, en el fondo, son entidades que velan por sus propios intereses y la ciencia es una escusa para hacer su negocio (que, en algunos casos, no es demasiado transparente). También hay índices que  han sido desarrollados por colectivos científicos independientes apoyados con fondos públicos nacionales aunque, paradógicamente, no son considerados por las propias instituciones que los financian, que prefieren dar prioridad a los listados de JCR o ScimagoJCR (también es cierto que España está financiando el desarrollo de JCR y scimagoJCR a través de la suscripción de la FECYT de SCOPUS y WEBofScience para todas las universidades públicas españolas).

En este contexto no resulta imposible imaginar (y esto es lo que me preocupa) que los mismos estafadores que inventan los predatory journals y los predatory meeting, ahora extiendan  su fraude orientándolo a los predatory indexes (porque seguro que hay un negocio en ordenar revistas y habrá gente está dispuesta a pagar una fortuna para que sus revistas estén en la parte TOP de algún indice -independientemente de las garantías científicas del indice-) y ese es un peligro al que tendremos que enfrentarnos en el futuro.

18Ago/16Off

¿Es posible que me quede sin trabajo por lo mal que escribo?

En unas semanas empezará un nuevo curso y tendré la oportunidad de leer una gran cantidad de textos escritos por mis alumnos en diferentes ejercicios, trabajos, exámenes o entradas de foro/blogs. Si nada cambia, volveré a experimentar la sensación de que, las personas matriculadas en mis asignaturas, cada vez escriben peor y, además, les importa poco tener esa tara. Creen, que en el mundo dominado por los emoticonos y la taquigrafía de chat, no tiene importancia dejarse una “h” por el camino, permutar una “v” por una “b”, ignorar la existencia de las tildes o esparcir las comas y puntos como quien lanza serpentinas.

Quizás tengan razón… Pero mi intuición me dice que se equivocan. Yo creo que, en un mundo digital, se escribe infinitamente más que se habla y que la primera impresión de una persona no la da su imagen, sino cómo escribe.

Es posible que yo piense así porque soy “un tipo raro” o porque soy de otra generación. Es posible, que las personas que tengan que decidir si contratar o no los servicios de mis alumnos en sus empresas, sean tipos tan raros como yo o, muy probablemente, de mi generación.

Y si no lo creéis, leed este artículo en la HBR (https://hbr.org/2012/07/i-wont-hire-people-who-use-poo), que tiene un título tan explícito como este “I Won’t Hire People Who Use Poor Grammar. Here’s Why” y del que os extraigo unos fragmentos (aunque recomiendo su lectura íntegra):

“But grammar is relevant for all companies. Yes, language is constantly changing, but that doesn’t make grammar unimportant. Good grammar is credibility, especially on the internet. In blog posts, on Facebook statuses, in e-mails, and on company websites, your words are all you have. They are a projection of you in your physical absence. And, for better or worse, people judge you if you can’t tell the difference between their, there, and they’re.”

” If it takes someone more than 20 years to notice how to properly use “it’s,” then that’s not a learning curve I’m comfortable with. So, even in this hyper-competitive market, I will pass on a great programmer who cannot write.”

“I hire people who care about those details. Applicants who don’t think writing is important are likely to think lots of other (important) things also aren’t important. “

[rating]

27Dic/15Off

Publicado-MARIN-GARCIA, Juan A.(2015) Publishing in two phases for focused research by means of “research collaborations”

23Jul/15Off

Buenas Prácticas docentes para la competencia transversal de trabajo en equipo.

12Mar/15Off

Descarga libre hasta 30 de abril: An analysis of the direct and mediated effects of employee commitment and supply chain integration on organisational performance

Article title: An analysis of the direct and mediated effects of employee commitment and supply chain integration on organisational performance Reference: PROECO5810 Journal title: International Journal of Production Economics Corresponding author: Dr. Rafaela Alfalla-Luque First author: Dr. Rafaela Alfalla-Luque Final version published online: 11-MAR-2015 Full bibliographic details: International Journal of Production Economics (2015), pp. 242-257 DOI information: 10.1016/j.ijpe.2014.07.004 Dear Dr. Alfalla-Luque, We are pleased to inform you that the final version of your article with full bibliographic details is now available online. To help you access and share your article, we are providing you with the following personal article link, which will provide free access to your article, and is valid for 50 days, until April 30, 2015 http://authors.elsevier.com/a/1Qgrg3ISCUn-4f

nyone who clicks on the link until April 30, 2015, will be taken to the final version of your article on ScienceDirect for free

22Oct/14Off

¿Me afecta el tema del plagio/deshonestidad académica si soy profesor de universidad?

Quiero aclarar desde el principio que no tengo ningún dato que me permita valorar si existe plagio (o comportamientos deshonestos) en la comunidad académica a la que presto mis servicios. Antes de valorar si esa falta de información me debe preocupar, voy a repasar, en calidad de profesor e investigador de universidad publica española, en qué aspectos me preocupa el plagio, qué necesidades de control detecto y cuáles serían sus requerimientos.

Para ello, tendré  en cuenta los diferentes roles que desempeño en mi universidad. Soy profesor en varias asignaturas de grado o máster y tutor de trabajos final de grado o máster; Subdirector de Investigación del DOE  y, por lo tanto, validador de los méritos científicos de las personas pertenecientes a esta estructura; Director Académico de los Títulos  GIOI y MUGESP;  miembro de la Comisión Académica del Titulo del Programa de Doctorado en Administración y Dirección de Empresas y editor jefe de la revista científica WPOM.

En la tabla siguiente relaciono los diferentes objetos, que me preocupan que puedan ser plagiados, con el rol que desempeño cuando los valoro.

Como punto de partida, creo que se necesitan dos cosas para acabar con el plagio o la deshonestidad académica: sensibilizara a alumnos/profesores sobre honestidad académica y tener un buen sistema antiplagio para detectar si alguien no se sensibiliza.

En el caso de memorias de trabajos académicos o preguntas de desarrollo me centraré en las que los alumnos entregan como documento electrónico, bien sobre plataformas on-line en situación de examen o en trabajo autónomo. Por ello descarto el poder detectar el plagio cuando entregan el trabajo escrito a “mano” (lo que tendría cierta implicación a la hora de reflexionar sobre las situaciones ideales para realizar un examen si quiero evitar el plagio). Lo que me preocupa en este caso es tener la seguridad de que los trabajos que me presentan mis alumnos son fruto de su trabajo y de su aprendizaje y no algo que se hayan “descargado” o “copiado y pegado” de documentos realizados por otras personas. Esto sería extensible a las propuestas de proyectos de tesis o a la propuesta de solicitud para acceder a un doctorado.

Para ello, considero imprescindible disponer de una herramienta admita documentos en texto plano, RTF,  PDF o en alguno de los formatos de procesador de texto habituales. Que detecte plagio, no sólo entre los trabajos de sus compañeros de curso, sino también de trabajos de otros años o de otras universidades/titulaciones, o de documentos accesibles en páginas web o de foros que requieran un login y password para acceder a los “servicios” y, por si fuera poco, que detecte fuentes en otros idiomas (es decir, el mismo texto en castellano, valenciano o inglés, como mínimo, pues los tres son idiomas oficiales de mis asignaturas).

Hasta el momento sólo he tenido la oportunidad de probar algunas herramientas gratis en internet, la versión gratuita de VIPER y la versión piloto de una herramienta de desarrollo local en la UPV (DOCODE).

Lo que he visto hasta el momento -ultima prueba en septiembre de 2014- no puede ser más inútil y más desalentador (por no poner adjetivos más negativos). Las plataformas web gratuitas son incómodas de manejar (hay que subir los textos uno a uno), muchas veces sólo admiten texto plano, no se puede subir un archivo, y limitan el número de palabras que permiten por “documento” o en todos los documentos revisados en un plazo de tiempo. Estos límites varían pero pocas veces permiten analizar un documento completo (solo unos pocos párrafos o páginas). Por otra parte, casi nunca detectan plagio (yo lo he probado subiendo una copia de textos que existen en internet con acceso público y no los detectan).

VIPER , en su versión gratuita 4.1.9, aparentemente supera alguno de estos problemas (al menos la de subir ficheros y varios de golpe), pero tiene una limitación de número de palabras por día. Además, el programa es bastante inestable, no permite subir documentos PDF (diga lo que diga su propaganda) y muy lento. Por otra parte los resultados no han resultado nada satisfactorios (son mejores que las páginas web o que DOCODE, pero insuficientes, por lo menos en la versión gratuita). Por ejemplo, tras descargar una página de wikipedia traducida en google translator, me ha detectado 3 fuentes de Scribd y otros servicios de trabajos de alumnos, pero no me ha detectado la fuente original. Además el programa no funciona bien con textos en castellano o textos que no estén codificados UTF-8 pues todas la tiles, “ñ” etc rompen la cadena de detección dejando unos porcentajes de similitud entre el 15%  y el 22% cuando en realidad es exactamente el mismo texto.

El programa DOCODE lo he probado con más detenimiento subiendo una batería de textos y los resultados son incluso peores que VIPER gratuito. He puesto un documento y su traducción al ingles y no detecta que son lo mismo (por lo tanto no me protege en absoluto contra el plagio entre idiomas oficiales en mis asignaturas: castellano, valenciano y en muchas ocasiones inglés, ni frente a traducciones de trabajos que localicen en la web). He descargado unos PDF de la web, los he metido en escalona y me salen solo parcialmente referenciados en la web cuando son una copia exacta en el mismo idioma. En otra prueba he descargado un documento del ministerio y otro de un repositorio, y las fuentes web que me cita son “wikipedia” cuando hace la definición de una de las frases en el contenido, en lugar de identificarme el documento que me he descargado de una web pública sólo 3 minutos antes.  He subido un PDF de un documento que está en un repositorio abierto en internet y no lo detecta como plagio. Por último, he metido dos TFG casi iguales, son dos versiones con mínimos cambios de un mismo alumno… y no me dice que son lo mismo.

No he tenido la posibilidad de probar Turnitin (y no se si es merecedor de la fama que tiene como el “mejor” sistema detector de plagio). Lo que si he podido comprobar es  que Trunitin es Caro, pero siempre me asalta la duda de si desarrollar algo que se parezca a Turnitin no será más caro todavía (y con el riesgo adicional que nos salga un producto que no resuelve nuestras necesidades). Por otra parte, en cosas como estas, dudo que un desarrollo local sirva de verdad para algo… Si no somos capaces de desarrollar un sistema que comparta mucha gente (la mayoría de las universidades de habla castellana: españolas y latinoamericanas, públicas y privadas…) esto será un coladero. Si lo compartimos muchos, el coste será mucho  menor (para mi esto debería ser un proyecto de software libre pagado por varias universidades o vía crowsourcing, para que realmente acabe siendo algo que se acerque o mejore a Turnitin). Hay experiencias de software desarrollado de esta manera (el que más lo necesita tira del carro y poco a poco se van enganchando otros que acaban aportando recursos o dinero para el desarrollo. Moodle, Limesurvey, Trello, son ejemplos de plataformas que se han creado así). Siendo algo que todas las universidades necesitan, supongo que habría masa suficiente para que aportando todos un poco, el proyecto vaya adelante… pero si en lugar de eso cada una opta por gastarse “su” dinero para crear “su” aplicación, al final no creo que logremos lo que se necesita y entre todos habremos gastado una fortuna para nada. Si no somos capaces de “pactar” un proyecto común (open) para algo que necesitamos y que, “necesariamente”, tenemos que parir entre todos para que sea útil y no deje resquicios al plagio entre universidades, creo que ya hemos perdido la batalla antes de comenzarla.

Y se trata de una batalla, desde mi punto de vista, importante. ¿Para qué me voy a esforzar como profesor en gastar mi tiempo en evaluar de manera fiable y justa unos trabajos, si no puedo tener la garantía de que el alumno que lo presenta es el autor del trabajo? Lo que ocurre es que, en estos momentos, no tengo ninguna herramienta para poder estimar si el plagio es un problema grave o no en mi contexto. ¿Hay mucho o pocos alumnos que plagian sus trabajos? Ni idea. Y no tengo forma de saberlo si mi institución no me proporciona unas herramientas adecuadas. Quizás habría que elegir una muestra de asignaturas y TFG/TFM, usar una plataforma fiable para analizar si hay plagio en los trabajos que han presentado los alumnos en los últimos dos años  (cueste lo que cueste no será caro porque estamos hablando de una muestra), y extrapolar los resultados para estimar si se trata de un problema grave o no.

Por otra parte, este problema no reside solo en grado… en posgrado y doctorandos parece que el problema también puede ser importante (  PH.D. IN “COPY-AND-PASTE”? Addressing the Rise of Plagiarism in Graduate Programs  ). No obstante, de nuevo habría que valorarlo, porque los autores de este informe son parte interesada en demostrar que el plagio es grave porque venden sistemas antiplagio.

También quiero aprovechar para reflexionar sobre el plagio de artículos científicos por dos motivos. Uno, es que en el máster y en el programa de doctorado donde participo, los alumnos pueden presentar su TFM o su tesis en dos formatos. Pueden hacer una monografía (en cuyo caso la detección de plagio seguiría un procedimiento similar al de los trabajos académicos que ya he comentado) pero también pueden presentar una colección de artículos.  En estos casos, se necesita un sistema especializado en detección de plagio de artículos científicos. Por otra parte soy editor de una revista científica y cada vez que se sube un artículo a la plataforma debería poder comprobar si es original o una copia de algo que ya se ha publicado. Y esto debería hacerlo antes de mandar el artículo a los revisores de la revista. Para que solo gasten su tiempo en aportaciones originales.

Por suerte, el mercado tiene una plataforma muy buena y probada para la detección de plagio iThenticate: Plagiarism Detection Software.  Pero, por desgracia, vuelve a ser cara (al menos para los presupuestos disponibles en el programa de doctorado, prácticamente cero, o en una revista OPEN JOURNAL que no tiene fuentes de ingresos). En este caso hemos podido contar con el apoyo de la editorial UPV para poder aplicar este sistema a los artículos remitidos a la revista a partir de 2015, lo que es algo muy de agradecer.

14Dic/13Off

SCImago Journal & Country Rank vs Journal Citation Report (JCR). ¿Dos caras de la misma moneda?

En primer lugar quiero remarcar que me parece insensato valorar la calidad de la producción científica de un investigador utilizando el factor de impacto como instrumento de medida. El factor de impacto es, con todas sus limitaciones, un indicador para medir el impacto de las revistas. Para medir el impacto de las aportaciones personales deberían usarse otros índices, no exentos de problemas, pero mucho más adecuados que el factor de impacto. Por ejemplo el índice h. Os recomiendo leer Quindós (2009) Confundiendo al confuso: reflexiones sobre el factor de impacto, el índice h(irsch), el valor Q y otros cofactores que influyen en la felicidad del investigador como ejemplo de los múltiples artículos y reflexiones en esta línea. También podéis leer San Francisco Declaration on Research Assessment DORA y China’s publication bazaar.

Tanto si se mide el impacto del investigador con índice h o como con el factor de impacto de las revista en las que publican, desde hace tiempo me vengo preguntando por qué SCImago Journal & Country Rank sigue siendo un listado de “segunda fila” y las comisiones evaluadores se empecinan en dar más valor a los datos proporcionados  en el Journal Citation Report (JCR) que en SCImago Journal & Country Rank.

Sin duda ambos calculan el índice h de la misma forma (pero incluyendo sólo las revistas de la base de datos de Scopus o de la de web Of Knowledge, lo que es siempre incompleto). Aparentemente ambos usan métodos similares para calcular sus factores de impacto y son igual de robustos y serios. Aunque Scimago usa una métrica diferente para hacer el ranking de revistas. Métrica que, curiosamente, han desarrollado unos colegas de universidades españolas (Granada, Estremadira, Carlos III y Alcalá de Henares) y el Consejo Superior de Investigaciones Científicas (CSIC) .

Por otra parte, el proceso de admisión de revistas parece más claro y transparente en Scimago/Scopus que en JCR/WoK-Thompson. Ademas, en Scopus  parece haber una sensibilidad especial hacia las revistas europeas. Es decir, hay más presencia de revistas europeas que en WoK-Thompson. Si a eso añadimos que las revistas publicadas en Europa, de management y otras ciencias donde el aspecto cultural sea importante,  tienen más tendencia a publicar investigaciones realizadas en el contexto europeo; lo lógico sería pensar que, en los organismos de evaluación españoles, ambos listados deberían tener el mismo peso o, en todo caso, tener más peso SCImago Journal & Country Rank que Journal Citation Report (JCR). Aunque solo sea porque Scimago (que es reconocido mundialmente) lo han parido compatriotas nuestros. Me resulta tan extraño que los mismos españoles despreciemos lo que producimos mientras que fuera lo consideran un buen producto…. Es una forma rara de promocionar la marca España.

Aunque poco a poco los Boletines Oficiales van incorporando a ambos listados como referente de la calidad de las revistas, en la práctica se da un peso mayor a las revisas de JCR que a las de SCImago. Parece que es habitual que se considere equivalente ser un Q1 (primer cuartil) en SCImago con ser un Q2 o Q3  en JCR.

Hasta hoy no tenía ningún argumento para este ¿sinsentido? Pero esta mañana me han comentado que en algunas áreas (como mátemáticas), la politica de SCImago de clasificación de revistas puede generar una distorsión en los rankings. En SCImago una revista puede pertenecer a varias categorías y en cada una de ellas recibe un ranking (Q1 a Q4) comparando su factor de impacto con las otras revistas de la categoría. Si alguna categoría acaba siendo muy heterogénea (incluye revistas muy dispares con políticas de citación diferentes) puede distorsionar el ranking de esa categoría. En JCR, aunque una revista pueda esta clasificada en varias categorías, sólo se estable su ranking (T1 a T3) en la categoría principal. Y, parece ser que en determinadas áreas las categorías principales de JCR son más homogéneas y generan unos rankings más claros o, al menos, más parecidos a los que siempre se habían tenido.

No se si este asunto de la heterogeneidad de las categorías afecta a todas las áreas o sólo unas pocas. En especial, me gustaría saber si en las áreas de Business, Management and Accounting (miscellaneous) , Education , Decision Sciences (miscellaneous)  , Industrial and Manufacturing Engineering, Strategy and Management , Management of Technology and Innovation, Organizational Behavior and Human Resource Management   los rankings pueden verse afectados por errores de clasificación de las revistas o si “son todas las que están”, porque en el segundo caso no habría ningún motivo para seguir discriminando a SCImago Journal & Country Rank como se está haciendo en la actualidad .

PD: parece haber cierta evidencia que en áreas como márketing los listados ScimagoJCR y JCR generan unos rankings muy similares (correlación de 0.81) (ver Richard et al, 2012)

1Jun/13Off

¿Por qué publicar en investigación docente?

Hace unos días participé en una sesión de clausura del curso de formación para profesores de mi universidad (Título Propio de Especialista en Pedagogía Universitaria/Programa de Acogida Universitario (PAU)) y estuvimos hablando sobre publicar en investigación docente.

Quizás deberíamos empezar respondiendo a una pregunta más general ¿por qué publicar los resultados de investigación?

En lugar de dar una respuesta a esta pregunta, me gustaría que dedicaras 2-3 minutos a poner todas las posibles razones por las que sería conveniente publicar (luego, si quieres, puede incluso ordenarlas de mayor a menor importancia para ti):

En segundo lugar,  deberíamos responder a esta pregunta ¿qué es la investigación docente? . Seguramente habrá muchas respuestas diferentes, yo voy a daros la mía:

La investigación docente es INVESTIGACIÓN. Por lo tanto, usa el mismo protocolo que cualquier otro tipo de investigación sea cuál sea el fenómeno que se investigue: hay que definir una pregunta de investigación y justificar que es pertinente e importante, que responderla aporta una contribución a académicos y profesionales; hay que recopilar el saber previo y resumirlo; hay que elegir los métodos más adecuados para la pregunta formulada y los objetivos concretos de la investigación; hay que recoger “datos” y analizarlos y discutirlos para acabar sacando unas conclusiones.

Lo único que la diferencia de otras investigaciones es que su pegunta de investigación está relacionada con la docencia o el aprendizaje. Por lo tanto,  es el objeto y no el “método” lo que define la investigación docente. Por otra parte, la investigación docente se puede concretar para dar respuesta a cuestiones relacionadas con el aprendizaje o la docencia de diferentes disciplinas, por lo que su contribución es importante (y seguramente esencial) para los investigadores de esas áreas, sean áreas de Química, Biología, Derecho, Organización de Empresas, Ingeniería o la que sea). De hecho, las más prestigiosas asociaciones científicas tienen divisiones especializadas en investigar cómo se aprender la disciplina. Por otra parte, no debemos olvidar que, en el contexto científico español, una parte importante de la investigación la realizan personas que son, al mismo tiempo, investigadores y docentes. Por ello, la investigación docente nos ayuda a dar respuesta a problemas con los que nos enfrentamos todos los días para logar ser unos profesionales y unas instituciones más eficientes.

Otra pregunta que quiero contestar es ¿por qué publicar mis investigaciones docentes? ¿no será esa una tarea sólo de pedagogos? En mi opinión, cualquier persona que es responsable de que otros aprendan (da lo mismo que los que aprendan sean doctorandos, alumnos de universidad o personal técnico de las empresas), debería investigar sobre la mejor forma de fomentar aprendizaje y publicar sus resultados.

Para mi, publicar (cualquier investigación, docente o no) es importante porque:

  • Me ayuda a ser más sistemático (resumiendo el saber previo, recogiendo e interpretando los datos) y ser más riguroso, de modo que acabo tomando mejores decisiones docentes y soy mejor profesional de la docencia.
  • Me permite convertir en “urgente” cosas que son importantes (si no me fijo plazos y objetivos de publicación, las cosas se me van quedando para “cuando tenga tiempo” y eso no ocurre jamás y no mejoro mi capacitación como profesional al servicio de la Universidad española).
  • Me ahorra tiempo a mi y ahorra tiempo a otros, porque intercambiamos resultados y evitamos tropezar en los mismos errores o podemos aprovechar mejor los aciertos de otras personas.
  • Me permite debatir mis conclusiones y contrastar si son tan ciertas como suponía. También me permite generalizar (o no)  los resultados al compararlos con las publicaciones similares en otros contextos.
  • Y debería servir para mejorar mi curriculum como investigador. Por un lado, me ayuda a depurar métodos y a conocer nuevas técnicas que enriquecen mi capacidad para abordar problemas cada vez más complejos en mi área “natural” de investigación, que es la Organización de Empresas. Gracias a las exigencias de la investigación docente tengo que aprender técnicas que luego aplico en investigaciones de otros campos, creando una fertilización cruzada muy interesante. Por otro lado, salvo que alguien se empeñe en ponerle “orejeras” a la Ciencia, la publicación de resultados de investigación en revistas de prestigio, sea del área que sea, es un mérito indiscutible para un investigador. De hecho, cuanto más diferentes son las “conversaciones científicas” en las que se participa, más mérito se debería considerar pues obliga a dominar marcos teóricos, métodos y enfoques diferentes. Esta polivalencia y versatilidad es un recurso complejo, escaso y valioso; las personas que lo poseen deberían ser premiados (y no penalizados) por ello.

En el fondo, los motivos para publicar e revistas científicas mis resultados de investigación docente, no son diferentes de los motivos que me impulsan a publicar mi investigación en “Organización de Empresas”, porque tal como comentaba en la segunda pregunta de esta entrada, el proceso para hacer investigación es el mismo e igual de riguroso, lo que cambia sólo es el objeto de las preguntas que se intentan responder.

Por último me quedaría una pregunta por tratar ¿dónde publicar la investigación docente?

Los congresos son una buena forma de empezar a elaborar el “borrador” de la comunicación, pero deberíamos apuntar a publicar en revistas académicas registradas en bases de datos de búsqueda (Scopus, EBSCO, ABI y Web Of knowledge). El motivo principal es que las actas de congreso no suelen estar accesibles ni indexadas, de modo que nuestra investigación no beneficiará apenas a nadie, porque, aún encontrando el título y resumen, casi nunca podrán acceder a nuestro texto completo, salvo que hayan asistido al congreso (y guarden las copias de las actas). Además con el tema de congresos empieza a haber un movimiento de crear cutre-congresos que no aportan nada científicamente a los participantes. Para detectar estos congreso-fiascos, os recomendaría que mirarais la asociación científica y el comité científico que organiza el congreso (si no hay una asociación científica reconocida detrás del congreso, o en su defecto, un comité plagado de expertos reconocidos, yo no me apuntaría).

Sobre las revistas, lo principal es el comité editorial. Si las  personas que están detrás de la revista son reconocidos expertos en la disciplina que quieres publicar, es un buen indicador de la seriedad. Os recomendaría evitar mandar vuestros artículos a revistas donde el editor es un profesional “no científico” y que no pertenece a una institución universitaria o científica (sobre todo, si os piden 400-600 euros por publicaros los artículos. Que hay mucha editorial no científica que se dedica a intentar publicar ciencia como si se tratara de “libros de bolsillo”. Para mí eso es dar gato por libre.   Adicionalmente, cumplir criterios latindex o similares o estar en alguno de los buscadores habituales (Scopus, EBSCO, ABI y Web Of knowledge), puede ser otro índice de calidad pero nunca eliminaría el primer filtro de quién forma parte del comité editorial y que peso científico tienen esas personas.

Asumiendo que optáis por una revista científica de verdad (no las falso-científicas que se anuncian por mail “spameando” con las listas de direcciones que capturan de las actas de congresos u otros métodos de dudosa legitimidad). Las opciones creo que se resumen en tres categorías:

  1. Revistas de vuestra área de conocimiento que admiten (a veces a regañadientes) artículos de investigación docente. Si lo pone como línea de “Focus and Scope”, tendréis alguna posibilidad. Si no, será casi una tarea imposible. Ejemplos de revistas de esta categoría que NO promociona la investigación docente en sus líneas, pero que a veces publica algo: http://www.journals.elsevier.com/journal-of-operations-management/ o Cuadernos de Economía y Dirección de la Empresa y este es un ejemplo (hay poquísimos)  de una que sí lo promociona entre sus líneas http://www.jiem.org/index.php/jiem/about/editorialPolicies#focusAndScope
  2. Revistas de vuestra área que se dediquen a la investigación docente. Por ejemplo, porque son el órgano de difusión de una sección de la asociación científica.  Ejemplos de estas revistas:Journal of Marketing Education, Academy of Management Learning & Education, INFORMS Transactions on Education , WSEAS Transactions on Advances in Engineering Education, Journal of Chemical Education, Journal of Engineering Education
  3. Revistas del área de educación o pedagogía (requerirán de vosotros un mayor dominio del marco teórico, métodos y “normas de conversación” habituales en la pedagogía). Ejemplos de esta categoría de revistas: Higher Education, Innovative Higher Education, Assessment and Evaluation in Higher Education, Revista de Investigación Educativa (RIE), RELIEVE, Revista española de Pedagogía, Revista de Educación

Note: There is a rating embedded within this post, please visit this post to rate it.

1Jun/13Off

Una respuesta más acotada a ¿Cuántas horas de trabajo de profesor debería representar 1 crédito ECTS?

Un año y tres meses después de que formulara la pregunta original  y tras varios reales Decretos, unos cuántos borradores de Ley y varias  normas internas de mi universidad publicadas, tengo una respuesta más concreta a la pregunta ¿Cuántas horas de trabajo de profesor debería representar 1 crédito ECTS?

Con todos los datos recogidos, hago un nuevo supuesto:

Un PDI (personal docente e investigador), a tiempo completo en la UPV, tiene que impartir 34 crd de docencia (ECTS)  por contrato. Pero si investigas (sexenio vivo y otros indices de actividad investigadora) se reconoce esa actividad como descarga docente… de forma similar a como se hace en gestión. Si investigas mucho puedes llegar a tener un máximo de 16 créditos de encargo docente (es decir un 40-50% del tiempo es investigación y el resto docencia -si haces gestión, se descarga de docencia también). Estas cifras coinciden bastante con el primer supuesto que formulé en su día. No iba tan desencaminado. Lo que cambia ahora es el módulo para calcular la equivaencia de ECTS y horas.

Las 1.725 horas al año (dedicación a tiempo completo) equivalen a 34 crd. Por lo tanto 1 ECTS equivale a 50.7 horas de trabajo del profesor/investigador. Por ejemplo, una asignatura donde se impartan 5 créditos de “POD”, puede consumir 250 horas EN TOTAL (planificación, preparar materiales, impartir, evaluar, reuniones de coordinación, poner actas, revisiones, etc). Es decir, hay tiempo para hacer bien las cosas invirtiendo el tiempo necesario para desarrollar materiales,  atender a los alumnos, evaluarles formativamente etc.

Quizás ahora la pregunta sea, ¿cuánta investigación de calidad se puede hacer dedicando 811 horas de trabajo al año a investigar? Por concretar esa pregunta con los “indices de moda” (limitados, pero sencillos de calcular), ¿cuántos JCRs de cuartil 1 ó 2 se pueden hacer al año en ese tiempo? Personalmente, no creo que sean más de 1 al año -o como el chiste, uno o ninguno-.

Habría que considerarlo para que las comisiones correspondientes de sexenio y acreditación “no se suban a la parra” y fuercen a los docentes (porque somos docentes en las Universidades Españolas) a abandonar parte de sus obligaciones para cumplir con unos criterios que, de otra manera, son  imposibles de cumplir.

Note: There is a rating embedded within this post, please visit this post to rate it.

23May/13Off

El traje nuevo del investigador

“Hace muchos años vivía un catedrático de universidad español que era comedido en todo excepto en una cosa: se preocupaba mucho por la excelencia en la investigación. Gracias a sus méritos, perseverancia y su prodigiosa inteligencia consiguió ser nombrado ministro de investigación. Un día escuchó a dos investigadores extranjeros, que estaban haciendo una estancia en su universidad,  decir que habían construido el mejor baremo para evaluar la calidad de investigación que se pudiera imaginar. Eran los hermanos Guido y Luigi Farabutto, que acumulaban más de 100 trabajos publicados en las revistas de primer cuartil del famoso JCR (y su índice h era superior a 60). Este baremo, añadieron, tenía la especial capacidad de dar cero puntos a cualquier estúpido o incapaz para su cargo en una institución universitaria. Por supuesto, no había baremo alguno sino que los pícaros producían números arbitrarios, eso sí, si alguien introducía en la aplicación alguna publicación cuya pregunta de investigación estuviera relacionada con la docencia,se le asignaba una elevada puntuación negativa a ese trabajo.

Sintiéndose algo nervioso acerca de si él mismo sería capaz de salir bien parado o no con el baremo, el ministro de investigación envió primero a dos de sus hombres de confianza a ser sometidos a la evaluación. Evidentemente, ninguno de los dos introdujo méritos relacionados con investigación docente (pues no los tenían) y, puesto que la aplicación les otorgó unos números altos comenzaron a alabarla. Toda la comunidad académica empezó a oír  hablar del fabuloso baremo y estaba deseando comprobar su puntuación, pero sobre todo, si tenían más puntos que sus  vecinos. Los investigadores más prestigiosos de la disciplina sacaron elevadas puntuaciones, en parte por azar y en parte porque ninguno de ellos había publicado jamás artículos de investigación docente. Pronto la aplicación fue ganando popularidad.

Los hermanos Farabutto ayudaron al ministro a parametrizar la aplicación informática y el propio ministro obtuvo la mayor puntuación de España (tras seguir los consejos de los hermanos Farabutto y no introducir unos cuántos artículos sobre investigación docente que el catedrático había publicado en revistas como Academy of Management Learning & Education, Journal of Management Education, Intangible Capital, Journal of Engineering Education, Cuadernos de Economía y Dirección de Empresas, entre otras).

Toda la comunidad científica alabó enfáticamente el baremo, y empezaron a esconder sus investigaciones docentes, temerosos de que sus vecinos se dieran cuenta y les obligaran a introducirlas en la aplicación. Así pasaron muchos, mucho años.

De vez en cuando algún estúpido reclamaba «¡Pero si la investigación docente es investigación!… Sin embargo, sus palabras se perdían entre risitas despectivas por parte de una mayoría autocomplacida con sus elevados índices de prestigio académico (infinitamente mayores que los de los osados reclamantes)…”

Como ya os habréis dado cuenta,  esta historia  es una adaptación (http://es.wikipedia.org/wiki/El_traje_nuevo_del_emperador#cite_note-4) de lo que  escribió Hans Christian Andersen (1837)… Aunque resulta que, en ocasiones, las maravillas extranjeras parten de ideas españolas . Parece ser que Andersen adaptó, sin citar (ahora diríamos, plagió), la historia XXXII recogida en el El conde Lucanor ( infante Don Juan Manuel, 1330- 1335).

Por supuesto, en mi texto, se podría sustituir el concepto “investigación docente” por “investigación con metodología cualitativa” o por “Investigación haciendo replicación de estudios” o incluso “publicar en más campos de los que yo [evaluador] soy capaz de dominar” o “investigación en temas que, unas pocas personas y contra toda lógica, deciden que no son propias del área, sin que haya ningún documento que manifieste, explícitamente, dónde están las fronteras consensuadas por la comunidad científica del área (en el caso de que, de verdad, sea posible acotar fronteras sin matar la investigación transversal y multidisciplinar) ” y seguiría teniendo la misma vigencia.

No sé cómo acabará este cuento. En la ficción se acaba descubriendo el “pastel” y se rectifica y se aprende la lección. Pero es bien sabido que la realidad muchas veces supera a la ficción.