Publicaciones académicas: revisión de factores para el éxito

Diagrama de componentes clave en la publicación académica.
Publicación académica: el triángulo con los elementos clave del éxito en la publicación académica: la correcta relación entre objetivos, metodologías y resultados será uno de los aspectos que los evaluadores considerarán con mayor atención.

Edición Enero 2020

En este trabajo, originalmente preparado como soporte para un  Seminario/Taller de publicación académica para una escuela de doctorado, vamos a presentar una serie de temas bajo la idea clave de cómo tener éxito en la elaboración, primero y en la publicación, después, de artículos de investigación para revistas científicas.

En concreto, vamos a estructurar las cuestiones en dos grandes apartados:

  1. Artículos científicos: aquí tratamos temas como estructura, redacción, autoría…
  2. Revistas: aquí nos ocuparemos de temas como selección, proceso, evaluación…

Por último, ofreceremos una lista de recursos y referencias útiles sobre el tema, así como materiales para un taller.

Para evitar equívocos, vamos a señalar antes que nada que la base imprescindible para publicar con éxito es una investigación de calidad que:

  • aporta resultados novedosos y significativos, como consecuencia de un proceso de toma de datos y análisis;
  • ha sido conducida por un método acorde con los objetivos de la investigación;
  • formalmente ajustada a los requerimientos tanto de transparencia como de trazabilidad;
  • y se ha sustentado en una revisión de antecedentes y de investigaciones relacionadas adecuadamente atribuidas, citadas e incorporadas en el cuerpo del trabajo y referenciadas al final del mismo en la bibliografía.

Artículos académicos


¿Qué es la estructura IMRyD?

Las siglas IMRyD, adaptadas de las inglesas IMRaD, corresponden a:

  1. Introducción
  2. Metodología
  3. Resultados y Discusión

Se considera que el núcleo de un artículo científico-académico debe responder a esta estructura, particularmente si el artículo consiste en la comunicación de resultados de una investigación llevada a cabo mediante (1) la aplicación de una metodología para la obtención y análisis de datos, que puede ser cualitativa o cuantitativa, (2) la presentación de los resultados y (3) una discusión que ponga de relieve el significado de los mismos y eventualmente los compare con otros resultados de investigaciones relacionadas.

Generalmente, el artículo completo tendrá otros elementos, antes y después de ese núcleo, tal como muestra la estructura siguiente tomada de la importante editorial Elsevier:

La estructura IMRyD en el contexto de los componentes globales de un artículo de investigación según Elsevier. Fuente: Elsevier Researcher Academy

Otro buen ejemplo, nos lo proporciona la revista Comunicar, una de las más importantes en el ámbito de la Comunicación Social y la Educación. En concreto, en su información para los autores, recomiendan que los artículos presenten esta estructura (el destacado es nuestro):

1. Introducción y estado de la cuestión
2. Materiales y métodos
3. Análisis y resultados
4. Discusión y conclusiones
5. Notas (en su caso)
6. Apoyo (en su caso)
7. Referencias

Fuente: Revista Comunicar: Normativa para autores
Observaciones: hemos destacado los puntos de coincidencia con la estructura IMRyD. Apoyo se refiere a la referencia del proyecto en caso de formar parte de un proyecto financiado.

La estructura IMRyD ofrece claridad y transparencia, y por tanto, adherirnos a ella o alguna variación muy similar como la que hemos visto, nos funcionará muy bien en cualquier circunstancia.

¿Es aplicable la estructura IMRyD a cualquier clase de trabajo académico?

La respuesta rápida es sí. La respuesta un poco más larga es sí, pero siempre que hablemos de artículos o de trabajos de investigación. Lo que diferencia a un trabajo de investigación de otro tipo de trabajo académico (como el ensayo, o la obra de pensamiento, p.e.) es la existencia de un proceso transparente y trazable de toma de datos.

Por su parte, la toma de datos debe hacerse guiada por métodos que garanticen que los mismos sean significativos, válidos y fiables. Esto nos llevará a unos resultados como consecuencia de ordenar, analizar y sintetizar tales datos, y finalmente a una discusión que interprete, contextualice, valore y ponga de relieve tales resultados.

Recordemos, de paso que la necesidad de la existencia de datos, que ya hemos dicho que es la marca de toda verdadera investigación, obliga a que exista un objeto de estudio bien identificado y del que puedan obtenerse, efectivamente, tales datos. 

Lo más importante, llegados a este punto, es que no hay ninguna limitación a priori sobre el tipo de estudio o el ámbito del conocimiento al que se pueda aplicar todo lo anterior, por muy humanístico o «de letras» que sea tal ámbito y aunque no vayamos a utilizar ninguna clase de diseño experimental.

Incluso los trabajos de revisión bibliográfica se pueden ajustar a la estructura IMRyD si se llevan a cabo mediante una revisión sistematizada, tal como nos enseñan en ámbitos tan rigursoso como la Medicina. En concreto, en los trabajos de revisión las referencias utilizadas para la revisión adoptan el rol de los datos, gracias a que disponemos de métodos rigurosos tanto para la selección de las referencias como para su posterior valoración, análisis y síntesis.

Lo mismo sucede con los estudios de caso, tan importantes en las investigaciones cualitativas en todas las disciplinas en general, y en las investigaciones en Comunicación Social en concreto. Un estudio de caso bien diseñado requiere establecer con claridad las fronteras del caso, así como una toma de datos, con diversas formas de triangulación, cada una de ellas con su propio método de obtención, etc.

Por tanto, vemos que los trabajos académicos (artículos, comunicaciones, reports, tesis, etc.), independientemente de su ámbito, siempre que incorporen componentes de investigación, se pueden adaptar a la estructura IMRyD.

Esto hará nuestros trabajos más transparentes y por tanto, más vulnerables a la crítica, lo cual puede parecer paradójico. La clave está en entender que si un trabajo no es transparente y por tal motivo no es vulnerable, tampoco es evaluable. Cuando un trabajo no es evaluable, lo que podemos esperar es que las revistas (y los tribunales de tesis) simplemente lo rechacen.

Someternos a este ejercicio de adaptación nos rendirá buenos resultados porque al hacer nuestro trabajo más transparente los primeros en detectar posibles vulnerabilidades seremos nosotros mismos, de manera que esta estructura nos ayudará a ser más exigentes con nosotros mismos y a producir mejores resultados.

Ciertamente, en algunos trabajos la estructura IMRyD puede ser más evidente que en otros. Por ejemplo, los autores pueden haber presentado los Métodos como parte de la Introducción, algo habitual en muchos trabajos; así como pueden haber fusionado la Discusión con las Conclusiones y utilizar este último nombre para designar el apartado correspondiente, etc.

Además, no siempre se utiliza la denominación funcional. La que hemos visto aquí, puede ser sustituida por nombres específicos. Por ejemplo, en lugar de Métodos, la sección puede denominarse Análisis de Contenido, por ejemplo, porque se identifica el nombre de la sección con el método utilizado, etc. Lo importante es que, utilizando las mismas denominaciones o alguna variedad que se ajuste al caso, aplicar el modelo IMRyD es casi la primera condición de éxito para publicar en revistas científico-académicas.

¿Podemos considerar una estructura más amplia para trabajos en Comunicación Social?

Como ya hemos señalado, IMRyD es la parte central de un trabajo de investigación, cuyos componentes completos pueden ser los que mostraremos a continuación.

Son los que podemos encontrar en muchas investigaciones de Ciencias Humanas y Sociales de éxito. En concreto, si hacemos abstracción de las denominaciones particulares de cada trabajo y usamos en cambio denominaciones funcionales, la siguiente es una estructura muy utilizada. Como observaciones previas, el orden puede variar según los trabajos (sobre todo los puntos 3 y 4, que pueden aparecer intercambiados):

  1. Introducción
  2. Marco teórico, antecedentes e investigaciones relacionadas
  3. Método(s) o procedimiento de obtención de datos y de análisis
  4. Presentación del caso o del objeto de estudio
  5. Resultados
  6. Discusión
  7. Conclusiones
  8. Bibliografía

Los componentes anteriores se pueden aplicar a todo tipo de trabajos académicos, desde artículos para revistas indexadas, hasta tesis doctorales, pasando por memorias e informes para dar cuenta de proyectos de investigación, etc. Lo que cambia es la escala.

Un artículo de revista debe resolver los 7 apartados anteriores (más la bibliografía) en un total aproximado de entre 10-15 páginas, mientras que en el otro extremo, una tesis dispondrá de cientos de páginas (entre 150 y 300 típicamente, aunque puede haber muchas variaciones).

La cuestión es que se trata de una de las estructuras que puede observarse en muchos trabajos académicos de éxito en investigaciones cualitativas donde el estudio de caso o los análisis comparativos (el punto 4) son uno de los métodos más utilizados.

¿Es posible desarrollar más los elementos estructurales anteriores?

Los elementos de esta estructura que podemos llamar canónica, por su amplia aceptación, pueden desarrollarse así:

  • Introducción: en esta sección, de debe presentar el objeto de estudio y los objetivos, la metodología y las preguntas de investigación o las hipótesis (o ambas). Algunos de estos apartados se indican en la Introducción en una primera aproximación, por tanto, sin perjuicio de ser tratados con más detalle en secciones específicas si el tipo de artículo o trabajo requiere un mayor desarrollo.
  • Marco teórico, antecedentes e investigaciones relacionadas: el marco teórico se refiere al aparato teórico o la disciplina académica que usamos como marco conceptual para guiar el trabajo. La descripción del marco teórico será más o menos detallada según la extensión total del trabajo. Este apartado también requiere la presentación de un estado de la cuestión y de las investigaciones relacionadas más importantes de los últimos años, siempre citando las referencias correspondientes. Dependiendo de la extensión total del trabajo estos componentes pueden requerir apartados separados.
  • Método(s) o procedimiento(s) de análisis: descripción detallada de los métodos utilizados para la toma de datos y el análisis de los mismos. En investigaciones cualitativas suele utilizarse la denominada triangulación, lo que implica entre otras la triangulación metodológica, en cuyo caso, utilizaremos más de un método de toma de datos.
  • Caso u objeto de estudio: presentación y descripción del fenómeno, del caso o del objeto de estudio que ha sido sometido a análisis, o a alguna forma de inspección, toma de datos, etc. En Ciencias Humanas y Sociales, donde los métodos cualitativos tienen una gran importancia, suele utilizarse el estudio de caso, aunque sea bajo otras denominaciones, como análisis de contenido o el análisis comparativo (múltiples casos), etc. En estudios cuantitativos, en lugar de un caso o unos pocos casos, se utilizarán técnicas de muestreo para obtener datos estadísticamente significativos, pero igualmente, se puede considerar una ocurrencia de este mismo apartado. Por último, este apartado puede consistir en algún diseño experimental, que también se puede considerar un caso.
  • Resultados: presentación de los resultados cuantitativos o cualitativos, normalmente utilizando una variedad de recursos. En el caso de metodologías cualitativas se utilizará típicamente texto, diagramas y tablas tanto para analizar como para sintetizar los resultados más importantes.
  • Discusión:  revisión, contextualización e interpretación de los aspectos más destacados de los resultados, de ser posible comparando con otros resultados o investigaciones. Cabe señalar que en algunas versiones este apartado se puede unir al precedente en uno unificado que incluya tanto los resultados como la discusión. Pueden añadirse las limitaciones del estudio si es el caso.
  • Conclusiones: síntesis, generalmente de tipo narrativo, de los resultados más significativos. Una de forma altamente recomendable consiste en proceder a la recuperación de los objetivos con tal de revisarlos, uno a uno, y de las preguntas de investigación para revisar las respuestas obtenidas.
  • Resultados más destacados: una argumentación señalando cuáles son los logros más importantes o el significado de las aportaciones de la investigación.
  • Nuevas líneas  y oportunidades de investigación para futuras investigaciones y posibilidades para otros investigadores e incluso para otras áreas de conocimiento.
  • Bibliografía: el grueso de la cual, normalmente, corresponderá a los antecedentes, así como a cualquier dato, idea, cita o concepto de terceros, que deben ser debidamente atribuidos y citados en el cuerpo del artículo, y después referenciados en este apartado.
  • Anexos: material o documentos complementarios.

Observaciones:

  • Los ítems atenuados, están así para indicar que pueden existir, de hecho es muy recomendable que existan, pero son optativos.
  • Los componentes de esta estructura pueden aparecer como aquí o fusionados entre sí. Por ejemplo, la introducción puede incluir los antecedentes y la metodología.
  • El orden, por supuesto, puede cambiar, en particular Metodología y Caso de Estudio pueden permutar entre ellos. También es posible que cualquiera de los apartados aparezca subdividido. Estas variaciones puede hacer que sea difícil captar la estructura subyacente, pero si examinamos bien los mejores trabajos, veremos que responden a ella.
  • Los apartados pueden recibir nombres específicos (excepto Introducción y Conclusiones) en lugar de los nombres funcionales usados aquí.
  • Los resultados pueden incluir, de forma implícita o mediante un apartado separado, la discusión.
  • Resultados más destacados y nuevas líneas y oportunidades, pueden formar parte de las conclusiones.

¿Qué significado tiene esta clase de estructuras basadas en IMRyD?

El significado es presentar los trabajo académicos de una forma articulada y transparente y, como consecuencia, evaluable.

En cambio, si un trabajo se presenta como un continuum discursivo, sin partes claramente identificadas, sin someterse a la disciplina de la transparencia y la trazabilidad, es imposible de evaluar.

Lo cierto es que solamente los trabajos que son evaluables y, eventualmente falsables, pueden considerarse científicos. Lo demás debe considerarse literatura o ensayo. Como tales, pueden ser de enorme calidad, por tanto, sin duda esta clase de obras forman parte de la cultura, incluso de la alta cultura, pero no pueden ser considerados investigaciones científicas.

Por este motivo difícilmente serán aceptados por revistas científicas ni pueden servir para trabajos académicos que requieran, de forma normativa, de una investigación original porque no hay forma de evaluarlos: podemos apreciar su calidad, incluso su belleza, pero no su correspondencia con los hechos que pretende analizar, ni la validez de sus observaciones, ni la fiabilidad de sus propuestas, etc. Luego no será posible evaluarlo desde un punto de vista científico.

¿Qué papel tienen los antecedentes y trabajos relacionados -estado de la cuestión- en un artículo?

De la existencia de un apartado, o incluso de una sección más o menos amplia, de antecedentes o de investigaciones relacionadas (estado de la cuestión o marco teórico) con un amplio aparato de citación de obras, depende que el artículo supere la primera revisión editorial en un porcentaje altísimo.

Lo contrario, un artículo que no cita antecedentes, esto es, que no aporta ningún elemento de estado de la cuestión, aunque sea en su dimensión mínima, aparece como poco fiable de forma casi inmediata y es considerado uno de los 10 errores principales de un artículo científico según una de las editoriales de revistas científicas más importante del mundo, Elsevier.

De hecho, según uno de los mejores filósofos contemporáneos de la Ciencia, Mario Bunge, reivindicar que una investigación es tan novedosa que no puede aportar antecedentes suele ser un indicador de pseudociencia.

¿Qué papel tiene el marco metodológico en los artículos?

Publicación académica y criterios de calidad
En los cinco criterios principales para determinar la calidad de un investigación vemos que la relación entre objetivos, metodología y resultados es fundamental. Fuente: Dixon, Boots, 2006

En la propuesta de Dixon, Boots (2006) para la evaluar (appraisal) la calidad de los artículos (papers) podemos ver que la relación entre objetivos, resultados y métodos es fundamental.

Por otro lado, ya vimos la importancia de los métodos cuando consideramos la estructura IMRyD, donde como recordaremos, la M es de métodos. 

Además, podemos señalar que la forma de evaluación de artículos académicos más acreditada consiste en valorar la adecuada relación en el triángulo que se establece entre los objetivos, la metodología y los resultados de la investigación de la que da cuenta el artículo.

Estos tres elementos debe estar en estrecha correspondencia y es uno de los aspectos que más centrarán la atención de los evaluadores.

De modo que aquí tenemos otra demostración de la necesidad de que nuestro trabajo se adhiera a las estructuras vistas más arriba, pues es la condición misma de que la evaluación sea posible. Sin esa posibilidad, no podemos esperar que nuestro artículo sea aceptado, sino todo lo contrario.

Diagrama de la calidad en una investigación académica
Los tres componentes de una investigación que con más cuidado examinarán los evaluadores de una publicación académica. Fuente: elaboración propia.

Cuando declaramos qué objetivos vamos a perseguir, se desprende de aquí que el cumplimento de tales objetivos será uno de los puntos de evaluación, de aquí la relación entre objetivos y resultados.

Al decir con qué método vamos a obtener los datos, la pregunta directa subsiguiente es si esta metodología era la más adecuada o al menos, si era adecuada a los objetivos perseguidos y si tal método garantiza que los resultados sean significativos, fiables y válidos. 

Si después de tal examen se puede deducir la existencia de coherencia y armonía entre estos tres extremos, la calidad del artículo queda garantizada al menos en un 50 por ciento.

El otro 50 por ciento lo aportarán el resto de los elementos, tales como un marco teórico y unos antecedentes o investigaciones relacionadas que ayuden a dar credibilidad al trabajo, así como a situar e interpretar los resultados, y una redacción elegante que transmita las ideas de forma estimulante e inteligente.

¿Qué son las preguntas de investigación?

Son una de la formas preferentes de orientar, delimitar y enfocar un proyecto en el ámbito de las investigaciones cualitativas. Consisten en una declaración en forma de pregunta, que debe ser factible y relevante, de lo que pretende averiguar el investigador.

Pueden sustituir con ventaja al uso de hipótesis porque las preguntas de investigación tienen un rango de posibilidades más amplio y, en todo caso, más acorde con la naturaleza de la investigación cualitativa.

Las preguntas de investigación pueden cubrir un amplio espectro de objetivos, por ejemplo, según Denscombe (2010), estos pueden ser:

  • Predecir un resultado: ¿ocurre y en las circunstancias a y b?
  • Explicar las causas y las consecuencias de un fenómeno: ¿está y afectado por x o es y una consecuencia de x?
  • Evaluar un fenómeno: ¿muestra y los beneficios que se dice que tiene?
  • Describir un fenómeno: ¿cómo es y y qué formas asume?
  • Desarrollar buenas prácticas: ¿cómo podemos mejorar y?
  • Empoderar: ¿cómo podemos mejorar las vidas de aquellos a quienes investigamos?

(Fuente: Denscombe, 2010)

Si utilizamos preguntas de investigación es muy importante presentarlas en la Introducción y después retomarlas en las Conclusiones a fin de dar cuenta de los resultados obtenidos. Esta forma de proceder añade mucha transparencia a un trabajo y tienen un gran efecto persuasivo-lógico. Persuasivo porque demuestra a los evaluadores una capacidad de trabajar de forma muy transparente. Lógico, porque las preguntas de investigación mapean con los métodos y muestran la necesidad y la oportunidad de los resultados.

¿Qué papel tiene el marco conceptual o marco teórico en los artículos?

El marco teórico o conceptual, por su parte, añade coherencia y ofrece un sustento teórico potente y plausible, con capacidad de justificar la elección del objeto de estudio, su importancia, la legitimidad de los constructos utilizados, la oportunidad el enfoque, además de añadir credibilidad y calidad científica a todo el trabajo.

En realidad, todos los componentes contribuyen de forma decisiva a la calidad percibida de una publicación académica, y lo esencial es que se ajusten a la perfección entre sí. Es el segundo elemento clave que escrutarán los evaluadores, a saber: la coherencia del conjunto.

El marco teórico nos ayudará mucho a darle esa coherencia lógica a todo el trabajo, porque tendremos un marco que nos permitirá ser consistentes con las ideas, los conceptos, e incluso posiblemente con los valores manejados en la investigación.

La diferencia entre estado de la cuestión y marco conceptual es necesariamente borrosa, no porque sean lo mismo, sino porque se realimentan.

El estado de la cuestión es una revisión de los antecedentes e investigaciones anteriores que han sido llevadas a cabo en el mismo ámbito de nuestra investigación. Este estado de la cuestión se debe hacer siempre, pero tendrá una extensión muy variable en el documento final según el tipo de trabajo. De hecho, se aceptan como género científico en sí mismos los trabajos de revisión, en cuyo caso la totalidad del artículo puede consistir en el estado de la cuestión.

El cambio, el marco conceptual consiste en las teorías e ideas que dan coherencia y presiden la investigación. Muchas veces es posible identificar el marco conceptual con una disciplina o con una corriente teórica amplia dentro de una disciplina, con lo cual el marco conceptual será de nivel macro. Por ejemplo, la antropología cultural utilizada como marco conceptual para diseñar un análisis de anuncios de televisión.

Otras veces será de un nivel micro, por ejemplo, la teoría del frame para hacer análisis de contenidos de noticias de prensa, etc.

¿Los así llamados trabajos de revisión se ajustan a la estructura IMRyD?

Si el trabajo de revisión se ha llevado a cabo mediante un enfoque sistematizado, la respuesta es sí. La razón es que, en un trabajo de revisión, los artículos seleccionados para el análisis toman el rol de los datos de la investigación, y los procedimientos que marcan las revisiones sistematizadas aportan los métodos de obtención y análisis de los mismos.

En concreto, en un  trabajo de revisión llevado a cabo mediante aproximaciones sistemáticas:

  • Las referencias bibliográficas objeto de análisis (artículos, comunicaciones, informes, etc.) corresponden a los datos para la investigación
  • Los procedimientos establecidos por las revisiones sistematizadas corresponden a los métodos, que incluyen métodos de búsqueda, selección y evaluación de las referencias que formarán parte del banco de documentos analizar.
  • Los resultados y su discusión se presentan a través de procedimientos, que deben establecerse previamente, de análisis y de síntesis de los ítems bibliográficos que han pasado a formar parte del banco de documentos.

Para ampliar información sobre revisiones sistematizadas: Framework ReSiste-CHS para llevar a cabo revisiones sistematizadas.

¿Cuáles son los peores errores en un artículo académico según los editores?

Los 10 principales errores en la publicación académica
Los 10 peores errores en un artículo científico según uno de los editores de la editorial científica más importante del mundo, Elsevier. Hay que prestar atención a todos y cada uno, pero nos llaman la atención especialmente el 1, el 2, el 4, el 7 y el 10, nuestro particular «5 Top». Clic en la imagen para acceder al artículo.

Hemos examinado aspectos de la investigación. Pero al final, aquello que los editores evalúan es un informe o artículo  (journal paper). Si hacemos caso a Bert Blocken, investigador y uno de los editores de la editorial de revistas y libros científicos, Elsevier, los 10 errores principales en un artículo científico («Los 10 trucos para escribir un terrible artículo», como dice con buen sentido del humor) son los siguientes (Bert Blocken, 2017):

01. Ignorar la bibliografía previamente publicada
02. Plagiar
03. Omitir componentes clave
04. Despreciar publicaciones previas
05. Exagerar la propia contribución
06. Ser ambiguos e inconsistentes
07. Aplicar citas de forma incorrecta
08. Utilizar declaraciones subjetivas
09. Ser descuidado con la gramática, ortografía, figuras y tablas
10. Ignorar los comentarios de editores y revisores

Fuente: 10 tips for writing a truly terrible journal article

Como hemos señalado en el pie de la captura anterior, si tuviéramos que seleccionar algunos de estos errores, como los peores de todos, nuestro Top-Five estaría formado por el 1 y el 4 (que son variaciones de lo mismo) porque no llevar a cabo una revisión previa a una investigación y no reflejarla de modo adecuado en un artículo es una garantía de hacer perder el tiempo a todo el mundo, con lo cual el rechazo está garantizado. El 2 se explica solo. Todos los demás son casi igual de terribles, pero con lugares muy destacados para el 7 y el 10.

¿Qué registro o estilo de redacción es recomendable?

Suponiendo que vamos a evitar los 10 peores errores que hemos visto en la sección anterior, nos podemos preguntar, ¿cuál es el  estilo de redacción más aconsejable?

Estilo académico. Es un estilo difícil de explicar, pero muy reconocible. Mal utilizado puede ser insufrible, pero bien utilizado es un prodigio de concreción, porque en este estilo se dice muchísimo con pocas palabras. Cada frase es una idea, y cada idea conduce de modo natural a la siguiente, porque nada sobra. Si nos permiten una metáfora, el mejor estilo académico se caracteriza por estar fibrado, no tiene ni un gramo de grasa.

Cómo se aprende. Solamente se puede aprender leyendo mucha literatura académica de calidad. Que nosotros sepamos, no hay otra vía. No obstante, en lo que sigue intentamos caracterizarlo con más detalle.

Estilo directo. Enunciativo. Asertivo. Frases breves  en la estructura: sujeto, verbo, predicado. No hay subordinadas o se reducen al mínimo. Párrafos equilibrados, es decir más o menos de la misma extensión y de un máximo de 6-8 líneas. En tercera persona. Redacción culta, sin expresiones coloquiales.

Estilo fibrado. Se evitan las disgresiones y consideraciones laterales. Se va al grano.  Se evitan especialmente las notas discursivas al pie de página: si un texto es esencial, se debe integrar en el cuerpo del artículo, si es secundario se debe eliminar.

Todo conectado: primero decimos de qué vamos a hablar, después hablamos de ello, seguidamente anunciamos el siguiente tema y  justificamos su relación, hablamos de este nuevo tema, y al final explicamos de nuevo, en forma de conclusiones de qué hemos hablado y qué significado tiene todo:

  • Cada párrafo debe ir precedido por algo que indique conexión con el anterior, por eso es imprescindibles el uso de conectivas al inicio de cada párrafo.
  • Cada párrafo debe justificar al siguiente, de modo que la conductividad y la consistencia debe dominarlo todo.
  • Todo tiene que ser fluido y sin contradicciones, salvo que el autor, por alguna razón quiera señalarlas, en cuyo caso debe justificarlas.

¿Como puede adquirir el estilo de redacción indicado en el punto anterior?

Hasta donde sabemos, la única forma de adquirir soltura y capacidad para utilizar el estilo académico que esperan editores y evaluadores de revistas (y de trabajos como tesis) es leyendo muchos trabajos académicos.

Al igual que es imposible escribir bien poesía o novela sin haber leído mucha posesía o mucha novela, es imposible escribir bien artículos académicos sin haber leído mucha producción académica.

¿Qué papel tienen los diagramas y las tablas en un artículo académico?

Diagramas y tablas son las formas más eficaces de sintetizar resultados y de expresar y representar ideas y conceptos. No deben faltar en ninguna clase de artículos, pero son especialmente necesarias en las investigaciones cualitativas donde no podemos beneficiarnos del poder de síntesis de los resultados cuantitativos (estadísticos) y de  sus poderosas formas de expresión gráfica.

Por tanto, en ausencia de tales gráficos procedentes de la síntesis de números, debemos utilizar el equivalente para sintetizar palabras, ideas y conceptos, como son las tablas y los diagramas.

En realidad, las tablas y los diagramas son imprescindibles en cualquier clase de investigación, ya sea cuantitativa como cualitativa pero en estas últimas tienen un especial valor, por el motivo señalado.

Cumplen un doble papel: ayudan al lector a interpretar las ideas y los resultados, y a la vez, son una muestra de transparencia, porque sintetizar ideas en forma de tablas y diagramas ofrece mayores facilidades para el análisis, y por tanto,para la crítica.

Un ejemplo de diagrama tomado de las fases de Análisis y de Síntesis del Framework ReSiste-CHS para revisiones sistematizadas. Fuente: elaboración propia

¿Qué relación debe existir entre la introducción y las conclusiones?

Si hemos utilizado objetivos en la introducción, hay que enumerarlos, y en las conclusiones debemos retomarlos y dar cuenta de los resultados, uno por uno. Si hemos utilizado preguntas de investigación (lo mismo sirve para hipótesis) debemos proceder exactamente igual con ellas. Habrá que retomarlas literalmente y responderlas en las conclusiones.

Utilizar objetivos claros y preguntas de investigación tiene una doble función: por un lado, guían la investigación, por supuesto, pero por otro lado, ofrecen transparencia y trazabilidad, pero solamente si en las conclusiones se retoman de nuevo y se reexaminan.

¿Qué significado tiene el número de autores?

Las coautorías correlacionan con el éxito: más autores, más aportaciones y mayor posibilidad de filtrar errores, cada autor aporta competencias diferentes, mayores posibilidades de publicación y más número de citas.

Una tesis es una oportunidad excelente para firmar artículos en coautoría, en primer lugar con el director, pero también con algún compañero o colega del Doctorado o del departamento (o de otros departamentos o universidades, por supuesto).

Para un investigador junior, poder contar con la coautoría de su director de tesis equivale a beneficiarse de la experiencia y el conocimiento práctico, no escrito en ningún manual, de un investigador senior sobre qué revistas pueden ser las más adecuadas, como enfocar mejor la investigación, como redactar mejor el artículo, etc.

Para un investigador senior, es una excelente oportunidad de poner su capacidad estratégica en apoyo del autor junior, y a cambio, como primer autor es el que debe llevar a cabo el trabajo de ejecución, que probablemente el autor senior no tendría el tiempo disponible para hacer.

Las coautorias, en todos los casos, pero sobre todo en la relación ejecutor/director, son una oportunidad clarísima de relación win/win en la cual se puede incluir a las revistas y los lectores porque reciben trabajo mucho más maduros y solventes.

Por tanto, los editores de revistas deberían ver también como una oportunidad trabajos en coautoría, aunque el número de autores es evidente que debe estar justificado por el tema y la dificultad del trabajo. En todo caso, los promedios de autor por disciplina son una buena guía y en estos momentos, casi todas las disciplinas rozan o superan los dos autores en promedio.

¿Quién puede ser coautor?

La primera razón de la coautoría es el trabajo común. Por tanto, debe ser coautor todo aquel que haya contribuido al artículo. Más allá de esto, existen códigos éticos, dado que parece consustancial al ser humano meterse en toda clase de líos, incluyendo terrenos aparentemente tan simples como este. 

En síntesis, en cuanto a que condiciones debe cumplir la autoría, lo que establecen los códigos éticos más aceptados (p.e. ejemplo el que propone COPE) es que para ser coautor de un artículo es necesario haber hecho contribuciones en:

a) la investigación que sustenta el artículo,
b) el manuscrito que reporta la investigación

Las contribuciones a la investigación pueden consistir en la concepción, el diseño, la adquisición o el análisis e interpretación de los datos (en uno o en varios de estos aspectos, no en todos necesariamente). 

Las contribuciones al manuscrito pueden consistir en la redacción del borrador o en la revisión crítica del mismo para aportaciones de contenido intelectual importantes. En ambos casos, tales contribuciones deben ser sustanciales. Además:

c) Es necesario haber dado la aprobación a la versión final del artículo. Las tres condiciones se deben cumplir.

Las tres condiciones que, según el COPE se deben cumplir para la coautoría de un artículo científico. Fuente: Committee on Publication Ethics (COPE)

Un análisis y explicación detallada de las condiciones expresadas de forma tan sintética en las frases de la captura precedente, se puede consultar aquí.

¿Qué significado tiene el orden de firma en un artículo académico?

Existen varios principios que orientan las formas de ordenar y por tanto de interpretar el orden de firma en un artículo con coautoría, siendo los tres primeros que se presentan a continuación los principios más habituales en la mayoría de disciplinas:

  • El orden indica la importancia de la contribución. Según este principio, el primer autor es el que ha hecho la contribución más importante, y así sucesivamente. Es un principio habitual en Ciencias Humanas y Sociales; de hecho es el principio sobreentendido, es decir, el que esperan editores, evaluadores y público.
  • Primero y último autor tienen la misma importancia. Según este principio, tanto el primer autor, en tanto ejecutor, como el último, en tanto director, tienen idéntica importancia (aunque en roles distintos). Los autores intermedios tienen importancia decreciente según el orden de firma (de izquierda a derecha). Es habitual en áreas de Ciencias experimentales y Tecnológicas. Progresivamente adoptado por otras áreas, como las Ciencias Humanas y Sociales. Se aplica en los casos en los que se da la relación ejecutor/director, como en tesis doctorales. No está limitado a ningún contexto, pero posiblemente necesite aclaración, por ejemplo, en procesos de evaluación en áreas de Humanidades y Ciencias Sociales.
  • Primero, último y autor de correspondencia tienen misma importancia. Es el mismo principio anterior, pero se añade el autor de correspondencia a efectos de la misma importancia en caso que no coincida con el primero ni con el último. Habitual en áreas de Ciencias experimentales y Tecnológicas. Como en el caso anterior, progresivamente adoptado por Ciencias Humanas y Sociales.
  • Orden alfabético. Según este principio, todos los autores tienen idéntica importancia. Limitado a determinadas áreas, aunque siempre es posible ponerlo en marcha, sobre todo si se hace con acuerdo previo entre los autores. 
  • Orden alfabético, salvo el primer autor. El primer autor es el más importante, mientras que el resto de autores tienen idéntica importancia. Limitado a determinadas áreas, es una variación del anterior, por lo tanto siempre se puede activar, pero con acuerdo previo entre los autores.

Como se ve, no hay ningún principio según el cual, el primer autor es el más importante en razón de su posición académica, cargo o currículo. En general, aplicar este criterio para decidir quién es el primer autor, se puede equiparar a un abuso o incluso un fraude.

Si existen dudas razonables sobre lo que esperan los diferentes miembros de un equipo, se recomienda acordar entre ellos cómo va a ser el orden de firma antes de empezar a trabajar en la investigación, sobre todo si se va a seguir un orden que no sea el habitual en el área, y en todo caso, antes de enviar el artículo a evaluar.

¿Existe un número óptimo de coautores?

Deben formar parte de la autoría tantos autores como cumplan las tres condiciones señaladas en el apartado correspondiente visto más arriba, por tanto, en teoría el número óptimo vendría dado por este dato.

Aquí hay que señalar que algunas revistas exigen que se aclare la participación de cada autor cuando son más del número promedio del área (3-5 según las áreas). Algunas revistas lo exigen en cualquier caso.

Más allá de lo anterior, lo cierto es que entre dos y tres autores parecen formar un número óptimo por razones pragmáticas vinculadas por la relación ejecutor/director en el caso de tesis doctorales, y también por aspectos de visibilidad, citación y evaluación, al menos en la mayoría de ámbitos de las Ciencias Humanas y Sociales.

En otras disciplinas, el número óptimo puede subir hasta 5 autores, al menos si nos guiamos por la normativa de evaluación de la agencia española que indica que hasta ese número no es necesaria aclaración, al menos en algunas áreas.

En áreas extremadamente punteras y competitivas de la ciencia, por ejemplo, en Física, no existe un límite claro. Por ejemplo, son famosos los artículos procedentes de centros como el CERN, que los firman hasta varios miles de autores, hasta el punto que la lista de autores ocupa más páginas que el artículo en sí (en el ejemplo del enlace, desde la página 9 hasta la 33, corresponde a las firmas de los autores, 9 al contenido del artículo).

Si dejamos de lado estos casos que desafían el concepto de autor, cabe insistir que el número de autores debe estar justificado por la naturaleza y la dificultad del artículo. El promedio de autores en el área es otra fuente orientadora y para reforzar algunas ideas simples, 2-3 parece siempre una cifra óptima para cualquier áres de Humanidades y Ciencias Sociales.

De hecho, algunas revistas señalan su preferencia por trabajos firmados por dos o más autores, mientras que otras exijen justificación a partir de más de un cierto número de autores, un número que no está determinado, pero podríamos decir más de 3 en Humanidades, o más de 5 en áreas científico-técnicas.

Lo anterior nos lleva de nuevo a señalar, en aras del pragmatismo,  que 2-3 autores es una cifra óptima a priori, porque optimiza la cooperación, la citación y evita posibles problemas de justificación delante de los evaluadores.

No obstante, en aras de la racionalidad, hay que repetir también el primer principio: el número óptimo de autores es el que requiera la naturaleza de la investigación y el que cumpla los tres criterios COPE.

Revistas


¿Cómo puedo seleccionar la mejor revista para enviar un manuscrito?

Los instrumento por excelencia son las bases de datos Scopus y Web of Science, porque al buscar revistas en estas bases de datos, estamos preseleccionando revistas que cumplen los criterios más exigentes de las agencias de evaluación.

Una de las claves es no buscar revistas por el título (p.e. revistas que en el título tengan la palabra Periodismo o Journalism, o la palabra que sea que expresa nuestra área) sino buscar revistas por la categoría temática usando los índices al efecto que proporcionan estas bases de datos. Por ejemplo, tanto Scopus como Web of Science contemplan la categoría Communication.

Otra opción consiste en buscar por palabras clave en el contenido de los artículos publicados en los últimos años. Aquí tenemos dos opciones. Podemos usar en el buscador de cada revista si lo que queremos es asegurarnos de la idoneidad de la(s) revista(s) preseleccionada(s).  O podemos usar una bases de datos multieditorial (como Scopus y WoS)  y una vez en la página de resultados podemos filtrar los mismos por la fuente, es decir por las revistas, de modo que tendremos una lista de revistas potenciales.

¿Hay otras fuentes donde poder consultar revistas del área de Comunicación?

También podemos consultar listas de revistas Scopus o Web of Science sin necesidad de wntrar en las bases de datos respectivas.Además de usar las bases de datos indicadas, podemos consultar 

Un instrumento de primer orden es el portal Scimago, donde podemos encontrar varios cientos de revistas bajo la categoría temática Communication con diversas opciones de filtrado y navegación, así como con la posibilidad de consultar los perfiles individuales de cada revista.  Una revisión de las funciones y uso de Scimago aquí.

Otro intrumento es el sitio web de Clarivate (propietaria WoS) Master Jounal List, donde podemos encontrar todas las revistas de esta base de datos de cada categoría o área temática. Una revision de las funciones y uso de Master Journal List aquí

Además, hay otros instrumentos útiles, como la base de datos MIAR, para conocer muy bien la visibilidad de las revistas y por supuesto, podemos utilizar bases de datos especializadas, según el área, como Humanities and Communication Source, por ejemplo, para Comunicación Social. Una revisión de las funciones y uso de MIAR aquí.

Parte de las más de 400 revistas bajo la categoría Communication de Scimago. En este caso, hemos seleccionado el subconjunto de las revistas de Comunicación publicadas en España.

Por último (pero no menos importante), en el Observatorio de Cibermedios (OCM) estamos desarrollando la Guía de Revistas en Comunicación Social (GRECOS) que también puede consultarse en caso de trabajar en esta área específica:

¿Cuá es la mejor revista a la que puedo enviar mi manuscrito?

La mejor revista, en síntesis, será la que cumpla la mayor parte de estos criterios:

  • forman parte de la categoría de nuestro ámbito, p.e. de Comunicación;
  • alternativamente, aunque son de otras áreas, publican de forma regular artículos de nuestro ámbito, p,e. de Comunicación;
  • están indexadas en Scopus o Web of Science en la Colección Principal;
  • están indexadas en alguno de los repertorios habitualmente aceptados por las agencias de evaluación de la actividad científica;
  • publican en Open Access o contemplan la vía del autoarchivo después de un tiempo de embargo (cuanto más breve, mejor);
  • publican dos o más números al año;
  • en caso de tratarse de revistas con lengua de trabajo distinta del ingles (p.e. , catalán, español, etc.) admiten publicar también una versión en inglés.

Especialmente importante es evitar publicar en revistas que no figuran en ninguno de los repertorios habitualmente aceptados por las agencias de evaluación, pues nuestra publicación corre el riesgo de no tender ningún impacto. Pero tampoco podremos enviarla después a una revista de impacto, pues ya no será un trabajo original.

En el argot académico, las revistas que no son ni Scopus, ni Web of Science ni forman parte de los repertorios manejados por las agencia de evaluación, se dice que son revistas no indexadas. Estas son las que hay que evitar a toda costa.

Por razones idénticas, a las que podemos sumar la estafa económica que representan, hay que evitar las revistas de editoriales depredadoras: se trata de revistas de tipo open access, que cobran gastos por publicar (APC, por Article Processing Charge), pero que no someten los trabajos a evaluación. No tiene ningún prestigio publicar en estas revistas.

Más información aquí:

¿Qué rol tienen el título, resumen e introducción en un artículo científico?

La evaluación editorial que llevará a cabo el editor de la revista se basará en gran medida en el examen del título y el resumen. Si no satisface los criterios o las expectativas del editor, será rechazado en fase editorial, que no tiene  apelación.

Si supera el examen del título y el resumen, el siguiente punto crucial será la introducción. Si supera estos tres puntos de inspección, es muy probable que el artículo pase a evaluación por expertos, y éstos procederán de forma muy parecida, con el importante añadido de que, por supuesto, los expertos revisarán la totalidad del artículo.

Además, el título y el resumen son muy utilizados por bases de datos y buscadores, de modo que es esencial redactarlos con la máxima atención.

Más sobre difusión de trabajos académicos:

¿Qué precauciones debo observar antes de enviar un artículo?

Es absolutamente imprescindible leer con toda atención las instrucciones para autores, las indicaciones sobre la política editorial, las secciones y tipos de artículos que tiene la revista así como las condiciones (si usan doble ciego) de anonimización de los artículos.

También requiere atención las condiciones, si se establecen, para enviar los manuscritos en cuanto tratamiento de las imágenes, la bibliografía, el CV de los autores, ficheros separados para ciertas partes del manuscrito y cualquier otro requerimiento que la editorial establezca, como

A veces las revistas pueden tener escasez de originales para cubrir un tema, pero otras puede que necesiten descartar decenas de trabajos, si han recibido más originales de los que pueden procesar, en este caso, los primeros que «caerán» sin mayor examen serán los que no cumplan las condiciones del envío.

Debería parecer absurdo decirlo aquí, pero deben evitarse las malas prácticas de falta de atribución y citación, también llamadas plagio. Si los evaluadores hacen su labor, detectarán el plagio (no importa si ha sido consciente o por accidente) y rechazarán el artículo sin apelación. Esto además, será una mancha para el autor que puede quedar invalidado delante de la revista.

¿Qué es la cover letter y quién es el corresponding author?

Las revistas suelen permitir que los autores acompañen su artículo con un escrito de presentación del mismo (cover letter), donde se destaquen los aspectos más valiosos, novedosos, etc., del trabajo. En algunas revistas, el envio de la cover letter puede estar altamente recomendado e incluso ser obligatorio. De nuevo, aparece aquí la necesidad de revisar muy bien la normativa para autores de la revista a la que queremos enviar nuestro manuscrito.

En el caso de coautoría, el corresponding author es el encargado de mantener las relaciones con los editores de la revista. Puede ser el primer autor, pero también puede ser cualquiera de ellos. De hecho, algunas normativas de evaluación contemplan explícitamente que pueda ser distinto del primero y del último autor. No obstante, salvo circunstancia concretas, lo aconsejable es que sea el primero.

¿Podemos sugerir evaluadores para nuestro artículo?

La mayor parte de las revistas admiten que los autores propongan expertos para la evaluación, algunas incluso lo sugieren en las instrucciones o en el formulario de envío del artículo.

Incluso se puede solicitar que determinados expertos NO formen parte de los posibles evaluadores. Es aconsejable razonar en todos los casos las propuestas. Los editores no están obligados a aceptarlas en ningún caso.

¿Cuáles son los pasos principales del proceso de evaluación?

El primer paso es o bien la aceptación o bien el rechazo denominado editorial. Es el que se debe intentar evitar a toda costa revisando escrupulosamente las indicaciones para los autores, enviando manuscritos formalmente impecables, por no decir perfectos, y por supuesto procurando que el trabajo coincida con las temáticas y políticas editoriales de la revista. Esta evaluación no tiene apelación, por eso es importantísimo extremar las precauciones para superarla.

Las revistas situadas en segundo y primer cuartil, pueden llegar a rechazar hasta el 90 por ciento de los manuscritos en fase de decisión editorial, y la mayor parte de este rechazo es por razones formales, esto es, antes incluso de entrar a considerar la investigación en sí.

Si el artículo pasa a evaluación por expertos, la probabilidad de que sea finalmente aceptado, se dispara, pudiendo ser, según estimaciones propias (no sistemáticas ni científicas)  superior al 50 por ciento.

Lo que nunca (o casi nunca) ocurre es que sea aceptado sin cambios, que a su vez pueden ser menores o mayores. Una vez aplicados, el artículo aún puede  verse rechazado si los cambios propuestos eran de naturaleza mayor y la nueva versión no satisface a los evaluadores.

El proceso completo de revisión (peer-review) en un eficaz diagrama. Fuente: Elsevier

He recibido las evaluaciones de mi artículo, y la lista de propuestas y objeciones es realmente larga, ¿es muy mala señal?

La mayoría de autores noveles entra casi en estado de shock cuando recibe por primera vez la lista de observaciones y propuestas de los evaluadores.  Creo que nos ha pasado a todos. Parece que vaya a ser imposible afrontar todo el trabajo que nos proponen, por no mencionar las críticas que nos pueden doler casi como puñaladas, en especial si hemos topado con un evaluador muy rudo (pero es solo una cuestión de ego, y darse cuenta es importante).

Pero una lista de propuestas, por muy larga que sea, y por muchas críticas que conlleve, es más una lista de oportunidades que de otra cosa. Lo único insalvable sería un veredicto que recomendase no publicar. Si no es el caso, y ambas evaluaciones (suelen ser dos, al menos) aceptan la publicación, aunque sea con cambios mayores, entonces estamos de suerte, porque estamos a punto de conseguir que nuestro artículo sea aceptado, aunque no sin esfuerzo, lo que nos lleva al punto siguiente.

¿Cómo puedo afrontar el proceso de respuesta a las objeciones de los evaluadores?

Si hemos tenido la suerte, cosa que no es infrecuente, de recibir evaluaciones bien elaboradas, con críticas certeras, aunque sean duras, lo mejor que podemos hacer es aceptarlas en su integridad, aunque por supuesto van a implicar más trabajo (consultar nuevas referencias, rehacer algunos gráficos, corregir datos, profundizar en algunas secciones, redactar mejor otras, etc.), e incorporarlas, una a una, con calma y reflexión, a la nueva versión del artículo.

Si entre las observaciones, hemos recibido propuestas que creemos con toda honestidad, o al menos hasta donde alcanza nuestro buen entendimiento, que son inadecuadas, hemos de estudiar la forma de argumentar porqué no las podemos aceptar.

Una de las formas de afrontar todo este proceso de evaluación que recomendamos en nuestro grupo (DigiDoc) es el siguiente (pero no digo que seamos los únicos en hacerlo, esto lo ignoramos, solo digo lo que nosotros hacemos así):

  • En primer lugar, procedemos a identificar y aislar cada una de las objeciones, propuestas o comentarios de cada evaluador, a fin de convertirlas en ítems individuales. Cada uno de estos ítems tendrán la forma de una frase del estilo: «los autores han olvidado citar a Fulano de Tal, pese a ser crucial en este ámbito», o «los autores no justifican bien la elección de la metodología», o «se recomienda que se amplíe la muestra con un estudio de esto y aquello», etc.
  • En segundo lugar, construimos una tabla en la que cada fila es una de las observaciones individuales como las que hemos usado de ejemplo.
  • Procedemos a anotar, al lado de cada observación, en sendas columnas, la aceptación o rechazo de la observación correspondiente, y las medidas tomadas en caso de aceptación y de las razones en caso de rechazo.
  • La tarea la lleva a cabo en primer lugar, el primer autor (en caso de coautoría), y después pasa esta tabla al resto de autores, para su revisión y, en su caso, para que respondan o complete determinadas observaciones o críticas.

Una vez tratadas así todas y cada una de las observaciones, por supuesto, se deben trasladar a la nueva versión del artículo según corresponda, y se puede proceder a enviarla, junto con la tabla de respuestas convenientemente depurada (retiramos toda anotación u observación de trabajo interno) a la revista.

Tabla con ejemplos (ficticios) de evaluaciones y respuestas de los autores a las evaluaciones.

¿Es posible recibir evaluaciones de mala calidad?

Ya hemos avanzado esta posibilidad, y ahora la tratamos con más detalle. En ocasiones podemos recibir evaluaciones que, al menos en parte, estén equivocadas. Los evaluadores son investigadores iguales («revisión por pares», ¿recuerdan?) y se pueden equivocar o confundir igual que los autores.

Es más, nada garantiza que el evaluador sepa más del tema del artículo que los autores. Si los editores de la revista han elegido bien a los evaluadores, seguramente saben mucho sobre el tema, pero no necesariamente saben más, y a veces los editores se pueden confundir y encargar un artículo a un falso experto. Éste debería alertar a la revista y declinar la evaluación, pero está comprobado que no siempre es así. Muchos investigadores experimentados pueden relatar (por desgracia) casos de evaluadores que han demostrado desconocer el ámbito en el que han aceptado llevar a cabo la evaluación a tenor de las observaciones totalmente fuera de lugar que presentan.

Otra fuente de (fastidiosos) problemas es que los evaluadores pueden ser muy buenos en su ámbito, pero pueden tener mala formación en metodologías, en especial si nos salimos del conocido ámbito de las metodologías cuantitativas. Un tema clásico es el de la muestra. En investigaciones cualitativas nunca se persigue que la muestra sea estadísticamente significativa, sino que se busca otra clase de representatividad.

Esta representatividad u oportunidad siempre debe estar justificada y seguramente la investigación necesitará triangulación, pero no representatividad estadística, sino analítica. Pues bien, una fuente de críticas (erróneas) suele provenir de evaluadores que reclaman ampliar (por ejemplo) la muestra cuando en realidad ya se ha alcanzado la saturación teórica (nuevos casos, no añaden más información) con la que han utilizado los autores. Con evaluadores con buena formación en metodologías, la mitad de las malas evaluaciones desaparecerían, pero hay que estar preparados para todo esto (ver anexo para dos ejemplos).

Por último, hay una razón aún más general y absolutamente inevitable para malas evaluaciones:  los evaluadores (aunque no lo parezca) son (somos) seres humanos y como es sabido, errare humanum est, todo lo cual nos lleva al siguiente punto.

¿Es conveniente rechazar propuestas de los evaluadores?

Lo ideal sería poder decir al editor de la revista que se han adoptado e incorporado todas las observaciones. Esto deja muy tranquilos a todos: evaluadores, editores y, por supuesto, autores. ¡Y al público! Como hemos dicho, lo cierto es que la mayoría de las evaluaciones contribuyen a mejorar los artículos. Pero como ya sabemos, no siempre.

Obviamente, rechazar las propuestas o contraargumentar las críticas de los evaluadores requiere una sólida base y una excelente argumentación. Si realmente estamos en condiciones de ofrecerla, entonces es la opción preferente, aunque sepamos que aceptarlas nos hubiera llevado por caminos más fáciles.

Pero siempre es mejor rechazarlas que aceptar la inclusión de perspectivas erróneas, o incluso abusivas, como la de exigir que se lleven  a cabo trabajos adicionales si no están justificados, no digamos aceptar críticas basadas en prejuicios (¡sucede con más frecuencia de la que sería deseable!) o que los autores se vean obligados a adoptar un enfoque distinto simplemente por una  cuestión de preferencias (meras opiniones) del evaluador.

¿Es posible rechazar a un evaluador?

La evaluación debe ser neutra y centrada en la investigación y en sus resultados, y todas las críticas deben ser fundamentadas. El evaluador no tiene ninguna posición de privilegio, sino que está obligado al máximo rigor en su trabajo, exactamente igual que los autores.

Pese a esto, algunos evaluadores se muestran muy agresivos con sus evaluaciones, El motivo puede ser que el artículo trata líneas de investigación del propio evaluador y siente como una amenaza el artículo  (sensación llamada envidia en argot de la calle), en otras ocasiones por razones de animadversión contra una corriente teórica o marco conceptual, que sin embargo goza de reconocimiento generalizado en la ciencia, etc.

Como sea, si podemos señalar con una fuerte evidencia un trato abusivo o arbitrariamente negativo del evaluador podemos denunciarlo a la dirección de la revista y pedir el cambio por otro evaluador. No hay nada garantizado, por supuesto. La dirección de la revista puede no estimar pertinente nuestra reclamación, por eso debemos asegurarnos de que esté muy bien fundamentada.

¿Con qué rapidez debemos responder a las evaluaciones con una nueva versión del artículo?

Es el tipo de cosas que siempre son para ayer. Pero, por supuesto nunca a costa de arriesgar la calidad de nuestro trabajo ni lo más mínimo. Al contrario, debemos dedicar toda nuestra atención y energía al proceso de examinar las observaciones y a responderlas de forma solvente y adecuada.

La nueva versión del artículo, con los cambios incorporados, debe ser revisada escrupulosamente antes de volver a enviarla, pero si todo el proceso nos toma una semana, mejor que dos, y nunca debemos dejar en el cajón el trabajo para retomarlo cuando «nos vaya bien», porque el riesgo de que nos pase el tiempo sin darnos cuenta es enorme.

No seguir con el proceso «en caliente» y dejar pasar el tiempo puede causar que recibamos un correo de la revista diciendo que ya no admitirán nuestro trabajo por tardanza excesiva en responder. Y esto debería considerarse una catástrofe, por tanto, a evitar como si fuera un tsunami.

Finalmente, me han rechazado el artículo, ¿debo abandonar la idea de publicar este trabajo?

Sería un error. Cuando un artículo ha superado la decisión editorial y, sin embargo, ha sido finalmente rechazado (después de recibir al menos dos evaluaciones), resulta que está en mejores condiciones que antes de ser un trabajo de éxito. La razón es que ahora, dispone de una serie de observaciones críticas y recomendaciones (de los evaluadores) que probablemente harán que el trabajo mejore considerablemente.

El camino lógico tras un primer rechazo, por tanto, nunca debe ser dejar el artículo en un cajón.  El único camino lógico, al menos si creemos en nuestro propio trabajo, es estudiar con atención las razones de los evaluadores para rechazar el artículo, mejorarlo en todo lo posible y volver a enviarlo a otra revista.

Por otro lado, si en las ocasiones anteriores había llegado a la evaluación por pares (es decir, había superado la decisión editorial) esto significa que había estado cerca de conseguir el éxito, las sucesivas evaluaciones solo pueden beneficiar y mejorar el artículo cada vez más. Como estimación personal, no se debería descartar un trabajo sin al menos dos intentos adicionales.

Casi todos los investigadores experimentados cuentan en su experiencia con artículo publicados en revistas indexadas de impacto, al segundo o al tercer intento, luego no antes de uno o dos  rechazos previos en otras revistas. Y no necesariamente seleccionando cada vez revistas de cuartiles más bajos, sino que puede suceder que el artículo se acabe publicando en una revista con mayor impacto que las primeras.

Por eso decimos que abandonar sin más puede ser un enorme error.


Descargar este informe en formato pdf (versión junio 2018)


Anexo-Dos ejemplos de mala evaluación

A continuación dos casos reales de los que por supuesto (lo siento) no voy a dar datos que permitan identificar el caso. El lector decidirá por su cuenta si le parecen ilustrativos o prefiere ignorarlos (al no facilitar datos, está en todo su derecho). No se cuestiona la buena fé de los evaluadores, ni su capacidad en su ámbito, sino el escaso conocimiento demostrado en la materia y su mala formación en metodologías.

Caso 1. Evaluador de una tesis doctoral

La tesis doctoral consistía en el análisis del sitio web de los 10 principales medios de comunicación de un país en función de su audiencia. Uno de los evaluadores se pregunta angustiado si 10 los principales medios de comunicación de un país son representativos de la totalidad de los medios. Comentario: el evaluador no conocía bien el ámbito de la comunicación social, ya que ignoraba que los medios de comunicación que «cuentan» socialmente son los que alcanzan ciertas audiencias, de modo que, en cada país, podemos identificar apenas media docena que «cuentan» de verdad, y llegar a 10 implica una gran cobertura de tales medios socialmente significativos. En segundo lugar, la muestra no puede pretender ser representativa de los varios miles de medios de comunicación que puede llegar a tener un país, cuyas audiencias respectivas pueden llegar a ser ridículamente limitadas (por ejemplo, a un grupúsculo de creyentes en los ovnis, por decir algo). Abarcar la totalidad de esos miles, no serviría para el propósito declarado del trabajo,  que era identificar patrones en medios de prensa socialmente significativos, concretamente, ¡en los 10 más importantes!. Solamente de este modo, los resultados se podían ofrecer como guía de  análisis y de buenas prácticas para la totalidad de profesionales y de estudiosos de los medios de comunicación, haciendo así un verdadero servicio a la sociedad con esta investigación. 

Caso 2. Evaluador de una investigación de visibilidad (SEO)

La investigación consistía en la identificación de patrones mediante el análisis de los 100 primeros resultados para una búsqueda bien determinada de un ámbito temático, con un parrilla de 10 palabras clave. Una de las principales objeciones de uno de los evaluadores fue que, para esas palabras clave, las páginas de resultados arrojaban miles de ellos, y el análisis se había «limitado» a los cien primeros (tomando los 10 primeros de cada una de las 10 palabras clave). Comentario: el evaluador ignoraba uno de los puntos esenciales del SEO, según el cual, apenas los 10 primeros resultados reciben visitas (los 10 primeros acumulan más del 95% de las visitas). Por tanto, analizar los 10 primeros de cada palabra clave no lleva consigo ningún error de muestreo. Puede haber errores o limitaciones reseñables en el diseño de la investigación, claro, pero serían de otro tipo, nunca de limitar el análisis a los 10 primeros. De este modo, analizando los 100 resultados, se podía ofrecer una retrato realista y significativo de los patrones que mostraban los resultados, capaces de impactar a los usuarios de los buscadores. Ampliar la muestra hubiera arruinado la representatividad analítica del trabajo.


Una vez revisadas las cuestiones anteriores, a continuación presentamos una serie de recursos y artículos (algunos de este mismo sitio) donde los temas anteriores han sido tratados de forma más detallada.

Otros trabajos sobre este tema

El siguiente paso: la difusión y promoción de nuestra producción académica

RECURSOS SOBRE REVISTAS CIENTÍFICAS


Bases de Datos Producción Científica española

Repertorios y bases de datos de revistas aceptadas habitualmente por las agencias de evaluación


Dónde NO publicar:


Otros recursos importantes sobre revistas científicas

Visibilidad de revistas científicas

Revistas Open Access

Directorio y fichas de análisis de revistas en Comunicación Social

Sistema de evaluación de la calidad de revistas científicas – FECYT

Un manual reciente sobre revistas académicas, sistemas de evaluación y open access


MATERIALES PARA EL TALLER


Bibliografía fundamental

A continuación, reproducir una bibliografía sobre metodologías de investigación que hemos propuesto en otras ocasiones. La iremos ampliando en sucesivas ediciones.

Cómo se hace una tesis o un trabajo final de máster

  • Bell, Judith; Waters, Stephen. Doing your Research Project: A Guide for first-time Researchers.Berkshire: McGraw Hill, 2014.
  • Bloomberg, Linda Dale; Volpe, Marie. Completing Your Qualitative Dissertation: A Road Map From Beginning to End. 3r ed. London: Sage Publishing, 2016.
  • Blaxter, Loraine; Hughes, Christina; Tight, Malcolm. How to Research. Berkshire: McGraw Hill, 2010.
  • Dunleavy, Patrick . Authoring a PhD: How to plan, draft, write and finish a doctoral thesis or dissertation. Hampshire: Macmillan, 2013.
  • James, E. Alana; H. Slater, Tracesea. Writing your Doctoral Dissertation or Thesis Faster. London: Sage, 2014.
  • Oliver, Paul. Writing your Thesis. London: Sage, 2014.
  • Winstanley, Carrie. Writing a Dissertation for Dummies. Indiana: Wiley, 2009.

Cómo se lleva a cabo una revisión sistemática

  • Boland, Angela; Cherry, M. Gemma; Dickson, Rumona. Doing a Systematic Review: A Student’s Guide. London: Sage, 2014.
  • Booth, Andrew; Sutton, Anthea; Papaioannou, Diana. Systematic Approaches to a Successful Literature Review. London: Sage, 2016
  • Cooper, Harris. Research Synthesis and Meta-Analysis: A Step-by-Step Approach. London: Sage, 2016.
  • Dixon-Woods, Mary et al. “Conducting a critical interpretive synthesis of the literature on access to healthcare by vulnerable groups”. BMC Medical Research Methodology, July 2006 v. 6, n. 35. https://doi.org/10.1186/1471-2288-6-35
  • Fink, Arlene. Conducting Research Literature Reviews: From the Internet to Paper: London: Sage, 2014.
  • Gough, David; Oliver, Sandy; Thomas, James. An Introduction to Systematics Reviews. London: Sage, 2012.
  • Hart, Christopher. Doing a Literature Review: Releasing the Social Science Research Imagination. London: Sage, 2008.
  • Jesson, Jill K.; Matheson, Lydia; Lacey, Fiona M. Doing your Literature Review: Traditional and Systematic Techniques. London: Sage, 2011.
  • Machi, Lawrence A.; McEvoy, Brenda T.. The Literature Review: Six Steps to Success. Thousand Oaks, California: Corwin, 2012.
  • Major, Claire H.; Savin-Baden, Maggi. An introduction to Qualitative Research Synthesis: Managing the Information Explosion in Social Science Research. New York: Routledge, 2010.
  • Noblit, George; Hare, Dwight R. Meta-Ethnography: Synthesizing Qualitative Studies. London: Sage, 1988.
  • Pan, M. Ling. Preparing Literature Reviews: Qualitative and Quantitative Approaches. London: Routledge, 2017.
  • Petticrew, Mark; Roberts, Helen. Systematic Reviews in the Social Sciences: A Practical Guide. Oxford: Blackwell, 2006.
  • Ridley, Diana. The Literature Review: A Step-by-Step Guide for Students. London: Sage, 2012.
  • Sandelowski, Margarete; Barroso; Julie. Handbook for Synthesizing Qualitative Research. New York:  Springer, 2007.
  • Shkedi, Asher. Qualitative Data Analysis. Tel Aviv: Contento De Semrik, 2014.

Metodologías

  • Bell, Judith. Doing Your Research Project: A Guide For First-Time Researchers. London: Open University Press, 2014
  • Blaxter, Loraine. How To Research (Open Up Study Skills). New York: McGraw Hill International, 2006.
  • Brinkmann, Sven. Qualitative Inquiry in Everyday Life. London: Sage, 2012.
  • Bryman, Alan. Social Research Methods. New York: Oxford University Press, 2012.
  • Cassell, Catherine; Simon, Gillian. Essential Guide to Qualitative Methods in Organizational Research. London: Sage, 2004.
  • Cavaller, Víctor  et al. Audiencia y Visibilidad en los Medios de Comunicación (3 Vols.). Barcelona: UOC, 2011.
  • Corbin, Juliet M.; Strauss, Anselm. Basics of Qualitative Research: Techniques and Procedures for Developing Grounded Theory. London: Sage, 2015.
  • Creswell, John W. Qualitative Inquiry & Research Design: Choosing Among Five Approaches. London: Sage, 2013.
  • Creswell, John W. Research Design: Qualitative, Quantitative, and Mixed Methods Approaches. London: Sage, 2014.
  • Creswell, John W.; Clark, Vicki L. Plano. Designing and Conducting Mixed Methods Research. London: Sage, 2010.
  • Denzin, Norman K.; Lincoln, Yvonna S. The SAGE Handbook of Qualitative Research. London: Sage, 2011.
  • Denzin, Norman K.; Lincoln, Yvonna S. (Ed.). Strategies of Qualitative Inquiry. London: Sage, 2013.
  • Denscombe, Martin. Ground Rules for Good Research: Guidelines for Good Practice. 2nd edn. Maidenhead, Berkshire: Open University Press – McGraw Hill, 2010.
  • Farrugia, Patricia; Petrisor, Bradley A.; Farrokhyar, Forough; Bhandari, Mohit. «Research questions, hypotheses and objectives». Canadian Journal of Surgery, 2010, 53(4), 278–281.
  • Flick, Uwe  (ed). The Sage Handbook of Qualitative Data Analysis. London: Sage, 2014
  • Flick, Uwe . Introducing Research Methodology. London: Sage, 2015.
  • Gray, David E. Doing Research in the Real World. London: Sage, 2009.
  • Hennink, Monique; Hutter, Inge; Bailey, Ajay. Qualitative Research Methods. London: Sage, 2011.
  • Hesse-Biber, Sharlene Nagy (ed.). The Handbook of Emergent Technologies in Social Research. New York: Oxford Univ. Press, 2011.
  • Jensen, Klaus Bruhn  (Ed.). A Handbook of Media and Communication Research: Qualitative and Quantitative Methodologies. Oxon: Routledge, 2012.
  • Kara, Helen. Creative Research Methods in the Social Sciences: A Practical Guide. Bristol: Policy Press, 2015.
  • Lapan, Stephen D.  et al. Qualitative Research: An Introduction to Methods and Designs. San Francisco: Jossey-Bass (Wiley): 2012.
  • Maxwell, Joseph A.  Qualitative Research Design: An Interactive Approach. London: Sage, 2012.
  • Merriam, Sharan B.; Tisdell, Elizabeth J. Qualitative Research: A Guide to Design and Implementation. San Francisco: Jossey-Bass (Wiley): 2014.
  • Merrigan, Gerianne; Huston, Carole L. Communication Research Methods. New York: Oxford University Press, 2015.
  • Meso, Koldobika; Aguirreazkuenaga, Irate; Larrondo, Ainara  (Eds.). Active Audiences and Journalism. Servicio Editorial de la Universidad del País Vasco: 2015
  • Miles, Matthew B.; Huberman,  A. Michael; Saldaña, Johnny. Qualitative Data Analysis. A Methods Sourcebook. London: Sage, 2014.
  • O`Reilly, Michelle; Kiyimba, Nikki. Advanced Qualitative Research. A guide to using theory. London: Sage, 2015.
  • Packer, Martin J. The Science of Qualitative Research. Cambridge: Cambridge University Press, 2018
  • Ravitch, Sharon M.; Carl, Nicole C. Mittenfelner. Qualitative Research: Bridging the Conceptual, Theoretical, and Methodological. London: Sage, 2016.
  • Ritchie, Jane et al. Qualitative Research Practice: A Guide for Social Science Students and researchers. London: Sage, 2014.
  • Silverman, David (Ed.). Qualitative Research. London: Sage, 2011.
  • Silverman, David. Doing Qualitative Research: A Practical Handbook . London: Sage, 2013.
  • Scott, Greg;  Garner, Roberta. Doing Qualitative Research: Design, Methods and Techniques. Boston: Pearson, 2013.
  • Savin-Baden, Maggi; Major, Howell, Claire (eds). Qualitative Research. The essential guide to theory and practice. London: Routledge, 2013
  • Schreider, Margrit. Qualitative Content Analysis in Practice. London: Sage, 2012.
  • Thyer, Bruce A. The Handbook of Social Work Research Methods. London: Sage, 2010.
  • Tracy, Sarah J. Qualitative Research Methods: Collecting Evidence, Crafting Analysis, Communicating Impact. Chichester, West Sussex: Wiley-Blackwell, 2013.
  • Treadwell, Donald. Introducing Communication Research: Path of Inquiry. London: Sage, 2014.
  • Trochim, William M. K. . Research Method Knowledge Base [sitio web]. Acceso: http://www.socialresearchmethods.net/kb/. Edición consultada: 2006.
  • Yin, Robert K. Qualitative Research from Start to Finish. New York: Guilford Press, 2015.
  • Williams, David. Qualitative Inquiry in Daily Life: Exploring Qualitative Thought [sitio web]. Acceso: https://qualitativeinquirydailylife.wordpress.com/. Consulta. Septiembre 2016.

Estudios de caso

  • Coller, Xavier. Estudios de Caso. Madrid: CSIC, 2005
  • Flyvbjerg, Bent. “Case Study”. En: Denzin, N.; Lincoln, Y. Strategies of Qualitative Inquiry. pp. 169-204. London: Sage, 2013.
  • Thomas, Gary. How to do your Case Study. London: Sage, 2011.
  • Yin, Robert K. Case Study Research: Design and Methods. London: Sage, 2014.

Análisis de datos cualitativos

  • Auerbach, Carl; Silverstein, Louise B. Qualitative Data: An Introduction to Coding and Analysis. New York: NYU Press, 2003.
  • Bazeley, Patricia. Qualitative Data Analysis: Practical Strategies. London: Sage, 2013
  • Bazeley, Patricia. Qualitative Data Analysis with NVivo. London: Sage, 2013
  • Bernard, H. Russell; Wutich, Amber Y. ; Ryan, Gery W. Analyzing Qualitative Data: Systematic Approaches. London: Sage, 2016.
  • Cooper, Harris. Research Synthesis and Meta-Analysis. London: Sage, 2016.
  • Friese, Susanne. Qualitative Data Analysis with ATLAS.ti. London: Sage,2014
  • Grbich, Carol. Qualitative Data Analysis: An Introduction. London: Sage, 2012.
  • Harding, Jamie. Qualitative Data Analysis from Start to Finish. London: Sage, 2013.
  • Major, Claire Howell; Savin-Baden, Maggi. An Introduction to Qualitative Research Synthesis: Managing the Information Explosion in Social Science Research. London: Routledge, 2012.
  • Saini, Michael; Shlonsky, Aron. Systematic Synthesis of Qualitative Research. Oxford University Press, 2012.
  • Saldaña, Johnny. The Coding Manual for Qualitative Researchers. London: Sage, 2015.

Revistas científicas y evaluación de la ciencia

  • Abadal, Ernest  (ed.). Revistas científicas: situación actual y retos de futuro. Barcelona: Edicions de la Universitat de Barcelona, 2017, 273 pp. (978-84-9168-8 | 978-84-9168-038-3).
  • Cantu-Ortiz, Francisco J. (Ed.). Research Analytics: Boosting University Productivity and Competitiveness through Scientometrics. New York: Auerbach Publications, 2018.
  • Hames, Irene (2007).  Peer Review and Manuscript Management in Scientific Journals: Guidelines for Good Practice. London: Blackwell.
  • Marc Ware Consulting. Publishing Research Consortium Peer review survey 2015. Acceso: http://publishingresearchconsortium.com > peer-review-survey-2015/
  • Nicholas, D., Watkinson, A., Jamali, H.R., Herman, E., Tenopir, C., Volentine, R., Allard, S., Levine, K. (2015) Peer review: still king in the digital age. Learned Publishing, 28, 15-21. doi: 10.1087/20150104.
  • Nicholas, D., Watkinson, A., Volentine, R., Allard, S., Levine, K., Tenopir, C., & Herman, E. (2014). “Trust and Authority in Scholarly Communications in the Light of the Digital Transition: setting the scene for a major study”. Learned Publishing, 27, 121–134. doi:10.1087/20140206
  • Vesnic-Alujevic, L. (2014). “Peer review and scientific publishing in times of web 2.0. Publishing” Research Quarterly. doi:10.1007/s12109-014-9345-8.

Bonus: cómo NO redactar un artículo científico

  • Bert Blocken. 10 tips for writing a truly terrible journal article. Elsevier Connect. January 2017. Acceso: 10 tips…


Descargar el informe completo: