Inteligencia artificial generativa para trabajos académicos: método de análisis y comparación de Elicit, Epsilon, Perplexity, SciSpace y Scite

Cualidades de una inteligencia artificial para usos académicos. Clic para descargar plantillas

¿Qué clase de inteligencia artificial generativa (GenAI) necesitamos para trabajos académicos? La respuesta obligada es: aquellas que junto a la síntesis narrativa generada aporten las fuentes en las que se han basado. Lo contrario, nos impide su uso o nos aboca al plagio.

Requerimientos fundamentales de una inteligencia artificial para usos académicos

Vamos a clarificar los dos términos que hemos destacado en la proposición anterior:

  • Síntesis narrativa. Denominamos así al texto generado por la inteligencia artificial generativa (GenAI). Es una síntesis porque es el resultado efectivamente de analizar y sintetizar una serie de informaciones previas. Es narrativa porque en efecto se presenta como una narración o discurso más o menos articulado. Otras clases de síntesis son posibles, como las que se presentan en forma de tablas o de gráficos. No obstante, al hablar de síntesis narrativas consideramos incluido cualquier formato, por extensión, si no se dice lo contrario.
  • Fuentes. En las GenAI de tipo académico, las fuentes suelen ser documentos, informes y artículos de revistas científicas. En definitiva las fuentes son las que permiten atribuir las ideas y contenidos componentes de la síntesis a sus creadores originales.

Propiedades de la síntesis narrativas

A partir de aquí, podemos establecer un primer bloque de criterios según el cual son preferibles las GenAI que presentan síntesis que son;

  • Articuladas. Significa que la síntesis se presenta mediante alguna clase de estructura. Por ejemplo, en apartados separados y posiblemente organizados por títulos y siguiendo alguna clase de relación.
  • Conectadas. El final de cada párrafo anticipa el siguiente, y el inicio de los párrafos siguientes conectan con los anteriores. La conectividad se incrementa si hay una sección de que reunifica las ideas principales, o algún apartado con una función equivalente.
  • Extensas. A igualdad de los demás criterios son preferibles síntesis extensas. Ya que hablamos de un rango que puede ir de las 200 palabras a las 1.000 palabras, son preferibles las que se acercan más a este último límite.
  • Multimodales. Además de texto incluyen algún formato adicional, p.e., tablas, fichas o diagramas, aunque esto último no es el caso de ninguna de las analizadas aquí, pero véase en cambio Scopus AI.

La variable pendiente: la calidad intelectual de la síntesis

Existe una cualidad adicional que en este sistema de análisis no vamos a incluir porque necesitamos de algún sistema de «medición» que aún no tenemos definido. Se trataría de medir de la forma más (relativamente) objetiva posible la «inteligencia» o la calidad «intelectual» de la síntesis generada.

A falta de esta sistema de medición pendiente, nos queda algo así como la intuición razonada o la intuición fundada. Pero esto es demasiado difícil de «sujetar» de manera razonablemente objetiva, o con dosis de subjetividad razonablemente controladas. Hasta entonces, obviamos esta forma de medición, esto es no la incluímos (de momento) en los esquemas de análisis. Pero no evitaremos añadir nuestro juicio subjetivo en cada caso.

La responsabilidad del usuario: evaluar argumentos y verificar fuentes

El usuario de un sistema de IA tiene la responsabilidad de aplicar su capacidad de juicio y de evaluar la solvencia y la solidez de la síntesis narrativa si está dispuesto a utilizarla en sus trabajos en algún sentido. La dificultad intelectual que pueda suponerle no le exime de ello. para esto se supone que trabaja en la academia. Aquí entra en juego, el pensamiento crítico del usuario, la calidad de su formación previa y la energía que está dispuesto a poner en juego para evaluar los argumentos. Para esto también es imprescindible el paso siguiente: verificar las fuentes.

Además, el usuario de una IA está obligado a verificar y revisar las fuentes, no solo para evaluar los argumentos, sino también para poder atribuir ideas y contenidos de terceros, a sus verdaderos autores mediante el sistema convencional de citación.

Propiedades de las fuentes

En tercer lugar, son preferibles las GenAI que además, en relación a las fuentes:

  • Presentan capilaridad. Son preferibles las GenAI que asignan las fuentes a nivel de frases, y en su defecto a nivel de párrafos, mejor que como una lista final que afecta a la totalidad indiferenciada de la síntesis narrativa. La capilaridad implica también conectividad, ya que cuando en un párrafo con (p.e.) tres ideas relacionadas cada fuente está vinculada a cada una de las ideas, en lugar de situar las tres fuentes al final del párrafo o al final de la totalidad de la síntesis.
  • Proporcionan formatos bien formados. Esto es, con datos referenciales completos y en su caso con enlaces viables.

Prompts adicionales

Por último, son preferibles las que generan como parte de la página de resultados prompts o preguntas adicionales, en relacionados, de los que evaluaremos:

  • Oportunidad. Esto es, ¿los nuevos prompts sugeridos son adecuados a los objetivos de la búsqueda?
  • Variedad de enfoques. Con esta variable nos referimos a la pregunta: ¿ofrecen nuevas facetas no incluidas en el prompt original?

Funciones comunes

Entonces, en formato de tabla, tenemos el siguiente esquema de análisis en base a los cuatro conjuntos de funciones:

Tabla 1: Cualidades generales de las respuestas generadas por una IA para usos académicos

Idiofunciones

Además, algunos sistemas de IA presentan una o más características que son específicas y únicas del sistema considerado. Frente a las funciones comunes podemos hablar de idiofunciones esto es, funciones únicas de cada sistema particular y por tanto únicamente presenten en el sistema considerado. P.e, Elicit presenta una funcionalidad consistente en extraer conceptos y aún otra consistente en poder diseñar matrices de análisis de las referencias.

Se trata de idiofunciones porque son propias y únicas de Elicit. En cambio, Perplexity ofrece la posibilidad de reescribir un mismo resultado con diferentes modelos de IA, así como permite modificar el espacio de búsqueda, tiene funciones especiales de gestión, etc.

Sistemas de IA analizados

Armados con este esquema presentaremos un análisis de cinco de las mejores inteligencias artificiales generativas (GenAI) para usos académicos, o lo que es muy parecido, para la obtención de información mediante curación de contenidos, a las que se puede acceder sin necesidad de suscripción de pago (aunque todas disponen de una versión de pago o premium). Se trata de las siguientes:

  • Elicit
  • Epsilon
  • Perplexity
  • SciSpace
  • Scite

Avance de resultados

Para el lector que quiera una síntesis rápida: las cinco IA son capaces de producir síntesis narrativas con un buen registro académico, una razonable calidad «intelectual» y un buen mapeo entre las proposiciones que forman la síntesis y las fuentes en las que se basan. Todas parecen útiles para agilizar la comprensión de un tema para que un investigador novel obtenga una primera visión global del problema. Más allá, hay diferencias en la calidad, organización y extensión de la síntesis, que quedan recogidas en la tabla final de resumen.


Forma de hacer las valoraciones

Para analizar las cinco GenAI anteriores usaremos el siguiente método: (1) capturas de pantalla parciales comentadas de la síntesis narrativa y de las fuentes de un mismo prompt, (2) tabla con el esquema de análisis de la Tabla 1 mediante puntuaciones de 0 a 3 puntos.

La puntuación asignada en estos análisis para las funciones van en la siguiente escala:

  • 0: la función evaluada no está presente o está mal resuelta
  • 1: resolución mínima
  • 2: buena resolución, pero con elementos de mejora
  • 3: excelente resolución

En cambio, para las idiofunciones, prevemos en cambio una escala con mayor anchura de rango, esto es de 0 a 6 puntos. Por tanto, algunas idiofunciones pueden llegar a ser determinantes de la calidad global del sistema. La escala es la siguiente:

  • 0: no presenta funciones específicas
  • 1: añade una función específica poco significativa
  • 2: añade dos o más funciones, aunque de poca significación
  • 3: añade una función específica significativa
  • 4: añade dos funciones específicas significativas
  • 5: añade una función específica altamente significativa
  • 6: añade dos o más funciones y al menos una es muy significativa

Significado de estas valoraciones

El incisivo lector habrá deducido que las expresiones de valor precedentes no están exentas de riesgo de sesgo o subjetividad. Pero a falta de una valoración intersubjetiva (que sería lo deseable en una evaluación sistemática con valor científico) es lo mejor que podemos ofrecer. Nos basamos para ello en la comparación relativa. Por tanto, una puntuación de 3 para poner un ejemplo, significa que el sistema ofrece las mejores funciones comparándolas con de los otros sistemas evaluados en la misma comparativa, etc.

Otra precaución que corresponde añadir es que las valoraciones otorgadas se refieren a un solo prompt. El mismo para todos los sistemas, claro. Pero es imposible determinar si, con otros prompts o con otros estilos de prompts, los resultados serían iguales. Por tanto, las valoraciones que arrojan nuestros análisis solo se refieren al caso considerado estrictamente.

La inferencia que puede hacerse es que en otros prompts puede haber resultados similares, pero también disímiles. Por tanto, la evidencia ofrecida en cuanto a las valoraciones es muy débil. Sirven escasamente para presentar una primera exploración de cada sistema y no van más allá.

Prompt utilizado para las consultas

Para poder llevar a cabo los análisis, hemos planteado el siguiente prompt a las cinco IA:

What are the main factors that determine users’ trust in news media?
Prompt utilizado en las pruebas

Explicación del contexto para este prompt: se trata de un prompt vinculado con una posible investigación sobre las causas o variables que pueden determinar la confianza de los ciudadanos en los medios de comunicación. A su vez, la pérdida de confianza se relaciona con ruptura de la cohesión social, aumento de la desinformación, aumento de la polarización, etc. Por este motivo es un problema de investigación de interés determinar los factores principales que pueden aumentar la confianza de los ciudadanos en los medios de comunicación de referencia.

Elicit

Síntesis narrativa

Elicit: síntesis narrativa

La síntesis narrativa de Elicit es eficiente y manifiesta coherencia y fiabilidad. No obstante, es relativamente limitada por lo que hace a la extensión, al menos en este formato. En el caso del prompt que nos ocupa, nuestro juicio subjetivo es que resulta poco incisiva. Queda compensado por otras forma de análisis y extracción de información, como la de conceptos.

Fuentes Elicit

Elicit: fuentes

Ficha de evaluación de Elicit

Cod.VariableP.
Síntesis narrativa
1.1Articulación1
1.2Conexión3
1.3Extensión 3
1.4Multimodalidad2
Fuentes
2.1Capilaridad3
2.2Bien formadas3
Prompts adicionales
3.1Oportunidad0
3.2Variedad0
Idiofunciones
4.1Extracción de conceptos. Análisis mediante matrices variables. Extracción de información de colecciones de PDF. Herramientas de gestión.6
TOTAL21

Epsilon

Síntesis narrativa

Epsilon: Síntesis narrativa

La síntesis narrativa de Epsilon es un prodigio. Para usos académicos probablemente es la más eficiente de todas. Puede presentarse en un formato directo de revisión de la literatura. Se presenta además mediante una organización impresionante que queda muy bien establecida en diversos niveles. Nuestro juicio subjetivo es que su síntesis narrativa es incisiva y de calidad intelectual alta.

Fuentes

Epsilon: fuentes

Ficha de evaluación de Epsilon

Cod.VariableP.
Síntesis narrativa
1.1Articulación3
1.2Conexión3
1.3Extensión3
1.4Multimodalidad2
Fuentes
2.1Capilaridad3
2.2Bien formadas3
Prompts adicionales
3.1Oportunidad0
3.2Variedad0
Idiofunciones
4.1Seis tipos de síntesis. Lista de resultados operable. Lista de resultados con resúmenes. Utilidades de gestión: notas y bibliotecas personales5
TOTAL22

Perplexity

Síntesis narrativa

Perplexity: síntesis narrativa

Las síntesis que es capaz de producir Perplexity probablemente están entre las mejores, más organizadas y más eficientes del mercado, tanto por extensión como por estructura, conectividad y coherencia. Además, permite la reescritura de la síntesis mediante diversos modelos en caso necesario. Nuestro juicio subjetivo es que produce síntesis incisivas y de calidad intelectual.

Fuentes

Perplexity: fuentes

Ficha de evaluación de Perplexity

Cod.VariableP.
Síntesis narrativa
1.1Articulación3
1.2Conexión3
1.3Extensión3
1.4Multimodalidad2
Fuentes
2.1Capilaridad3
2.2Bien formadas1
Prompts adicionales
3.1Oportunidad3
3.2Variedad3
Idiofunciones
4.1Reescritura con diversos modelos de IA. Gestión de resultados. Diversas utilidades adicionales.4
TOTAL25

Scite

Síntesis narrativa

La síntesis de Escite se presenta en un discurso coherente, relativamente extenso y con un registro similar al de una revisión de la literatura. Se presenta mediante un estructura básica de párrafos sin usar otros recursos. En compensación las fuentes aparecen extremadamente organizadas y analizadas. La síntesis narrativa, de acuerdo con nuestro juicio subjetivo, es incisiva e intelectualmente de calidad.

Fuentes

Ficha de evaluación de Scite

Cod.VariableP.
Síntesis narrativa
1.1Articulación2
1.2Conexión3
1.3Extensión3
1.4Multimodalidad0
Fuentes
2.1Capilaridad3
2.2Bien formadas3
Prompts adicionales
3.1Oportunidad0
3.2Variedad0
Idiofunciones
4.1Asistente, buscador, tablero de control y asistente de redacción. Análisis de referencias. Exportador de referencias en diversos formatos.6
TOTAL20

SciSpace

Síntesis narrativa

SciSpace: síntesis narrativa

SciSpace tiene enormes virtudes sobre todo en el apartado de funciones singulares propias y exclusivas (idiofunciones). En cambio, la síntesis narrativa es limitada aunque exhibe una buena coherencia. En breves líneas es capaz de presentar una síntesis relativamente incisiva y con calidad intelectual.

Fuentes

SciSpace: fuentes

Ficha de evaluación de SciSpace

Cod.VariableP.
Síntesis narrativa
1.1Articulación1
1.2Conexión3
1.3Extensión1
1.4Multimodalidad3
Fuentes
2.1Capilaridad3
2.2Bien formadas3
Prompts adicionales
3.1Oportunidad0
3.2Variedad0
Idiofunciones
4.1Función copilot de análisis de resultados. Matriz de análisis de resultados. Criterios de ordenación de la lista de resultados. Exportaciones de resultados en diferentes formatos. Diversidad de utilidades adicionales.6
TOTAL20

Análisis comparativo de las cinco IA

A continuación una tabla que unifica los resultados y facilita las comparaciones. Tenga en cuenta el lector lo que hemos señalado más arriba sobre la interpretación de las puntuaciones. Más adelante también señalamos otras importantes limitaciones.

SistemaSíntesis
Narrat.
FuentesPromptsIdiofunc.TOTAL
Elicit960621
Epsilon1160522
Perplexity1146425
Scite860620
SciSpace860620

Los resultados no ofrecen un rango de variación muy alto, ya que va en total de los 20 a los 25 puntos máximos. Véase también que hay una variable que solo puntúa para una de las IA, a saber, los Prompts, esto es los nuevos prompts sugeridos por la IA. Sólo Perplexity lo ofrece. Una posibilidad sería retirar esta variable, pero la consideramos demasiado valiosa, y en todo caso, un sistema tan significativo como Scopus AI lo contempla, así que preferimos retenerla.

Limitaciones

La valoración que hemos asignado podría modificarse fácilmente y la ordenación quedar muy alterada si aplicaramos alguna clase de pesos o ponderaciones. Por mencionar una muy concreta, si ponderásemos al alza la articulación y la extensión de la síntesis narrativa, así como las fuentes, probablemente los factores más importantes; y por el contrario, ponderásemos hacia abajo los prompts adicionales, entonces la ordenación sufriría cambios muy importantes.

Además, tampoco hemos valorado aspectos de usabilidad y de diseño gráfico y de la experiencia de usuario, cosas en las que hay diferencias que no hemos tenidos en cuenta. De haberlo hecho, el ranking también tendría otras ordenaciones.

Bonus: Scopus AI

Scopus AI es una inteligencia artificial generativa que se apoya en la base de datos del mismo nombre para generar sus síntesis narrativas. Dadas sus funcionalidades, Scopus AI sin duda está en la vanguardia de esta clase de sistemas. No la tratamos aquí porque nos hemos centrado en sistemas que tienen una versión totalmente funcional que no requiere suscripción de pago, aunque a cambio presentan limitaciones de uso o bien en las funciones o en el número total de consultas que se van a poder hacer. Por ello, recomendamos al lector interesado en esta clase de sistemas que revise los análisis que hemos publicado sobre Scopus AI.

¿Qué sigue ahora?: marco de utilización de IA en trabajos académicos

Una vez hemos obtenido una o más síntesis narrativas con apoyo de fuentes, podemos proceder a aplicar el siguiente marco de actuación:

  1. Evaluación. Lectura crítico/evaluativa de la síntesis narrativa. Identificación y selección de las ideas (conceptos, teorías, modelos, proposiciones) útiles principales. Verificación de datos factuales, en su caso. Identificación y selección de las fuentes primarias.
  2. Fuentes. Consulta y manejo de las fuentes primarias asociadas a los contenidos seleccionados.
  3. Contenidos. Incorporación de los contenidos que han sido evaluados y seleccionados (conceptos, modelos, teorías, datos factuales, etc.), bajo la condición que corresponda mejor según su naturaleza y bien como (a) cita literal o bien como (b) cita  parafraseada según se detalla en el siguiente punto.
  4. Atribución. Aplicación de las buenas prácticas habituales en lo que respecta a la atribucióncitación y referencia de los contenidos incorporados, bien sea como cita literal o parafraseada. Las ideas ajenas así utilizadas las atribuiremos a la fuente correspondiente mediante el sistema parentético (autor, año) o similar. En la lista de las referencias deberán figurar todas las fuentes citadas en el cuerpo del trabajo. En el caso extremo de que no podamos atribuir alguno de los contenidos a ninguna de las fuentes, lo atribuiremos a la IA como fuente en sí misma, usando las normas de citación para estos casos (ver APA, p.e.)
  5. Transparencia. En la metodología o apartado equivalente señalaremos el uso de la GenAI como parte de la metodología y/o como fuente. En los anexos o como parte del data set del trabajo incluiremos todos los datos significativos del uso de la IA, en concreto, el prompt o prompts utilizados y sus respuestas. Si la IA lo permite, podemos incluir la URL de cada prompt y las respuestas.

Poca coincidencia en las fuentes

A falta de un estudio sistemático, hemos detectado pocas coincidencias en las fuentes, lo que, al menos en principio, no parece una buena señal. Un cribado sistemático podría decirnos cuál es el porcentaje de coincidencias exacto pero tal está pendiente de un próximo análisis.

Lo que no ayuda es que hay una relativa diversidad en las fuentes utilizadas por cada IA, aunque tres de ellas utilizan Semantic Scholar. Se trata de Perplexity, Epsilon y Elicit. Las otras dos, Scite y SciSpace, parecen utilizar bases de datos propias mediante uso de metadatos procedentes de una diversidad de fuentes. No podemos ser más explícitos porque las páginas de ayuda de estos sistemas tampoco ayudan mucho, salvo error por nuestra parte.

Desde luego, queda claro que las GenAI de momento parece que no sustituyen a las bases de datos académicas convencionales. Una búsqueda bibliográfica es algo distinto de obtener una síntesis narrativa también por lo que hace a las fuentes. Es obvio que el objetivo de los sistemas de IA generativa es otro. No sabemos si algún día confluirán, pero de momento parece que no es el caso.

¿Es un problema la falta de coincidencia en las fuentes? A primera vista, parece que sí, salvo que se nos esté escapando alguna cosa. Parece que aportaría más confianza si, para el mismo prompt, al menos una fracción significativa de las fuentes coincidieran. Cuál debe ser esa fracción no sabemos, pero en esta situación digamos que al menos el 50% de las fuentes debería coincidir.

Otra cosa es que tal vez necesitamos una búsqueda con una palabra clave y no una frase tipo prompt para que esta coincidencia sea exigible. Es decir, al utilizar una frase en lenguaje natural estamos probablemente comprometiendo esa posibilidad de coincidencia ya que introducimos factores de análisis más dependientes de algoritmos que de datos referenciales.

Dejamos para próximos análisis, tal vez usando un prompt más compacto, en forma de palabra clave, determinar el porcentaje de coincidencias, para un mismo prompt, de dos o más sistemas de IA.

En esta entrega, lo que nos proponíamos era analizar la síntesis narrativa y consideramos el objetivo conseguido. No tenemos pretensión ni capacidad de tratar con todos los objetivos de una sola vez.

Conclusiones

Con este estudio queríamos cubrir un doble objetivo, primero poner a prueba un posible esquema de análisis de sistemas de IA generativas para usos académicos. Segundo, como consecuencia, explorar las características de cinco de las más importantes de tales sistemas (a falta de no haber incluido Scopus AI dado que requiere suscripción corporativa).

Las cinco IA producen síntesis narrativas con un buen registro académico, una razonable calidad «intelectual» y un buena correspondencia entre las proposiciones que forman la síntesis y las fuentes en las que se basan. Todas parecen útiles para agilizar la comprensión de un tema para que un investigador novel obtenga una primera visión global del problema.

Nuestro análisis comparativo aporta como resultado que un sistema de IA generativa que NO está especializado en usos académicos obtiene la mayor puntuación. Se trata de Perplexity. Esto puede ser así porque Perplexity incluye entre sus espacios de búsqueda o foco, como los denomina Perplexity, el académico. Cosa que resuelve muy bien a través de una base de datos académica abierta denominada Semantic Scholar, bien conocida por los investigadores. El segundo puesto lo comparten Epsilon y SciSpace, y después tenemos a Scite y Elicit. En todo caso, los rangos de puntuaciones no difieren de forma dramática.

En todo caso, la ordenación que hemos generado no necesariamente refleja la calidad real global, puesto los cinco productos están claramente en la excelencia y todos comparten en realidad una primera posición entre los sistema de IA que pueden ser utilizados para trabajos académicos.

Parece que cualquier de ellos (pero mejor si triangulamos y usamos más de uno) está en condiciones de agilizar la comprensión de los elementos principales de un tema o de un ámbito académico determinado. Pueden ayudar a establecer una primera versión, necesariamente limitada y obligadamente incipiente, de un posible marco teórico que va a necesitar desarrollo posterior y esfuerzo intelectual por parte del usuario. Pero como decimos puede ayudar al usuario que necesita un punto de apoyo.

En este sentido, creemos que esta clase de sistemas realmente pueden ser agilizadoras de procesos en los trabajos académicos, no solo en la construcción de marcos teórico sino también en otras fases del diseño de la investigación aportando modelos e ideas. Sin duda también pueden ayudar en los análisis de datos, pero todo esto ya sería otra historia.

Queda para posibles análisis futuros, tal vez usando un prompt en forma de palabra clave, hacer un estudio comparativo de la posible coincidencias de fuentes. Paso a paso.


ANEXO Esquemas de análisis y variables (plantillas) en PDF


Referencias

Aguilera-Cora, E., Lopezosa, C., & Codina, L. (2024). Scopus AI Beta
Functional analysis and cases. Barcelona: Universitat Pompeu Fabra. Departament de Comunicació. (Serie Editorial DigiDoc. DigiDoc Reports). https://repositori.upf.edu/handle/10230/58658

Bianchini, S., Müller, M., & Pelletier, P. (2022). Artificial intelligence in science: An emerging general method of invention. Research Policy, 51(10), 104604. https://doi.org/10.1016/j.respol.2022.104604

Bhatia, P. (2023). ChatGPT for academic writing: A game changer or a disruptive tool? Journal of Anaesthesiology Clinical Pharmacology, 39(1), 1. https://doi.org/10.4103/joacp.joacp_84_23

Crompton, H., & Burke, D. (2023). Artificial intelligence in higher education: the state of the field. International Journal of Educational Technology in Higher Education, 20(1). https://doi.org/10.1186/s41239-023-00392-8

Dwivedi, Y. K., Hughes, L., Ismagilova, E., Aarts, G., Coombs, C., Crick, T., Duan, Y., Dwivedi, R., Edwards, J. S., Eirug, A., Galanos, V., Ilavarasan, P. V., Janssen, M., Jones, P., Kar, A. K., Kizgin, H., Kronemann, B., Lal, B., Lucini, B., . . . Williams, M. D. (2021). Artificial Intelligence (AI): Multidisciplinary perspectives on emerging challenges, opportunities, and agenda for research, practice and policy. International Journal of Information Management, 57, 101994. https://doi.org/10.1016/j.ijinfomgt.2019.08.002

Elsevier. (2023, August 1). Elsevier takes Scopus to the next level with generative AI. https://www.elsevier.com/about/press-releases/elsevier-takes-scopus-to-the-next-level-with-generative-ai

Elsevier. (2024, January, 16). Launch of Scopus AI to Help Researchers Navigate the World of Research. https://www.elsevier.com/about/press-releases/launch-of-scopus-ai-to-help-researchers-navigate-the-world-of-research

Gundersen, O. E., Gil, Y., & Aha, D. W. (2018). On Reproducible AI: Towards Reproducible Research, open Science, and digital scholarship in AI publications. AI Magazine, 39(3), 56–68. https://doi.org/10.1609/aimag.v39i3.2816

High-Level Expert Group on Artificial Intelligence. (2019, April 8). Ethics guidelines for trustworthy AI. https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai

Kaebnick, G. E., Magnus, D., Kao, A., Hosseini, M., Resnik, D. B., Dubljević, V., Rentmeester, C. A., Gordijn, B., & Cherry, M. J. (2023). Editors’ statement on the responsible use of generative AI technologies in scholarly journal publishing. Medicine Health Care and Philosophy, 26(4), 499–503. https://doi.org/10.1007/s11019-023-10176-6

Lopezosa, C., & Codina, L. (2023). Probando Bard: así­ funciona la Inteligencia Artificial Generativa de Google. Anuario Think EPI, 17. https://doi.org/10.3145/thinkepi.2023.e17a25

Lopezosa, C., Codina, L., & Ferran-Ferrer, N. (2023, February 1). Chat GPT como apoyo a las systematic scoping reviews: integrando la inteligencia artificial con el framework SALSA. http://hdl.handle.net/2445/193691

Lopezosa, C., Codina, L., & Boté-Vericad, JJ. (2023). Testeando ATLAS.ti con OpenAI: hacia un nuevo paradigma para el análisis cualitativo de entrevistas con inteligencia artificial. Barcelona: Universitat Pompeu Fabra. Departament de Comunicació. (Serie Editorial DigiDoc. DigiDoc Reports). https://repositori.upf.edu/handle/10230/56449

Lund, B., Wang, T., Mannuru, N. R., Nie, B., Shimray, S. R., & Wang, Z. (2023). ChatGPT and a new academic reality: Artificial Intelligence‐written research papers and the ethics of the large language models in scholarly publishing. Journal of the Association for Information Science and Technology, 74(5), 570–581. https://doi.org/10.1002/asi.24750

Tlili, A., Huang, R., Mustafa, M. Y., Zhao, J., Bozkurt, A., XU, L., … Wang, H.(2023). Speaking of transparency: Are all Artificial Intelligence (AI) literature reviews in education transparent?. The Journal of Applied Learning & Teaching (JALT), 6(2). https://doi.org/10.37074/jalt.2023.6.2.15

UNESCO. (2023, September 8). Guidance for generative AI in education and research. https://www.unesco.org/en/articles/guidance-generative-ai-education-and-research

Whitfield, S., & Hofmann, M. A. (2023). Elicit: AI literature review research assistant. Public Services Quarterly, 19(3), 201–207. https://doi.org/10.1080/15228959.2023.2224125

World Commission on the Ethics of Scientific Knowledge and Technology. (2019). Preliminary study on the ethics of artificial intelligence. https://unesdoc.unesco.org/ark:/48223/pf0000367823


Otras entradas y artículos sobre IA y trabajos académicos