Perplexity AI: tour visual de funcionamiento + informes generados

Cabecera de la página principal de Perplexity AI. Clic para acceder

Guía de utilización


Página de inicio y opciones principales

Las principales opciones de Perplexity AI. Véase en particular la opción Copilot (ChatGPT4). La opción Focus permite seleccionar tipología de fuentes. En nuestro caso hemos dejado la opción por defecto (todas las fuentes)

Prompt con activación de Copilot (ChatGPT4)

Prompt utilizado para esta práctica

Interpretación del prompt y fuentes

Ilustración de parte del proceso con Copilot. Una opción de transparencia valiosa

Primer informe de Perplexity AI

Parte superior de la página con la respuesta al prompt

Utilidades adicionales

Al final de cada informe, hay una serie de utilidades (copiar los contenidos, p.e.) y una lista de otras preguntas relacionadas que podemos usar para ampliar los resultados

Lista de fuentes en una ventana independiente

Las fuentes se pueden consultar en una ventana independiente

Nuevo prompt sugerido por Perplexity AI

Activación de una de las preguntas sugeridas por Perplexity AI

Fuentes del segundo prompt

Ejemplo de las fuentes añadidas con el segundo prompt

Segundo informe

Cabecera del segundo informe

Resultados completos


Ficha técnica del informe

SistemaPerplexity AI (ChatGPT4)
Fecha22 de agosto de 2023
Prompt inicial
creado por L. Codina
Nos situamos en el contexto de un periodismo de calidad al servicio de los ciudadanos y de unos medios de comunicación que deben ganar tanto la confianza como la fidelización de las audiencias. Presenta las principales implicaciones del uso de la inteligencia artificial generativa en la creación de contenidos para medios de comunicación. Nos interesan los aspectos éticos, la veracidad, la objetividad y la confianza del público en las noticias
Segundo
prompt

creado por
la IA
¿Cómo se puede garantizar la ética y la objetividad en la creación de contenidos generados por inteligencia artificial?

Informe 1 de la IA no editado

La inteligencia artificial generativa (IA generativa) en la creación de contenidos para medios de comunicación presenta implicaciones en aspectos éticos, veracidad, objetividad y confianza del público en las noticias. A continuación, se detallan algunas de estas implicaciones:

  1. Aspectos éticos: La IA generativa puede generar contenidos sintéticos que plantean dilemas éticos en cuanto a la autoría, la responsabilidad y la transparencia en la creación de contenidos [4]. La UNESCO ha adoptado una Recomendación sobre la Ética de la Inteligencia Artificial para abordar estos desafíos [5].
  2. Veracidad: La IA generativa puede ser utilizada para crear noticias falsas o desinformación, lo que puede erosionar la confianza en la información electoral y en los medios de comunicación en general [3]. Los periodistas deben ser conscientes de los riesgos que implica el uso de la IA generativa y trabajar de manera ordenada con los contenidos generados [11].
  3. Objetividad: La objetividad es un método para llegar a la verdad y es esencial en la práctica periodística [6]. Sin embargo, la IA generativa puede adaptarse a sesgos como la línea editorial del medio, al estilo del periodista o incluso al gusto del consumidor de la información [12]. Por lo tanto, es importante que los periodistas estén conscientes de estos sesgos y trabajen para garantizar la objetividad en la creación de contenidos.
  4. Confianza del público: La proliferación de sitios web de noticias generadas por IA puede hacer que sea más difícil para los consumidores distinguir entre noticias reales y falsas, lo que a su vez puede erosionar la confianza en los medios de comunicación [7]. Para abordar este problema, se pueden implementar medidas como el uso de marcas de agua y firmas digitales para identificar el contenido generado por IA [3].

En resumen, la IA generativa en la creación de contenidos para medios de comunicación presenta desafíos en términos de ética, veracidad, objetividad y confianza del público en las noticias. Es fundamental que los periodistas y los medios de comunicación estén conscientes de estos desafíos y trabajen para garantizar la integridad y la calidad del periodismo en la era de la inteligencia artificial.

Citations:
[1] https://www.cuadernosdeperiodistas.com/etica-e-inteligencia-artificial-herramientas-para-gobernar-a-los-algoritmos-desde-el-periodismo/
[2] https://dialnet.unirioja.es/descarga/articulo/802687.pdf
[3] https://www.brennancenter.org/es/our-work/analysis-opinion/inteligencia-artificial-pone-en-riesgo-elecciones-medidas-proteger-democracia
[4] http://www.harvard-deusto.com/ia-generativa-implicaciones-eticas-y-legales-en-la-creacion-de-contenidos-sinteticos
[5] https://www.unesco.org/es/artificial-intelligence/recommendation-ethics
[6] https://idus.us.es/bitstream/handle/11441/36426/Pages%20from%20libro-actas-congreso-etica-comunicacion-8.pdf?sequence=1
[7] https://wwwhatsnew.com/2023/05/02/la-proliferacion-de-sitios-web-de-noticias-generadas-por-ia/
[8] https://es.linkedin.com/pulse/la-%C3%A9tica-en-el-uso-de-inteligencia-artificial-ia-juan-merodio
[9] https://www.jstor.org/stable/26975708
[10] https://www.cryptopolitan.com/es/ai-vs-estudio-de-mentes-humanas-sobre-mentiras-generadas-por-ai/
[11] https://ijnet.org/es/story/%C2%BFest%C3%A1n-preparados-los-periodistas-para-los-desaf%C3%ADos-que-implica-el-uso-de-la-ia-generativa
[12] https://www.elespanol.com/alicante/economia/innovacion/20230301/ia-periodismo-desinformacion-tecnologia-lenguaje-natural-herramienta/744925833_0.html
[13] https://www.dw.com/es/qu%C3%A9-son-y-c%C3%B3mo-reconocer-los-sitios-web-generados-por-la-inteligencia-artificial/a-65581633
[14] https://www.connectas.org/labs/puede-la-inteligencia-artificial-hacer-mas-eficiente-el-trabajo-de-los-periodistas/
[15] https://urosario.edu.co/en/node/8838
[16] https://www.infobae.com/america/the-new-york-times/2023/05/21/contenido-generado-con-ia-hallado-en-sitios-de-noticias-granjas-de-contenido-y-resenas-de-productos/
[17] https://mip.umh.es/blog/2023/02/14/etica-inteligencia-artificial-periodismo-futuro-profesion/
[18] http://www.scielo.org.mx/scielo.php?pid=S0188-252X2017000200165&script=sci_arttext
[19] https://www.elindependiente.com/futuro/inteligencia-artificial/2023/07/02/el-reto-del-periodismo-en-un-mundo-de-mentiras-generadas-por-ia-los-medios-deben-ser-un-sello-de-credibilidad/
[20] https://www.20minutos.es/tecnologia/inteligencia-artificial/google-inteligencia-artificial-generativa-ayudar-periodistas-crear-titulares-noticias-5149541/
[21] https://ethic.es/2023/02/que-lugar-deja-al-periodismo-la-inteligencia-artificial/
[22] https://es.linkedin.com/pulse/los-desaf%C3%ADos-de-la-ia-en-el-periodismo-the-hist
[23] https://revista.profesionaldelainformacion.com/index.php/EPI/article/download/87356/63452
[24] https://fundaciongabo.org/es/que-papel-juega-la-verdad-en-el-periodismo
[25] https://ts2.space/es/el-publico-estadounidense-quiere-frenar-el-desarrollo-de-la-ia/

Informe 2 de la IA no editado

Para garantizar la ética y la objetividad en la creación de contenidos generados por inteligencia artificial (IA), es necesario considerar los siguientes aspectos:

  1. Desarrollar y aplicar marcos éticos: Es fundamental establecer marcos éticos y regulaciones que guíen el uso de la IA en la creación de contenidos periodísticos. Estos marcos deben abordar aspectos como la transparencia, la responsabilidad y la privacidad [5].
  2. Transparencia: Los medios de comunicación deben ser transparentes acerca del uso de la IA en la creación de contenidos, informando a las audiencias sobre cómo y cuándo se utilizan estas tecnologías [6].
  3. Supervisión humana: Aunque la IA puede generar contenidos de manera autónoma, es crucial que los periodistas supervisen y verifiquen la información generada por la IA para garantizar su precisión y objetividad [11].
  4. Formación y concienciación: Los periodistas y profesionales de los medios de comunicación deben recibir formación en el uso ético y responsable de la IA en la creación de contenidos. Esto incluye aprender a utilizar estas herramientas de manera efectiva y ética, evitando malas prácticas como el plagio de contenidos y la difusión de desinformación [9].
  5. Control de sesgos: Es importante que los desarrolladores de IA trabajen en la identificación y mitigación de sesgos en los algoritmos utilizados para generar contenidos, garantizando así la objetividad en la información producida [12].
  6. Colaboración entre sectores: La colaboración entre periodistas, desarrolladores de IA, expertos en ética y reguladores es esencial para abordar los desafíos éticos y garantizar la objetividad en la creación de contenidos generados por IA [1].

En resumen, garantizar la ética y la objetividad en la creación de contenidos generados por IA requiere un enfoque multidisciplinario que incluya marcos éticos, transparencia, supervisión humana, formación, control de sesgos y colaboración entre sectores.

Citations:
[1] https://blogs.iadb.org/conocimiento-abierto/es/riesgos-eticos-de-la-inteligencia-artificial/
[2] https://youtube.com/watch?v=zDDnT41hDU0
[3] https://www.redalyc.org/journal/5897/589773685007/html/
[4] https://www.pwc.es/es/publicaciones/tecnologia/assets/guia-buenas-practicas-uso-inteligencia-artificial-pwc-odiseia.pdf
[5] https://www.euskadi.eus/contenidos/informacion/orain_farmacia/es_orain/adjuntos/Directrices-eticas-inteligencia-artificical-fiable.pdf
[6] https://repositori.uji.es/xmlui/bitstream/handle/10234/201745/83794.pdf?isAllowed=y&sequence=1
[7] https://www.unesco.org/es/artificial-intelligence/recommendation-ethics
[8] http://www.scielo.org.mx/scielo.php?pid=S2448-51362020000300049&script=sci_arttext
[9] https://www.redactorfreelance.com/inteligencia-artificial-periodismo/
[10] https://www.tictactep.cl/la-etica-y-el-uso-de-la-inteligencia-artificial-en-la-educacion-a-distancia/
[11] http://formacionib.org/noticias/
[12] https://www.researchgate.net/publication/366506817_Etica_y_uso_periodistico_de_la_inteligencia_artificial_Los_medios_publicos_y_las_plataformas_de_verificacion_como_precursores_de_la_rendicion_de_cuentas_en_Espana
[13] https://www.digitalbizmagazine.com/responsabilidad-etica-e-inteligencia-artificial/
[14] https://www.uv.mx/rmipe/files/2017/02/Guia-didactica-metodologia-de-la-investigacion.pdf
[15] https://delfino.cr/2023/04/periodismo-versus-inteligencia-artificial-quien-se-atreve-a-decir-como-la-usa
[16] https://www.udg.edu/ca/Portals/57/OContent_Docs/Informe_OEIAC_2021_cast.pdf
[17] https://observatorio.tec.mx/editorial/chatgpt-inteligencia-artificial-y-el-futuro-de-la-educacion/
[18] https://www.madrimasd.org/blogs/culturadered/periodismo-artificial-retos-y-tendencias-del-periodismo-ante-la-inteligencia-artificial-cfp/
[19] https://habitant.es/inteligencia-artificial-etica-y-logica-de-negocio/

Conclusiones

Hemos mostrado, mediante un juego de capturas anotadas, un uso característico de Perplexity AI para obtener contenido textual y fuentes relacionadas. Para ello, hemos usado un prompt que consiste en establer elementos de relación entre IA y periodismo, como muestra la ficha de la petición de generación de informes,

Hemos incorporado los dos informes generados, sin editar, para quienes pueda resultar de interés, puesto que tanto el contenido, como sobre todo las fuentes, pueden resultar valioso. Una cuestión importante es que si se usa parte o la totalidad del contenido literal del informe generado por Perplexity en una publicación debe marcarse y señalarse la procedencia de forma totalmente transparente.

Si se usan estos informes solo como un punto de partida, se recomienda transparencia igualmente y citar la fuente como parte del proceso de producción del contenido afectado. También se recomienda verificar la parte que vaya a ser utilizada, si es el caso.


Otras entradas sobre IA