El festival de periodismo, literatura y arte celebrado el 14 y 15 de junio en Atyrá, reunió a profesionales de la comunicación y el periodismo. En ese contexto, se realizaron talleres enfocados en Inteligencia artificial aplicada al periodismo encabezados por periodistas como Ana Paula Valacco, Alejandro Valdez y Juliana Quintana.
La inteligencia artificial se ha posicionado como una herramienta clave en distintas áreas de trabajo. Esta tecnología es utilizada, incluso a pesar de ser bastante controversial. Por ese motivo, el Roa Bastos Fest, en su primera edición, le dio bastante relevancia a este debate y contó con dos charlas sobre esta temática.
La primera, llevada a cabo el sábado, se denominó: “Inteligencia Artificial (IA) para periodistas y cómo realizar narrativas de impacto”. La segunda, que se hizo el domingo se tituló: “Inteligencia artificial para escuchar y conocer a las audiencias”.
Capacidades y limitaciones de la IA
Ana Paula Valacco es gerente de Programa y Líder de Participación de JournalismAI Connect del London School of Economics (LSE). Esta organización es una iniciativa global que busca capacitar y empoderar a comunicadores para hacer del uso de la inteligencia artificial un ejercicio responsable.
Ana, quien además es embajadora de SembraMedia en Argentina, describió a la inteligencia artificial como “un conjunto de ideas y técnicas que están relacionadas con la capacidad de un sistema de realizar tareas humanas”.
Al respecto, Ana explica que estos modelos de lenguaje no conocen hechos ni conceptos, solo probabilidades estadísticas. Refiere que los mismos están programados para que puedan actuar, planificar y delegar de manera automatizada.
IA siempre con supervisión
Ana Paula mostró ejemplos de cómo se publicaron artículos en medios internacionales con errores a causa de la utilización de la IA sin revisión. También apuntó a la publicación de una lista de libros recomendados que resultó controversial, debido a que muchos de los libros ni siquiera existían, tras lo cual el autor del artículo reconoció que lo hizo una IA.
Tras señalar estos casos, Ana Paula apuntó a ver siempre a la IA como una pasante. “No publicarías el artículo de una pasante sin supervisión, ¿verdad?”, preguntó de manera retórica.
De esta manera, subrayó que la IA puede ser una herramienta muy útil, pero también tiene errores y en algunos casos puede llegar a dar respuestas irreales. Por ese motivo, insistió en que cada vez que se use IA hay que verificar y contrastar las informaciones que proporciona.

El uso de la IA más allá de la generación de contenido
También habló sobre cómo experimentan con el uso de IA en el periodismo actual Alejandro Valdez Sanabria, cofundador de El Surti. También es miembro de la Society for News Design y fellow del programa JournalismAI Innovation de Polis, en la London School of Economics.
“Estamos en un proceso de experimentación, pero un principio general de El surti —que nació como una página de facebook hace nueve años— es la forma de la función, que aplicamos en términos de formatos periodísticos o de diseño y en el uso de la tecnología en general. Tiene que estar muy claro qué buscamos hacer y a qué público queremos llegar, para, a partir de eso, tomar la decisión de qué herramienta debemos utilizar”, señaló Alejandro Valdez, director de producto de El surti.
Igualmente, explicó que estos sistemas inteligentes automatizados no solo sirven como apoyo en la generación de contenidos. Resaltó que también se convierten en una posibilidad efectiva para la distribución de los mismos.

Estas opciones que permite la IA se da mediante la recomendación de artículos, la personalización de páginas de destino, la generación de anuncios o el desarrollo de alternativas más inclusivas en cuanto a formatos, como convertir un texto informativo o un video o en audio.
Dentro de los recursos que pueden ser empleados se mencionan: PinPoint, NotebookLM, Perplexity, LLM Journalism tool advisor y AI research pilot.
Peligros que representa la IA
Peligros de privacidad y seguridad, reproducción de sesgos estereotípicos, contenido sintético, crecimiento descontrolado de datos digitales y burbujas de filtro —que condicionan el acceso a contenido diversificado— son algunos de los riesgos expuestos por Ana Paula a través de ejemplos de cómo la IA genera contenidos.
Asimismo, también habló del plagio, la posibilidad de aumentar la desinformación o alucinaciones —invención de hechos y datos inexactos debido a su condición de máquina de lenguaje—.
Uno de los temas preocupantes, recuerda Ana, también apunta a la utilización de los recursos naturales, específicamente el agua potable, para la refrigeración de sus servidores.
Teniendo en cuenta estos puntos, también es necesario analizar los roles que pueden llegar a tener gobiernos autoritarios en el desarrollo y uso de inteligencia artificial.
“Los CEOs de las grandes empresas que se encargan de construir estos modelos de IA, estaban presentes en la asunción de Trump, por ejemplo. Lo que nos deja ver que existen intereses de por medio”, advirtió Ana Paula.

Inteligencia Artificial para escuchar y conocer a las audiencias
En el marco del evento, Juliana Quintana, periodista de El Surti, presentó a Eva, un chatbot generado a partir de una investigación exhaustiva a poblaciones vulnerables.
Eva narra la historia de una mujer en situación de encierro en la cárcel del Buen Pastor, a la que detuvieron por tráfico de drogas.
Eva, como muchas mujeres, es víctima de un sistema corrupto que beneficia a los poderosos. La pobreza y la salud mental —problemáticas actuales ignoradas por el Estado paraguayo— fueron las principales causas que la llevaron a buscar una alternativa para poder sobrevivir. Su tarea era llevar dos kilos de cocaína a Europa, pero la engañaron y la hicieron cargar con mucho más.

El chatbot ofrece interactuar de forma indirecta con personas en contexto de exclusión social. De esta manera, promueve la visibilidad de sus historias y busca reflexionar de manera crítica sobre el funcionamiento del régimen penal. El objetivo principal es generar una conversación honesta y sincera, a través de la cual se logre escuchar a las audiencias.
Además, Alejandro Valdez, introdujo el proyecto Aikuaa, que tiene como fin solucionar las dificultades de los LLMs para comprender idiomas oralmente transmitidos, específicamente el guaraní.
“El 50% de los idiomas de tradición oral del mundo tienen problemas para interactuar con la tecnología”, afirmó Valdez.
La recolección de datos para entrenar a los algoritmos de aprendizaje automático se realiza mediante mingas (hackatones) con hablantes del guaraní. Las personas que participan en estas mingas pueden ser hablantes de lengua madre o quienes utilizan el jopara, que parece ser el caso del mayor porcentaje de ciudadanos.
Aikuaa se propone contribuir a la valorización del idioma guaraní frente al castellano. La idea es comenzar con la creación de un bot de WhatsApp capaz de comprender esta lengua.
Alejandro sostuvo que “el idioma, no es solo un sistema lingüístico, es el alma de toda cultura, en el auge del autoritarismo e hiperindividualismo, Aikuaa busca crear comunidad e impulsar la participación cívica. Teniendo muy presente que la mayor parte de los sistemas de datos tienen una visión norteamericana del mundo, buscamos innovar con el proyecto en ese sentido y a partir de ello preservar toda una cultura. El hablante de guaraní merece poder beneficiarse de la IA”.
Con el lema “Personas primero, IA para todos”, estos proyectos se buscan narrar la historia de comunidades históricamente vulneradas y preservar la lengua oral por sobre lo escrito.
Leé más: El Roa Bastos Fest exige cesar ataques contra periodistas y trabajadores de la cultura