Formación Permanente

UNIVERSIDAD PABLO DE OLAVIDE

Ramón Salaverría ha asegurado que “si enfocamos la IA como una sustituta del periodismo, estamos interpretando mal la transformación”

El catedrático de Periodismo y uno de los principales especialistas en inteligencia artificial aplicada a la información, Ramón Salaverría, ha lanzado un mensaje claro al sector: el debate sobre la inteligencia artificial (IA) está mal planteado.

“No se trata de una amenaza ni de una rivalidad entre humanos y máquinas, sino de construir un modelo de trabajo complementario que potencie el ejercicio profesional del periodismo”, ha confesado en uno de los Cursos de Verano – ‘Más allá de la desinformación: el impacto de la inteligencia artificial en el periodismo’- de la Universidad de Pablo de Olavide (UPO) celebrados en Carmona.

Salaverría ha advertido de que la transformación tecnológica que viven hoy las redacciones es “profunda y simultánea”. Por un lado, están las estrategias de las empresas periodísticas para incorporar nuevas tecnologías en los procesos de producción, y por otro, la experimentación individual de los propios periodistas con herramientas emergentes.

Sin embargo, el verdadero reto, según ha subrayado, no está en cómo se implanta la IA, sino en cómo se interpreta su papel. “Si el enfoque que le damos a la incorporación de la tecnología es únicamente en qué medida va a sustituir a los periodistas, estamos enfocando mal la transformación”, ha asegurado.

Para el catedrático, la inteligencia artificial debería entenderse como una herramienta que acelere procesos, amplifique el análisis de datos y libere a los profesionales para abordar tareas de mayor valor añadido, no como una competidora que amenaza con eliminar su trabajo.

Uno de los riesgos más evidentes del uso de estas tecnologías en las redacciones es, según el experto, la pérdida de veracidad y transparencia informativa. “El uso de herramientas de generación automática de contenidos, en el nivel de desarrollo actual, garantiza que va a haber errores. Y por tanto, esa es una línea roja que los medios no pueden permitirse cruzar”, ha advertido Salaverría.

La trazabilidad de la información se convierte así en una cuestión crítica, pues “puede que el dato sea cierto, pero si no sabemos de dónde ha salido, no podemos respaldarlo”.

El catedrático también ha cuestionado la falta de transparencia de muchos medios en el uso de la inteligencia artificial. Según ha explicado, así como se atribuye una noticia a una agencia o se señala si ha sido adaptada, debería indicarse si ha intervenido o no una herramienta de IA en su elaboración.

“Como no existe esa transparencia, porque los propios medios y periodistas son muy reacios a mostrar el proceso real, es probable que el público termine desconfiando de la IA y de nuestro trabajo”, ha advertido.

Ejemplo de tecnología al servicio de las personas (Ladillo)

En este contexto, Salaverría ha citado una experiencia reciente que ilustra cómo la IA puede usarse con responsabilidad y sensibilidad social.

Radio Bilbao, de la cadena SER, ha empleado esta tecnología para recuperar la voz de un músico que, tras un infarto cerebral, ha perdido el habla. Gracias a la colaboración del artista y su familia, y respetando todos los protocolos éticos, el medio ha realizado una entrevista radiofónica en la que, mediante IA, se ha podido escuchar de nuevo la voz del músico, “muy querido” por su público local.

“Eso sin la inteligencia artificial no se podría haber hecho. Y no tiene nada de malo, entonces, hagámoslo”, ha concluido Salaverría.

Fuente: Europa Press