Bilbao, España – La inteligencia artificial (IA) ha saltado a lo que se conoce como la sociedad de la información y el conocimiento. Desde las industrias financieras y creativas hasta la administración pública y la educación, varios sectores han analizado con urgencia el impacto de la IA en los últimos meses. Pero, ¿cómo puede posicionarse el sector de la comunicación, y el periodismo en particular, ante esta realidad?
En este contexto, resulta útil recuperar los modelos de cómo construimos el conocimiento, que reciben diversos nombres, como la pirámide del conocimiento, la jerarquía o el continuo de la comprensión.
Este modelo, también llamado pirámide del conocimiento, jerarquía del conocimiento o continuo de la comprensión, describe cómo los datos pueden organizarse y presentarse de tal manera que puedan transformarse en información útil y significativa, lo que conduce a la generación de conocimiento y, a su vez, de comprensión y sabiduría. Este proceso continúa generando cambios a través de la acción y la toma de decisiones.
Es importante destacar que todas las etapas y elementos de este proceso están relacionados con la etapa anterior y, en última instancia, con la realidad inicial. El proceso se basa en la realidad y adquiere continuidad y sentido en contraste con ella.
En este modelo de generación de conocimiento, más allá de los datos y la información, los procesos son fenómenos humanos. A diferencia de las etapas anteriores, que pueden exteriorizarse, transportarse y manipularse en otros soportes físicos como el papel o los discos duros, la reflexión y el pensamiento, y por tanto el conocimiento, la comprensión y la inteligencia, no pueden producirse fuera de la mente humana.
En todas esas transformaciones, el lenguaje desempeña un papel esencial. El análisis y la organización de los datos se caracterizan por la sintaxis del lenguaje, y la sintaxis define en cierta medida las posibilidades de dicha estructuración. El lenguaje es también un medio primordial de comunicación. Muchos procesos de reflexión se expresan también a través del lenguaje.
Herramientas como ChatGPT también se conocen con el término más específico y apropiado de «modelo lingüístico a gran escala» (LLM). Este tipo de robot basado en el chat realiza una creación lingüística probabilística y aparente: el LLM sugiere qué palabras tienen más probabilidades de ir seguidas de otras palabras basándose en una gran base de datos, pero no lo contrasta con la realidad.
El lenguaje como abstracción e interpretación de la realidad sólo funciona si tenemos una referencia común de la relación entre significantes y significados, entre palabras y referentes. A falta de este consenso mínimo, el diálogo y la discusión se convierten en un «diálogo de las dos partes del argumento».
A pesar de su nombre, los modelos lingüísticos no manipulan significados, ni crean comprensión o conocimiento, ni transmiten una narrativa en torno a esas ideas, como hacen los procesos de comunicación humanos. Los modelos lingüísticos actúan únicamente sobre meras formas, referencias y significantes. Pueden generar un lenguaje similar al humano, pero sin ninguno de los significados que los humanos manejan al generar un lenguaje similar.
Sin embargo, cuando utilizamos términos como «inteligencia» para referirnos a modelos lingüísticos como ChatGPT, estamos dando al algoritmo una cierta visión antropomórfica y, quizá inconscientemente, asignándole las características de la inteligencia humana. Suponemos que el algoritmo entiende, trata con el significado y, en términos más lingüísticos, puede referirse a él a través del lenguaje que genera.
Muchos otros términos que utilizamos en este contexto (generalizado y popularizado) tienen el mismo problema. Cuando pensamos en lo que hace ChatGPT, automáticamente nos viene a la cabeza el entrenamiento humano, el aprendizaje humano y la alucinación humana. Sin embargo, esta representación es una ilusión.
Frente a una oleada de modelos lingüísticos cada vez más sofisticados, ¿sigue siendo pertinente una profesión de la comunicación como el periodismo, cuya contribución parece manifestarse principalmente en forma de noticias falsas y desinformación, con imágenes generadas por la IA cada vez más difíciles de distinguir de las reales?
El periodismo es un tipo de comunicación con una función social específica: proporcionar a los ciudadanos la información que necesitan para ser libres y gobernarse a sí mismos. Este objetivo exige un compromiso con la verdad, que puede entenderse como una representación honesta de la realidad.
Por otra parte, en casi todos los diccionarios, la mentira o falsedad se define por la negación de la verdad. En este sentido, la mentira reconoce cierta legitimidad a la verdad y exige que ésta sea su contrapartida.
En el contexto actual de la posverdad, más que fake news, lo que estamos viendo es un desprecio absoluto por la relación entre el relato y el referente real, más cercano a la charlatanería o a la «confusión informativa».
Independientemente de que lo que se cuente sea verdad o mentira, la posverdad se centra en manipular creencias y emociones para influir en la opinión pública y en las actitudes sociales. Vivimos en una época que resta importancia a las verdades reales.
En este contexto, no importa que los modelos lingüísticos y lo que se denomina «inteligencia artificial» no se ocupen de referencias o contrastes con la realidad. Así pues, no es que ChatGPT mienta o invente mentiras, sino que no tiene concepto de lo que es una mentira (o de lo que es la verdad). Sin embargo, sí significa que la IA podría convertirse en una importante fuente de desinformación.
ChatGPT nunca sustituirá al periodismo. Al mismo tiempo, sin embargo, la IA dificultará enormemente que el periodismo cumpla su propósito al reforzar un paradigma que devalúa el valor de la verdad.
¿Cuál es entonces el papel del periodismo ante los avances de la inteligencia artificial? Ante todo, reafirmar su papel y resistir al señuelo creado por la IA.
La imagen que hemos construido de las capacidades de ChatGPT en particular, y de la IA en general, es, en su mayor parte, la que sus creadores se esfuerzan por transmitir.
En lugar de aceptar que la amenaza de la IA es existencial y pone en peligro a la humanidad en su conjunto, podríamos centrarnos en el hecho de que la IA es hoy un sistema inmaduro y que ni siquiera se habría permitido su comercialización en cualquier otro sector. podríamos centrarnos en el hecho.
Como sostiene el autor y bloguero Cory Doctorow, «pilotar drones, conducir coches (…) y no se les debería dejar tomar decisiones sobre solvencia y cobertura de seguros», todas las empresas de IA quebrarían si aceptaran que no se les debería permitir hacerlo.
El periodismo tiene la capacidad y la obligación de entender y explicar en qué consisten estas herramientas, y de fijarse en las limitaciones que plantean y en los problemas y daños que ya están causando (prejuicios discriminatorios, impacto medioambiental, explotación laboral, etc.).
En lugar de dejarnos seducir por la idea mística de la IA, es imperativo que nos hagamos las preguntas que realmente importan, las preguntas para las que necesitamos respuestas.