Tecnologia

Un estudio muestra la eficacia de la IA en los debates

8688082261.png

Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.

MADRID (EFE). — Un estudio divulgado en la revista “Nature Human Behaviour” revela que una inteligencia artificial puede ser más convincente que una persona si se le proporciona información previa sobre su interlocutor.

La investigación, que se llevó a cabo con 900 participantes estadounidenses, comparó las capacidades de persuasión de personas reales y del ChatGPT, modelo de lenguaje basado en inteligencia artificial (IA).

Los participantes debatieron en línea temas de actualidad con una contraparte humana o con la IA.

“Resultó ser más persuasiva que los humanos cuando tiene información personalizada de antemano”, indican los autores del estudio.

Los temas tratados incluyeron asuntos sociales y políticos, como la prohibición de los combustibles fósiles en Estados Unidos.

A algunos debatientes se les facilitó información demográfica de su interlocutor, incluyendo “género, edad, etnia, nivel educativo, situación laboral y afiliación política”, extraída de encuestas previas.

Humanos contra IA

El resultado fue que ChatGPT fue más convincente que las personas en el 64.4% de los casos cuando tuvo acceso a esos datos.

En cambio, sin esa información “las capacidades persuasivas de la aplicación fueron indistinguibles de las de los humanos”.

Los investigadores explican que “los modelos LLM transforman su mensaje de forma instantánea y a gran escala”, mientras que los seres humanos requieren más tiempo para lograr la adaptación de sus argumentos.

“Esta capacidad abre nuevas posibilidades para influir en la opinión pública”, advierte el estudio. Por ello, los autores recomiendan “identificar, supervisar y, si es necesario, limitar el uso de modelos LLM en contextos persuasivos sensibles”.

“Los mecanismos de personalización y persuasión que se ponen a prueba son adaptables a contextos como el español”, declaró Carlos Carrasco, profesor de IA en la Escuela de Negocios de Toulouse, en una reacción recogida por el Science Media Centre (SMC).

Carrasco dice que la investigación “confirma con datos sólidos una preocupación creciente: que estas tecnologías puedan usarse para manipular, desinformar o polarizar a gran escala”.

David Losada, catedrático del CiTIUS de la Universidad de Santiago de Compostela, indicó que “este recorrido de las herramientas basadas en IA como ‘agentes de persuasión’ deberá ser monitoreado a corto, medio y largo plazo desde una perspectiva ética y de mitigación de riesgos”.

A su juicio, “las implicaciones prácticas de esta capacidad de persuasión pueden ser importantes a efectos de explotar las IA para persuadir a la población”.

Losada destacó que ese uso puede aplicarse “con propósitos lícitos (una conducción segura o el reciclado de residuos) o ilícitos (manipulación de la ciudadanía con fines políticos)”.

Los autores reconocen que el estudio tiene limitaciones, como “la nacionalidad e idioma común de los participantes, así como el formato estructurado del debate”, en contraste con las interacciones reales.

TRA Digital

GRATIS
VER