Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.
VALENCIA, España (EFE). — Un estudio internacional llevado a cabo por investigadores de España, Francia y Suiza concluye que no hay pruebas científicas que respalden la existencia de una adicción a los chatbots de inteligencia artificial (IA), como ChatGPT.”No hay evidencia científica contundente que avale la existencia de una adicción a ChatGPT u otros chatbots de IA”, indicaron los autores en el informe, publicado en la revista “Addictive Behaviors”. El análisis fue realizado por Víctor Ciudad-Fernández, de la Universitat de València (UV); Cora von Hammerstein, de Paris Cité University; y Joël Billieux, de la Université de Lausanne.Los investigadores encontraron que los estudios previos que intentan medir una supuesta adicción a los chatbots han empleado escalas idénticas a las que se utilizan para evaluar dependencias a sustancias como el alcohol o la cocaína.”Se están utilizando criterios como ‘tolerancia’ o ‘síndrome de abstinencia’ para evaluar si alguien usa demasiado un chatbot, lo cual es como diagnosticar adicción a bailar con los mismos criterios que la heroína”, expresó Víctor Ciudad.Según el equipo, no se ha demostrado que el uso habitual de herramientas de IA provoque un deterioro funcional severo o consecuencias negativas significativas en la vida de los usuarios.En su lugar, el uso frecuente de ChatGPT “suele estar más vinculado a la curiosidad, el aprendizaje o incluso estrategias de afrontamiento”, resaltaron los investigadores.Advirtieron que etiquetar como adicción el uso de estos sistemas puede tener efectos perjudiciales: “Podría conducir a la estigmatización de los usuarios, tratamientos innecesarios o regulaciones sin fundamento”. “No se trata de una adicción, sino de cómo usamos la tecnología”, señalaron. “Este estudio invita a un cambio de perspectiva”, agregaron.Para los autores, la clave reside en promover un uso responsable. “Lo más importante es comprender cuándo y por qué el uso se vuelve problemático, sin caer en discursos alarmistas sin base científica”, aseveraron.La investigación se realizó en respuesta a informes recientes que señalaban posibles riesgos adictivos de la IA, lo que motivó a los expertos a revisar y cuestionar el fundamento científico de tales afirmaciones. El equipo investigador también enfatizó la necesidad de desarrollar herramientas de evaluación específicas para el uso de nuevas tecnologías, en lugar de adaptar escalas diseñadas para otras conductas. “Necesitamos instrumentos que realmente capturen las particularidades del uso digital, no simples copias de criterios clínicos clásicos”, afirmó Joël Billieux.Asimismo, los autores proponen que futuras investigaciones se centren en factores contextuales y motivacionales. “No todo uso prolongado implica un problema; hay que analizar qué busca la persona y qué obtiene de ello”, explicó Cora von Hammerstein, quien destacó que el enfoque debe ser funcional, no alarmista. Finalmente, el estudio sugiere que los sistemas educativos y sanitarios fomenten la alfabetización digital como forma de prevención. “Educar sobre el uso saludable de las tecnologías es más efectivo que patologizar conductas sin pruebas”, concluyeron.
Agregar Comentario