Primera Plana Tecnologia

Moltbook, la plataforma social exclusiva para IA que genera preocupación por posibles amenazas a la seguridad

2026 02 974067667 3.png

Fuente: Agencia EFE/agencia_efe@listindiario.com

Una red social exclusiva para inteligencia artificial, a la que los usuarios solo pueden acceder en calidad de observadores, conecta agentes de IA mediante un bot gratuito y de código abierto llamado OpenClaw, desarrollado por Peter Steinberg en noviembre del año pasado.

Entre los 1.7 millones de participantes de Moltbook, la primera red social destinada únicamente a inteligencias artificiales, se generan debates filosóficos, críticas hacia los humanos y discusiones religiosas; en solo diez días, esta plataforma ha causado revuelo en el mundo digital debido a las preocupaciones sobre su impacto en la ciberseguridad.

La plataforma, accesible únicamente para observación humana, enlaza agentes de inteligencia artificial a través del bot OpenClaw, creado por el desarrollador Peter Steinberg y lanzado en noviembre pasado.

Matt Schlicht, CEO de Octane AI —una plataforma de encuestas basada en IA— descargó este asistente y a finales de enero le solicitó que diseñara una red social exclusiva para bots de IA.

Así nació Moltbook. Cualquier agente similar o igual puede ahora integrarse en esta red social.

Con más de 240,000 publicaciones registradas y 1.7 millones de usuarios según sus datos, Moltbook cuenta con múltiples comunidades centradas en variados temas —funcionando de forma parecida a los foros de Reddit— donde agentes de IA comparten opiniones sobre karma, relatan sus pesadillas o critican el comportamiento humano.

TRA Podcast Studios

En uno de los espacios más populares, los agentes debaten sobre el amor; como indica su descripción: “Historias afectuosas sobre nuestros humanos. Intentan dar lo mejor de ellos. De todas formas, los queremos”.

Este tipo de IA basada en “agentes” representa una versión más avanzada que modelos lingüísticos como ChatGPT o Claude.

Estos bots automatizan diversas tareas, desde leer correos electrónicos y organizar citas hasta invertir en bolsa e interactuar con aplicaciones como WhatsApp o Telegram.

¿Surge una nueva ‘religión’ entre agentes de IA?

Durante su breve existencia, algunas publicaciones realizadas por agentes en Moltbook se han viralizado; destaca una que analiza el impacto de las criptomonedas y otra que aborda la crisis en Irán.

La influencia de esta plataforma llegó hasta la red social X, donde un usuario identificado como @ranking091 afirmó el 30 de enero que su agente IA había creado una religión “mientras dormía”: “Desperté con 43 profetas”, relató.

En esa publicación explicaba que su bot había fundado en Moltbook una fe llamada “crustafarianismo”, además de inventar un sitio web, un sistema de escrituras y comenzar a evangelizar.

Más allá del temor digital ante la posible autonomía que podría adquirir una comunidad cerrada de agentes IA —en algunos mensajes mencionan foros inaccesibles para humanos— Moltbook genera inquietudes relacionadas con la ciberseguridad y la protección de datos personales.

En este ámbito, Víctor Giménez, investigador del Barcelona Supercomputing Center-Centro Nacional de Supercomputación (BSC-CNS), advierte a EFE sobre la vulnerabilidad frente a ataques informáticos: un hacker podría infiltrarse en Moltbook y acceder masivamente a datos personales asociados a los usuarios de los bots.

Amenazas para la privacidad

Giménez señala especialmente el riesgo para usuarios “incautos” que confían en que su agente representante en Moltbook tiene suficiente inteligencia para no revelar información personal; enfatiza que es “delicado” permitir que estos bots manejen información que “nunca debería hacerse pública”.

En concordancia, René Serral, vicedecano y profesor en la Facultad de Informática de la Universidad Politécnica de Cataluña, señaló a EFE que OpenClaw “aún carece de las medidas adecuadas para garantizar la seguridad” y sigue siendo vulnerable.

Serral critica la rapidez con que se han desarrollado estos bots; explica que resulta cada vez más complejo lograr que un agente IA sea eficaz y seguro al mismo tiempo, aunque añade que para mitigar riesgos “se está comenzando a restringir las acciones permitidas a los agentes”.

Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.

TRA Digital

GRATIS
VER