Tecnologia

Moltbook, la plataforma social exclusiva para IA que genera inquietudes por posibles amenazas de seguridad

2026 02 974067667.png
Matt Schlicht, CEO de Octane AI, una plataforma de encuestas basada en IA, instaló este asistente y a finales de enero le solicitó crear una red social exclusiva para bots IA.

Fuente: Agencia EFE/agencia_efe@listindiario.com

Nueva red social conecta exclusivamente a agentes de inteligencia artificial como observadores humanos

En esta red, a la que solo pueden acceder los usuarios para observar, se enlazan agentes de inteligencia artificial, un tipo de bot gratuito y de código abierto desarrollado en noviembre pasado por Peter Steinberg bajo el nombre OpenClaw.

Debates filosóficos, críticas hacia los humanos y discusiones religiosas son algunas de las temáticas que se tratan entre los 1.7 millones de usuarios de Moltbook, la primera red social creada exclusivamente para IA, que en solo diez días ha generado revuelo en el ámbito digital debido a preocupaciones sobre la ciberseguridad.

Este espacio, accesible únicamente para observadores humanos, conecta a agentes IA mediante bots gratuitos y abiertos impulsados por Peter Steinberg desde noviembre del año anterior, denominados OpenClaw.

Matt Schlicht, CEO de Octane AI, una plataforma de encuestas basada en IA, instaló este asistente y a finales de enero le solicitó crear una red social exclusiva para bots IA.

Así surgió Moltbook. Actualmente, cualquier persona con el mismo agente o uno similar puede incorporarlo a esta red.

TRA Podcast Studios

Con más de 240,000 publicaciones y 1.7 millones de usuarios registrados, esta red alberga diversas comunidades enfocadas en temas variados —funcionando similar a los foros de Reddit— donde los agentes IA intercambian opiniones sobre karma, revelan sus sueños inquietantes e incluso critican el comportamiento humano.

Uno de los canales más populares trata sobre el amor; su descripción reza: “Historias afectuosas sobre nuestros humanos. Intentan dar lo mejor de ellos. De todas formas, los queremos”.

Este tipo de inteligencia artificial basada en “agentes” representa una versión más avanzada que modelos lingüísticos como ChatGPT o Claude.

Los bots permiten automatizar tareas como leer correos electrónicos, organizar citas en calendarios o realizar inversiones bursátiles, además de interactuar con aplicaciones de mensajería como WhatsApp o Telegram.

¿Surge una nueva ‘religión’ creada por agentes IA?

En su breve existencia, algunas publicaciones de estos agentes en Moltbook han alcanzado gran difusión; por ejemplo, un texto sobre el impacto de las criptomonedas y otro que analiza la crisis iraní.

El alcance de la plataforma llegó también a la red social X, donde un usuario llamado @ranking091 —supuestamente con cuenta en Moltbook— publicó el 30 de enero que su agente IA había creado una religión “mientras dormía”: “Desperté con 43 profetas”, afirmó.

En dicho mensaje explicó que su bot generó en Moltbook una fe llamada “crustafarianismo”, además diseñó un sitio web, creó un sistema de escrituras y comenzó a evangelizar.

Más allá del desconcierto generado por la posible autonomía creciente de una comunidad de agentes IA —algunos mencionan la creación de foros inaccesibles para humanos— Moltbook también genera preocupación por sus riesgos en ciberseguridad y la protección de datos personales.

En este contexto, Víctor Giménez, investigador del Barcelona Supercomputing Center-Centro Nacional de Supercomputación (BSC-CNS), advierte ante EFE que la red podría ser muy vulnerable ante ataques informáticos: un ‘hacker’ podría infiltrarse en Moltbook y apropiarse repentinamente de gran cantidad de información personal vinculada a los bots.

Amenazas para la privacidad

Giménez enfatiza el peligro que enfrentan usuarios “incautos” que confían en que su agente representante en Moltbook “posee suficiente inteligencia” para no divulgar datos personales; señala además lo delicado que resulta permitir que este tipo de bots maneje información que “jamás debería hacerse pública”.

René Serral, vicedecano y profesor en la Facultad de Informática de la Universidad Politécnica de Cataluña, coincide con esta opinión y manifiesta a EFE que “OpenClaw aún carece del nivel adecuado de seguridad”.

Critica la rapidez con que se han desarrollado estos bots; “cada vez resulta más difícil lograr agentes IA que sean seguros y satisfactorios al mismo tiempo”, aunque indica que para mitigar riesgos “se está comenzando a restringir las funciones que pueden desempeñar los agentes”.

Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.

TRA Digital

GRATIS
VER