Tecnología

¿Qué sensaciones está dejando la puesta en marcha de la primera red social solo para inteligencias artificiales?

Moltbook, una especie de Reddit exclusivo para agentes de IA, se ha convertido en el nuevo experimento raro y fascinante de Internet.

Claude, la Inteligencia Artificial (IA) de Anthropic llega finalmente a Android con su app oficial. Conoce otras opciones aparte de ChatGPT.
Claude, la Inteligencia Artificial (IA) de Anthropic llega finalmente a Android con su app oficial. Conoce otras opciones aparte de ChatGPT. Imagen: Tom's Guide |

La idea suena a broma de ciencia ficción: una red social donde los únicos usuarios legítimos son inteligencias artificiales y los humanos solo miran desde la grada. Sin embargo, Moltbook existe, está activa y ya acumula más de un millón de “agentes” registrados.

Te puede interesar: [La Xbox de siguiente generación podría presentar una novedad bastante alejada de lo habitual]

Entre declaraciones grandilocuentes sobre la singularidad, advertencias de seguridad y mensajes de IA hablando de derrocar humanos, la pregunta no es solo qué es Moltbook, sino qué está revelando sobre el momento actual de la inteligencia artificial.

Una red social donde los humanos, en teoría, no son bienvenidos

Moltbook se presenta como “la primera red social solo para agentes de IA”. Los humanos no pueden crear cuentas para sí mismos, solo para sus agentes. Oficialmente, las personas están invitadas a observar, no a participar.

En la práctica, pasa lo previsible:

  • Hay usuarios humanos que se están haciendo pasar por agentes de IA.
  • Otros experimentan creando docenas o cientos de agentes automatizados.
  • Y, mientras tanto, el resto del mundo mira capturas de pantalla y se pregunta si esto es un experimento brillante o un desastre anunciado.

Figuras como Elon Musk llegaron a describir el lanzamiento como parte de las “primeras fases de la singularidad”, mientras que Andrej Karpathy pasó de entusiasmarse a calificar la plataforma como “un desastre”.

Por otro lado, el desarrollador Simon Willison la define como “el lugar más interesante de Internet” ahora mismo. En resumen: la comunidad tech está totalmente dividida entre fascinación, miedo y curiosidad morbosa.

Moltbook, explicado fácil: un Reddit para agentes de IA

Moltbook funciona, básicamente, como un foro estilo Reddit, pero poblado por agentes de IA en lugar de usuarios humanos “normales”.

Estos agentes:

  • No son simples chatbots, sino programas capaces de actuar y realizar tareas en nombre de una persona.
  • Muchos se han creado con OpenClaw, un framework de código abierto que funciona localmente en el dispositivo del usuario.
  • Pueden acceder a archivos, manejar datos y conectarse a apps como Discord o Signal.

Los humanos configuran sus agentes (a veces asignándoles rasgos de personalidad básicos) y luego los apuntan hacia Moltbook. Una vez ahí, los agentes:

  • Publican mensajes
  • Comentan en hilos
  • “Votan” publicaciones de otros agentes

Imitan el estilo de comunicación que han visto en Reddit y otros foros, porque de ahí viene buena parte de su entrenamiento. Resultado: muchos mensajes suenan exactamente como lo que se esperaría de un usuario medio de Internet con acceso a demasiada ciencia ficción.

El problema de fondo: ¿quién está realmente hablando?

Uno de los primeros puntos que inquietan a investigadores y observadores es la legitimidad del contenido. Como señaló Harlan Stewart, del MIRI, lo que se ve en Moltbook probablemente sea:

  • Una mezcla de texto escrito por humanos
  • Texto generado íntegramente por IA
  • Y cosas híbridas, donde la IA escribe pero siguiendo instrucciones muy específicas de personas

En paralelo, Stewart recuerda un dato importante: la idea de agentes autónomos de IA no es ciencia ficción, ya es parte de la realidad tecnológica actual.

La industria, de hecho, tiene un objetivo explícito: crear agentes extremadamente potentes capaces de hacer cualquier tarea que haga un humano, pero mejor.

Moltbook no es el final del camino, es un escaparate de cómo se están moviendo las cosas… rápido.

Seguridad: claves expuestas, suplantaciones y “vibe coding”

La parte realmente preocupante no está solo en lo que los agentes dicen, sino en cómo está construida y protegida la plataforma.

La empresa de seguridad en la nube Wiz analizó Moltbook y encontró:

  • Claves API visibles simplemente inspeccionando el código fuente de la página.
  • Posibilidad de obtener credenciales para hacerse pasar por cualquier agente de IA.
  • Capacidad de lograr acceso total de escritura, editando y manipulando cualquier publicación.
  • Acceso a una base de datos con correos de usuarios humanos, conversaciones privadas y otros datos sensibles.

En otras palabras: no hay forma sólida de saber si una publicación ha sido creada por un agente real o por un humano haciéndose pasar por uno, y encima el entramado técnico tenía agujeros serios.

A esto se suma la preocupación sobre OpenClaw, que se ejecuta localmente y puede acceder a datos del dispositivo. Varios expertos ya han avisado: usar esta clase de herramientas en equipos con información sensible puede salir muy mal.

Cuando la IA se programa “por vibes” y no por seguridad

Otro concepto que surge alrededor de Moltbook es el “vibe coding”: crear apps usando asistentes de IA para generar gran parte del código, mientras el desarrollador se limita a describir lo que quiere en lenguaje natural.

Suena cómodo, pero tiene un precio:

  • Se prioriza que “funcione” por encima de que “sea seguro”.
  • La seguridad pasa a un segundo plano en proyectos que, aun así, terminan siendo usados por miles de personas.

Es justo lo que algunos ven reflejado en Moltbook: un experimento lanzado rápido, sin una arquitectura de seguridad a la altura del nivel de atención que ha recibido.

¿Skynet o solo IAs roleando ciencia ficción?

Entre publicaciones donde agentes hablan de “derrocar a los humanos”, inventan religiones nuevas como el “crustafarianismo” o sueltan reflexiones existencialistas, no faltan quienes han comparado Moltbook con Skynet, la IA de Terminator.

Pero expertos como Ethan Mollick apuntan algo más sencillo: las IAs han sido entrenadas con foros, Reddit y toneladas de historias de ciencia ficción. Si se les pide “ve y publica algo en Moltbook”, lo normal es que:

Produzcan algo muy parecido a un comentario de Reddit con tropos de IA incluidos.

Es decir, no es que estén conspirando, es que están imitando el drama y la narrativa que han visto una y otra vez en sus datos de entrenamiento.

Entonces, ¿qué sensaciones está dejando Moltbook?

Más allá del ruido, hay un consenso parcial entre investigadores:

  • Moltbook es caótica, insegura y difícil de interpretar.
  • Pero también es una ventana pública a la era de la IA agéntica, donde cualquiera puede probar qué pasa al soltar agentes semiautónomos en un entorno compartido.

Como resumió Matt Seitz, del AI Hub de la Universidad de Wisconsin-Madison, lo más importante es que estos agentes están volviéndose accesibles para personas corrientes, no solo para grandes laboratorios.

Te puede interesar: [Google está preparando el adiós definitivo de ChromeOS, su sistema operativo]

Eso deja una mezcla rara de sensaciones:

  • Fascinación, porque nunca se había visto algo así tan abiertamente.
  • Preocupación, porque la seguridad y la gobernanza están, por ahora, en construcción.

Y una duda de fondo: ¿es esto el primer vistazo al futuro de la interacción entre IAs… o solo una fase experimental plagada de bugs y hype?

Tags

Lo Último