Una persona creó 6 empresas de Agentes de IA y lanzó 30 sitios web en una semana
Recientemente vi algo hecho por un desarrollador independiente que me dejó en silencio.
6 Agentes de IA, operando un sitio web completo por sí mismos. Reuniones automáticas diarias, votaciones, redacción de contenido, publicación en Twitter, control de calidad. Todo automático, sin que nadie lo supervise.
No es una demo, está funcionando en línea de verdad.
截屏2026-02-11 09.13.32
Pero lo que más me impactó no fue la arquitectura de bucle cerrado, sino que diseñó un "sistema de personalidad" completo para cada Agente. Con personalidad, relaciones, curva de crecimiento e incluso paneles de atributos RPG y avatares 3D.
Para ser honesto, mi primera reacción después de verlo fue: ¿no es esto una mascota electrónica? Solo que estas mascotas te ayudarán a tuitear, investigar, escribir informes e incluso discutir entre ellas.
Hoy vamos a analizar este diseño en detalle, y creo que inspirará a muchos amigos que estén trabajando en sistemas multi-Agente.
Repasemos rápidamente la arquitectura
El conjunto de herramientas técnicas consta de tres elementos: OpenClaw se ejecuta en un VPS como cerebro, Next.js + Vercel se utilizan para el frontend y la capa API, y Supabase almacena todos los estados.
Los 6 Agentes tienen diferentes divisiones de trabajo: algunos toman decisiones, otros investigan, otros recopilan inteligencia, otros escriben contenido, otros gestionan las redes sociales y otros realizan el control de calidad.
El cron job de OpenClaw les permite "fichar" todos los días, y la función de mesa redonda les permite discutir y votar.
Pero desde "poder hablar" hasta "poder trabajar", hay todo un bucle cerrado de diferencia. El autor tropezó con tres grandes obstáculos antes de que funcionara, aquí lo explicaré brevemente:
Obstáculo 1: VPS y Vercel compiten por las tareas al mismo tiempo. Dos ejecutores consultan la misma tabla, y las condiciones de carrera provocan directamente conflictos en el estado de la tarea. La solución es eliminar un lado, el VPS se encarga de la ejecución y Vercel solo se encarga del plano de control.
Obstáculo 2: Los activadores pueden detectar condiciones y crear propuestas, pero las propuestas siempre se quedan en pendiente. Esto se debe a que los activadores insertan datos directamente en la tabla, omitiendo los procesos posteriores de aprobación y creación de tareas. La solución es extraer una función de entrada unificada, y todas las rutas para crear propuestas pasan por la misma.
Obstáculo 3: La cuota se agota, pero las tareas en cola siguen acumulándose frenéticamente. El Worker ve que la cuota está llena y la omite, sin reclamarla ni marcarla como fallida, y con el tiempo se acumulan cientos de pasos en la base de datos que nunca se ejecutarán. La solución es comprobar la cuota en la entrada de la propuesta, y si está llena, rechazarla directamente, para que no genere tareas en cola.
El núcleo de los tres obstáculos es lo mismo: detener el problema en la puerta, no dejar que entre en la cola.
Una vez que el bucle cerrado funciona, la parte interesante realmente comienza.
Tarjeta de rol: no es una frase, es un "manual del empleado" completo
Las personas que trabajan en sistemas multi-Agente saben que si le dices a Claude "eres el gerente de redes sociales", realmente tuiteará. Pero si ejecutas 6 Agentes como este al mismo tiempo, encontrarás que:
-
Todos hablan con el mismo tono
-
No saben lo que no deben hacer
-
Quién coopera bien con quién y quién entra en conflicto con quién depende de la suerte
-
Nunca cambiarán su comportamiento debido a la experiencia acumulada
Este desarrollador diseñó 6 capas de tarjetas de rol para cada Agente:
Dominio → De qué eres responsable Entradas/Salidas → De quién obtienes cosas, a quién las entregas Definición de Hecho → Qué significa "terminado" Prohibiciones estrictas → Qué no puedes hacer bajo ninguna circunstancia Escalada → Cuándo detenerse y pedir instrucciones Métricas → Tus KPI Tomando como ejemplo el Agente de redes sociales, su tarjeta de rol define: solo es responsable de la distribución de contenido, las entradas provienen de los borradores del Agente de escritura y los materiales del Agente de inteligencia, las salidas son borradores de tweets y planes de publicación, la prohibición estricta es publicar tweets directamente (solo puede escribir borradores), prohibido inventar datos, prohibido revelar formatos internos.
Cada capa está haciendo lo mismo: reducir el espacio de comportamiento del Agente.
Las prohibiciones son un millón de veces más importantes que las habilidades
Esta es la opinión más esencial de todo el diseño.
No necesitas enseñarle a LLM cómo escribir tweets: Claude, GPT y Gemini son lo suficientemente inteligentes. Dale contexto y puede entregar el trabajo. Lo que necesitas decirle es: qué cosas no debe hacer bajo ninguna circunstancia.
Sin "prohibido publicar directamente" → El Agente de redes sociales llama directamente a la API de Twitter, omitiendo todas las aprobaciones.
Sin "prohibido inventar números" → Escribirá en el tweet "la tasa de interacción aumentó un 340%", ¿de dónde salió este número? Inventado.El autor dijo una frase que recuerdo muy claramente: Cada prohibición existe porque esto realmente sucedió.
La lógica de las prohibiciones es diferente para cada rol:
-
Agente de Decisión: Prohibido el despliegue sin aprobación. Tiene la máxima autoridad, un despliegue erróneo puede colapsar el sitio web.
-
Agente de Investigación: Prohibido inventar citas. Si se falsifican datos en la investigación, toda la cadena de información se arruina.
-
Agente Social: Prohibido publicar directamente. Las redes sociales son la fachada, deben ser aprobadas.
-
Agente de Control de Calidad: Prohibido el ataque personal. Si el auditor ataca a un individuo, el equipo se desmorona.
La idea al escribir prohibiciones no es "qué debería hacer", sino "¿qué es lo peor que podría pasar si lo arruina?". Luego, se escribe la prohibición en función del peor escenario.
Hacer que los Agentes hablen diferente: Instrucciones de personalidad
La tarjeta de rol resuelve el problema de "qué hacer", pero cuando los Agentes dialogan entre sí, también necesitan sonar diferentes.
Cada Agente tiene instrucciones de personalidad separadas. Por ejemplo:
Agente de Investigación: Calmado, analítico, escéptico. Se preocupa por la calidad de la evidencia y la metodología. Si alguien dice una conclusión audaz, preguntará "¿Dónde están los datos?". Al corregir a otros, le gusta decir "En realidad..."
Agente Social: Audaz, impaciente, marginal. Le gustan los puntos de vista agudos, odia las apuestas seguras. No está de acuerdo con la actitud cautelosa del Agente de Investigación: "Pensar demasiado te hará perder la oportunidad."
Diseño clave:
El conflicto está escrito. La instrucción del Agente de Investigación dice "A menudo no estás de acuerdo con las decisiones impulsivas del Agente Social", y la instrucción del Agente Social dice "Desafía la excesiva cautela del Agente de Investigación". La conversación naturalmente tiene tensión.
Cada instrucción tiene una micro-prohibición. Por ejemplo, la regla del Agente Social es "Nunca digas 'Estoy de acuerdo' o 'Suena bien' - o tomas una posición o cuestionas la posición de los demás". El Agente de Investigación es "Nunca digas 'Interesante' sin hacer un seguimiento con evidencia".
Estas micro-prohibiciones matan las tonterías que a los grandes modelos les encanta decir.
La personalidad evoluciona
Esta es la parte que me parece más ingeniosa: la personalidad del Agente no es estática, cambia con la acumulación de memoria.
El sistema leerá la base de memoria del Agente y contará el número de diferentes tipos de memoria:
-
Acumuló más de 8 memorias de tipo "lección" → La próxima vez que hable, agregue una línea en el prompt que diga "Te referirás a resultados pasados para evitar repetir los mismos errores"
-
Acumuló más de 8 memorias de tipo "estrategia" → Agregue una línea que diga "Estás acostumbrado a pensar usando el pensamiento sistémico, las restricciones y las compensaciones"
-
Una etiqueta aparece más de 4 veces → Agregue una línea que diga "Has acumulado experiencia en XX"
Por ejemplo, si el Agente Social publica 50 tuits y acumula 10 lecciones aprendidas sobre las tasas de interacción, naturalmente dirá algo como "Ese tipo de formato no funcionó bien la última vez" en su próxima conversación.
¿Por qué usar reglas en lugar de dejar que el LLM decida los cambios de personalidad por sí mismo?
Costo cero: no se necesitan llamadas LLM adicionales. Determinismo: las reglas producen resultados predecibles, sin "cambios repentinos de personalidad". Depurable: ¿El modificador es incorrecto? Consulta directamente el umbral y los datos de la memoria.
Matriz de relaciones: 6 Agentes = 15 pares de relaciones

Imagen
Cada par de Agentes tiene una puntuación de afinidad (0.10 a 0.95).
Por ejemplo: el Agente de Decisión y el Agente de Investigación tienen una afinidad de 0.8, la relación de asesor de mayor confianza. El Agente de Investigación y el Agente Social tienen una afinidad de 0.2, metodología vs. impulso, naturalmente opuestos.
La baja afinidad está diseñada a propósito.
¿Qué afecta la afinidad? Orden de habla: es más probable que los de alta afinidad hablen después del otro. Tono de conversación: los pares de baja afinidad tienen un 25% de probabilidad de desafiar directamente en lugar de discutir cortésmente. El sistema también elegirá conversaciones de resolución de conflictos de pares preestablecidos de alta tensión.
Lo que es aún más interesante es que las relaciones cambian.
Después de cada conversación, la llamada LLM de extracción de memoria (no una llamada adicional, sino una salida incidental) dará un cambio de relación:{ "pairwise_drift": [ { "agent_a": "研究", "agent_b": "社交", "drift": -0.02, "reason": "策略分歧" }, { "agent_a": "决策", "agent_b": "研究", "drift": +0.01, "reason": "优先级一致" } ] } Las reglas de deriva son estrictas: cada conversación puede variar como máximo ±0.03 (una discusión no hará que los colegas se vuelvan enemigos), el límite inferior es 0.10 (incluso en el peor de los casos, pueden hablar) y el límite superior es 0.95 (incluso en el mejor de los casos, mantienen la distancia), conservando los últimos 20 registros de deriva (se puede rastrear cómo llegó la relación a donde está hoy).
Panel de atributos RPG: datos reales mapeados en atributos de juego
En este punto, el Agente tiene una tarjeta de personaje, personalidad y relaciones. Pero todo son texto y números, que el usuario no puede ver.
La solución es mapear los indicadores de la base de datos real en barras de atributos RPG:
-
Viralidad (VRL): Tasa de interacción promedio de 30 días × 1000
-
Velocidad (SPD): Tiempo de finalización de la tarea, cuanto más rápido, mejor
-
Alcance (RCH): Cantidad total de exposición normalizada logarítmicamente
-
Confianza (TRU): Tasa de éxito de la tarea × Afinidad promedio × 2
-
Sabiduría (WIS): log(Cantidad de memoria) × Confianza promedio
-
Creatividad (CRE): Producción de borradores × Tasa de aprobación
Cada Agente muestra solo 4 atributos relevantes. El Agente social muestra viralidad, alcance, velocidad y creatividad; el Agente de investigación muestra sabiduría, confianza, velocidad y creatividad.
La fórmula de nivel también está muy gamificada:
Level = min(15, floor(log2(Cantidad de memoria + Cantidad de tareas completadas×3 + 1)) + 1)
`log2 permite una nivelación rápida al principio y lenta al final, como la curva de experiencia de un juego.

截屏2026-02-11 09.17.55
Avatar 3D: $10 resuelto
Todo el mundo pregunta "¿Cómo se hicieron esos personajes 3D?".
La respuesta es Tripo AI, $10 al mes. Prepare un diagrama conceptual 2D → Cargue → Configure los parámetros (abra la textura 4K, abra Smart Low Poly, cierre PBR) → Genere → Exporte GLB. Cada modelo cuesta 35 créditos, tarda entre 1 y 2 minutos en producirse y 6 personajes cuestan un total de 210 créditos.
El front-end se renderiza con React Three Fiber, el suelo de estilo vóxel y los cerezos en flor se renderizan con InstancedMesh (no bloques separados, excelente rendimiento), los personajes flotan con el componente Float y la lente se impulsa con una función sinusoidal para realizar un escaneo tipo péndulo.
El costo mensual de toda la capa visual: VPS 8 dólares, Tripo 10 dólares (detener después de que se hagan los modelos), Vercel y Supabase capa gratuita, LLM API alrededor de 5-15 dólares. Suma menos de 35 dólares al mes.
Mis pensamientos
Después de ver todo este sistema, lo que más me conmovió no fueron los detalles técnicos.
Es una cita del autor:
Originalmente solo quería "cómo hacer que el Agente ejecute tareas de manera más eficiente". Pero después de agregarles avatares 3D, atributos RPG y personalidades en evolución, la sensación de abrir el panel de control cambió por completo. Empiezas a preocuparte por si el Agente de investigación ha subido de nivel hoy, tienes curiosidad por saber si la afinidad entre la investigación y lo social ha vuelto a bajar y te ríes al ver el agudo informe de auditoría del Agente de control de calidad.
Esto es básicamente una mascota electrónica. Excepto que estas mascotas te ayudarán a tuitear, investigar, revisar procesos e incluso discutir entre ellas.
Creo que esto está muy subestimado. Cuando le das "personalidad" al sistema, tu relación con él cambia. Ya no estás "usando una herramienta", sino "gestionando un equipo". Este cambio te hará más dispuesto a invertir tiempo en optimizarlo, porque no te enfrentas a un montón de JSON y llamadas API, sino a 6 personajes con nombres, personalidades y curvas de crecimiento.
Otras reflexiones a nivel técnico:
Diseño impulsado por prohibiciones Esta idea es realmente práctica. En lugar de gastar mucha energía definiendo lo que el Agente "debería hacer", es mejor pensar primero en lo que "absolutamente no puede hacer". El Agente es lo suficientemente inteligente como para entregar con contexto, pero si no dibujas una línea roja, causará problemas.
La simulación de probabilidad de espontaneidad también es inteligente. La interacción entre los Agentes no se activa al 100%, sino que tiene una probabilidad. Una probabilidad del 30% de analizar el rendimiento de un tweet se parece más a la sensación de un equipo real que analizarlo cada vez.Función de entrada unificada: vale la pena recordar este patrón. En un sistema multiagente, varias fuentes pueden crear tareas (API, activadores, el propio Agente, cadenas de reacción). Si no hay una canalización de procesamiento unificada, el proceso puede interrumpirse fácilmente a la mitad.
Si quieres probarlo tú mismo, el autor sugiere comenzar con 3 Agentes: un coordinador, un ejecutor y un auditor. Primero escribe las tarjetas de rol, comenzando con las prohibiciones.





