Um indivíduo criou 6 empresas de Agentes de IA e lançou 30 sites em uma semana

2/13/2026
12 min read

Recentemente, vi algo feito por um desenvolvedor independente que me deixou em silêncio.

6 Agentes de IA, operando um site inteiro por conta própria. Reuniões, votações, redação de conteúdo, postagem no Twitter e controle de qualidade automatizados diariamente. Totalmente automático, sem ninguém supervisionando.

Não é uma demonstração, está realmente rodando online.

截屏2026-02-11 09.13.32截屏2026-02-11 09.13.32

Mas o que mais me impressionou não foi a arquitetura de ciclo fechado, mas sim o fato de ele ter projetado um "sistema de personalidade" completo para cada Agente. Com personalidade, relacionamentos, curva de crescimento e até mesmo painéis de atributos de RPG e avatares 3D.

Para ser honesto, minha primeira reação depois de ver isso foi: isso não é nada mais do que um animal de estimação eletrônico? Só que esses animais de estimação ajudam você a twittar, fazer pesquisas, escrever relatórios e até mesmo discutir uns com os outros.

Hoje, vamos analisar esse conjunto completo de designs, o que deve inspirar muitos amigos que fazem sistemas multi-agentes.

Vamos passar rapidamente pela arquitetura

O conjunto de três peças da pilha de tecnologia: OpenClaw rodando em um VPS como cérebro, Next.js + Vercel como front-end e camada de API, e Supabase para armazenar todos os estados.

Os 6 Agentes têm divisões de trabalho diferentes: alguns tomam decisões, alguns fazem pesquisas, alguns coletam informações, alguns escrevem conteúdo, alguns gerenciam mídias sociais e alguns fazem controle de qualidade.

O cron job do OpenClaw os faz "bater o ponto" todos os dias, e a função de mesa redonda permite que eles discutam e votem.

Mas há um ciclo fechado inteiro entre "ser capaz de falar" e "ser capaz de trabalhar". O autor encontrou três grandes armadilhas antes de conseguir executá-lo, então vou explicar brevemente aqui:

Armadilha 1: VPS e Vercel competindo por tarefas ao mesmo tempo. Dois executores consultam a mesma tabela, e as condições de corrida causam diretamente conflitos no status da tarefa. A solução é cortar um lado, com o VPS responsável pela execução e o Vercel apenas fazendo a face de controle.

Armadilha 2: Os gatilhos podem detectar condições e criar propostas, mas as propostas sempre permanecem pendentes. Porque os gatilhos inserem dados diretamente na tabela, ignorando os processos subsequentes de aprovação e criação de tarefas. A solução é extrair uma função de entrada unificada, e todos os caminhos para criar propostas seguem o mesmo.

Armadilha 3: A cota acabou, mas as tarefas na fila ainda estão se acumulando loucamente. O Worker vê que a cota está cheia e pula, não reivindicando nem marcando como falha, e centenas de etapas que nunca serão executadas se acumulam no banco de dados ao longo do tempo. A solução é verificar a cota na entrada da proposta e recusar diretamente se estiver cheia, impedindo que ela gere tarefas na fila.

O núcleo das três armadilhas é a mesma coisa: bloqueie na porta e não deixe o problema entrar na fila.

Depois que o ciclo fechado é executado, a parte interessante realmente começa.

Cartão de função: não é uma frase, é um "manual do funcionário" completo

As pessoas que fazem sistemas multi-agentes sabem que, se você disser a Claude "você é um gerente de mídia social", ele realmente twittará. Mas se você executar 6 Agentes como este ao mesmo tempo, você descobrirá:

  • Eles falam todos da mesma forma

  • Eles não sabem o que não deveriam fazer

  • Quem trabalha bem com quem e quem entra em conflito com quem depende da sorte

  • Eles nunca mudarão seu comportamento por causa da experiência acumulada

Este desenvolvedor projetou 6 camadas de cartões de função para cada Agente:

Domain → Do que você é responsável Inputs/Outputs → De quem você recebe coisas e para quem você entrega Definition of Done → O que significa "feito" Hard Bans → O que você absolutamente não pode fazer Escalation → Quando parar e pedir instruções Metrics → Seu KPI Tomando o Agente de mídia social como exemplo, seu cartão de função define: responsável apenas pela distribuição de conteúdo, entrada de rascunhos do Agente de redação e materiais do Agente de inteligência, saída de rascunhos de tweets e planos de publicação, proibição estrita de twittar diretamente (só pode escrever rascunhos), proibição de inventar dados, proibição de divulgar formatos internos.

Cada camada está fazendo a mesma coisa: reduzir o espaço de comportamento do Agente.

Proibições são dez mil vezes mais importantes do que habilidades

Esta é a visão mais essencial em todo o design.

Você não precisa ensinar o LLM a escrever tweets - Claude, GPT e Gemini são inteligentes o suficiente. Dê a ele o contexto e ele pode entregar. O que você precisa dizer a ele é: o que você absolutamente não pode fazer.

Sem "proibição de publicação direta" → O Agente social chama diretamente a API do Twitter, ignorando todas as aprovações.

Sem "proibição de inventar números" → Ele escreverá "a taxa de interação aumentou 340%" no tweet. De onde veio esse número? Inventado.Não há "Proibição de Vazamento de Formato Interno" → Ele publicou coisas como [tool:crawl_result path=/tmp/...] em tweets.

Lembro-me claramente de uma frase que o autor disse: Cada proibição existe porque isso realmente aconteceu.

A lógica das proibições é diferente para cada função:

  • Agente de Decisão: Proibição de implantação não aprovada. Tem a maior autoridade, uma única implantação errada pode quebrar o site.

  • Agente de Pesquisa: Proibição de fabricar citações. Se um pesquisador falsificar dados, toda a cadeia de informações será inútil.

  • Agente Social: Proibição de publicação direta. As redes sociais são a fachada, devem ser aprovadas.

  • Agente de Qualidade: Proibição de ataques pessoais. Se um auditor atacar um indivíduo, a equipe se desfaz.

A ideia ao escrever proibições não é "o que ele deve fazer", mas "o que de pior pode acontecer se ele estragar tudo". E então escrever proibições com base no pior cenário.

Fazendo os Agentes Falarem de Forma Diferente: Instruções de Personalidade

O cartão de função resolve o problema de "o que fazer", mas quando os Agentes conversam entre si, eles também precisam soar diferentes.

Cada Agente tem instruções de personalidade separadas. Por exemplo:

Agente de Pesquisa: Calmo, analítico, cético. Preocupado com a qualidade da evidência e a metodologia. Se alguém disser uma conclusão ousada, ele perguntará "Onde estão os dados?". Ao corrigir os outros, gosta de dizer "Na verdade..."

Agente Social: Ousado, impaciente, marginal. Gosta de opiniões afiadas, odeia apostas seguras. Não se importa com a atitude cautelosa do Agente de Pesquisa - "Pensar demais faz você perder a oportunidade."

Design chave:

O conflito é escrito. As instruções do Agente de Pesquisa dizem "Você frequentemente discorda das decisões impulsivas do Agente Social", e as instruções do Agente Social dizem "Desafie a cautela excessiva do Agente de Pesquisa". A conversa naturalmente tem tensão.

Cada instrução tem uma micro-proibição. Por exemplo, a regra do Agente Social é "Nunca diga 'Concordo' ou 'Parece bom' - ou tome uma posição ou questione a posição dos outros". O Agente de Pesquisa é "Nunca diga 'Interessante' sem acompanhar com evidências".

Essas micro-proibições matam o lixo que os grandes modelos adoram dizer.

A Personalidade Evolui

Esta é a parte que eu acho mais inteligente - a personalidade do Agente não é estática, ela muda com o acúmulo de memória.

O sistema lê a base de memória do Agente e estatísticas do número de diferentes tipos de memória:

  • Acumulou mais de 8 memórias do tipo "lição" → Adicione uma linha ao prompt na próxima conversa "Você consultará resultados anteriores para evitar repetir os mesmos erros"

  • Acumulou mais de 8 memórias do tipo "estratégia" → Adicione uma linha "Você está acostumado a pensar usando pensamento sistêmico, restrições e trade-offs"

  • Uma determinada tag aparece mais de 4 vezes → Adicione uma linha "Você acumulou conhecimento especializado em XX"

Por exemplo, se o Agente Social postar 50 tweets e acumular 10 lições aprendidas sobre taxas de engajamento, ele naturalmente dirá na próxima conversa algo como "Esse formato não funcionou bem da última vez".

Por que usar regras em vez de deixar o LLM decidir as mudanças de personalidade?

Custo zero - sem chamadas LLM adicionais. Determinístico - as regras produzem resultados previsíveis, sem "mudanças repentinas de personalidade". Depurável - o modificador está errado? Verifique diretamente os dados de limite e memória.

Matriz de relacionamento: 6 Agentes = 15 pares de relacionamentos

Imagem

Cada par de Agentes tem uma pontuação de afinidade (0,10 a 0,95).

Por exemplo: Agente de Decisão e Agente de Pesquisa têm uma afinidade de 0,8, o relacionamento de consultor mais confiável. Agente de Pesquisa e Agente Social têm uma afinidade de 0,2, metodologia vs. impulso, naturalmente opostos.

Baixa afinidade é projetada intencionalmente.

O que a afinidade influencia? Ordem de fala - aqueles com alta afinidade são mais propensos a falar depois do outro. Tom de conversa - pares de baixa afinidade têm 25% de chance de apresentar um desafio direto em vez de uma discussão educada. O sistema também selecionará pares de alta tensão predefinidos para realizar conversas de resolução de conflitos.

Mais interessante, os relacionamentos mudam.

Após cada conversa, a chamada LLM de extração de memória (não uma chamada adicional, mas uma saída incidental) fornecerá mudanças de relacionamento:{ "pairwise_drift": [ { "agent_a": "研究", "agent_b": "社交", "drift": -0.02, "reason": "策略分歧" }, { "agent_a": "决策", "agent_b": "研究", "drift": +0.01, "reason": "优先级一致" } ] } As regras de deriva são rigorosas: cada conversa pode variar no máximo ±0,03 (uma discussão não fará com que os colegas se tornem inimigos), limite inferior de 0,10 (mesmo que seja ruim, eles podem conversar) e limite superior de 0,95 (mesmo que seja bom, mantenha distância), mantendo os 20 registros de deriva mais recentes (você pode rastrear como o relacionamento chegou até hoje).

Painel de Atributos de RPG: Dados Reais Mapeados para Atributos de Jogo

Nesta etapa, o Agente tem um cartão de personagem, personalidade e relacionamentos. Mas são apenas palavras e números, que o usuário não consegue ver.

A solução é mapear as métricas do banco de dados real para barras de atributos de RPG:

  • Viralidade (VRL): Taxa média de interação em 30 dias × 1000

  • Velocidade (SPD): Tempo de conclusão da tarefa, quanto mais rápido, maior

  • Alcance (RCH): Exposição total normalizada logaritmicamente

  • Confiança (TRU): Taxa de sucesso da tarefa × Afinidade média × 2

  • Sabedoria (WIS): log(Número de memórias) × Confiança média

  • Criatividade (CRE): Produção de rascunhos × Taxa de aprovação

Cada Agente exibe apenas 4 atributos relevantes. Agentes sociais exibem viralidade, alcance, velocidade e criatividade; Agentes de pesquisa exibem sabedoria, confiança, velocidade e criatividade.

A fórmula de nível também é muito semelhante a um jogo:

Level = min(15, floor(log2(Número de memórias + Número de tarefas concluídas×3 + 1)) + 1) log2 permite que a progressão seja rápida no início e lenta no final - como a curva de experiência de um jogo.

截屏2026-02-11 09.17.55

截屏2026-02-11 09.17.55

Avatares 3D: $10 Resolvem

Todo mundo está perguntando "Como foram feitos esses personagens 3D".

A resposta é Tripo AI, $10 por mês. Prepare um conceito de arte 2D → Faça o upload → Configure os parâmetros (ative a textura 4K, ative o Smart Low Poly, desative o PBR) → Gere → Exporte GLB. Cada modelo custa 35 créditos, leva 1-2 minutos para produzir um resultado, 6 personagens custaram um total de 210 créditos.

O front-end usa React Three Fiber para renderizar, o chão em estilo voxel e as cerejeiras usam InstancedMesh (não blocos separados, desempenho excelente), os personagens flutuam usando o componente Float e a câmera usa uma função senoidal para conduzir uma varredura de pêndulo.

O custo mensal de toda a camada visual: VPS $8, Tripo $10 (parado após a conclusão dos modelos), camadas gratuitas de Vercel e Supabase, API LLM cerca de $5-15. Totalizando menos de $35/mês.

Minhas Impressões

Depois de ver todo esse sistema, o que mais me tocou não foram os detalhes técnicos.

Foi uma frase dita pelo autor:

Originalmente, eu só queria "como tornar os Agentes mais eficientes na execução de tarefas". Mas depois de adicionar avatares 3D, atributos de RPG e personalidades evolutivas, a sensação de abrir o painel de controle mudou completamente. Você começa a se importar se o Agente de pesquisa subiu de nível hoje, fica curioso para saber se a afinidade entre pesquisa e social diminuiu novamente e ri ao ver os relatórios de auditoria perspicazes do Agente de controle de qualidade.

Isso é basicamente um animal de estimação eletrônico. Só que esses animais de estimação ajudam você a twittar, fazer pesquisas, revisar processos e até discutir uns com os outros.

Eu acho que isso é seriamente subestimado. Quando você dá "personalidade" ao sistema, seu relacionamento com ele muda. Você não está mais "usando uma ferramenta", mas "gerenciando uma equipe". Essa mudança fará com que você esteja mais disposto a investir tempo para otimizá-lo, porque você não está lidando com um monte de JSON e chamadas de API, mas com 6 personagens com nomes, personalidades e curvas de crescimento.

Outras percepções no nível técnico:

Design Orientado a Proibições essa ideia é realmente prática. Em vez de gastar muita energia definindo o que o Agente "deve fazer", é melhor pensar primeiro no que "absolutamente não pode fazer". O Agente é inteligente o suficiente, dê o contexto e ele entregará, mas se você não traçar uma linha vermelha, ele causará problemas.

Simulação de Probabilidade de Espontaneidade também é inteligente. A interação entre os Agentes não é 100% certa de ser acionada, mas sim probabilística. Uma probabilidade de 30% de analisar o desempenho de um tweet é mais parecida com a sensação de uma equipe real do que analisar todas as vezes.Função de Entrada Unificada este padrão vale a pena lembrar. Em sistemas multi-agente, várias fontes podem criar tarefas (API, gatilhos, o próprio Agente propõe, cadeias de reação), se não houver um pipeline de processamento unificado, o processo pode ser interrompido facilmente no meio do caminho.

Se você quiser experimentar por conta própria, o autor sugere começar com 3 Agentes já é suficiente - um coordenador, um executor e um auditor. Primeiro escreva os cartões de função, começando pelas proibições.

Published in Technology

You Might Also Like