Como funciona
Entenda a arquitetura da Lola. O agente responde, a Lola pensa.
O agente responde. A Lola pensa.
Esse é o conceito central. Vamos detalhar:
O agente é a interface
Você já usa um agente de IA: Claude Code, claude.ai, Cursor, Windsurf. Ele entende linguagem natural, escreve código, responde perguntas. Esse agente continua sendo sua interface.
A Lola é o cérebro
A Lola adiciona ao agente algo que ele não tem sozinho: memória persistente, contexto organizacional e capacidade de ação (enviar emails, gerenciar projetos, acessar dados).
O MCP é a ponte
O protocolo MCP (Model Context Protocol) permite que o agente chame tools externas durante a conversa. A Lola é um servidor MCP que expõe 350+ tools para o agente usar.
Fluxo de uma interação
Você diz
Lola, cria uma issue para implementar dark mode
O agente interpreta
Precisa criar uma issue → existe a tool create_issue
O agente chama
create_issue({ title: "implementar dark mode" })
A Lola executa
Cria a issue, atribui ao responsável e retorna o resultado.
O agente responde
Issue #42 criada. Implementar dark mode.
Tudo isso acontece em uma troca de mensagens. Você não precisa saber que o agente chamou uma tool; ele apresenta o resultado naturalmente.
O que torna a Lola especial
Memória entre sessões
Agentes de IA normais esquecem tudo quando a conversa acaba. Com a Lola, o conhecimento persiste entre sessões.
Contexto organizacional
A Lola sabe quem é quem na sua organização, quais projetos existem e quem é responsável pelo quê.
Ações reais
Diferente de um chatbot que apenas responde, a Lola age: cria issues, envia emails, registra transações, faz deploy.
"Lola, decidimos usar SQLite para o Sentinel."
Conhecimento salvo na memória.
"Lola, qual banco estamos usando no Sentinel?"
Lola: SQLite, decisão registrada em 15/03/2026.