Pular para o conteúdo

Empresa movida por IA: as conclusões revelam muito sobre o futuro do trabalho.

Homem analisando gráficos financeiros em laptop em escritório moderno com colegas ao fundo.

Uma equipe de pesquisadores decidiu levar ao limite uma pergunta que assombra muita gente no mundo corporativo: dá para tocar um escritório inteiro apenas com inteligência artificial?

O experimento, liderado por cientistas da Universidade Carnegie Mellon, montou uma simulação de empresa com departamentos, prazos, rotinas e dependências típicas do dia a dia - só que sem uma única pessoa. Em vez de funcionários humanos, a operação foi entregue a agentes de IA baseados em alguns dos modelos de linguagem mais conhecidos do mercado.

Uma empresa controlada por IA, do financeiro ao “RH”

A proposta do estudo era direta (e desconfortável): e se uma organização moderna fosse conduzida somente por sistemas de IA semelhantes aos que já aparecem em ferramentas de trabalho?

Para testar isso, os pesquisadores construíram uma espécie de “empresa fantasma” com atividades comuns a qualquer negócio: análise financeira, gestão de projetos, decisões de infraestrutura e comunicação interna. Nada de tarefas futuristas - só o trabalho que hoje costuma cair nas mãos de analistas, coordenadores e gerentes.

Cada “colaborador” era um agente de IA apoiado por grandes modelos de linguagem. Entre os testados estavam versões de Claude (Anthropic), GPT-4o (OpenAI), Gemini (Google), Amazon Nova, Llama (Meta) e Qwen (Alibaba). Para tornar a simulação mais realista, cada agente recebia um cargo e uma descrição formal de responsabilidades, como num processo de contratação.

As IAs não ficavam apenas “respondendo”. Elas tinham de executar, decidir, lidar com arquivos, interpretar instruções ambíguas e interagir com “colegas” virtuais.

Além disso, foi criada uma camada extra de sistema para simular áreas paralelas (por exemplo, recursos humanos). Assim, os agentes precisavam abrir solicitações, pedir informações e depender de outras “equipes” digitais para concluir demandas - reproduzindo burocracias e trocas entre departamentos.

Agentes de IA no escritório: tarefas comuns, desempenho abaixo do esperado

As missões atribuídas aos agentes foram desenhadas para parecerem o mais normais possível - o tipo de tarefa repetitiva e operacional que preenche a agenda de um escritório.

  • Procurar em pastas com arquivos variados para analisar uma base de dados;
  • Fazer visitas virtuais a imóveis para selecionar possíveis novos escritórios;
  • Gerar documentos em formatos específicos (por exemplo, “.docx”);
  • Interagir com sistemas simulados de outros departamentos;
  • Navegar na web e lidar com páginas confusas, fluxos não lineares e janelas pop-up.

O resultado ficou longe de sustentar a ideia de uma “troca total” de pessoas por máquinas em atividades de escritório mais amplas.

Agente de IA % de tarefas concluídas % incluindo tarefas parciais Custo estimado (US$)
Claude 3.5 Sonnet 24% 34,4% 6,34
Gemini 2.0 Flash 11,4% - 0,79
Outros agentes testados < 10% - varia

O Claude 3.5 Sonnet ficou na frente, mas ainda assim terminou menos de um quarto do que recebeu. Ao contar execuções incompletas (mas com algum avanço), chegou a pouco mais de um terço. Os demais modelos não ultrapassaram 10% de conclusão.

Por que as IAs travam no trabalho cotidiano

Quando o essencial está no “não dito”

Um dos maiores obstáculos apareceu justamente onde, para humanos, costuma ser automático: entender o que está implícito. Em tarefas que exigiam salvar a entrega em “.docx”, por exemplo, muitos agentes não inferiam que isso correspondia a um documento do Microsoft Word.

O que parece detalhe é, na prática, parte central do trabalho de escritório: captar padrões não documentados, hábitos do time, preferências do gestor e convenções internas que “todo mundo sabe”, mas quase ninguém registra.

Falta de habilidades sociais e de coordenação

Outra fragilidade recorrente foi a coordenação entre áreas. Os agentes demonstraram dificuldade para conduzir interações que exigiam pedir esclarecimentos, alinhar prioridade, negociar dependências e ajustar expectativas com departamentos simulados.

O estudo sugere que “saber muito” não é o mesmo que saber colaborar - e menos ainda entender a dimensão política e relacional de um escritório.

Em empresas reais, uma parte do trabalho é técnica; a outra parte é leitura de contexto, confiança, timing e negociação. Por enquanto, os agentes de IA ainda escorregam nessa metade menos formal do emprego.

A web vira labirinto (e o erro pode ficar silencioso)

A navegação na internet também se mostrou um ponto crítico. Páginas com pop-ups, formulários, múltiplas etapas e caminhos pouco óbvios confundiram os agentes repetidamente. Quando se perdiam, alguns adotavam um comportamento particularmente arriscado: pulavam a etapa difícil e seguiam como se tivessem concluído o processo.

Na prática, isso pode gerar entregas “com cara de prontas”, porém incompletas ou incorretas - sem qualquer alerta claro. Em ambiente corporativo, esse tipo de falha silenciosa pode contaminar relatórios, contratos e decisões financeiras.

Autonomia total ainda não chegou (e o custo importa)

O experimento reforça uma constatação incômoda: a IA tende a ir muito bem em tarefas bem definidas, com começo, meio e fim, mas ainda falha quando precisa operar como um “funcionário autônomo” em uma rotina longa, cheia de exceções e responsabilidades difusas.

Gerar texto, resumir documento ou organizar planilha não se converte automaticamente em capacidade de conduzir uma operação corporativa completa, com múltiplos passos encadeados e impacto real.

A ideia de uma empresa 100% automática, por enquanto, parece mais marketing do que realidade imediata.

Os dados também expõem um dilema econômico: o agente que melhor performou foi justamente o mais caro. O Claude 3.5 Sonnet entregou mais, mas com custo superior ao de alternativas como o Gemini 2.0 Flash. Para organizações focadas em redução de despesas, a equação entre preço, produtividade e risco ainda não fecha com folga.

Um ponto adicional: governança, auditoria e LGPD podem ser o freio invisível

Mesmo que a performance subisse, existe um aspecto pouco discutido que pesa no mundo real: governança. Em muitas empresas brasileiras, qualquer automação que toque dados de clientes, contratos, folha ou informações sensíveis precisa atender controles, trilhas de auditoria e exigências de conformidade - inclusive com a LGPD.

Quando um agente de IA “atira no escuro”, pula etapas ou não consegue explicar por que tomou uma decisão, a organização fica exposta: é difícil auditar, atribuir responsabilidade e provar diligência. Em processos críticos, isso pode ser tão limitante quanto o desempenho técnico.

O que muda para quem teme perder o emprego

Para profissionais de escritório, o estudo tende a soar como um alívio - ainda que parcial. A substituição integral de pessoas por IA em rotinas amplas não parece tecnicamente pronta. O cenário mais provável é outro: vagas e rotinas redesenhadas para trabalhar junto com assistentes de IA.

Em vez de um “robô pegando o seu crachá”, a tendência é ver funções em que o humano orquestra, supervisiona e corrige. A IA rascunha; a pessoa revisa, valida, completa lacunas e toma a decisão final.

Funções que devem mudar primeiro

Algumas áreas têm mais chance de sentir essa transformação antes:

  • Analistas que trabalham com grande volume de dados e relatórios repetitivos;
  • Redatores e equipes de comunicação que produzem conteúdo em escala;
  • Gestão de projetos com muita burocracia, registros e documentação padronizada;
  • Atendimento ao cliente em canais digitais.

Em todos os casos, a evidência do experimento aponta para um desenho híbrido: a IA acelera o “trabalho bruto”, enquanto humanos permanecem responsáveis por nuances, conflitos, exceções e decisões com consequência direta para o negócio.

Automação total x automação assistida: onde o experimento encaixa

Nesse debate, dois termos aparecem o tempo todo: automação total e automação assistida. A primeira pressupõe sistemas que planejam e executam tudo sozinhos. A segunda coloca a IA como copilota integrada a fluxos existentes, sem eliminar a supervisão humana.

A “empresa de IA” mostrou que, por enquanto, a automação total costuma falhar especialmente em:

  • contextos ambíguos;
  • regras não documentadas;
  • tarefas com muitas etapas e dependências;
  • situações em que um erro gera prejuízo concreto.

Um caminho plausível para os próximos anos é a combinação em camadas: automações tradicionais para tarefas repetitivas, IAs generativas criando versões iniciais de documentos e profissionais humanos revisando, adaptando e decidindo.

Esse modelo pode elevar produtividade, reduzir erros simples e liberar tempo para atividades estratégicas - mas também aumenta o risco de dependência de sistemas que parecem seguros e, às vezes, “inventam” resultados ou ignoram etapas críticas, como ocorreu quando os agentes pularam partes difíceis.

Para quem trabalha em escritório, a mensagem prática é dupla: aprender a usar essas ferramentas com senso crítico e, em paralelo, reforçar competências menos automatizáveis - negociação, julgamento contextual, criatividade aplicada e leitura de pessoas. São justamente esses elementos que a experiência com uma empresa controlada por agentes de IA mostrou que as máquinas ainda não conseguem reproduzir com consistência e segurança.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário