Pular para o conteúdo

O futuro da IA e seus lucros dependem de trabalhadores mal pagos. Nos EUA, a situação ficou clara após a demissão de 5 mil pessoas no setor.

Jovem trabalhando em computador em escritório moderno com vista para cidade ao pôr do sol.

Enquanto diretores-presidentes anunciam uma era dourada da inteligência artificial (IA), um contingente pouco visto sustenta essa revolução em condições instáveis: cortes repentinos, remuneração em queda e vínculos que podem desaparecer sem aviso.

Por trás de gráficos otimistas, comunicados sobre investimentos bilionários e promessas de produtividade, há gente trabalhando em ritmo intenso, com contratos temporários e renda imprevisível - mesmo sendo parte essencial do mecanismo que mantém a IA em funcionamento e alimenta a nova corrida econômica.

Bilhões em expansão e demissões em massa

A IA virou sinônimo de capital e expectativa. Companhias abertas, empresas emergentes e gigantes do setor apostam que algoritmos vão elevar a eficiência, reduzir despesas e destravar mercados inteiros nos próximos anos.

Dados citados pelo site Futurism indicam que negócios ligados à inteligência artificial responderam por aproximadamente 92% do crescimento do PIB dos Estados Unidos no primeiro semestre de 2025. Em termos práticos, quase todo o impulso recente da economia norte-americana passou, de algum modo, por essa indústria.

O mercado de trabalho, porém, seguiu um caminho contrário. A Amazon, por exemplo, mesmo com resultados robustos, eliminou cerca de 14 mil vagas em uma única rodada. E outubro de 2025 ficou marcado como um dos períodos com mais demissões no setor de tecnologia desde 2003.

O brilho financeiro da IA convive com um subsolo de incerteza: lucros históricos no topo, instabilidade permanente na base.

Boa parte dessa contradição se explica pela externalização das tarefas que alimentam os modelos. Em vez de equipes internas duradouras, muitos serviços foram empurrados para plataformas de trabalho sob demanda, remuneradas por hora ou por entrega, quase sempre com pouca proteção e regras que mudam rapidamente.

Trabalhadores invisíveis da IA por trás dos modelos

Para um sistema de IA parecer “inteligente”, alguém precisa preparar o terreno. Há pessoas, espalhadas por diversos países, encarregadas de classificar imagens, revisar respostas, medir a qualidade de textos, anotar dados sensíveis e sinalizar conteúdo violento ou impróprio para que a máquina aprenda o que evitar.

Essas funções aparecem sob diferentes rótulos - rotulagem de dados, anotação, moderação, avaliação de conteúdo - e com frequência são executadas por trabalhadores autônomos ou por equipes contratadas via terceirização. A remuneração costuma variar conforme a tarefa, a plataforma e o local onde o trabalhador está.

  • Baixa visibilidade: quase nunca são mencionados em relatórios anuais ou apresentações para investidores.
  • Pagamento volátil: valores por hora ou por tarefa mudam com pouca clareza sobre critérios.
  • Zero estabilidade: projetos surgem e terminam sem previsibilidade.
  • Pressão constante: metas rígidas, vigilância por métricas e risco de bloqueio por “baixo desempenho”.

Mesmo indispensáveis, esses profissionais raramente entram no debate público sobre o futuro da IA. Na prática, acabam tratados como componentes substituíveis de uma linha de produção digital.

Além disso, há um custo humano frequentemente ignorado: em tarefas de moderação e avaliação de conteúdo, parte do trabalho envolve contato repetido com material perturbador (violência, abuso, discurso de ódio). Quando não existe apoio psicológico, pausas adequadas e triagem responsável, o risco de adoecimento mental aumenta - e isso também impacta a qualidade das decisões tomadas sob pressão.

Mercor: 5.000 desligados de uma hora para outra

Um episódio recente nos Estados Unidos trouxe esse bastidor à tona. A Mercor, parceira de empresas como Meta e OpenAI, coordenava um projeto amplo chamado Musen, que chegou a envolver mais de 5.000 trabalhadores remotos.

Relatos reunidos pelo Business Insider apontam que muitos participantes receberam a expectativa de continuidade do trabalho até o fim do ano - e tomaram decisões financeiras contando com essa renda.

Só que o projeto foi encerrado de forma repentina. Sem período de transição, sem garantia de realocação e com comunicação confusa, milhares ficaram sem pagamento em questão de horas.

Pouco depois, a Mercor apresentou um novo projeto, o Nova. As atividades eram muito parecidas: avaliar respostas de modelos de IA, identificar falhas e sugerir ajustes. O que mudou de modo relevante foi a remuneração.

Os relatos indicam que as tarefas permaneceram quase as mesmas, mas o pagamento por hora caiu cerca de US$ 5 de um projeto para o outro.

Para muitos trabalhadores, a sinalização foi direta: aceitar menos ou perder o acesso às tarefas. A relação de força entre plataformas e prestadores deixa pouca margem para negociação real.

A lógica das “missões descartáveis” na inteligência artificial (IA)

O caso da Mercor tende a refletir um padrão mais amplo. Plataformas que prestam serviços para empresas de IA têm operado com projetos curtos, renovação incerta e liberdade para reduzir taxas a qualquer momento.

Em alguns contextos, equipes inteiras são desmontadas e substituídas por grupos menores e mais especializados, enquanto tarefas repetitivas são distribuídas para uma multidão global com baixa remuneração. O resultado é redução de custo médio sem grande impacto nas margens das contratantes.

Para quem permanece nesse ecossistema, o peso aumenta: jornadas se estendem, metas sobem e a ameaça de ficar sem tarefas aparece a cada atraso ou erro. Muitos aceitam as condições por falta de alternativas formais em suas regiões.

A utopia vendida pela IA não bate com o chão de fábrica digital

Enquanto a precarização avança, lideranças de grandes empresas sustentam um discurso de otimismo cuidadoso. Satya Nadella, da Microsoft, já defendeu que a IA pode elevar a qualidade de vida no mundo, desde que as decisões continuem sob comando humano. Sam Altman, da OpenAI, também descreve avanços “espetaculares”, ainda que reconheça riscos.

A narrativa é a de uma “utopia pragmática”: máquinas assumindo tarefas pesadas, pessoas focando no criativo e mais tempo livre para todos. No papel, soa convincente.

No cotidiano, porém, essa promessa segue apoiada em trabalho humano barato e pouco reconhecido. A automação aparece como vitrine, mas o funcionamento real depende de gente corrigindo deslizes, ajustando respostas, removendo conteúdos problemáticos e garantindo aderência a políticas de segurança.

Com regras de contratação permissivas, uma parcela do avanço da IA se apoia em terreno social frágil - sujeito a rupturas frequentes.

O que essa construção da IA antecipa sobre o futuro do trabalho

A forma como a inteligência artificial está sendo produzida funciona como um ensaio geral para outras áreas. Se esse formato se consolidar, algumas tendências ganham força:

Tendência O que significa na prática
Fragmentação de tarefas Em vez de um emprego fixo, a renda vem de microtrabalhos nem sempre contínuos.
Renda instável Os ganhos variam mês a mês, dificultando o planejamento financeiro básico.
Baixa proteção Sem vínculo formal, fica mais difícil acessar benefícios e redes de segurança.
Competição global Diferenças de custo de vida pressionam remunerações para baixo em mercados centrais.

Esse arranjo favorece um cenário em que poucas empresas concentram tecnologia, dados e capital, enquanto o trabalho operacional é pulverizado numa rede global com pouco poder de barganha.

Riscos, brechas e alternativas possíveis

Se essa lógica persistir, o impacto não será apenas social. A própria IA pode perder qualidade: pessoas exaustas, mal remuneradas e com medo de perder acesso às tarefas tendem a errar mais, a fazer análises apressadas e a priorizar volume em vez de precisão.

Para empresas e investidores, isso se traduz em modelos menos confiáveis, vieses mais difíceis de detectar e maior probabilidade de crises de reputação associadas a conteúdo tóxico, discriminatório ou simplesmente incorreto. O corte de custos no curto prazo pode virar despesa elevada no médio prazo.

Nos debates acadêmicos, políticos e sindicais, aparecem alternativas como: certificações de boas práticas para plataformas, exigência de transparência na remuneração, criação de pisos mínimos por tarefa, incentivos fiscais atrelados a condições de trabalho e contratos híbridos que preservem flexibilidade com benefícios essenciais.

No Brasil, a discussão pode ganhar contornos próprios: a combinação de fiscalização trabalhista, acordos coletivos e exigências de transparência (inclusive em cadeias de terceirização) tende a ser central para reduzir a precarização digital. Também cresce a ideia de auditorias independentes sobre condições de trabalho em fornecedores de moderação e rotulagem de dados, especialmente quando há exposição a conteúdo sensível.

Conceitos que ajudam a entender este cenário

Alguns termos ajudam a decifrar o momento:

  • Trabalho de anotação de dados: processo de rotular, marcar ou comentar informações (texto, imagem, áudio) para que modelos de IA aprendam padrões.
  • Plataformas de microtarefas: sites e aplicativos que dividem projetos grandes em atividades pequenas, pagas por tarefa, muitas vezes com valores muito baixos.
  • Precarização digital: combinação de tecnologia com vínculos frágeis, remuneração reduzida e ausência de direitos, frequentemente apresentada como “flexibilidade” ou “oportunidade global”.

Nos próximos anos, é provável que a automação avance ao mesmo tempo em que crescem disputas regulatórias. Se governos endurecerem regras e consumidores passarem a exigir mais responsabilidade sobre a origem social da tecnologia, empresas podem ser pressionadas a rever seus modelos. Caso contrário, a tendência é aprofundar a economia de bastidores - em que o “futuro brilhante” continua de pé graças a pessoas que trabalham no escuro.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário