Autor(a) Convidado(a)
É pesquisador no Grupo de Pesquisa em Meio Ambiente do Trabalho na USP, sendo uma das linhas de pesquisa o monitoramento digital e os impactos na saúde do trabalhador. Pós-graduado em Direito do Trabalho pela FDV, advogado trabalhista e sócio-fundador da Fabretti & Milhorato Advogados

Demissões no Itaú: quais os limites do monitoramento no home office

O que se pede não é proibir tecnologia, e sim responsabilidade. Sem isso, a promessa de eficiência vira apartheid virtual: dados entram, empregos saem — e ninguém sabe a razão

  • Bruno Milhorato Barbosa É pesquisador no Grupo de Pesquisa em Meio Ambiente do Trabalho na USP, sendo uma das linhas de pesquisa o monitoramento digital e os impactos na saúde do trabalhador. Pós-graduado em Direito do Trabalho pela FDV, advogado trabalhista e sócio-fundador da Fabretti & Milhorato Advogados
Publicado em 09/09/2025 às 16h15

Segundo o Sindicato dos Bancários de São Paulo, o Itaú demitiu, nesta segunda-feira (8), cerca de mil empregados que trabalhavam em regime híbrido ou totalmente remoto. Ainda de acordo com a entidade, o banco justificou as dispensas dizendo que os trabalhadores foram monitorados por mais de seis meses e que se constatou “baixa aderência ao home office”, com base em registros de “inatividade” nos computadores corporativos — em alguns casos, períodos de quatro horas ou mais —, e que as demissões ocorreram sem advertência prévia nem diálogo com o sindicato.

Por que isso importa?

Não é só home office. É gestão por algoritmos que classifica pessoas por métricas opacas e por um oceano de metadados: tempo “ativo”, cliques e teclado; GPS; biometria; videovigilância; redes sociais; registros de computador, navegação e chamadas; avaliações de clientes; faltas, atestados e CID; até testes neuropsicológicos. Essa “etiquetagem” reencena o taylorismo digital e amplia o risco de discriminação — o “apartheid virtual”. A moda da “otimização” desumaniza a gestão e empurra demissões apoiadas por IA.

Escolheu a coleta e tratamento de dados por IA? Escolheu LGPD

Ninguém obrigou empresas a gerir pessoas por IA ou a coletar dados massivos (muitos sensíveis). Mas, se escolheram esse caminho, precisam cumprir a LGPD: finalidade, necessidade, transparência, não discriminação e responsabilização (art. 6º). E quando a demissão se ampara em “baixa produtividade medida por sistema”, não é mais dispensa “sem motivo”: há uma decisão baseada em tratamento automatizado sujeita a revisão (art. 20), com dever de explicar critérios, variáveis e margem de erro. Também pesa o ônus de demonstrar proporcionalidade e de não monitorar fora da jornada, especialmente por que os registros ficam com o empregador.

Do que estamos falando, exatamente

Soluções de “bossware” e “tattleware” capturam cliques, teclas, apps usados, screenshots, às vezes webcam e microfone; são vendidas como “gestão de produtividade” — e já provocaram ondas de cortes em empresas mundo afora. No celular, o “stalkerware” rastreia localização e atividades de modo furtivo — a linha entre vigilância “corporativa” e abuso pode ser tênue.

O que o banco precisa explicar:

  1. Quais dados coletou (inclusive sensíveis), por quanto tempo e com que base legal; se houve coleta fora da jornada. (Princípios do art. 6º: necessidade, transparência, não discriminação)
  2. Como o algoritmo decidiu: variáveis usadas, pesos, taxa de erro e controles de viés — e entregar revisão humana significativa a quem foi afetado (art. 20).
  3. RIPD (Relatório de Impacto à Proteção de Dados Pessoais)/Auditoria do sistema de monitoramento, com verificação independente de vieses e falsos positivos. (Princípios de prevenção e responsabilização, art. 6º.)

O que Estado e órgãos devem fazer:

  • ANPD: exigir informações sobre a decisão automatizada (art. 20, §§1º–2º) e, se necessário, auditar para apurar discriminação algorítmica.
  • MPT e Justiça do Trabalho: garantir transparência probatória (códigos/relatórios sob sigilo), coibir monitoramento excessivo e revisar dispensas baseadas em métricas opacas. (Proporcionalidade e ônus da prova na vigilância digital).
Trabalho em home office
Trabalho em home office. Crédito: rawpixel.com

Três regras simples

  • Transparência sempre: se a IA influencia a carreira, ou o fim dela, os critérios precisam ser claros e explicáveis.
  • Métrica certa: avalie por entregas e qualidade do trabalho, não por minutos de teclado.
  • Limites no home office: casa não é filial — só monitore com base legal, sem excessos e nunca fora da jornada.

Resumo do caso:

O Itaú afirma ter cortado quem teria “baixa adesão” ao trabalho remoto com base em rastreamento de “inatividade”. Isso torna a dispensa algoritmicamente motivada — portanto, explicável e revisável pela LGPD. O que se pede não é proibir tecnologia, e sim responsabilidade. Sem isso, a promessa de eficiência vira apartheid virtual: dados entram, empregos saem — e ninguém sabe por quê.

Este texto não traduz, necessariamente, a opinião de A Gazeta.

A Gazeta integra o

Saiba mais
LGPD Trabalho Home office Leis Trabalhistas

Notou alguma informação incorreta no conteúdo de A Gazeta? Nos ajude a corrigir o mais rápido possível! Clique no botão ao lado e envie sua mensagem.

Envie sua sugestão, comentário ou crítica diretamente aos editores de A Gazeta.