O desgastante trabalho humano por trás do ChatGPT: 'Não é tão emocionante quando descobrimos o que envolve'

Para autora de novo livro sobre a OpenAI, empresa responsável ChatGPT, sucesso comercial está ligado à exploração de pessoas e recursos naturais. A autora do livro Empire of AI, Karen Hao, em visita à sede da BBC
Giovanni Bello/BBC News Brasil
Se você já "conversou" com o ChatGPT ou outra ferramenta semelhante, pode ter achado, em um primeiro momento, que se trata de uma tecnologia quase mágica.
Como é possível que uma máquina entenda perguntas feitas por humanos, interprete seu conteúdo e responda com informações estruturadas e em linguagem humana, em questão de segundos, com evolução constante na qualidade das respostas?
Essa percepção de algo quase "sobrenatural" não é por acaso.
Sam Altman, CEO da empresa responsável pela tecnologia, a OpenAI, faz uso de termos como esse para descrever seus produtos.
No ano passado, ao anunciar novidades na plataforma X (ex-Twitter), ele escreveu que o que a empresa estaria prestes a apresentar "parecia mágica".
Em um vídeo de apresentação da ferramenta de conversa por voz com o ChatGPT, uma porta-voz da empresa afirmou: "isso parece tão mágico, é maravilhoso."
Mas o sucesso comercial da OpenAI não vem do além.
Está ligado, em boa parte, com a exploração de pessoas e recursos naturais bastante reais, envolvendo cadeias produtivas complexas e opacas, que terceirizam responsabilidades e exploram desigualdades estruturais.
Quem diz isso é Karen Hao, autora do livro Empire of AI (Império da IA, ainda sem edição no Brasil), lançado em maio, em entrevista cedida à BBC News Brasil em sua sede, em Londres.
A autora realizou cerca de 300 entrevistas, que ajudam a destrinchar o impacto global da empresa por trás do chatbot mais famoso do mundo.
Mais do que ouvir executivos, Karen Hao se dedicou a investigar os impactos da OpenAI fora do Vale do Silício, como a crescente demanda por data centers, infraestrutura essencial para processar os bilhões de dados usados no treinamento e operação de sistemas como o ChatGPT, e que consomem milhões de litros de água e enormes quantidades de energia.
"Essas empresas lucram mais, se enriquecem mais, quando há um crescente burburinho em torno da tecnologia e quando há a percepção de que a IA é mágica", disse ela à BBC News Brasil.
"Não é tão emocionante quando os consumidores estão usando uma tecnologia que sabem que envolve exploração de mão de obra."
Hao investigou a contratação indireta de milhares de trabalhadores precarizados, expostos ao pior tipo de conteúdo da internet para treinar os filtros da ferramenta.
Para isso, viajou do Quênia à Colombia e entrevistou pessoas que, em um cenário de crise econômica, aceitaram trabalhar nesse mercado de anotação de dados para a indústria de IA.
Foi também ao Chile, onde conheceu ativistas preocupados com o aumento de data centers e o crescente consumo de recursos hídricos.
O "império" que dá título ao livro está ligado a essas relações de exploração econômica e à concentração de poder.
"Precisamos pensar nessas empresas como novas formas de império. Elas ganharam uma quantidade extraordinária de poder político e econômico, a ponto de praticamente não existir mais nenhuma força superior no mundo capaz de conter seu crescimento ou interesses próprios.", disse.
Autora do livro investigou impacto global da OpenAI e consequências para trabalhadores e para o meio ambiente
Reprodução
Do laboratório de pesquisa sobre IA ao 'império'
Hao teve acesso inédito à OpenAI ainda em 2019, antes do lançamento oficial do ChatGPT, quando ela estava escrevendo um perfil sobre a empresa em ascensão para a MIT Technology Review, publicação dos EUA que analisa como as novas tecnologias impactam a sociedade, a política e os negócios.
"Nós nunca demos tanto acesso a alguém antes", disse a ela um dos entrevistados à época.
Um dos pontos a seu favor para que a empresa concordasse com as entrevistas era sua formação técnica: Hao é graduada em engenharia mecânica pelo MIT e já trabalhou em uma startup no Vale do Silício, o que poderia ajudá-la a entender em mais detalhes o progresso tecnológico que estavam fazendo à época.
"Originalmente (a OpenAI) foi concebida como um laboratório de pesquisa em IA, sem qualquer tipo de interesses comerciais, sem qualquer intenção de desenvolver produtos", disse.
Esse laboratório tinha uma missão: assegurar que a chamada AGI, ou inteligência artificial geral — conceito abstrato de uma máquina que possui a mesma sofisticação da mente humana — fosse usada em benefício da humanidade.
A reportagem, publicada em fevereiro de 2020, afirma que havia um "descompasso" entre a imagem benevolente e colaborativa passada pela organização e o que acontecia nos bastidores.
"Percebi que a organização defendia publicamente valores que na prática se manifestavam de forma diferente. Publicamente diziam ser uma organização sem fins lucrativos e sem intenção comercial."
Mas logo ela começou a perceber que "provavelmente precisariam se comercializar rapidamente", já que haviam recebido um investimento de um bilhão de dólares da Microsoft e precisariam dar retorno sobre esse investimento.
Hao também notou um ambiente de muito sigilo.
"Diziam que eram colaborativos e transparentes mas, na realidade, eram muito reservados. Executivos enfatizavam que precisavam ser os primeiros no programa de pesquisa deles para cumprir sua missão: garantir que a chamada inteligência artificial geral (ou AGI - artificial general intelligence) beneficie toda a humanidade."
A resposta à reportagem foi o silêncio, conta. "Ficaram profundamente insatisfeitos com esse resultado e acabaram me proibindo de falar com a empresa por três anos."
Com o livro não seria diferente: Hao diz que a empresa preferiu não colaborar com sua apuração.
Em uma postagem na rede social X em abril deste ano, antes da publicação de Empire of AI, Sam Altman escreveu: "estão para sair alguns livros sobre a OpenAI e sobre mim. Nós só participamos de dois", sem citar o livro de Hao.
Ele acrescentou que "nenhum livro vai acertar tudo, especialmente quando algumas pessoas estão tão determinadas a distorcer as coisas".
Hao entendeu aquilo como uma crítica. "Ficou bastante claro para mim que ele estava tentando afastar as pessoas do meu livro."
Em resposta a um pedido da BBC News Brasil para se posicionar sobre as críticas contidas no livro e na entrevista, um porta-voz da OpenAI enviou por e-mail este mesmo post de Altman, sem outras informações.
there are some books coming out about openai and me. we only participated in two—one by keach hagey focused on me, and one by ashlee vance on openai (the only author we’ve allowed behind-the-scenes and in meetings).
no book will get everything right, especially when some people…
— Sam Altman (@sama) April 4, 2025
Moderação 'grotesca' de conteúdo abusivo
A moderação de conteúdo para IA generativa, como a do ChatGPT, não é exatamente a mesma que era feita em conteúdo gerado por usuários em redes sociais, como do Facebook, segundo Hao.
Isso porque trabalhadores terceirizados filtram textos que nem sequer foram produzidos por uma pessoa real, mas sim gerados antecipadamente por IA.
"A OpenAI solicitou a seus próprios modelos que imaginassem alguns dos piores cenários de abuso de texto, discurso de ódio de texto, assédio, texto racista, sexista, para dar aos trabalhadores, para que houvesse uma distribuição mais ampla das piores coisas que eles pudessem então filtrar", explica Hao.
A prática não é exclusiva de uma ou outra empresa.
Um artigo publicado no ano passado por pesquisadores da Microsoft (empresa que, vale lembrar, é uma das maiores parceiras da OpenAI), ao revisar a literatura recente sobre o assunto, afirma que a tendência de ignorar a importância do trabalho humano em sistemas de IA é "comum". E que há um padrão no Vale do Silício de terceirizar esse tipo de atividade de filtrar conteúdo nocivo para fornecedores terceirizados, "geralmente no exterior".
"Quando a mão de obra é transferida, especialmente de forma fragmentada, para uma força de trabalho contingente distribuída globalmente, torna-se mais difícil rastreá-la e mais complicado reivindicar proteções trabalhistas para ela", diz o artigo.
Para Karen Hao, a IA não é inevitável, mas 'um produto de escolhas humanas'
Giovanni Bello/BBC News Brasil
'O que recebi em troca valeu o que perdi?'
Um dos trabalhadores retratados no livro é Mophat Okinyi, queniano contratado para atuar na moderação de conteúdo que seria usado pela OpenAI. Integrava a equipe responsável por revisar material sexual.
Sua função era ler e classificar textos distinguindo, por exemplo, entre erotismo consensual (considerado aceitável) e abuso sexual, incluindo casos envolvendo crianças (inadmissível).
"Ele passou tanto tempo lendo sobre abuso sexual e pedofilia que isso mudou completamente sua personalidade", contou a autora.
Okinyi desenvolveu sintomas de trauma psicológico, mas não sabia como explicar à esposa o que estava acontecendo. "Como dizer que passo o dia inteiro lendo conteúdo sexual no trabalho? Isso nem soa como um emprego de verdade", relatou, conforme o livro.
Na época, o ChatGPT ainda não havia sido lançado, e ele decidiu guardar tudo para si.
Enquanto trabalhava no projeto, vivia com a esposa. As tarefas se tornaram cada vez mais pesadas: ocupavam noites, fins de semana e envolviam conteúdos cada vez mais extremos, como violência sexual entre familiares e zoofilia.
Certo dia, voltando para casa, recebeu uma mensagem da esposa pedindo que passasse no mercado. Quando chegou, ela não estava mais lá. Em seguida, recebeu uma mensagem: "Não reconheço mais o homem em que você se tornou. Não vou voltar."
Quando o ChatGPT foi oficialmente lançado, em novembro de 2022, Okinyi disse à Hao ter sentido orgulho de ter contribuído para tornar a ferramenta mais segura.
Mas a pergunta permaneceu: "O que recebi em troca valeu o que perdi?"
Terceirização do 'serviço sujo'
Sam Altman, CEO da Open AI, fala durante o Snowflake Summit 2025 no Moscone Center em 02 de junho de 2025 em São Francisco, Califórnia
Getty Images
Okinyi e outros trabalhadores como ele não prestavam serviço diretamente para a OpenAI, mas para empresas terceirizadas que operam também para várias outras companhias.
"Não é bom para a imagem das empresas que os consumidores saibam que alguns dos produtos que estão comprando podem ter esse tipo de trabalho sujo sendo feito nos bastidores", avalia Hao.
"A razão pela qual muitas pessoas acabam não percebendo essas cadeias de suprimentos complexas é que, em parte, as empresas tentam se distanciar delas. Elas usarão uma empresa intermediária para construir seus centros de dados ou contratar trabalhadores terceirizados", diz Hao.
Quando o caso dos trabalhadores quenianos operando para a OpenAI foi descoberto pela imprensa, a empresa conseguiu repelir a culpa.
"Eles disseram que isso não era problema deles, que não foram eles que contrataram diretamente esses trabalhadores", lembra a autora. "Mas isso não faz muito sentido, porque todo o trabalho, todo o pagamento, era direcionado e ditado pela OpenAI."
Trabalhadores instruídos, com boa internet e de baixa renda
Trabalhadores ganham centavos por 'microtarefas' feitas pelo celular, que envolvem responder a pesquisas, fazer moderação de conteúdo, dentre outros
Arquivo pessoal
Uma reportagem publicada em junho pela BBC News. Brasil mostrou que esse mercado de treinar IAs e moderar conteúdo, também conhecido como 'microtrabalho', tem sido executado também no Brasil, principalmente por mulheres.
Um estudo do Laboratório de Trabalho, Plataformização e Saúde, vinculado à Universidade Estadual de Minas Gerais, detectou que 63% da mão de obra era feminina.
A pesquisa mostra que um dos motivos é a dificuldade de conseguir um emprego no país, mesmo com ensino superior completo, bem como a necessidade de cuidar dos filhos ou outras pessoas da família.
Hao identifica três características em comum entre esses novos trabalhadores para o treinamento da IA: são instruídos, têm ótima conectividade com a internet e baixa renda.
"São as condições que as empresas de IA descobriram que formam os melhores trabalhadores, porque eles executam bem as tarefas, são treinados muito rapidamente e estão dispostos a fazer isso por muito, muito, muito pouco dinheiro."
Um dos argumentos recorrentes dos que apoiam esse tipo de trabalho é que, sem eles, provavelmente estas pessoas teriam de se sujeitar a condições ainda piores para se sustentar.
Um empresário do setor é citado no livro por uma frase do tipo. Ele disse que "se você pudesse estar puxando um riquixá (veículo de duas rodas puxado por um humano) ou rotulando dados em um internet café com ar-condicionado, este último é um trabalho melhor".
Para Hao, as empresas não podem usar isso como desculpa para desrespeitar direitos humanos.
"Por que eles não estão pagando aos trabalhadores um salário justo para realmente fazer um trabalho que é fundamental para que eles consigam lucrar seus bilhões?", questionou, lembrando que uma das premissas da OpenAI é justamente desenvolver uma tecnologia que possa ser usada pela humanidade para gerar mais riqueza.
Data centers e colonialismo
Vista aérea de um data center de propriedade da multinacional americana e empresa de tecnologia Google em Santiago
Getty Images
Em maio deste ano o ministro da Fazenda, Fernando Haddad, apresentou em Los Angeles, nos EUA, uma política nacional de data centers que prevê a desoneração de investimentos no setor.
Esses centros, essenciais para o funcionamento de serviços digitais como IA, redes sociais e bancos, consomem grandes volumes de água e energia. E estão sendo cada vez mais demandados pelo crescimento de serviços digitais.
Data centers existem há décadas, mas até o século passado ficavam limitados a espaços menores, descreve Karen Hao no livro.
A partir dos anos 2000, explica Hao, gigantes da tecnologia começaram a consolidar toda a sua infraestrutura em enormes armazéns de servidores em comunidades rurais.
Na era do ChatGPT isso ganhou uma escala ainda maior. Alguns números recentes citados em um relatório da Agência Internacional de Energia (AIE), organização vinculada à OCDE, ajudam a ilustrar:
- Um centro de dados típico focado em IA consome tanta eletricidade quanto 100 mil residências. Mas os maiores que estão sendo construídos atualmente consumirão 20 vezes mais.
- O treinamento do modelo GPT-4, da OpenAI, consumiu energia equivalente a 70,5 mil casas de países em desenvolvimento.
- A geração por IA de um vídeo curto e de baixa qualidade consome a mesma energia que carregar um laptop duas vezes.
Hao faz uma comparação ainda mais simples no livro: o consumo de energia de uma pergunta ao chat equivale a dez vezes o que custaria para fazer uma pesquisa no Google.
Ainda assim, a entrada de investimento estrangeiro pode ser um atrativo para governantes dos países que receberão estes data centers, diz a autora.
"Muitos governos, especialmente no sul global, acabam vendo essa indústria como uma oportunidade", afirma, seja de receber investimentos ou de "não ficar pra trás" na cadeia de suprimentos da IA.
"Mas acho que o que não é dito explicitamente é que muitos governos ainda vivem sob o legado do colonialismo e sentem que precisam se curvar para conseguir investimento estrangeiro direto."
O Ministério da Fazenda disse à BBC News Brasil que a construção do decreto tem participação do Ministério do Meio Ambiente e que a regulamentação "estabelecerá requisitos ambientais e de sustentabilidade que deverão ser cumpridos pelas empresas que queiram se beneficiar da nova política."
Destacou que o principal objetivo do Redata, como foi batizado o programa, é garantir a soberania digital do Brasil, "incentivando o processamento de dados nacionais em data centers localizados no território brasileiro."
O governo federal afirma que "cerca de 60% da carga digital brasileira é processada no exterior, principalmente nos Estados Unidos, sendo o diferencial de custo o principal fator para essa situação. A política busca reverter esse cenário e fortalecer a infraestrutura digital nacional."
Em maio, o ministro da Fazenda, Fernando Haddad, apresentou em Los Angeles, nos EUA, uma política nacional de data centers que prevê a desoneração de investimentos no setor
Getty Images
O data center do Google que ativistas conseguiram barrar
Karen Hao traz em seu livro um exemplo concreto de resistência aos avanços dos data centers a qualquer custo: em 2019, uma estrutura desse tipo começou a ser construída para o Google em Cerrillos, comunidade de Santiago, no Chile.
Um grupo de ativistas local, o Mosacat (Movimiento Socioambiental Comunitario por el Agua y el Territorio - Chile) descobriu que a estrutura usaria 169 litros de água potável por segundo para resfriar seus servidores, mais de 1 mil vezes a quantidade consumida por toda a população da região — cerca de 89 mil pessoas, num país com histórico de seca.
O grupo tentou contestar o projeto primeiro com um parceiro local do Google, uma empresa de investimentos, que negou que água potável seria usada.
Os ativistas decidiram então recorrer ao governo local e o assunto foi parar na divisão do Google no Chile e, mais tarde, na sede da empresa, nos EUA.
No mesmo ano a big tech enviaria dois engenheiros e um advogado à cidade para apresentar o projeto à comunidade.
Manifestantes colocaram placas de protesto em todo o caminho que eles percorreriam até chegar ao local do encontro.
Segundo os ativistas, os representantes da empresa sequer falavam espanhol. A reunião foi entendida como uma espécie de intimidação contra a comunidade.
O data center acabou não sendo instalado.
O Google anunciou no ano passado que trabalharia "do zero" os planos para construí-lo depois de as preocupações com o impacto ambiental terem surgido, segundo noticiou a agência Reuters.
"Quando falamos com os cidadãos afetados, com as comunidades que têm suas terras e seus recursos de água doce tomados para a construção, alimentação e operação desses centros de dados, essas pessoas não acham que é um bom negócio", afirma Hao.
"Uma das coisas que o governo chileno acabou fazendo, por causa de tanto ativismo e tanta oposição, foi a criação de uma mesa redonda onde convidam representantes de empresas, representantes governamentais e moradores da comunidade local, para discutir se há maneiras de tornar esse desenvolvimento de centros de dados mutuamente benéficos."
IA não é 'inevitável', mas produto de 'escolhas humanas'
Hao destaca que há iniciativas de resistência à adoção sem críticas da inteligência artificial generativa e também interesse por sua regulamentação.
"Estamos vendo movimentos em todo o mundo. Artistas e escritores que estão processando essas empresas e reivindicando sua propriedade intelectual. Ativistas que estão resistindo ao desenvolvimento de data centers. Estudantes e professores debatendo abertamente que talvez não queiram o ChatGPT nas escolas."
Ela acredita que o desenvolvimento da IA, como está colocado hoje, não é inevitável.
"É um produto de escolhas humanas. Isso significa que você, como um ser humano com escolhas, pode ter um papel ativo na formação do futuro desta tecnologia."
"Sempre que você se depara com a narrativa de que as IAs são inevitáveis, de que se você não adotar essa tecnologia será substituído por alguém que a adote, saiba que essa é uma narrativa enraizada, perpetuada e amplificada pelas empresas que as produzem. É um discurso que serve a elas. Quanto mais as usamos para diferentes tarefas, mais dados elas obtêm para automatizá-las."
A autora diz não ser totalmente contra o uso desse tipo de tecnologia.
"Você possa escolher modelos de código aberto, que não usam desse tipo de ideologia imperial sob a qual a OpenAI ou o Google podem estar operando."
Aos formuladores de políticas públicas, a autora reforça que as empresas de IA ainda dependem de uma cadeia global de suprimentos e não operam sozinhas.
"Há dados aos quais eles precisam ter acesso. Há terras que eles precisam para construir seus data centers, além da energia e água para mantê-los funcionando."
Por isso, argumenta, autoridades não deveriam temer a regulação dessas empresas por medo de perder acesso aos serviços.
"Os governos precisam reconhecer que eles possuem e governam coletivamente todos os recursos que essas empresas precisam para produzir as tecnologias em primeiro lugar. As empresas terão, assim, que ajustar sua abordagem para algo que seja benéfico para todos. Isso inclui aumentar as proteções de dados, os direitos de propriedade intelectual."
Moradores de Veneza protestam contra a festa de casamento de Jeff Bezos
Como criar uma senha forte, difícil de ser violada, e proteger suas contas
Bloqueio de celular por PM e previsão de chuva com IA: veja 3 anúncios do Google
Giovanni Bello/BBC News Brasil
Se você já "conversou" com o ChatGPT ou outra ferramenta semelhante, pode ter achado, em um primeiro momento, que se trata de uma tecnologia quase mágica.
Como é possível que uma máquina entenda perguntas feitas por humanos, interprete seu conteúdo e responda com informações estruturadas e em linguagem humana, em questão de segundos, com evolução constante na qualidade das respostas?
Essa percepção de algo quase "sobrenatural" não é por acaso.
Sam Altman, CEO da empresa responsável pela tecnologia, a OpenAI, faz uso de termos como esse para descrever seus produtos.
No ano passado, ao anunciar novidades na plataforma X (ex-Twitter), ele escreveu que o que a empresa estaria prestes a apresentar "parecia mágica".
Em um vídeo de apresentação da ferramenta de conversa por voz com o ChatGPT, uma porta-voz da empresa afirmou: "isso parece tão mágico, é maravilhoso."
Mas o sucesso comercial da OpenAI não vem do além.
Está ligado, em boa parte, com a exploração de pessoas e recursos naturais bastante reais, envolvendo cadeias produtivas complexas e opacas, que terceirizam responsabilidades e exploram desigualdades estruturais.
Quem diz isso é Karen Hao, autora do livro Empire of AI (Império da IA, ainda sem edição no Brasil), lançado em maio, em entrevista cedida à BBC News Brasil em sua sede, em Londres.
A autora realizou cerca de 300 entrevistas, que ajudam a destrinchar o impacto global da empresa por trás do chatbot mais famoso do mundo.
Mais do que ouvir executivos, Karen Hao se dedicou a investigar os impactos da OpenAI fora do Vale do Silício, como a crescente demanda por data centers, infraestrutura essencial para processar os bilhões de dados usados no treinamento e operação de sistemas como o ChatGPT, e que consomem milhões de litros de água e enormes quantidades de energia.
"Essas empresas lucram mais, se enriquecem mais, quando há um crescente burburinho em torno da tecnologia e quando há a percepção de que a IA é mágica", disse ela à BBC News Brasil.
"Não é tão emocionante quando os consumidores estão usando uma tecnologia que sabem que envolve exploração de mão de obra."
Hao investigou a contratação indireta de milhares de trabalhadores precarizados, expostos ao pior tipo de conteúdo da internet para treinar os filtros da ferramenta.
Para isso, viajou do Quênia à Colombia e entrevistou pessoas que, em um cenário de crise econômica, aceitaram trabalhar nesse mercado de anotação de dados para a indústria de IA.
Foi também ao Chile, onde conheceu ativistas preocupados com o aumento de data centers e o crescente consumo de recursos hídricos.
O "império" que dá título ao livro está ligado a essas relações de exploração econômica e à concentração de poder.
"Precisamos pensar nessas empresas como novas formas de império. Elas ganharam uma quantidade extraordinária de poder político e econômico, a ponto de praticamente não existir mais nenhuma força superior no mundo capaz de conter seu crescimento ou interesses próprios.", disse.
Autora do livro investigou impacto global da OpenAI e consequências para trabalhadores e para o meio ambiente
Reprodução
Do laboratório de pesquisa sobre IA ao 'império'
Hao teve acesso inédito à OpenAI ainda em 2019, antes do lançamento oficial do ChatGPT, quando ela estava escrevendo um perfil sobre a empresa em ascensão para a MIT Technology Review, publicação dos EUA que analisa como as novas tecnologias impactam a sociedade, a política e os negócios.
"Nós nunca demos tanto acesso a alguém antes", disse a ela um dos entrevistados à época.
Um dos pontos a seu favor para que a empresa concordasse com as entrevistas era sua formação técnica: Hao é graduada em engenharia mecânica pelo MIT e já trabalhou em uma startup no Vale do Silício, o que poderia ajudá-la a entender em mais detalhes o progresso tecnológico que estavam fazendo à época.
"Originalmente (a OpenAI) foi concebida como um laboratório de pesquisa em IA, sem qualquer tipo de interesses comerciais, sem qualquer intenção de desenvolver produtos", disse.
Esse laboratório tinha uma missão: assegurar que a chamada AGI, ou inteligência artificial geral — conceito abstrato de uma máquina que possui a mesma sofisticação da mente humana — fosse usada em benefício da humanidade.
A reportagem, publicada em fevereiro de 2020, afirma que havia um "descompasso" entre a imagem benevolente e colaborativa passada pela organização e o que acontecia nos bastidores.
"Percebi que a organização defendia publicamente valores que na prática se manifestavam de forma diferente. Publicamente diziam ser uma organização sem fins lucrativos e sem intenção comercial."
Mas logo ela começou a perceber que "provavelmente precisariam se comercializar rapidamente", já que haviam recebido um investimento de um bilhão de dólares da Microsoft e precisariam dar retorno sobre esse investimento.
Hao também notou um ambiente de muito sigilo.
"Diziam que eram colaborativos e transparentes mas, na realidade, eram muito reservados. Executivos enfatizavam que precisavam ser os primeiros no programa de pesquisa deles para cumprir sua missão: garantir que a chamada inteligência artificial geral (ou AGI - artificial general intelligence) beneficie toda a humanidade."
A resposta à reportagem foi o silêncio, conta. "Ficaram profundamente insatisfeitos com esse resultado e acabaram me proibindo de falar com a empresa por três anos."
Com o livro não seria diferente: Hao diz que a empresa preferiu não colaborar com sua apuração.
Em uma postagem na rede social X em abril deste ano, antes da publicação de Empire of AI, Sam Altman escreveu: "estão para sair alguns livros sobre a OpenAI e sobre mim. Nós só participamos de dois", sem citar o livro de Hao.
Ele acrescentou que "nenhum livro vai acertar tudo, especialmente quando algumas pessoas estão tão determinadas a distorcer as coisas".
Hao entendeu aquilo como uma crítica. "Ficou bastante claro para mim que ele estava tentando afastar as pessoas do meu livro."
Em resposta a um pedido da BBC News Brasil para se posicionar sobre as críticas contidas no livro e na entrevista, um porta-voz da OpenAI enviou por e-mail este mesmo post de Altman, sem outras informações.
there are some books coming out about openai and me. we only participated in two—one by keach hagey focused on me, and one by ashlee vance on openai (the only author we’ve allowed behind-the-scenes and in meetings).
no book will get everything right, especially when some people…
— Sam Altman (@sama) April 4, 2025
Moderação 'grotesca' de conteúdo abusivo
A moderação de conteúdo para IA generativa, como a do ChatGPT, não é exatamente a mesma que era feita em conteúdo gerado por usuários em redes sociais, como do Facebook, segundo Hao.
Isso porque trabalhadores terceirizados filtram textos que nem sequer foram produzidos por uma pessoa real, mas sim gerados antecipadamente por IA.
"A OpenAI solicitou a seus próprios modelos que imaginassem alguns dos piores cenários de abuso de texto, discurso de ódio de texto, assédio, texto racista, sexista, para dar aos trabalhadores, para que houvesse uma distribuição mais ampla das piores coisas que eles pudessem então filtrar", explica Hao.
A prática não é exclusiva de uma ou outra empresa.
Um artigo publicado no ano passado por pesquisadores da Microsoft (empresa que, vale lembrar, é uma das maiores parceiras da OpenAI), ao revisar a literatura recente sobre o assunto, afirma que a tendência de ignorar a importância do trabalho humano em sistemas de IA é "comum". E que há um padrão no Vale do Silício de terceirizar esse tipo de atividade de filtrar conteúdo nocivo para fornecedores terceirizados, "geralmente no exterior".
"Quando a mão de obra é transferida, especialmente de forma fragmentada, para uma força de trabalho contingente distribuída globalmente, torna-se mais difícil rastreá-la e mais complicado reivindicar proteções trabalhistas para ela", diz o artigo.
Para Karen Hao, a IA não é inevitável, mas 'um produto de escolhas humanas'
Giovanni Bello/BBC News Brasil
'O que recebi em troca valeu o que perdi?'
Um dos trabalhadores retratados no livro é Mophat Okinyi, queniano contratado para atuar na moderação de conteúdo que seria usado pela OpenAI. Integrava a equipe responsável por revisar material sexual.
Sua função era ler e classificar textos distinguindo, por exemplo, entre erotismo consensual (considerado aceitável) e abuso sexual, incluindo casos envolvendo crianças (inadmissível).
"Ele passou tanto tempo lendo sobre abuso sexual e pedofilia que isso mudou completamente sua personalidade", contou a autora.
Okinyi desenvolveu sintomas de trauma psicológico, mas não sabia como explicar à esposa o que estava acontecendo. "Como dizer que passo o dia inteiro lendo conteúdo sexual no trabalho? Isso nem soa como um emprego de verdade", relatou, conforme o livro.
Na época, o ChatGPT ainda não havia sido lançado, e ele decidiu guardar tudo para si.
Enquanto trabalhava no projeto, vivia com a esposa. As tarefas se tornaram cada vez mais pesadas: ocupavam noites, fins de semana e envolviam conteúdos cada vez mais extremos, como violência sexual entre familiares e zoofilia.
Certo dia, voltando para casa, recebeu uma mensagem da esposa pedindo que passasse no mercado. Quando chegou, ela não estava mais lá. Em seguida, recebeu uma mensagem: "Não reconheço mais o homem em que você se tornou. Não vou voltar."
Quando o ChatGPT foi oficialmente lançado, em novembro de 2022, Okinyi disse à Hao ter sentido orgulho de ter contribuído para tornar a ferramenta mais segura.
Mas a pergunta permaneceu: "O que recebi em troca valeu o que perdi?"
Terceirização do 'serviço sujo'
Sam Altman, CEO da Open AI, fala durante o Snowflake Summit 2025 no Moscone Center em 02 de junho de 2025 em São Francisco, Califórnia
Getty Images
Okinyi e outros trabalhadores como ele não prestavam serviço diretamente para a OpenAI, mas para empresas terceirizadas que operam também para várias outras companhias.
"Não é bom para a imagem das empresas que os consumidores saibam que alguns dos produtos que estão comprando podem ter esse tipo de trabalho sujo sendo feito nos bastidores", avalia Hao.
"A razão pela qual muitas pessoas acabam não percebendo essas cadeias de suprimentos complexas é que, em parte, as empresas tentam se distanciar delas. Elas usarão uma empresa intermediária para construir seus centros de dados ou contratar trabalhadores terceirizados", diz Hao.
Quando o caso dos trabalhadores quenianos operando para a OpenAI foi descoberto pela imprensa, a empresa conseguiu repelir a culpa.
"Eles disseram que isso não era problema deles, que não foram eles que contrataram diretamente esses trabalhadores", lembra a autora. "Mas isso não faz muito sentido, porque todo o trabalho, todo o pagamento, era direcionado e ditado pela OpenAI."
Trabalhadores instruídos, com boa internet e de baixa renda
Trabalhadores ganham centavos por 'microtarefas' feitas pelo celular, que envolvem responder a pesquisas, fazer moderação de conteúdo, dentre outros
Arquivo pessoal
Uma reportagem publicada em junho pela BBC News. Brasil mostrou que esse mercado de treinar IAs e moderar conteúdo, também conhecido como 'microtrabalho', tem sido executado também no Brasil, principalmente por mulheres.
Um estudo do Laboratório de Trabalho, Plataformização e Saúde, vinculado à Universidade Estadual de Minas Gerais, detectou que 63% da mão de obra era feminina.
A pesquisa mostra que um dos motivos é a dificuldade de conseguir um emprego no país, mesmo com ensino superior completo, bem como a necessidade de cuidar dos filhos ou outras pessoas da família.
Hao identifica três características em comum entre esses novos trabalhadores para o treinamento da IA: são instruídos, têm ótima conectividade com a internet e baixa renda.
"São as condições que as empresas de IA descobriram que formam os melhores trabalhadores, porque eles executam bem as tarefas, são treinados muito rapidamente e estão dispostos a fazer isso por muito, muito, muito pouco dinheiro."
Um dos argumentos recorrentes dos que apoiam esse tipo de trabalho é que, sem eles, provavelmente estas pessoas teriam de se sujeitar a condições ainda piores para se sustentar.
Um empresário do setor é citado no livro por uma frase do tipo. Ele disse que "se você pudesse estar puxando um riquixá (veículo de duas rodas puxado por um humano) ou rotulando dados em um internet café com ar-condicionado, este último é um trabalho melhor".
Para Hao, as empresas não podem usar isso como desculpa para desrespeitar direitos humanos.
"Por que eles não estão pagando aos trabalhadores um salário justo para realmente fazer um trabalho que é fundamental para que eles consigam lucrar seus bilhões?", questionou, lembrando que uma das premissas da OpenAI é justamente desenvolver uma tecnologia que possa ser usada pela humanidade para gerar mais riqueza.
Data centers e colonialismo
Vista aérea de um data center de propriedade da multinacional americana e empresa de tecnologia Google em Santiago
Getty Images
Em maio deste ano o ministro da Fazenda, Fernando Haddad, apresentou em Los Angeles, nos EUA, uma política nacional de data centers que prevê a desoneração de investimentos no setor.
Esses centros, essenciais para o funcionamento de serviços digitais como IA, redes sociais e bancos, consomem grandes volumes de água e energia. E estão sendo cada vez mais demandados pelo crescimento de serviços digitais.
Data centers existem há décadas, mas até o século passado ficavam limitados a espaços menores, descreve Karen Hao no livro.
A partir dos anos 2000, explica Hao, gigantes da tecnologia começaram a consolidar toda a sua infraestrutura em enormes armazéns de servidores em comunidades rurais.
Na era do ChatGPT isso ganhou uma escala ainda maior. Alguns números recentes citados em um relatório da Agência Internacional de Energia (AIE), organização vinculada à OCDE, ajudam a ilustrar:
- Um centro de dados típico focado em IA consome tanta eletricidade quanto 100 mil residências. Mas os maiores que estão sendo construídos atualmente consumirão 20 vezes mais.
- O treinamento do modelo GPT-4, da OpenAI, consumiu energia equivalente a 70,5 mil casas de países em desenvolvimento.
- A geração por IA de um vídeo curto e de baixa qualidade consome a mesma energia que carregar um laptop duas vezes.
Hao faz uma comparação ainda mais simples no livro: o consumo de energia de uma pergunta ao chat equivale a dez vezes o que custaria para fazer uma pesquisa no Google.
Ainda assim, a entrada de investimento estrangeiro pode ser um atrativo para governantes dos países que receberão estes data centers, diz a autora.
"Muitos governos, especialmente no sul global, acabam vendo essa indústria como uma oportunidade", afirma, seja de receber investimentos ou de "não ficar pra trás" na cadeia de suprimentos da IA.
"Mas acho que o que não é dito explicitamente é que muitos governos ainda vivem sob o legado do colonialismo e sentem que precisam se curvar para conseguir investimento estrangeiro direto."
O Ministério da Fazenda disse à BBC News Brasil que a construção do decreto tem participação do Ministério do Meio Ambiente e que a regulamentação "estabelecerá requisitos ambientais e de sustentabilidade que deverão ser cumpridos pelas empresas que queiram se beneficiar da nova política."
Destacou que o principal objetivo do Redata, como foi batizado o programa, é garantir a soberania digital do Brasil, "incentivando o processamento de dados nacionais em data centers localizados no território brasileiro."
O governo federal afirma que "cerca de 60% da carga digital brasileira é processada no exterior, principalmente nos Estados Unidos, sendo o diferencial de custo o principal fator para essa situação. A política busca reverter esse cenário e fortalecer a infraestrutura digital nacional."
Em maio, o ministro da Fazenda, Fernando Haddad, apresentou em Los Angeles, nos EUA, uma política nacional de data centers que prevê a desoneração de investimentos no setor
Getty Images
O data center do Google que ativistas conseguiram barrar
Karen Hao traz em seu livro um exemplo concreto de resistência aos avanços dos data centers a qualquer custo: em 2019, uma estrutura desse tipo começou a ser construída para o Google em Cerrillos, comunidade de Santiago, no Chile.
Um grupo de ativistas local, o Mosacat (Movimiento Socioambiental Comunitario por el Agua y el Territorio - Chile) descobriu que a estrutura usaria 169 litros de água potável por segundo para resfriar seus servidores, mais de 1 mil vezes a quantidade consumida por toda a população da região — cerca de 89 mil pessoas, num país com histórico de seca.
O grupo tentou contestar o projeto primeiro com um parceiro local do Google, uma empresa de investimentos, que negou que água potável seria usada.
Os ativistas decidiram então recorrer ao governo local e o assunto foi parar na divisão do Google no Chile e, mais tarde, na sede da empresa, nos EUA.
No mesmo ano a big tech enviaria dois engenheiros e um advogado à cidade para apresentar o projeto à comunidade.
Manifestantes colocaram placas de protesto em todo o caminho que eles percorreriam até chegar ao local do encontro.
Segundo os ativistas, os representantes da empresa sequer falavam espanhol. A reunião foi entendida como uma espécie de intimidação contra a comunidade.
O data center acabou não sendo instalado.
O Google anunciou no ano passado que trabalharia "do zero" os planos para construí-lo depois de as preocupações com o impacto ambiental terem surgido, segundo noticiou a agência Reuters.
"Quando falamos com os cidadãos afetados, com as comunidades que têm suas terras e seus recursos de água doce tomados para a construção, alimentação e operação desses centros de dados, essas pessoas não acham que é um bom negócio", afirma Hao.
"Uma das coisas que o governo chileno acabou fazendo, por causa de tanto ativismo e tanta oposição, foi a criação de uma mesa redonda onde convidam representantes de empresas, representantes governamentais e moradores da comunidade local, para discutir se há maneiras de tornar esse desenvolvimento de centros de dados mutuamente benéficos."
IA não é 'inevitável', mas produto de 'escolhas humanas'
Hao destaca que há iniciativas de resistência à adoção sem críticas da inteligência artificial generativa e também interesse por sua regulamentação.
"Estamos vendo movimentos em todo o mundo. Artistas e escritores que estão processando essas empresas e reivindicando sua propriedade intelectual. Ativistas que estão resistindo ao desenvolvimento de data centers. Estudantes e professores debatendo abertamente que talvez não queiram o ChatGPT nas escolas."
Ela acredita que o desenvolvimento da IA, como está colocado hoje, não é inevitável.
"É um produto de escolhas humanas. Isso significa que você, como um ser humano com escolhas, pode ter um papel ativo na formação do futuro desta tecnologia."
"Sempre que você se depara com a narrativa de que as IAs são inevitáveis, de que se você não adotar essa tecnologia será substituído por alguém que a adote, saiba que essa é uma narrativa enraizada, perpetuada e amplificada pelas empresas que as produzem. É um discurso que serve a elas. Quanto mais as usamos para diferentes tarefas, mais dados elas obtêm para automatizá-las."
A autora diz não ser totalmente contra o uso desse tipo de tecnologia.
"Você possa escolher modelos de código aberto, que não usam desse tipo de ideologia imperial sob a qual a OpenAI ou o Google podem estar operando."
Aos formuladores de políticas públicas, a autora reforça que as empresas de IA ainda dependem de uma cadeia global de suprimentos e não operam sozinhas.
"Há dados aos quais eles precisam ter acesso. Há terras que eles precisam para construir seus data centers, além da energia e água para mantê-los funcionando."
Por isso, argumenta, autoridades não deveriam temer a regulação dessas empresas por medo de perder acesso aos serviços.
"Os governos precisam reconhecer que eles possuem e governam coletivamente todos os recursos que essas empresas precisam para produzir as tecnologias em primeiro lugar. As empresas terão, assim, que ajustar sua abordagem para algo que seja benéfico para todos. Isso inclui aumentar as proteções de dados, os direitos de propriedade intelectual."
Moradores de Veneza protestam contra a festa de casamento de Jeff Bezos
Como criar uma senha forte, difícil de ser violada, e proteger suas contas
Bloqueio de celular por PM e previsão de chuva com IA: veja 3 anúncios do Google
Para ler a notícia completa, acesse o link original:
0 curtidas
Notícias Relacionadas
Não há mais notícias para carregar
Comentários 0