'Foi uma tortura': o trabalho nos bastidores para tirar conteúdo tóxico do robô ChatGPT

'Foi uma tortura': o trabalho nos bastidores para tirar conteúdo tóxico do robô ChatGPT
Segundo a revista Time, robô conversador que ficou conhecido por responder quase como um ser humano contou com ajuda de funcionários terceirizados que revisaram casos de violência, sexismo, machismo, entre outros. Conheça o ChatGPT, inteligência artificial criada por Elon Musk que tem resposta para tudo

Jakub Porzycki/Reuters

O robô conversador ChatGPT viralizou por sua capacidade de conversar quase como um humano. A ferramenta foi pensada para não enviar mensagens agressivas aos usuários, mas isso foi alcançado com ajuda de trabalhadores que tiveram que analisar conteúdos tóxicos.

É o que aponta uma reportagem da revista Time, que mostra como a OpenAI, criadora do ChatGPT, contou com funcionários terceirizados do Quênia para que o robô não fizesse comentários violentos, sexistas ou machistas, por exemplo.

"Isso foi uma tortura", disse à Time um funcionário que precisava lidar com esse tipo de conteúdo e pediu para não ser identificado. Entre os textos que ele precisou analisar, estava um que retratava um caso de zoofilia em frente a uma criança.

"Você lê uma série de declarações como essa durante toda a semana. Quando chega sexta-feira, você está perturbado por pensar naquela imagem", afirmou.

Outros três funcionários ouvidos pela Time afirmaram que, em um turno de 9 horas, tinham que ler entre 150 e 250 textos – muitos deles problemáticos – que podiam chegar a 1.000 palavras cada um. Segundo a revista, todos afirmaram que a tarefa os deixava "mentalmente feridos".

ChatGPT tira dúvidas e cria códigos de programação; veja o que mais o robô pode fazer

Bill Gates sobre robô ChatGPT: 'Estou impressionado com o nível de inovação'

Conheça o ChatGPT, a tecnologia que viralizou por ter resposta para (quase) tudo

'Limpeza' do ChatGPT

O modelo de linguagem do ChatGPT é treinado por uma inteligência artificial que utiliza conteúdos retirados da internet. Sem um filtro, a ferramenta poderia responder aos usuários com mensagens ofensivas.

Para resolver a questão, a OpenAI contratou uma empresa de São Francisco, nos EUA, para revisar dezenas de milhares de textos. Essa companhia, por sua vez, repassou a tarefa para funcionários no Quênia.

Os trabalhadores tinham que sinalizar quando encontravam casos de violência, discurso de ódio, abuso sexual infantil, assassinato, tortura, entre outros.

As informações ajudaram o ChatGPT a detectar esse tipo de conteúdo por conta própria e a evitar que conteúdo tóxico fosse enviado para os usuários.

Segundo a Time, contratos apontam que funcionários da Sama receberam entre US$ 1,32 e US$ 2 por hora (entre R$ 6,87 e R$ 10,42, na cotação de sexta-feira) para sinalizar o material tóxico do ChatGPT, ainda que a OpenAI tenha pagado US$ 12,50 por hora, em média.

A OpenAI confirmou à Time que os trabalhadores ajudaram a remover conteúdo tóxico da ferramenta que seria usada no ChatGPT. Segundo a empresa, esse foi "um passo necessário" para minimizar a quantidade de conteúdo violento e sexual da ferramenta.

Veja que nota o ChatGPT tiraria com uma redação do Enem escrita em 50 segundos

Professores descobrem falhas em textos do robô ChatGPT, mas elogiam novidade

ChatGPT é um robô de conversação (chatbot) da empresa OpenAI

Reprodução

Fim do contrato

O contrato entre a OpenAI e a Sama durou entre novembro de 2021 e fevereiro de 2022, oito meses antes do previsto. A empresa responsável pela revisão do conteúdo disse que interrompeu o acordo após ouvir as preocupações de seus executivos no Quênia com a natureza traumática do trabalho.

Com a decisão, boa parte dos funcionários perderam os bônus que recebiam por analisar conteúdo explícito, enquanto outros foram demitidos. A Sama também trabalhou em sistemas de revisão de conteúdo do Facebook, do Google e da Microsoft.

As situações de estresse entre funcionários que revisam conteúdo também já afetaram redes sociais. Em 2021, o TikTok foi processado por uma funcionária que disse ter sofrido trauma com a moderação de conteúdo.

Um ano antes, o Facebook pagou US$ 52 milhões para moderadores que desenvolveram estresse pós-traumático por terem sido frequentemente submetidos a imagens fortes e a publicações violentas.