Desde que foi lançado, no final de 2022, o programa de inteligência artificial ChatGPT despertou admiração pelo avanço tecnológico que representa — mas, também, temores sobre seus impactos futuros.
Diante desse chatbot capaz
de responder a quase todas as perguntas do usuário e de produzir textos
que parecem ter sido escritos por um humano, surgiram perguntas como:
os estudantes vão usá-lo para fazer o dever de casa? E os políticos para
escrever seus discursos?
Será que esse artigo que você está lendo foi escrito por um humano ou um robô?
Esse
tipo de programa despertou ainda preocupações com os trabalhos que
deixarão de existir por conta da automatização e com os direitos
autorais, já que essas ferramentas obtêm informações da internet e
geralmente não citam fontes.
Mas existe uma outra polêmica até agora pouco falada: ela tem a ver com as centenas de milhares de trabalhadores, muitos de baixa renda, sem os quais sistemas de inteligência artificial (IA) como o ChatGPT não existiriam.
Estamos
falando da "força de trabalho oculta", como chamou a organização sem
fins lucrativos Partnership on AI (PAI), que reúne representantes de
universidades, de organizações da sociedade civil, da mídia e da própria
indústria envolvida com a IA.
Essa
força oculta é composta por pessoas subcontratadas por grandes empresas
de tecnologia, geralmente em países pobres do Hemisfério Sul, para
"treinar" sistemas de IA.
'Rotuladores'
Esses homens e mulheres realizam uma tarefa tediosa — e potencialmente prejudicial à saúde mental, como abordaremos adiante — mas que é essencial para que programas como o ChatGPT funcionem.Eles rotulam milhões de dados e imagens para ensinar a IA a agir.
Tomemos, por exemplo, o chatbot do momento.
Quando
você faz uma pergunta ao ChatGPT, o programa usa cerca de 175 bilhões
de "parâmetros" ou variáveis para decidir o que responder.
Como já mencionamos, esse sistema de IA usa como fonte principal as informações obtidas na internet. Mas como distinguir os conteúdos? Graças às referências "ensinadas" por seres humanos.
"Não há nada de inteligente na inteligência artificial. Ela tem que aprender à medida que é treinada", explica Enrique García, co-fundador e gerente da DignifAI, empresa americana com sede na Colômbia.
A empresa contrata esses "rotuladores" de dados (data taggers).
Na indústria de tecnologia, esse tipo de atividade é chamado de "enriquecimento de dados".
Ironicamente, apesar de ser um trabalho essencial para o desenvolvimento da IA, o enriquecimento de dados é o elo mais pobre da cadeia produtiva das grandes empresas de tecnologia.
Um fato que foi reconhecido pela organização Partnership on AI.
"Apesar do papel fundamental que esses profissionais de enriquecimento de dados desempenham, um crescente corpo de pesquisa revela as precárias condições de trabalho que esses trabalhadores enfrentam", disse a organização, a qual a OpenAI, empresa que criou o ChatGPT, faz parte.
Menos de US$2 a hora
Uma
investigação da revista Time revelou que muitos dos "rotuladores"
terceirizados pela OpenAI para treinar seu ChatGPT recebiam entre US$
1,32 e US$ 2 por hora (cerca de R$ 6 a R$10) .
Segundo reportagem do jornalista Billy Perrigo, a empresa de tecnologia, que tem a Microsoft entre seus principais investidores, terceirizou o trabalho de enriquecimento de dados por meio de uma companhia chamada Sama, com sede em San Francisco — que por sua vez contratou trabalhadores no Quênia para a atividade.
Através
de um comunicado, um porta-voz da OpenAI disse que a terceirizada era
responsável pela gestão dos salários e condições de trabalho dos taggers contratados para trabalhar no ChatGPT.
"Nossa missão é garantir que a IA beneficie toda a humanidade, e trabalhamos duro para construir sistemas de IA seguros e úteis que limitem o viés e o conteúdo nocivo", disse o porta-voz.
A
Sama também contrata para o Google e a Meta "rotuladores" em outros
países de baixa renda, como Uganda e Índia. A empresa se apresenta como
uma "IA ética" e afirma ter tirado mais de 50 mil pessoas da pobreza.
No
entanto, Martha Dark, diretora da organização ativista britânica
Foxglove — cujo objetivo é "enfrentar gigantes da tecnologia e governos,
por um futuro onde a tecnologia seja usada para beneficiar a todos, não
apenas os ricos e poderosos" —, avalia que as empresas de tecnologia
usam a terceirização para pagar aos trabalhadores muito menos do que
deveriam.
"Todas essas empresas são multibilionárias e é francamente inadequado que estejam pagando US$ 2 por hora para as pessoas que tornam essas plataformas possíveis", disse ele.
Mas para Enrique García, do DignifAI, a polêmica sobre os salários “é uma questão de perspectiva”.
Na Europa e nos Estados Unidos, pode-se entender que ganhar essa quantia não é suficiente, mas em outras partes do mundo, este pode ser um bom salário, argumenta.
"Muitas pessoas criticam nosso setor pela questão salarial, mas na DignifAI nosso piso salarial é de US$ 2,30 a hora, o que representa 1,8 vezes o salário mínimo na Colômbia", diz.
"Se o projeto for mais complexo e exigir profissionais especializados, como arquitetos ou médicos, o salário pode chegar a US$ 25 por hora", diz García.
Embora
reconheça que existem empresas que pagam abaixo do salário mínimo, o
empresário considera injusto focar apenas neste setor.
"Existem dinâmicas de terceirização em muitos setores, não apenas neste, então também não é justo nos rotular por 'exploração digital'", diz ele.
Impacto social
García também destaca que existem várias empresas do setor, como a sua, que têm impacto social e o objetivo de "aumentar a produtividade e a dignidade das pessoas".
O lema do DignifAI é "terceirizar a dignidade através da inteligência artificial".
A empresa está sediada em Cúcuta, na fronteira entre a Colômbia e a Venezuela, e busca dar trabalho aos migrantes venezuelanos e a colombianos que migraram internamente.
"Muitos deles, antes de trabalhar conosco, ganhavam US$ 4 ou US$ 5 por dia. Para essa população vulnerável e sem opções de mercado de trabalho, ganhar 1,8 vezes o salário mínimo colombiano é bastante atraente", afirma.
Ingrid, uma venezuelana de 42 anos que chegou à Colômbia no final de 2018, ratifica isso.
Licenciada
em pedagogia, Ingrid, que preferiu não fornecer seu sobrenome, disse à
BBC que atualmente não pode dar aulas porque ainda não validou seu
diploma na Colômbia.
Ela afirma que trabalhar como "rotuladora" para o DignifAI lhe permitiu ganhar a vida e também se preparar para outra profissão.
"Eu trabalho quatro horas por dia e tenho conseguido usar o tempo restante fazendo um curso de design", diz a pedagoga.
Apesar de não trabalhar mais como data tagger, por ter sido promovida ao cargo de supervisora de projetos, ela não hesita em recomendar esse trabalho.
"É mais gratificante, menos cansativo e mais bem pago do que ser garçonete, auxiliar de meio período ou fazer trabalhos físicos", avalia, acrescentando que a maioria de seus colegas são donas de casa, vendedores ambulantes ou estudantes.
Saúde mental
Além do salário, outra questão sobre as condições de trabalho dos data taggers é o efeito na saúde mental.
Não é o tédio da tarefa que mais preocupa alguns especialistas — embora esta seja outra crítica que se faz a este trabalho — mas o material tóxico ao qual alguns deles estão expostos.
Uma
das funções desses trabalhadores é ensinar ao programa de IA quais
informações não são adequadas para publicação — mergulhando nos cantos
mais sombrios da internet e rotulando os materiais violentos, sinistros e
perversos que ali estiverem, de forma a ordenar que a máquina ignore
tudo isso.
De acordo com Martha Dark, da organização Foxglove, fazer esse trabalho "pode causar estresse pós-traumático e outros problemas de saúde mental para muitos trabalhadores".
Sua organização dá assistência a um ex-funcionário da Sama que trabalhou como moderador do Facebook no Quênia. Em 2022, ele processou a Sama e a Meta, dona da rede social, pelos danos psicológicos que sofreu. O caso ainda tramita na Justiça de Nairóbi.
"Esses trabalhos têm um custo para a saúde mental de quem os faz e devem fornecer tratamento psiquiátrico adequado, além de um salário mais justo", disse Dark à BBC.
Segundo a ativista, as grandes empresas de tecnologia têm muitos recursos financeiros para prestar esse tipo de assistência, mas não o fazem porque "colocam o lucro acima da segurança de seus trabalhadores".
Enrique García reconhece que as grandes empresas poderiam investir mais na contratação de taggers, mas afirma que exigir muito delas pode levá-las a procurar trabalhadores em outros lugares.
"Pode ser que a grande tecnologia possa pagar mais, mas estamos muito gratos pelas oportunidades", diz ele.
"Pelo menos estamos trazendo oportunidades de geração de renda para cá onde, sem essa alternativa, não existiriam."
E aí, o que achou? Aproveite para acompanhar o Portal Vovo GaTu no Twitter [1] [2], Instagram, Facebook, TikTok, Koo App e no Youtube!
Continue acompanhando o Portal Vovo GaTu
para ficar por dentro de outros conteúdos de entretenimento!
--------------------------------------------------------------------------------------
Enfim, gosta do Portal Vovo GaTu😍? Siga-nos nas redes sociais.
Fique por dentro das noticias, e nao perca nada!😄 Contamos consigo!
Herley costa: