Conteúdos gerados por IA que parecem ser profissionais e competentes, mas na verdade são superficiais e incompletos: essa é a definição de workslop, uma ameaça para as empresas

A chegada da inteligência artificial generativa nas empresas, entre 2022 e 2023, foi rodeada de expectativas.
A principal delas era que a tecnologia seria capaz de aumentar a produtividade dos funcionários.
Mas, à medida em que a adoção da tecnologia se consolida nas companhias, uma nova questão aparece, afetando justamente o ganho de produtividade: o chamado workslop.
O termo ganhou destaque após um artigo publicado no Harvard Business Review, no qual especialistas alertavam para os conteúdos gerados por IA que aparentavam ser refinados e profissionais à primeira vista, mas que, na verdade, eram superficiais, incompletos ou pouco úteis.
Os autores do artigo usavam como base uma pesquisa da Stanford University, em parceria com o BetterUp Lab.
No levantamento, realizado com 1.150 funcionários americanos de diversos setores, 40% relataram ter recebido conteúdo inadequado no trabalho ao longo de um mês.
Os funcionários que se depararam com esse tipo de conteúdo estimam que, em média, 15,4% do que receberam no trabalho se enquadrava nessa categoria.
O fenômeno ocorre principalmente entre colegas (40%), mas o conteúdo inadequado também é enviado a gerentes por subordinados diretos (18%).
Em 16% dos casos, esse conteúdo é disseminado de cima para baixo na hierarquia, de gerentes, ou até mesmo de níveis hierárquicos superiores, para as suas equipes.
“No mundo corporativo, existe uma grande expectativa de que a IA generativa gere ganhos de produtividade. No entanto, se estamos produzindo um conteúdo automatizado de má qualidade, haverá um trabalho extra para refazê-lo. No final, o que vai acontecer é uma perda de produtividade, não um ganho”, diz Marcio Tabach, pesquisador da TGT ISG.
Por que o workslop está acontecendo?
Para Cassio Pantaleoni, diretor de AI da Quality Digital, o problema começa na percepção equivocada sobre o que a IA realmente entrega.
“A IA não dá a resposta correta. Esse é o primeiro equívoco conceitual com o qual a gente está tendo que conviver neste momento. Ela dá a resposta apropriada à pergunta que você fez”, afirma.
O risco aumenta porque a IA é, por natureza, convincente.
Ela escreve bem, organiza ideias e constrói argumentos com fluidez, mesmo quando o conteúdo está errado ou incompleto.
“A IA nada mais é do que uma máquina de completar. Ela vai completar os buracos. Se você deixar brechas, ela vai completar com o que tiver na mão”, diz Pantaleoni.
Segundo ele, é aí que entra a inteligência humana, para descobrir o que não faz sentido e evitar a armadilha do workslop.
Outro elemento que acelera o risco é a falta de treinamento dos funcionários sobre como essas ferramentas funcionam, de que maneira devem ser usadas e como podem, de fato, melhorar a produtividade.
“Quando surge uma nova tecnologia, existe um tempo de aprendizado até as pessoas saberem usar de forma apropriada. Elas precisam entender para o que serve e para o que não serve. Obviamente haverá um processo de tentativa e erro, mas, depois disso, ela será extremamente produtiva”, diz Tabach.
Para o diretor, o hype só fez aumentar a dificuldade.
“A promessa de uma tecnologia capaz de realizar em alguns minutos um trabalho que levaria várias horas é muito sedutora. Quem não quer isso?”
Como evitar o workslop
Segundo os especialistas, isso exige uma mudança de postura, tanto das empresas quanto dos profissionais.
Do lado organizacional, há um desafio de capacitação.
Não basta disponibilizar ferramentas, é preciso desenvolver o que os especialistas chamam de letramento em IA, que é ter a capacidade de entender como esses sistemas funcionam e como extrair valor real deles.
Já do lado profissional, a principal mudança está na responsabilidade sobre o que é entregue.
O fato de um conteúdo ter sido gerado por IA não reduz nem transfere a responsabilidade do funcionário.
Nesse sentido, práticas de validação podem ganhar destaque.
Os especialistas sugerem usar a própria IA como ferramenta para criticar o conteúdo gerado, criando uma espécie de segunda camada de análise e de checagem.
Ao confrontar respostas diferentes, o usuário passa a enxergar melhor a primeira versão e consegue refinar o trabalho.
Ainda assim, essa validação automatizada não substitui o julgamento humano, apenas o complementa.
Entra aí o conhecimento do funcionário e sua disposição para checar as informações com outras fontes, quando necessário.
“A inteligência artificial será uma tremenda ferramenta para a produtividade, vai revolucionar muita coisa, mas serão necessários profissionais com senso crítico para medir seu desempenho e supervisionar se está funcionando corretamente”, diz Tabach.
Fonte:
Harvard Business Review.
Marcio Tabach, pesquisador da TGT ISG.
Cassio Pantaleoni, diretor de AI da Quality Digital.
Época Negócios – Futuro do Trabalho.
Mundiblue.
