Sinais do Reino


Artigos
  • Voltar






17/04/2021
A inteligência artificial pode nos ensinar a ser mais humanos?

A inteligência artificial pode nos ensinar a ser mais humanos?

16/04/2021 10:27 CEST

Na América, é usado pela empresa Cogito para tornar as operadoras de call center mais empáticas. Até onde podemos ir?

por Silvia Renda

Uma máquina pode nos ensinar a ser mais humanos? Nos Estados Unidos, uma empresa promete fazê-lo corrigindo o comportamento das operadoras de call center que ficam aquém dos padrões de empatia exigidos. Cogito usa inteligência artificialque monitora as palavras usadas e o tom das chamadas. Funciona assim: se o cliente começar a parecer irritado ou chateado, um sinal de empatia será enviado para a operadora, convidando-o a se relacionar de outra forma. O objetivo é “ajudar as pessoas a serem a melhor versão de si mesmas”, diz o slogan da empresa. Não importa se aquela operadora está com um tom de voz cansado por ter chegado ao fim de um turno de trabalho extenuante, se talvez naquele dia ele esteja com algum problema de saúde ou se seu humor não estiver dos melhores porque foi deixado por seu parceiro . A inteligência artificial não leva em conta a humanidade e, no entanto, a humanidade pretende ensiná-la robotizando o funcionário. Um paradoxo que levanta uma questão: até que ponto podemos legitimar os controles do Big Brother no local de trabalho?

Em fevereiro deste ano, a Organização Internacional do Trabalho de Genebra elaborou um relatório sobre as condições de trabalho dos algoritmos ao longo do tempo. “Dos dados empíricos sobre as condições dos trabalhadores das plataformas digitais, emergiu uma sujeição total ao algoritmo: a impossibilidade de se associar a sindicatos, de falar com um ser humano caso algo dê errado, é desastrosa para os trabalhadores”, explica a Huffpost Andrea Renda, professora de políticas digitais do European University Institute, "Não são apenas as garantias conquistadas em anos de lutas pelos direitos dos trabalhadores, mas também a frustração de ser julgado sem um diálogo real, com fortes impactos também para saúde mental" É nesses cenários que surgem situações alarmantes como a do trabalhador amazonense de fraldas, incapaz de parar para suprir suas necessidades fisiológicas, pois do contrário faria menos partos: “O algoritmo que julga se você está abaixo ou acima do padrão se baseia em critérios de otimização da empresa, não em um parâmetro de humanidade, dignidade ou compatibilidade legal . Para atingir o objetivo é necessário ser um super-herói, tanto pela velocidade quanto pela ausência de necessidades fisiológicas ”.

Além do humano, como um robô. O impulso é padronizar o comportamento, a consequência é a intrusão na esfera privada da atitude a ser realizada no local de trabalho. “Temos que ter muito cuidado porque a inteligência artificial terá um impacto generalizado em nossas vidas”, disse o professor Renda a Huffpost. “É possível imaginar isso acontecendo em todos os locais de trabalho, com a consequente perda de controle e humanidade na maneira como nos organizamos nossas interações sociais ”.

A inteligência artificial é capaz de detectar um tom de voz associado a comportamentos agressivos, interceptar termos considerados inadequados. O risco é que esses dados também sejam disponibilizados ao empregador, que poderá penalizar quem receber mais denúncias do sistema de inteligência artificial. Mas a forma como o operador pronuncia as palavras pode ser julgada inadequada, independentemente de respeitarem ou não a ética. “Esses sistemas precisam de bilhões de exemplos para treiná-los”, explica Renda. “No início, o sistema não será preciso, precisará ser apoiado pela atividade humana. Então, a máquina pode se tornar mais autônoma.Em geral, esses são sistemas que usam redes neurais e, portanto, aparecem como 'caixas pretas' que formulam decisões em bases frequentemente inescrutáveis. Mas o que acontece quando um algoritmo afirma que o trabalhador fez algo errado, ele contesta e ninguém pode saber como a inteligência artificial chegou a essa conclusão? Em que medida podemos penalizar certos comportamentos, sem conhecer o contexto, com base em sistemas que estão longe de ser precisos e transparentes? ”.

Nos Estados Unidos, a análise do algoritmo Compas foi usada para decidir quais presidiários conceder liberdade condicional. Mas um algoritmo, programado por homens, pode ser infectado com seus preconceitos. Por exemplo, pode-se atribuir a criminosos completos uma taxa de perigo de 3 em 10 porque são brancos, enquanto as mães com um histórico menos perturbador receberão 8 em 10 porque são afro-americanas. “Quem quer que projete o algoritmo pode fazê-lo de maneira imperfeita ou usar dados não representativos”, diz Renda, “Como um todo, a inteligência artificial é tudo menos inteligente: ela não entende o contexto de suas ações, nemEle não entende se o trabalhador no final do dia teve um resfriado, uma morte na família. Ele nem sabe se foi provocado pelo cliente. Ele não sabe e não quer saber ”. O risco é que se inicie um círculo vicioso: os ritmos de trabalho são exaustivos, o trabalhador fica nervoso, a inteligência artificial penaliza-o, isso o deixa ainda mais nervoso, para se recuperar tem que se submeter a ritmos de trabalho ainda mais exaustivos. a saúde mental do trabalhador é destruída: “A necessidade de cuidar da saúde mental do trabalhador é cada vez mais sentida em palavras, mas pouco traduzida em políticas concretas. Estamos enfrentando uma transição que tem um grande impacto na alienação. O que não aconteceu inteiramente com a primeira revolução industrial está acontecendo hoje, com a era das fraldas ”.

Entre os vários aspectos grotescos desta situação, diz o professor Renda, está o fato de que um trabalhador nessas condições estará cada vez mais em desvantagem. Uma vez treinada, a inteligência artificial poderia substituir o operador do call center, o radiologista, o piloto e muitos outros. Quanto mais você protesta, mais rápido o processo de substituição: “Protestar muito não vale a pena se não houver apoio do governo e os governos não apoiarem muito os trabalhadores porque isso significaria aumentar os custos para as empresas e, portanto, desestimulá-los a investir em O país deles. Há um novo garoto na cidade, as Águias cantaram há algum tempo. Tem alguém que pode tirar nossos empregos, que antes não existiam ”. Alguém que trabalha 24 horas por dia, 7 dias por semana, não sai de férias, não se incomoda, não precisa ser pago e não engravida.

Fonte: https://www.huffingtonpost.it/entry/puo-un-algoritmo-insegnarci-a-essere-piu-umani_it_60783301e4b020e576c1af82




Artigo Visto: 302

 




Total Visitas Únicas: 6.306.352
Visitas Únicas Hoje: 606
Usuários Online: 141