Publicado originalmente por MIT Technology Review
Recentemente, publiquei uma história sobre um novo tipo de trabalho que está se tornando essencial na fronteira da internet: o papel de policial de conteúdo do metaverso. Moderadores de conteúdo no metaverso entram disfarçados em mundos 3D por meio de um headset VR e interagem com os usuários para detectar mau comportamento em tempo real. Tudo soa como um filme e, de certa forma, é literalmente. Mas, apesar de parecer um mundo de desenho animado, o metaverso é povoado por pessoas muito reais que podem fazer coisas ruins que precisam ser detectadas no momento.
Conversei com Ravi Yekkanti, que trabalha para uma empresa terceirizada de moderação de conteúdo chamada WebPurify, que fornece serviços para empresas de metaverso. Ravi modera esses ambientes e treina outros para fazerem o mesmo. Ele me disse que se comporta mal todos os dias, mas adora seu trabalho e se orgulha de sua importância. Entramos em como o trabalho dele funciona em minha história esta semana, mas havia muito mais detalhes fascinantes em nossa conversa do que eu poderia abordar nesse formato, e gostaria de compartilhar o resto com você aqui.
Aqui está o que Ravi tinha a dizer, em suas próprias palavras:
Comecei a trabalhar nessa área em 2014. Até agora, já examinei mais de um bilhão de conteúdos, como textos, imagens e vídeos. Desde o primeiro dia, sempre amei o que fazia. Isso é estranho vindo de alguém que trabalha com moderação, mas comecei na área trabalhando com resenhas de filmes, livros e música. Era como uma extensão dos meus hobbies.
A grande diferença é a experiência. A moderação de RV parece tão real. Eu revi muito conteúdo, mas isso é definitivamente diferente porque você está realmente moderando o comportamento.
E você também faz parte disso, então o que você faz e quem você é pode desencadear um mau comportamento em outro jogador. Sou indiano com sotaque e isso pode desencadear algum tipo de comportamento agressivo de outros jogadores. Eles podem vir até mim, dizer algo desagradável e tentar me insultar ou me intimidar com base na minha etnia.
Não revelamos, é claro, que somos moderadores. Temos que manter nosso disfarce porque isso pode torná-los cautelosos ou algo assim.
O segundo aspecto da preparação está relacionado à saúde mental. Nem todos os jogadores se comportam da maneira que você deseja. Às vezes as pessoas vêm apenas para serem desagradáveis. Nós nos preparamos analisando diferentes tipos de cenários que você pode encontrar e como lidar melhor com eles.
Também rastreamos tudo. Nós rastreamos qual jogo estamos jogando, quais jogadores entraram no jogo, a que horas começamos o jogo, a que horas estamos terminando o jogo. Sobre o que foi a conversa durante o jogo? O jogador está usando linguagem imprópria? O jogador está sendo abusivo?
Às vezes, encontramos um comportamento limítrofe, como alguém que usa um palavrão por frustração. Ainda rastreamos, porque pode haver crianças na plataforma. E às vezes o comportamento ultrapassa um certo limite, como se estivesse se tornando muito pessoal, e temos mais opções para isso…
Veja o artigo completo no site MIT Technology Review