Xbox da Microsoft lança primeiro relatório de transparência de moderação de conteúdo

(Bloomberg) — O Xbox, da Microsoft. divulgou seu primeiro relatório de transparência na segunda-feira, detalhando como a gigante dos jogos modera seus 3 bilhões de jogadores globais.

O Xbox tomou medidas contra mais de 4,3 milhões de contas inautênticas entre janeiro e junho, de acordo com o relatório, depois de aumentar sua moderação proativa nove vezes no mesmo período do ano anterior. Essas contas inautênticas geralmente são contas automatizadas ou bots que podem ser usados ​​para enganar ou assediar jogadores por meio de e-mails de spam, facilitar atividades de trapaça, aumentar números de amigos ou rastrear números ou lançar ataques de negação. serviço distribuído ou DDoS.

Dave McCarthy, vice-presidente de serviços para jogadores do Xbox, disse que o aumento na moderação proativa é um esforço para “empurrar” as contas antes que cheguem ao sistema. As imposições proativas, que representaram 65% do total, referem-se à inteligência artificial ou moderadores humanos que identificam, analisam e tomam medidas sobre comportamentos que violam os padrões da comunidade Xbox. A Microsoft também conta com jogadores para relatar conteúdo impróprio por meio de moderação responsiva.

Contas inautênticas não são apenas de bots que anunciam códigos de trapaça para jogos, disse McCarthy. “Existe atividade regular de atores de estados-nação e outros grupos financiados tentando distribuir conteúdo que não tem lugar em nossos serviços”, acrescentou.

O Xbox se junta a um número crescente de provedores de jogos e serviços de jogos que planejam emitir relatórios de transparência regulares em um esforço para combater a toxicidade e o abuso e criar uma experiência segura para os jogadores. O Twitch, o site de jogos ao vivo de propriedade da Amazon.com Inc., lançou seu primeiro relatório no início de 2021, e o Discord lançou o primeiro em 2019. Os concorrentes do console japonês Xbox PlayStation, de propriedade da Sony Group Corp. t publicar dados de moderação semelhantes. A Microsoft disse que lançaria um relatório a cada seis meses.

McCarthy se recusou a comentar sobre o tamanho ou o status de emprego dos moderadores humanos do Xbox. Discord e Twitch fornecem muito mais detalhes sobre seus esforços de moderação, incluindo o número de envios processados ​​e dados sobre conteúdo extremista. McCarthy disse que o Xbox estava “aprendendo como é um bom relatório de transparência para nós”.

A Microsoft conseguiu aumentar a moderação proativa no site em parte graças à aquisição pela empresa em 2021 do provedor de moderação de conteúdo Two Hat, conhecido por seu software de filtragem de texto. McCarthy também citou os recursos mais amplos da Microsoft, documentados em seu Digital Trust Report semestral, que permite à empresa “colher mais produtos da Microsoft Research usando detecção de vídeo e imagem”.

Ao contrário da Riot Games, de propriedade da Tencent Holdings Ltd., que produz jogos populares de League of Legends e Valorant, o Xbox não captura ou analisa as vozes dos jogadores quando uma denúncia de assédio é enviada. McCarthy disse que o Xbox pode aumentar seus recursos nessa área no futuro, mas observou que há considerações de privacidade.

O Xbox tomou medidas contra 1 milhão de contas por palavrões, 814.000 contas por conteúdo sexual adulto e 759.000 por assédio ou bullying nos primeiros seis meses de 2022, de acordo com o relatório. Os jogadores do Xbox forneceram mais de 33 milhões de relatórios durante o mesmo período, uma queda de 36% em relação ao mesmo período do ano anterior.

A Microsoft está aguardando a aprovação regulatória para a compra da Activision Blizzard Inc., que pode trazer jogos populares como Call of Duty e Overwatch para sua cobertura de moderação. McCarthy se recusou a comentar sobre como ou se o Xbox participará da moderação desses jogos, citando a revisão regulatória em andamento.

© 2022 Bloomberg LP