15/09/2015 11h13 - Updated 15/09/2015 11h13

Inteligência artificial pode reduzir abusos na internet

Photo: reproduction
Photo: reproduction

Um sistema utilizado pela Riot Games, desenvolvedora do League of Legends, pode ajudar a reduzir abusos na internet. In the last years, a empresa testou a inteligência artificial para monitorar a comunicação entre os jogadores, punindo comportamentos negativos e recompensando os positivos.

Os resultados são animadores: de acordo com Jeffrey Lin, chefe de sistemas sociais da Riot, 92% dos jogadores punidos não reincidem na violação. “Os desafios que enfrentamos em League of Legends podem ser vistos em qualquer jogo online, plataforma, comunidade ou fórum. That is why, estamos dispostos a compartilhar os nossos dados e melhores práticas com o setor industrial. Esperamos que outros estúdios e empresas percebam que a toxicidade on-line não é um problema impossível de se resolver”, conta ele.

How does it work?
O jogo usa a inteligência artificial para identificar linguagem negativa em 15 idiomas e pode oferecer uma resposta aos jogadores em 5 minutes. Before, o processo era feito manualmente e podia levar até uma semana para ser finalizado.

Quem é identificado tendo um comportamento abusivo na plataforma pode enfrentar limitações nos recursos de bate-papo e até ser proibido de prosseguir se não completar jogos sem nenhum incidente.

Uma das idéias cruciais é de que o comportamento abusivo não vem necessariamente de pessoas terríveis; ele vem de pessoas comuns que têm um dia ruim. Isso significa que as estratégias para lidar com o comportamento tóxico na web precisam dar conta de nossa tendência humana coletiva de permitir que o pior de nós mesmos a apareça sob o anonimato da internet”, explica Justin Reich, do Centro Berkman de Harvard, que tem estudado o trabalho da Riot.

difficulties
Um dos principais desafios do sistema é a análise de contexto. Nos jogos, os usuários podem acabar utilizando palavras e expressões que, em outras situações, poderiam ser consideradas crueis e abusivas, mas não na plataforma.

As máquinas, However, não são capazes de compreender o sarcasmo. Essa é a barreira mais significativa na utilização da inteligência artificial para analisar violações na rede.

Para solucionar a dificuldade e aumentar a precisão nas escolhas, a equipe da Riot usa mais de um sistema para chegar a uma decisão, mesmo que o jogador tenha tido um comportamento considerado negativo por um deles.

Source: Digital Look

*** If you are in favor of a totally free and impartial press, collaborate enjoying our page on Facebook and visiting often the AM POST.

Latest news

Contact Terms of use Wp: (92) 99344-0505