Identificação precisa de robôs é desafio para Twitter e academia

Em nota, o Twitter diz que "trabalha globalmente e em escala para detectar e combater proativamente spam e contas automatizadas mal-intencionadas"

© REUTERS/Thomas White

Tech Rede social 09/10/18 POR Folhapress

A dimensão da interferência de robôs em debates públicos, principalmente em períodos eleitorais, representa um desafio para centros de pesquisa e para o Twitter. O microblog é, entre as redes usadas para a troca de informação no Brasil, a que abre mais dados à pesquisa.

PUB

Mesmo assim, especialistas apontam para "jogo de gato e rato" quem tem sido a perseguição por contas automatizadas na plataforma.

Fábio Malini, coordenador do Laboratório de Estudos sobre Imagem e Cibercultura da Universidade Federal do Espírito Santo, diz que a computação trabalha com dados muito objetivos e que quando se adiciona o fator político, o Twitter "entra em curto-circuito".

+ Instagram cria ferramenta para limitar bullying

"As hashtags não são infladas apenas por robôs simples, mas por contas semiautomatizadas, que replicam por plataformas como TweetDeck [site que permite o gerenciamento de diferentes contas]. Há uma dificuldade muito grande de o Twitter e os pesquisadores cravarem o quantitativo", diz.

Segundo ele, o desafio para as duas partes está em englobar em um só cálculo os bots (perfis automatizados), trolls (usuários que não precisam ser robôs e que usam a rede para disseminar ódio ou difamação), botspammers (robôs que enviam mensagens não autorizadas) e ciborgues (perfis operados por humanos e computadores).

Pesquisadores fazem suas análises a partir de dados coletados via API (uma interface que permite que desenvolvedores integrem programas à plataforma). Eles dispõem de quase 50 tipos de dados sobre as contas pessoais. 

Só o Twitter, no entanto, tem acesso a dados sensíveis como o IP (endereço eletrônico) veiculado às contas -sinal importante para a assertividade na identificação de agentes maliciosos. 

Enquanto analisa se excluirá uma conta ou não, o Twitter diz que inibe a visibilidade desse perfil ao público, mas que ele permanece ativo aos pesquisadores na API. 

+ Falha expõe dados pessoais de 500 mil usuários do Google+

"[Isso] não é refletido nas informações que os pesquisadores levam em conta para fazer levantamentos", diz a empresa.

Dessa forma, não é possível saber nem pelo Twitter e nem pelas pesquisas o tamanho do problema de automação na plataforma.

De um lado, a empresa não pode liberar mais dados pelo risco de segurança a usuários. De outro, se divulgar sua metodologia de exclusão de contas, dá margem para que agentes driblem esse processo e criem novas estratégias.

"O Twitter já teve uma API mais aberta, mas isso aumentava o risco à privacidade. Só que o que acontece na plataforma é de interesse público. À medida que você restringe, tem que oferecer uma solução", diz Danilo Doneda, professor do Instituto Brasiliense de Direito Público.

Além da metodologia sigilosa da empresa, não existe um padrão internacional que certifique o que é um robô malicioso.

Centros de pesquisa e empresas, com levantamentos metodológicos próprios, ensaiam maneiras de identificar um número de automatização a partir dos dados externos. O cenário muda de acordo com a instituição.

Um popular exemplo é o Botometer, da Universidade de Indiana, nos Estados Unidos. Trata-se de uma ferramenta online que permite a usuários checarem a probabilidade de seus amigos serem robôs numa escala de zero a cinco.

Em uma simples busca é possível notar que pessoas reais aparecem com chance de 80% de robotização, ou seja, é uma metodologia bem elástica. 

Plataformas como o Botometer usam variáveis como intervalo entre os tuítes das contas, localização dos usuários, padrões de interação, número de publicações em determinado período, relações entre seguidores e uso de avatar. 

A Universidade de Oxford, no Reino Unido, se propõe a analisar a atividade de robôs em eleições ao redor do mundo. Ela opta por um método mais simples: verifica contas que publicam mais de 50 vezes em único dia.

"Descobrimos que esse método é confiável na identificação do comportamento de bots", diz Vidya Narayanan, diretora da pesquisa.

"O desafio é difícil distinguir um bot de um sock puppets [perfis criados com identidade falsa] e de um troll. Todos ampliam a desinformação e criam a polarização."

No Brasil, a FGV-DAAP (Diretoria de Análise de Políticas Públicas da Fundação Getulio Vargas) faz esse tipo de análise desde 2014. O pesquisador Danilo Carvalho diz que metodologia é "conservadora", pois considera só dois critérios.

A FGV entende como robôs as publicações consecutivas com intervalo inferior a um segundo, feitas repetidamente, e contas que utilizam plataformas de automação.

+ WhatsApp tem suspeita sobre urnas e desânimo de petistas

"Outras metodologias se baseiam em algoritmos que usam uma série de fatores para detectar um robô, mas isso pode virar uma caixa-preta, como o caso de Indiana", diz Carvalho.

Já a AP Exata faz levantamentos mercadológicos a clientes. Detectou, por exemplo, que a palavra 'venezuelanos', durante a crise de imigração em Roraima, gerou 21.684 tuítes em 20 dias. Desses, 17,6% eram de "interferência".

A empresa usa essa nomenclatura porque, se tentar detectar apenas robôs, sua margem de erro aumenta. Eles incluem na categoria perfis militantes que são utilizados quase exclusivamente para falar sobre um único tema. Podem não ser robôs, mas trolls ou contas semiautomatizadas.

"Colocamos todo mundo dentro do mesmo saco porque não temos como provar, de acordo com os dados que o Twitter disponibiliza, o que é robô ou não", diz Ricardo Martins, analista de sistemas. 

Especialistas afirmam que o Brasil está atrasado na ciência de detectar essas agentes porque não tem processos de verificação testados por pares científicos. 

Da parte do Twitter, eles dizem que relatórios mensais de transparência seriam bem-vindos, preservando o sigilo necessário para a estratégia de eliminação. 

Os esforços recentes da empresa são reconhecidos pelos acadêmicos, embora a evolução computacional exija urgência para quebrar o ciclo "gato e rato".

"Eles implementaram mudanças, fizeram uma limpeza. O problema é que esse tipo de robô que excluíram é o ladrão de galinha. Os bots que imitam o comportamento humano serão outro tipo de desafio", diz Fabrício Benevenuto, professor da Universidade Federal de Minas Gerais.

Há poucos meses, a empresa fez uma parceria com a academia para mensurar a "saúde" do diálogo na plataforma. A ideia é criar critérios metodológicos para endereçar os principais problemas.

Em nota, o Twitter diz que "trabalha globalmente e em escala para detectar e combater proativamente spam e contas automatizadas mal-intencionadas".

A empresa afirma que desafia cerca de 10 milhões de contas a comprovarem que não são automações maliciosas ou disseminadoras de spam por semana.

"Graças a melhorias em processos e tecnologia, atualmente estamos removendo 214% mais contas em função de violação a nossas políticas de spam em comparação com um ano atrás", diz. Com informações da Folhapress. 

Leia também: Instituto alemão descobre estrela rara pobre em carbono

PARTILHE ESTA NOTÍCIA

RECOMENDADOS

fama Luto Há 19 Horas

Morre aos 95 anos o ator e comediante José Santa Cruz

tech ESA Há 17 Horas

Sonda da Agência Europeia detecta 'aranhas' em Marte

fama DEBORAH-EVELYN Há 16 Horas

Famosos cometem gafe ao elogiar Deborah Evelyn em foto com marido

mundo Titanic Há 20 Horas

Relógio de ouro do homem mais rico no Titanic vai ser leiloado

brasil Paraíba Há 15 Horas

Menina de 6 anos tem pinos colocados em perna errada

lifestyle Signos Há 17 Horas

Estes são os três signos que adoram ser independentes!

mundo Argentina Há 19 Horas

Bebê morre após ser abandonado pela mãe em stand de carros na Argentina

fama Iraque Há 12 Horas

Influencer iraquiana é morta a tiros em Bagdá

tech Ataque Há 17 Horas

Hackers vazam imagens de pacientes de cirurgia nus e prontuários de clínica de saúde sexual

mundo Equador Há 19 Horas

Queda de helicóptero militar no Equador causa morte dos oito tripulantes