Meteorologia

  • 28 MARçO 2024
Tempo
--º
MIN --º MÁX --º

Edição

Identificação precisa de robôs é desafio para Twitter e academia

Em nota, o Twitter diz que "trabalha globalmente e em escala para detectar e combater proativamente spam e contas automatizadas mal-intencionadas"

Identificação precisa de robôs é desafio para Twitter e academia
Notícias ao Minuto Brasil

18:10 - 09/10/18 por Folhapress

Tech Rede Social

A dimensão da interferência de robôs em debates públicos, principalmente em períodos eleitorais, representa um desafio para centros de pesquisa e para o Twitter. O microblog é, entre as redes usadas para a troca de informação no Brasil, a que abre mais dados à pesquisa.

Mesmo assim, especialistas apontam para "jogo de gato e rato" quem tem sido a perseguição por contas automatizadas na plataforma.

Fábio Malini, coordenador do Laboratório de Estudos sobre Imagem e Cibercultura da Universidade Federal do Espírito Santo, diz que a computação trabalha com dados muito objetivos e que quando se adiciona o fator político, o Twitter "entra em curto-circuito".

+ Instagram cria ferramenta para limitar bullying

"As hashtags não são infladas apenas por robôs simples, mas por contas semiautomatizadas, que replicam por plataformas como TweetDeck [site que permite o gerenciamento de diferentes contas]. Há uma dificuldade muito grande de o Twitter e os pesquisadores cravarem o quantitativo", diz.

Segundo ele, o desafio para as duas partes está em englobar em um só cálculo os bots (perfis automatizados), trolls (usuários que não precisam ser robôs e que usam a rede para disseminar ódio ou difamação), botspammers (robôs que enviam mensagens não autorizadas) e ciborgues (perfis operados por humanos e computadores).

Pesquisadores fazem suas análises a partir de dados coletados via API (uma interface que permite que desenvolvedores integrem programas à plataforma). Eles dispõem de quase 50 tipos de dados sobre as contas pessoais. 

Só o Twitter, no entanto, tem acesso a dados sensíveis como o IP (endereço eletrônico) veiculado às contas -sinal importante para a assertividade na identificação de agentes maliciosos. 

Enquanto analisa se excluirá uma conta ou não, o Twitter diz que inibe a visibilidade desse perfil ao público, mas que ele permanece ativo aos pesquisadores na API. 

+ Falha expõe dados pessoais de 500 mil usuários do Google+

"[Isso] não é refletido nas informações que os pesquisadores levam em conta para fazer levantamentos", diz a empresa.

Dessa forma, não é possível saber nem pelo Twitter e nem pelas pesquisas o tamanho do problema de automação na plataforma.

De um lado, a empresa não pode liberar mais dados pelo risco de segurança a usuários. De outro, se divulgar sua metodologia de exclusão de contas, dá margem para que agentes driblem esse processo e criem novas estratégias.

"O Twitter já teve uma API mais aberta, mas isso aumentava o risco à privacidade. Só que o que acontece na plataforma é de interesse público. À medida que você restringe, tem que oferecer uma solução", diz Danilo Doneda, professor do Instituto Brasiliense de Direito Público.

Além da metodologia sigilosa da empresa, não existe um padrão internacional que certifique o que é um robô malicioso.

Centros de pesquisa e empresas, com levantamentos metodológicos próprios, ensaiam maneiras de identificar um número de automatização a partir dos dados externos. O cenário muda de acordo com a instituição.

Um popular exemplo é o Botometer, da Universidade de Indiana, nos Estados Unidos. Trata-se de uma ferramenta online que permite a usuários checarem a probabilidade de seus amigos serem robôs numa escala de zero a cinco.

Em uma simples busca é possível notar que pessoas reais aparecem com chance de 80% de robotização, ou seja, é uma metodologia bem elástica. 

Plataformas como o Botometer usam variáveis como intervalo entre os tuítes das contas, localização dos usuários, padrões de interação, número de publicações em determinado período, relações entre seguidores e uso de avatar. 

A Universidade de Oxford, no Reino Unido, se propõe a analisar a atividade de robôs em eleições ao redor do mundo. Ela opta por um método mais simples: verifica contas que publicam mais de 50 vezes em único dia.

"Descobrimos que esse método é confiável na identificação do comportamento de bots", diz Vidya Narayanan, diretora da pesquisa.

"O desafio é difícil distinguir um bot de um sock puppets [perfis criados com identidade falsa] e de um troll. Todos ampliam a desinformação e criam a polarização."

No Brasil, a FGV-DAAP (Diretoria de Análise de Políticas Públicas da Fundação Getulio Vargas) faz esse tipo de análise desde 2014. O pesquisador Danilo Carvalho diz que metodologia é "conservadora", pois considera só dois critérios.

A FGV entende como robôs as publicações consecutivas com intervalo inferior a um segundo, feitas repetidamente, e contas que utilizam plataformas de automação.

+ WhatsApp tem suspeita sobre urnas e desânimo de petistas

"Outras metodologias se baseiam em algoritmos que usam uma série de fatores para detectar um robô, mas isso pode virar uma caixa-preta, como o caso de Indiana", diz Carvalho.

Já a AP Exata faz levantamentos mercadológicos a clientes. Detectou, por exemplo, que a palavra 'venezuelanos', durante a crise de imigração em Roraima, gerou 21.684 tuítes em 20 dias. Desses, 17,6% eram de "interferência".

A empresa usa essa nomenclatura porque, se tentar detectar apenas robôs, sua margem de erro aumenta. Eles incluem na categoria perfis militantes que são utilizados quase exclusivamente para falar sobre um único tema. Podem não ser robôs, mas trolls ou contas semiautomatizadas.

"Colocamos todo mundo dentro do mesmo saco porque não temos como provar, de acordo com os dados que o Twitter disponibiliza, o que é robô ou não", diz Ricardo Martins, analista de sistemas. 

Especialistas afirmam que o Brasil está atrasado na ciência de detectar essas agentes porque não tem processos de verificação testados por pares científicos. 

Da parte do Twitter, eles dizem que relatórios mensais de transparência seriam bem-vindos, preservando o sigilo necessário para a estratégia de eliminação. 

Os esforços recentes da empresa são reconhecidos pelos acadêmicos, embora a evolução computacional exija urgência para quebrar o ciclo "gato e rato".

"Eles implementaram mudanças, fizeram uma limpeza. O problema é que esse tipo de robô que excluíram é o ladrão de galinha. Os bots que imitam o comportamento humano serão outro tipo de desafio", diz Fabrício Benevenuto, professor da Universidade Federal de Minas Gerais.

Há poucos meses, a empresa fez uma parceria com a academia para mensurar a "saúde" do diálogo na plataforma. A ideia é criar critérios metodológicos para endereçar os principais problemas.

Em nota, o Twitter diz que "trabalha globalmente e em escala para detectar e combater proativamente spam e contas automatizadas mal-intencionadas".

A empresa afirma que desafia cerca de 10 milhões de contas a comprovarem que não são automações maliciosas ou disseminadoras de spam por semana.

"Graças a melhorias em processos e tecnologia, atualmente estamos removendo 214% mais contas em função de violação a nossas políticas de spam em comparação com um ano atrás", diz. Com informações da Folhapress. 

Leia também: Instituto alemão descobre estrela rara pobre em carbono

Campo obrigatório