Meteorologia

  • 19 MARçO 2024
Tempo
--º
MIN --º MÁX --º

Edição

Tecnologias de reconhecimento facial se popularizam e levantam debate

Essas ferramentas poderiam ser usadas, por exemplo, para monitorar adversários políticos em um protesto

Tecnologias de reconhecimento facial se popularizam e levantam debate
Notícias ao Minuto Brasil

22:28 - 25/07/18 por Notícias Ao Minuto

Tech Polêmica!

O Serviço de Proteção ao Crédito (SPC) anunciou ontem (20) a oferta de uma tecnologia de reconhecimento facial para comerciantes. Lojistas poderão instalar o sistema, que vai registrar traços faciais e validar a identidade do comprador. Os dados serão armazenados no banco de dados do SPC, junto com outras informações sobre a pessoa.

Além da confirmação da identidade, a tecnologia permitirá ao dono do estabelecimento melhorar a consulta às informações do pagador, incluindo a chamada “nota de crédito” (índice de probabilidade de quitação adequada a partir do histórico de crédito da pessoa). Esse tipo de análise deverá ser potencializada caso a lei do cadastro positivo (que torna o compartilhamento de dados de crédito obrigatório, sem necessidade de consentimento) seja aprovada no Congresso.

Em comunicado, o SPC justificou a medida argumentando que a solução protege o lojista ao mitigar perdas e o consumidor ao evitar a possibilidade de obtenção de vantagem com roubo de informações pessoais, como número de cartão de crédito. A adoção desse tipo de solução técnica é um exemplo de como os mecanismos de reconhecimento e detecção facial estão sendo disseminados no Brasil e no mundo.

Em abril deste ano, a empresa responsável pela concessão da linha 4 do metrô da cidade de São Paulo, Via Quatro, instalou no transporte público um sistema que detecta as reações de quem visualiza anúncios em telões nas estações e nos vagões. O objetivo, segundo a empresa, é a obtenção de respostas para direcionar melhor as mensagens veiculadas nos painéis.

De acordo com a assessoria da concessionária, o sistema trabalha com detecção facial, e não reconhecimento facial. O primeiro mapeia reações a partir da leitura das imagens de rostos, enquanto o segundo identifica se a câmera está filmando determinada pessoa. A assessoria acrescentou à Agência Brasil que o sistema não permite a possibilidade de armazenamento ou gravação de imagens.

+ Aplicativo revela o que há de errado com seu carro

O uso de tecnologias de reconhecimento facial vem se popularizando no Brasil e no mundo. Esse processo é acelerado pela criação de aplicações variadas para o recurso. Além da diversificação, o avanço nas técnicas de inteligência artificial tem aumentado a precisão tanto da capacidade de reconhecimento de pessoas quanto do mapeamento de diferentes expressões.

Outro fator de difusão é o barateamento desses sistemas. Um exemplo é a plataforma SAFR – sigla, em inglês, para “Reconhecimento Facial Seguro e Preciso” - lançada pela empresa RealNetworks neste mês. O sistema, disponível gratuitamente nos Estados Unidos e no Canadá, oferece ferramentas baseadas em inteligência artificial de reconhecimento facial de pessoas em tempo real para escolas e outros ambientes. Ela está disponível para download gratuito a escolas dos Estados Unidos e do Canadá.

Segundo a companhia, a ferramenta consegue monitorar milhões de rostos com 99,8% de precisão. No material promocional, o produto é apresentado como uma solução para vigiar e combater ameaças internas e externas, como a presença de pessoas não matriculadas. Mais do que apenas reconhecimento de pessoas, o sistema também identifica emoções e reações por meio das expressões monitoradas. Os responsáveis pela plataforma afirmam que querem tornar as escolas um ambiente mais seguro, especialmente frente ao cenário de episódios recorrentes de ataques armados em instituições de ensino.

Na China uma ferramenta chamada SenseVideo passou a ser vendida no ano passado com funcionalidades de reconhecimento de faces e de objetos. Mas a iniciativa mais polêmica tem sido o uso de câmeras para monitorar atos e movimentações de cidadãos com o intuito de estabelecer “notas sociais” para cada pessoa, que podem ser usada para finalidades diversas, inclusive diferenciar acesso a serviços ou até mesmo gerar sanções.

Na Rússia, o aplicativo FindFace também foi alvo de questionamentos no ano passado ao permitir a localização de pessoas a partir do perfil delas em uma rede social popular no país (Vkontakte). Ele incorporou a capacidade de mapear emoções e reações a partir da leitura dos traços de rostos. A capacidade de monitoramento levantou receios acerca das possibilidades de uso deste tipo de solução durante a Copa do Mundo deste ano, embora não tenha havido confirmações específicas nesse sentido.

Na mesma medida em que crescem como alternativas de monitoramento, as tecnologias de reconhecimento e detecção facial passam a despertar preocupações de organizações da sociedade civil, acadêmicos, autoridades e até mesmo de integrantes da própria indústria de tecnologia.

Na semana passada, o presidente da Microsoft, Brad Smith, divulgou comunicado em que defendeu a regulação pública do tema e medidas de responsabilidade por parte das empresas. Segundo ele, a evolução dessa tecnologia e a adoção em larga escala por empresas e governo acendem um sinal de alerta.

“As tecnologias de reconhecimento facial levantam questões que vão no coração da proteção de direitos humanos fundamentais como privacidade e liberdade de expressão”, destacou Smith.

Essas ferramentas poderiam ser usadas, por exemplo, para monitorar adversários políticos em um protesto. Em razão desses riscos, o executivo defendeu que o governo inicie um processo de regulação apoiado por uma comissão de especialistas no tema.

O discurso vem relacionado também a uma preocupação com a imagem da empresa. A Microsoft foi questionada no início do ano por um suposto contrato com o Serviço de Imigração dos EUA para monitoramento de pessoas entrando ilegalmente no país. A companhia desmentiu, afirmando que mantém um contrato, mas com sistemas para mensagens e gestão de outras atividades.

A organização sem fins lucrativos estadunidense Eletronic Frontier Foundation (EFF) publicou relatório em fevereiro deste ano em que aponta a adoção crescente dessas ferramentas, especialmente pelo Estado, por alegadas razões de segurança. Analisando o caso dos EUA, a organização aponta riscos à privacidade dos cidadãos.

“Sem limites em questão, poderia ser relativamente fácil para o governo e companhias privadas construir bases de dados de imagens da vasta maioria das pessoas e usar essas bases de dados para identificar e rastrear pessoas em tempo real a medida que elas se movem de lugar a lugar em seu cotidiano”, disse a entidade no documento.

Na avaliação do pesquisador do Laboratório de Humanidades Digitais do Instituto Brasileiro de Informação em Ciência e Tecnologia, João Carlos Caribé, o tema é complexo, pois por trás de possíveis benefícios há riscos da adoção desse tipo de recurso.

“Pode ser ótimo para segurança pública na busca por pessoas desaparecidas e criminosos foragidos, ou ainda para a identificação de criminosos em flagrante ilícito, mas é preciso transparência e prestação de contas neste processo, para não se tornar uma ferramenta de controle e perseguição”, alertou.

Na avaliação do coordenador da área de direitos digitais do Instituto de Defesa do Consumidor (Idec), Rafael Zanatta, os dois exemplos brasileiros violam a legislação.

No caso da Via 4, as ferramentas de detecção facial violam o Código de Defesa do Consumidor pelo fato de o sistema instituir uma prática abusiva e impor o monitoramento à pessoa, que não tem compreensão sobre como esta coleta de dados é feita. Elas também ferem o Código de Usuários de Serviços Públicos ao promover uma espécie de “pesquisa de opinião forçada” sem relação com o serviço prestado, o transporte público.

No caso da iniciativa do Serviço de Proteção ao Crédito (SPC), acrescenta Zanatta, também há ilegalidade. “Há coleta da informação sensível, há uma atribuição de um ID único coletado sem consentimento, de forma abusiva, sem transparência. O Supremo Tribunal Federal diz que coleta de imagem sem consentimento só pode ocorrer quando não tem finalidade lucrativa, ou a pessoa não é o elemento central da coleta de imagem e, neste caso, é uso de imagem de pessoas para fim comercial”, analisa.

Um dos alvos tanto de preocupação quanto de questionamentos judiciais é o Facebook. A plataforma começou a adotar o reconhecimento facial no ano passado. Diferentemente da ferramenta de marcação de pessoas em fotos, o novo recurso passou a identificar o usuário em qualquer imagem e a alertá-lo quando uma foto era publicada ou compartilhada.

“Nós queremos que as pessoas se sintam confortáveis ao postar uma foto de si próprias no Facebook. Estamos fazendo isso para prevenir que pessoas se passem por outras”, explicou o diretor de Machine Learning da empresa, Joaquim Candela, em um comunicado divulgado em dezembro.

Contudo, a iniciativa foi questionada tanto publicamente quanto na Justiça em diferentes locais. A organização de promoção da privacidade estadunidense EPIC apresentou em abril uma reclamação junto ao órgão de concorrência dos EUA (FTC, na sigla em inglês). Segundo a entidade, “o escaneamento de imagens faciais sem consentimento afirmativo e expresso é ilegal e deve ser proibido”. A plataforma também é objeto de outro processo, ajuizado por cidadãos do estado de Illinois, que pode resultar em multas de bilhões de dólares.

A ferramenta do Facebook passou a ser questionada também na Europa, que ganhou uma nova legislação de proteção de dados em maio deste ano. A Regulação Geral (GDPR, na sigla em inglês) coloca como requisito para a coleta de um dado o consentimento, que deve ser obtido de formas específicas não respeitadas pelo sistema da plataforma.

Outra preocupação com os sistemas de reconhecimento e detecção facial envolve as falhas na identificação de pessoas, especialmente na precisão diferente para distintos grupos étnicos e raciais.

Em fevereiro deste ano, dois pesquisadores do renomado Instituto de Tecnologia de Massachussets (MIT, na sigla em inglês) e da Universidade de Stanford, Joy Buolamwini e Timnit Gebru, testaram sistemas e constaram que as margens de erro eram bastante diferentes de acordo com a cor da pele: 0,8% no caso de homens brancos e de 20% a 34% no caso de mulheres negras.

Os pesquisadores também identificaram que as bases de dados utilizadas para “treinar” determinados sistemas eram majoritariamente de cor branca e de homens. O artigo coloca a preocupação de como essas tecnologias são construídas e de que maneira esses vieses podem ter impactos problemáticos, como na identificação de suspeitos de crimes.

Para o professor de direito e tecnologia da Fundação Getulio Vargas (FGV) Eduardo Magrani, há necessidade de um debate público antes da introdução dessas tecnologias que discuta a relação desses recursos com o modelo de sociedade que se deseja.

“Quando acontece este tipo de discussão, as tecnologias já estão em vias de ser implementadas sem que as pessoas debatam se querem viver uma sociedade de vigilantismo constante, tendo seu rosto identificado constantemente por algoritmos que podem errar”, avaliou.

Na avaliação do professor, um elemento fundamental do debate é a garantia de proteção na legislação, que existe de forma geral no caso brasileiro, mas que podem ter um grande avanço com a Lei de Proteção de Dados, aprovada no Congresso no mês passado e em vias de ser sancionada pelo presidente Michel Temer. Com informações da Agência Brasil.

Campo obrigatório