Nos Estados Unidos, um cidadão entrou em um supermercado na cidade de Minneapolis para reclamar que sua filha adolescente estava recebendo propagandas para grávidas. Dias depois, o pai da garota se desculpou com o estabelecimento ao confirmar com a filha que ela realmente esperava um bebê.

A história, revelada em reportagem do New York Times em 2012, foi retomada pelo professor da Ohio State Univerity, Dennis Hirsch,para ilustrar o poder de tecnologias de coleta e análise de dados (chamada em inglês de Big Data Analytics) utilizadas para prever comportamentos e aplicar essas inferências em diversos campos, do marketing à concessão de créditos ou acesso a serviços de saúde.

O docente abordou o tema no 10º Seminário de Proteção à Privacidade e aos Dados Pessoais, evento organizado pelo Comitê Gestor da Internet no Brasil nesta semana em São Paulo. Segundo o docente, o caso exemplifica um dos riscos dessas técnicas ao considerar sentimentos, traços de personalidade e comportamentos como forma de persuadir pessoas a adquirem algum produto ou serviço.

Outro risco potencial, acrescentou, é a manipulação de indivíduos em processos políticos. Ele citou o escândalo da empresa Cambridge Analytica, que utilizou dados levantados no Facebook por um aplicativo para explorar emoções das pessoas em campanhas eleitorais, como na disputa presidencial dos Estados Unidos de 2016 e no referendo que avaliou a permanência ou não do Reino Unido na União Europeia.

Esses tipos de ferramentas examina grande quantidade de bases de dados, estabelece correlações entre elas e identifica padrões. Estes são tomados como base para prever comportamentos das pessoas, como se um consumidor tem maior ou menor propensão a ficar adimplente ou inadimplente em um serviço, como cartão de crédito.

Um problema potencial nesse tipo de operação é a discriminação. Esta pode ocorrer tanto pela finalidade do uso quanto pela forma como a tecnologia é desenhada. Ao traçar padrões e classificar pessoas e atitudes, um sistema pode definir parâmetros considerados adequados e desvalorizar quem não se enquadra neles, com risco de colocar nessa posição segmentos sociais, como no exemplo dos problemas do reconhecimento facial para negros.

Este tipo de tratamento pode ainda ser reforçado pelos registros utilizados para treinar o sistema. Hirsch citou como exemplo a empresa de comércio eletrônico Amazon. Ao desenvolver um algoritmo para avaliar currículos, a base empregada foi a dos próprios funcionários da companhia. Como na área de tecnologia há mais profissionais homens, o programa passou a utilizar como currículo desejável critérios que desvalorizavam mulheres.

Explicação e cuidados === O pesquisador e professor da Data Privacy BR, Renato Leite Monteiro, colocou como problema chave a opacidade dessas tecnologias e a falta de conhecimento sobre como elas funcionam. Diante disso, defendeu o que chamou de um direito à explicação. Este consistiria na garantia ao cidadão de ter informações inteligíveis sobre como o dado foi processado, de modo que possa compreender como uma decisão foi tomada sobre ele e de que maneira pode reagir a ela.

Ele lembrou que hoje o processamento de informações por algoritmos e sistemas inteligentes está em diversas áreas e os problemas nele podem afetar direitos em setores como saúde (notas para planos de saúde), moradia (financiamento habitacional), mercado financeiro (concessão de crédito), educação (acesso a escolas e cursos), emprego (análise para contratação), entre outros.

A diretora de políticas para transformação digital do Ministério da Ciência, Tecnologia, Inovações e Comunicações (MCTIC), Miriam Wimmer, abordou esses riscos no caso de sistemas de inteligência artificial. Ela reforçou que também no caso destas tecnologias existem diversas pesquisas mostrando casos de discriminação.

Diante destes problemas, a gestora pública defendeu alguns princípios orientadores. O desenvolvimento dessas soluções deveria ser orientado por valores. Este processo deveria abarcar avaliações prévias do impacto e dos riscos. A coleta de dados deveria ser restrita ao mínimo possível nas fases de treinamento. E ao longo do ciclo desses produtos deveriam ser implementados mecanismos de monitoramento com participação dos atores impactados. <<< Com apoio de informações/fonte: Empresa Brasil de Comunicação-EBC/Jonas Valente – Repórter Agência Brasil / Brasília>> === DiárioZonaNorte é o único veículo jornalístico que reconhece e dá crédito aos profissionais de Assessoria de Imprensa / Relações Públicas / Agências —que muito trabalham nos bastidores da notícia >>> ===


  Tecnologias de reconhecimento facial são usadas em 37 cidades no país

O Brasil tem 37 iniciativas em cidades adotando, de alguma maneira, tecnologias de reconhecimento facial. Mais da metade, 19, foram lançados no período de 2018 a 2019. Essas soluções, em geral, são empregadas nas áreas de segurança pública, transporte e controle de fronteiras. O levantamento foi realizado pelo Instituto Igarapé e apresentado no 10º Seminário de Proteção à Privacidade e aos Dados Pessoais, evento organizado pelo Comitê Gestor da Internet no Brasil. O estudo mapeou iniciativas desde 2011, em todo o país.

O tema vem suscitando intensas polêmicas. Autoridades vêm apostando no reconhecimento facial como um instrumento sofisticado das formas de controle em políticas públicas. Por outro lado, essas ferramentas também são objeto de fortes questionamentos, já tendo sido proibidas em cidades dos Estados Unidos, como San Francisco e Oakland. Para além de governos e organizações da sociedade civil, até mesmo empresas de tecnologia, como a Microsoft, já defenderam a regulação dessa prática.

A pesquisadora do instituto autor do levantamento Louise Marie Hurel ressaltou que a opção por essas formas de identificação não é nova. Em 2004, um projeto de lei do então deputado Eduardo Paes, ex-prefeito do Rio de Janeiro, já buscava regulamentar a utilização de biometria facial para autenticar acesso a dados tributários. No início desta década, cidades começaram a recorrer à tecnologia.

Os projetos === Os primeiros projetos foram fundamentalmente na área de transporte, de empresas intermunicipais que colocavam o reconhecimento como condição para o acesso a serviços. Esse setor foi responsável por 21 projetos mapeados pelo estudo. Nos últimos anos, ganhou força fundamentalmente em aplicações na segurança pública, como para o acesso a locais e monitoramento por meio de câmeras. Outras 13 iniciativas identificadas no documento têm essas finalidades.

Não somente governos mas empresas também implementaram a tecnologia. A concessionária de uma das linhas do Metrô de São Paulo instalou câmeras para analisar os sentimentos dos passageiros por meio de suas expressões faciais e subsidiar os anúncios nos vagões. A Hering, indústria especializada em vestuário, colocou sistemas semelhantes em uma loja da capital paulista com o intuito de examinar as atitudes dos consumidores, interesses e práticas como elemento a ser considerado em estratégias de marketing.

Os projetos de lei === Juntamente com a disseminação desse recurso, vêm também a preocupação das autoridades. O levantamento identificou dois projetos de lei no Congresso Nacional e 21 em assembleias legislativas sobre o tema, sendo oito no Rio de Janeiro e dois em São Paulo. “O reconhecimento facial é colocado como uma espécie de bala de prata para segurança pública”, observou a pesquisadora Marie Hurel.

Projeto de Lei 9.736, de 2018, do deputado Júlio Lopes (PP/RS), por exemplo, obriga o reconhecimento facial em presídios. O PL 11.140 de 2018, do líder do PSL, Delegado Waldir (GO), vai além, e determina registros não somente aos detidos, mas também a funcionários e até mesmo advogados que ingressem na unidades de internação.

Os riscos === O professor da Faculdade de Direito da Universidade de São Paulo (USP), Rafael Mafei, salientou os riscos associados a essa tecnologia. O primeiro é o do viés que gera discriminação, que, segundo o professor, pode ser uma consequência tanto da lógica de funcionamento de um sistema quanto resultante dos registros utilizados para alimentá-lo. Quanto menor a diversidade dos dados inseridos, menor a capacidade do programa de identificar adequadamente determinados tipos de face, disse Mafei.

O docente citou estudos cujas conclusões revelaram margens de erros maiores para mulheres, para negros e para mulheres negras. Em algumas empresas, o nível de erro na análise de uma imagem chegava a mais de 30%. O problema é que esses “falsos positivos” podem gerar prejuízos graves, como uma prisão de alguém inocente.

“Tecnologia que objetiva o reconhecimento com margens de erros arbitrárias e a depender de como a régua é modificada, as consequências são graves. O reconhecimento facial é tão perigoso quando mal usado que não vale o risco disso ser popularizado. Seria a tecnologia dos sonhos de governos autoritários”, disse Mafei.

Menos confiança === A advogada do Instituto Brasileiro de Defesa do Consumidor (Idec), Bárbara Simão, lembrou que pesquisas realizadas por diferentes institutos de pesquisa em países como Estados Unidos e Reino Unido mostraram um baixo nível de confiança das pessoas nesse tipo de tecnologia. Em uma dessas sondagens, apenas 7% concordaram com tecnologias voltadas ao rastreamento de seus comportamentos e direcionamento de publicidade.

Na opinião de Simão, a decisão de uma empresa por essa solução técnica deve levar em consideração uma série de critérios. O primeiro envolve considerar se ela de fato agrega algo, ou se a identificação poderia ser realizada por outros meios. A segunda diz respeito à transparência nessa operação, com relatórios de impacto. A terceira presume o direito da escolha da pessoa, e não adotar o reconhecimento facial como imposição. Por fim, são necessárias medidas antidiscriminação para impedir esse tipo de problema.

Como funciona === O reconhecimento facial começa com a coleta da imagem de um indivíduo. Um filtro verifica se o elemento em questão é uma face ou não. Em seguida, é realizada uma “normalização”, na qual as pessoas são classificadas em padrões.

No próximo passo, os traços e características do rosto são transformados em “pontos de referência”, que são analisados. Esse conjunto de informações é trabalhado como um identificador associado àquela pessoa. Em um serviço de autenticação, por exemplo, a câmera filma ou registra uma imagem e o sistema busca no banco de dados se há alguma face com determinado nível de semelhança. << Com apoio de informações/fonte: Empresa Brasil de Comunicação-EBC/ por Jonas Valente – Repórter Agência Brasil /São Paulo >>> == DiárioZonaNorte é o único veículo jornalístico que reconhece e dá crédito aos profissionais de Assessoria de Imprensa / Relações Públicas / Agências —que muito trabalham nos bastidores da notícia >>> ===

Natal2019_centernorte

DEIXE UM COMENTÁRIO

Por favor, entre com seu comentário
Por favor, entre com seu nome agora