Skip to main content
14 abril 2022
Follow Us

Tecnologia com Ética

Reconhecimento Facial

 Como é que ensinamos o nosso telemóvel a reconhecer uma cara humana? Como é que distingue um cão de uma raquete de ténis ou uma maça de uma pessoa? Será que identifica uma mulher e um homem ou pessoas de diferentes raças com o mesmo grau de exatidão?

Tudo consiste em ter um gigante número de dados de treino com imagens que contenham caras e outras que não as contenham. Mas quem está a treinar a máquina para aprender? Que informação lhe está a passar? Será a informação inclusiva e diversificada?

Os preconceitos podem passar para a tecnologia? Os algoritmos podem distorcer informação? Na preparação dos dados que vão integrar os modelos de ‘Machine Learning’ costuma-se dizer para ter cuidado com esta fase caso contrário vamos ter lixo a entrar e lixo a sair. Eu acrescentaria que, infelizmente, temos bastantes preconceitos a entrar e preconceitos a sair!

Resultados de estudos de avaliação do funcionamento de sistemas de reconhecimento facial apresentados no documentário da Netflix ‘Coded Bias’

 

Homens Negros

Mulheres Negras

Homens Brancos

Mulheres Brancas

Amazon

98,7 %

68,6%

100%

92,9%

kairos

98,7%

77,5%

100%

93,6%

Vigilância/Privacidade

 Em Londres, a polícia iniciou um procedimento de reconhecimento facial sem permissão das pessoas, que a nível legal é como se estivessem a recolher uma amostra de ADN ou uma impressão digital, algo que em princípio só aconteceria se a pessoa tivesse cadastro. Criaram uma base de dados com os dados biométricos das pessoas.

Acresce a isto ainda o facto de utilizarem sistemas ainda bastante imprecisos e que atuam com um enorme preconceito no que à raça diz respeito, nomeadamente na muito maior identificação de indivíduos de raça negra como supostos/possíveis criminosos.

Nos EUA também há vários exemplos deste género. Podemos ser levados a pensar que os ricos obtêm primeiro as ferramentas mais sofisticadas. No entanto em muitos locais as ferramentas mais punitivas e orientadas para a vigilância que existem são aplicadas nas comunidades mais pobres. Se funcionarem nestes ambientes onde se espera pouco respeito pelos direitos das pessoas, aí sim serão aplicadas noutras comunidades mais seletas.

O que está a acontecer é que estamos a ser cada mais encurralados. Seja através do maior controlo que existe em termos de imagem e vigilância, seja pelas grandes tecnológicas que vigiam atentas cada gosto que colocamos no ‘Instagram’, cada tweet que partilhamos, cada comentário que fazemos no ‘Linkedin’.

Qual é o limite de informações que devíamos partilhar? Existe um limite?

Podem pegar na informação que consentimos e na que não consentimos e utilizá-la para manipular, discriminar ou para interesse próprio das grandes corporativas?

Quanta privacidade e liberdade individual deve uma pessoa possuir? Agora já nem uma conversa particular podemos ter porque o telefone está sempre à escuta!!

 Sistemas de Recomendação/Publicidade 

Que roupa vou usar?? Que conteúdos vou seguir no Youtube?? Que série vou começar a ver?? Em que político vou votar??

Cada vez mais as pessoas, principalmente jovens, são influenciados pelas redes sociais e pelos caminhos que as aplicações e programas nos obrigam a percorrer. Os mecanismos de recomendação existentes e enorme quantidade de publicidade podem tornar uma pessoa muito limitada no que toca à quantidade e/ou diversidade de assuntos pelos quais se pode interessar.

Na publicidade compete-se por visualizações, mas na verdade compete-se pela visualização de pessoas ricas.

E as pessoas pobres? Quem compete por elas tendem a ser indústrias predatórias!! Credores a tentar convencer a contrair um empréstimo, faculdades com fins lucrativos, casinos e casas de apostas e incentivar-te a fazer o primeiro depósito.

Atualmente fornecemos voluntariamente imensos dados a um conjunto muito específico de empresas. Esses dados, cruzados com todos os nossos perfis que existem na Internet, cruzado com a nossa atividade na internet em termos de publicações, em termos de compras, até um simples gosto numa publicação de um determinado partido político…tudo isso vai resultar numa informação muito detalhada sobre cada indivíduo.

O que acontece é que os algoritmos que trabalham estes dados vão conseguir prever com muita precisão que decisões vamos tomar no futuro! E isso é assustador!

Vão chegar, de uma maneira ou de outra, a um viciado em jogo e vão mostrar-lhe um desconto de 50% se for a Las Vegas e fizer um depósito de 1000 dólares.

 

Em 2010, decorriam as eleições nos EUA, o Facebook decidiu fazer uma experiência com 61 milhões de pessoas. As pessoas no seu perfil ou viram a mensagem simples a dizer que era dia de eleições ou viram a mesma mensagem, mas desta vez com uma variação no canto inferior esquerdo onde apareciam imagens dos seus amigos que já tinham clicado no botão “Eu já votei”. Só mostraram esta mensagem uma vez!!

Fizeram corresponder o nome dessas pessoas com os nomes dos eleitores e descobriram que tinham movido 300 mil pessoas às urnas!!

As eleições de 2016 foram decididas por 100 mil votos. Uma mensagem no Facebook, mostrada apenas uma vez, podia facilmente triplicar o número de pessoas a mudar o rumo das eleições nesse ano.

Vamos supor que um dos candidatos anuncia previamente na campanha que pretende regulamentar mais o Facebook.

O Facebook pode, sem sequer nós nos apercebermos fazer uma publicidade em grande escala para que os votos sejam no candidato contrário.

Nem me façam falar dos mecanismos de recomendação! O que é o livre-arbítrio? Será que por ter visto um ou dois vídeos de MMA no Youtube agora quero todo o meu feed inundado de vídeos de luta, lutadores, artes marciais, e outro conteúdo que poderá ser um conteúdo cada vez mais agressivo? Será que por ter visto um filme de Guerra na Netflix agora quero que as minhas sugestões sejam todas em volta desse tema?

Quantas das minhas decisões realmente são minhas? Ou são o conjunto de dias, semanas, meses e anos de influência destas empresas? Por ter pesquisado uma viagem para Barcelona não quer dizer que agora quero ter o meu browser recheado de hóteis, restaurantes ou diversões em Barcelona!

Decisores

 Que currículos serão escolhidos?? Vou ter o meu crédito aprovado??

Na Amazon desenvolveram um programa para automatizar a visualização e seleção de currículos. Tal como já o faziam com sucesso dentro dos armazéns de mercadorias ou direcionando decisões sobre preços.

O objetivo era algo que recebesse 100 currículos e dissesse quais os 5 melhores a serem contratados. Mas em 2015 começaram a perceber que o seu sistema discriminava em termos de género.

Isto aconteceu porque os modelos foram treinados para examinar candidatos observando padrões ou palavras-chave de currículos enviados nos passados 10 anos. Já imaginaram. A maior parte dos currículos dados ao ‘dataset’ para este treinar, pertencem a homens, género que domina claramente em toda a indústria da tecnologia.

O modelo discriminava caso encontrasse palavras como “mulher”, “capitã da equipa de pólo aquático feminino”. Até colocava de lado caso o nome da faculdade fosse feminino.

A equipa da Amazon ainda tentou trabalhar no modelo e torná-los menos discriminatórios mas as máquinas encontraram outras maneiras de classificar os candidatos, o que levou a empresa a encerrar o programa.

Um dia eu e a minha namorada estávamos no shopping e vimos uma campanha de marketing a incentivar a compra do novo Iphone XR. Entrámos na loja decididos a comprar um para cada um. Afinal de contas esta campanha anunciava a possibilidade de pagamento em prestações ao longo de 2 anos sem juros.

Depois de escolhida a cor ambos tivemos que correr uma simulação de crédito num algoritmo/programa. A própria funcionária da Fnac não sabia como funcionava o programa, simplesmente recolhia os dados de cada um individualmente, inseria os dados no programa e esperava por uma resposta do algoritmo a autorizar ou declinar o crédito.

 

Teresa

Tiago

Género

Feminino

Masculino

Idade

27

28

Salário

1900

1150

Tipo de Contrato

Efetiva

Contrato com Termo

 

Qualquer PESSOA que tenha um mínimo entendimento do funcionamento de um crédito consegue adivinhar quem teve o crédito e quem não teve certo? A teresa é mais jovem, ganha mais e está efetiva. No entanto quem teve o crédito aprovado?

Pois, fui eu!

Porque tenho algo muito importante a meu favor! Sou homem! E claramente a máquina considerou que o facto de ser homem magicamente me vai fornecer uma maior capacidade de pagar um empréstimo.

Propositadamente ou não, o algoritmo está a correr com um preconceito que uma sociedade que luta pela igualdade de direitos sem olhar a raça, género e religião não pode aceitar.

Será este um caso em que os preconceitos do criador dos modelos de ‘machine learning’ passou para o seu programa?

Podemos aceitar que os homens têm um historial de empréstimos muito maior que remonta a um passado em que uma percentagem baixa das mulheres trabalhava e contraía empréstimos, e que o uso desses dados é que viciou o sistema.

No entanto, precisamos de fazer um esforço muito grande para evitar esse preconceito e treinar melhor os nossos modelos de ‘machine learning’. A tecnologia está a evoluir muito rapidamente e tem um potencial gigante e muitas aplicações, mas temos de ser muito responsáveis no seu uso, respeitar a privacidade das pessoas e ser éticos obrigatoriamente e dar as mesmas oportunidades a todos, independentemente se a pessoa é um homem ou uma mulher, preto, branco, amarelo ou rosa, católico ou muçulmano ou budista, pobre ou rico, heterossexual ou homossexual.

Espero que tenham gostado, até ao próximo artigo!

Tiago Valente

Ficheiros em anexo

Tiago Valente

Assine a nossa newsletter e receba o nosso conteúdo diretamente no seu email