Saiba como a narrativa de Coded Bias, documentário da Netflix, pode ensinar lições valiosas à sua empresa em relação ao manuseio e tratamento de dados pessoais
Coded Bias é um documentário original da Netflix, dirigido pela cineasta e ativista Shalini Kantayya, que costura diferentes histórias com um pano de fundo principal: o viés embutido nos algoritmos. Entre diferentes cenários nos EUA, Reino Unido e China, a produção traz especialistas que jogam luz sobre problemáticas da nossa relação atual com a inteligência artificial.
Algoritmo racista?
O ponto inicial da narrativa é a história de Joy Buolamwini, cientista de computação do MIT (Instituto de Tecnologia de Massachusetts). Em um projeto da faculdade ela decide criar um “espelho mágico”, que projetaria sobre seu rosto imagens ligadas aos seu gosto pessoal como a atleta Serena Williams ou um leão.
Contudo, Buolamwini descobre que os algoritmos de código-aberto para reconhecimento facial têm dificuldades de identificar o seu rosto. A partir disso a cientista de computação descobre um viés racista nessa IA.
Com sua pesquisa, ela vê que esse problema está em sistemas já usados em grandes empresas como Amazon, IBM, Microsoft e Google. Então, cria o conceito da máscara branca, expondo a disparidade de assertividade neste algoritmo tanto na questão racial quanto de gênero.
“Foi a partir daí, das apresentações sobre preconceito tecnológico e das interações com Deborah Raji, outra cientista estudando a mesma questão, que surgiu a Liga da Justiça Algorítmica”, explica a reportagem do Tilt, portal de conteúdo de tecnologia do Uol.
O documentário retrata outros exemplos de falhas, preconceitos reproduzidos de sistemas autoritários suportados por algoritmos de reconhecimento facial. Tudo isso tanto no âmbito governamental quanto em iniciativas privadas.
Outras especialistas de destaque que contribuem para a discussão, de acordo com o Tilt:
- Cathy O’Neil, matemática e autora do livro “Weapons of Math Destruction” (Algoritmos de Destruição em Massa, na versão em português);
- Meredith Broussard, jornalista e autora do livro “Artificial Unintelligence: How Computers Misunderstand the World” (Desinteligência Artificial: como os computadores entendem mal o mundo, na tradução livre);
- Safiya Umoja Noble, professora da Universidade da Califórnia em Los Angeles e autora do livro best-seller “Algorithms of Oppression: How Search Engines Reinforce Racism” (Algoritmos de opressão: como os motores de busca reforçam o racismo, na tradução livre);
- Silkie Carlo, diretora do Big Brother Watch, iniciativa que monitora o uso experimental do reconhecimento facial pela polícia do Reino Unido.
Uma das grandes mensagens do filme é: não podemos confiar cegamente em sistemas automatizados sem questioná-los e buscar entender seu funcionamento e propósito. E isso também se aplica aos modelos de People Analytics.
Então a tecnologia é má?
Dados e algoritmos por si só não são capazes de criar preconceito. Um bom exemplo disso está em uma reportagem da Folha de S.Paulo:
— Em 2016, a Microsoft criou um perfil no Twitter chamado Tay. A chatbot, uma robô que usava IA (inteligência artificial) para interagir com adolescentes na rede social, saiu do controle. A ideia era que Tay aprendesse com as redes, e acabou endossando o holocausto, teorias da conspiração, além de reproduzir piadas racistas e machistas. A empresa pediu desculpas e tirou-a do ar em menos de 24 horas.
Por que esse é bom exemplo? Tay não teve a intenção de difundir o preconceito, essa inteligência artificial foi bombardeada por mensagens preconceituosas. Assim, seu processo de aprendizagem absorveu essas informações e as reproduziu.
Veja outros exemplos como esse de um texto do Tilt Uol, em que o algoritmo é treinado de maneira incorreta e não possui monitoramento:
- A Amazon já usou um sistema de seleção de profissionais automatizado. O programa era tendencioso contra mulheres e escolhia homens para as vagas. A empresa abandonou a plataforma posteriormente;
- Um professor nos Estados Unidos com vários prêmios recebidos por sua contribuição para a educação foi demitido após um algoritmo ter considerado o seu desempenho ruim;
- A empresa UnitedHealth Group foi investigada após um estudo revelar que um algoritmo priorizava atender pacientes brancos menos graves do que pacientes negros.
“Usarmos dados distorcidos para treinar tais sistemas acarreta em resultados distorcidos. O passado está marcado em nossos algoritmos”, completou a pesquisadora do MIT.
O que Coded Bias mostra para as empresas?
Em resumo, Coded Bias ilumina a questão da nossa confiança excessiva na tecnologia e as consequências da falta de diversidade nas organizações. No primeiro caso, todas as histórias retratadas e elucidadas pelas especialistas mostram a importância do questionamento e monitoramento de IAs.
Assim, o treinamento correto e acompanhamento dos algoritmos deve ser prioridade, barrando preconceitos e erros em geral. O segundo aprendizado, apresenta a necessidade de trazer diversidade para todos os times e empresas, esse olhar faz toda a diferença para tornar as tecnologias e mundo muito mais plural de fato.
Por fim, é importante lembrar que todo preconceito está nos seres humanos e na história da nossa sociedade. Precisamos encarar esses problemas com total seriedade e entender como barrá-los antes mesmo do lançamento de uma IA e sermos capazes de corrigi-los no meio do caminho também.
Enfim, gostou deste artigo sobre o documentário Coded Bias? Compartilhe com a sua rede e acompanhe mais conteúdos como este em nosso blog e nos siga nas redes sociais.
Sobre a Salt RH
A Salt RH é uma empresa especializada nesse novo modelo de negócios e construiu uma plataforma capaz de realizar previsões correntes sobre turnover voluntário e involuntário na sua organização.
Da adoção do people analytics aos modelos preditivos mais avançados, levamos tecnologia, estatística e gestão de pessoas para trabalhar a favor do seu negócio. Entre em contato conosco!
*Crédito da foto destacada: Reprodução/Divulgação Netflix
Nenhum comentário ainda