Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Racismo Algorítmico

2023, Racismo algorítmico

Como citar: Kremer, Bianca. Racismo algorítmico [livro eletrônico]/ Bianca Kremer, Pablo Nunes, Thallita G. L. Lima. – Rio de Janeiro : CESeC, 2023.

RACISMO ALGORÍTMICO PANORAMA > RACISMO ALGORÍTMICO 1 SOBRE A COLEÇÃO PANORAMA A Coleção Panorama se dedica a explicar de maneira didática como funcionam, as formas de uso, os debates, quais os benefícios e os malefícios de diferentes tecnologias que são utilizadas na segurança pública. As reflexões aqui propostas serão feitas a partir de diferentes pontos de vista, procurando trazer o maior número de elementos essenciais para a compreensão do uso e dos impactos que tais tecnologias possuem para a sociedade. Diferente da visão panóptica, que olha a realidade a partir de um ponto de vista, a intenção aqui é criar um mosaico de abordagens. Cada texto abordará uma tecnologia, pontuando o que são e como funcionam; os benefícios e perigos do emprego de cada tecnologia; o debate internacional; o contexto de uso no Brasil; avaliações sobre os impactos já mensurados; algumas conclusões e uma lista de indicações de leituras para aprofundamento. A Coleção, como o nome mesmo deixa evidente, é um panorama dos temas mais urgentes que interseccionam tecnologia, segurança e direitos. Se estamos vivendo em uma época de intensificação da vigilância panóptica, dos casos de vieses em algoritmos, do aumento da violência policial e da falta de transparência é indispensável entendermos o que são e como nos afetam essas tecnologias. Dados Internacionais de Catalogação na Publicação (CIP) Kremer, Bianca Racismo algorítmico [livro eletrônico] / Bianca Kremer, Pablo Nunes, Thallita G. L. Lima. – Rio de Janeiro : CESeC, 2023. 2,5 mb. -- (Coleção Panorama) Formato: PDF ISBN: 978-85-5969-036-1 1. Racismo algorítmico. 2. Tecnologias digitais. 3. Inteligência artificial. I. Nunes, Pablo. II. Lima, Thallita G. L. III. Título. IV. Série. CDD-305.8 Sueli Costa - Bibliotecária - CRB-8/5213 (SC Assessoria Editorial, SP, Brasil) Índices para catálogo sistemático: 1. Racismo : Inteligência artificial 305.8 PANORAMA > RACISMO ALGORÍTMICO 5 RACISMO ALGORÍTMICO Bianca Kremer Introdução Um usuário da plataforma TikTok repercutiu nas redes sociais, em dezembro de 2021, quando denunciou as tentativas frustradas de cadastrar sua biometria facial no aplicativo de um banco digital em seu celular. Mesmo com o rosto completamente descoberto, sem acessórios e com boa iluminação, o sistema de reconhecimento facial não conseguia identificá-lo e apresentava continuamente a mensagem: “mantenha os olhos descobertos”. Após diversas investidas com os olhos arregalados, em ângulos e iluminações diferentes, o usuário testou o mesmo sistema com uma foto do ator hollywoodiano Chris Hemsworth, buscada aleatoriamente na internet. O resultado foi o reconhecimento instantâneo do rosto do ator, um homem branco. Ele, que é um homem negro, desabafou nas redes: “Não consegui passar da foto. Muita melanina para um banco só”.1 1 6 @sociedadepretadospoetas. Tiktok, 24 de dezembro de 2021. Disponível em: < https://www.tiktok.com/@sociedadepretadospoetas/video/7045306381703924998> Acesso em: 04 de fevereiro de 2023. PANORAMA > RACISMO ALGORÍTMICO O que parece, à primeira vista, um caso isolado de erro de design se soma a outros episódios da mesma natureza no Brasil e no mundo. Em setembro de 2021, um vídeo contendo imagens de homens negros foi divulgado na plataforma Facebook pelo jornal britânico The Daily Mail, e foi rotulado pela inteligência artificial de recomendação ao usuário como conteúdo de primatas.2 O vídeo não apresentava nenhum tipo de correlação com macacos ou primatas. A empresa se desculpou pelo que chamou de “erro inaceitável” e se comprometeu a analisar o recurso de recomendação para evitar que isso acontecesse novamente, desativando em seguida o recurso de inteligência artificial que empurrou a mensagem aos usuários. Não foi a primeira vez que uma grande plataforma digital esteve envolvida em situações desse tipo. Em 2015, o aplicativo Google Fotos foi amplamente denunciado por usuários nas redes sociais ao rotular 2 MAC, Ryan. Facebook apologizes after A.I. puts ‘primates’ label on videos of black men. The New York Times, 3 de setembro de 2021. Disponível em: < https://www.nytimes. com/2021/09/03/technology/facebook-ai-race-primates.html> Acesso em: 04 de fevereiro de 2023. PANORAMA > RACISMO ALGORÍTMICO 7 imagens de um casal de senegaleses como gorilas.3 O produto foi desenvolvido para permitir o armazenamento gratuito das fotos carregadas pelos usuários e submetê-las a classificação automática utilizando seu próprio software de inteligência artificial. A Google se manifestou publicamente lamentando o ocorrido e se comprometeu com a correção do problema. Três anos depois, a solução da empresa foi censurar completamente o etiquetamento de imagens nas categorias “gorila”, “macaco” e “chimpanzé” em toda a aplicação. Ou seja, eliminar completamente essas figuras do universo de seu banco de dados, como se sequer existissem no mundo real. A época foi marcada pela explosão de denúncias no cenário internacional sobre sistemas de inteligência artificial que replicavam discriminações raciais de toda sorte. Em 2016, o aplicativo FaceApp ganhou popularidade com seus filtros lúdicos de vários tipos: envelhecimento, rejuvenescimento, mudança de gênero, entre outros. À medida que os usuários transformavam suas selfies no aplicativo, um de seus 3 8 KASPERKEVIC, Jana. Google says sorry for racist auto-tag in photo app. The Guardian. New York. 1 de julho de 2015. Disponível em: <https://www.theguardian.com/technology/2015/ jul/01/google-sorry-racist-auto-tag-photo-app>. Acesso em: 15 de fevereiro de 2020. PANORAMA > RACISMO ALGORÍTMICO filtros denominado hot (i.e., atraente) iluminava seus tons de pele, tornando os rostos mais brancos ou, em alguns casos, até mesmo pálidos. Ao ser acusada de associar beleza à brancura, a empresa se desculpou com o público pelo recurso, e disse ser um “efeito colateral” de sua rede neural.4 Os acontecimentos narrados se deram com diferentes sujeitos ao redor do mundo, em localizações e períodos distintos. No entanto, todos possuem um ponto em comum: episódios de discriminação racial produzidos por vieses algorítmicos em ferramentas de tecnologia. Afinal, o que são esses algoritmos e como eles funcionam? O que é o racismo algorítmico e como se manifesta? De que forma ele reproduz violências e estigmas no tecido social brasileiro? E, por fim, como combater esse fenômeno e por que isso importa? O objetivo deste artigo é discutir essas e outras questões fundamentais para a garantia de um desenvolvimento tecnológico ético, que não reproduza opressões sociais sob um discurso de eficiência e neutralidade. 4 CURTIS, Sophie. FaceApp apologizes for ‘racist’ selfie filter that lightens users’ skin tone. Mirror. Technology. 25 de abril de 2017. Disponível em: < https://www.mirror.co.uk/tech/ faceapp-apologises-hot-selfie-filter-10293590>. Acesso em: 15 de dezembro de 2020. PANORAMA > RACISMO ALGORÍTMICO 9 O que são algoritmos? Algoritmos podem ser entendidos como conjuntos de instruções que explicam detalhadamente como realizar uma tarefa qualquer. Seguidas passo a passo, de maneira detalhada e ordenada, essas instruções possibilitam atingir um resultado final, solucionar um problema. Pense em uma receita de bolo: se você utilizar os ingredientes certos, na proporção adequada, e seguir todos os procedimentos na ordem indicada, o desfecho será um bolo fofinho e saboroso. Existem adversidades, no entanto, que podem inviabilizar o resultado esperado. Por exemplo, a temperatura inadequada do forno pode impactar o produto final. Se o conjunto de instruções não for seguido à risca, o desfecho também pode não corresponder à expectativa inicial. No campo da matemática e da computação, os algoritmos são as receitas. Eles contêm sequências finitas de instruções que comandam o computador para realizar alguma ação. Há poucos consensos na doutrina especializada sobre o conceito de algoritmo, mas o termo é frequentemente utilizado para indicar uma estrutura de controle “abstrata, eficaz, composta, imperativamente dada, cumprindo um 10 PANORAMA > RACISMO ALGORÍTMICO determinado propósito e sob determinadas disposições”5. A implementação dessas construções matemáticas se dá em sistemas de computação, dotados de tecnologias configuradas para uma tarefa específica. Os algoritmos possuem grande valor econômico e político na sociedade contemporânea, cada vez mais hiperconectada e movida por dados. Quando aliados a técnicas de inteligência artificial, eles têm a capacidade de aconselhamento – quando não de pronta decisão – sobre a forma como as informações e os dados devem ser interpretados, e podem, inclusive, definir ações a serem tomadas com base nessas interpretações.6 Sistemas de recomendação de conteúdo, por exemplo, integram cada vez mais nosso cotidiano, fazendo, diariamente, sugestões de consumo para nós, usuários. São exemplos os serviços de streaming, como 5 TSAMADOS, A., AGGARWAL, N., COWLS, J. et al. The ethics of algorithms: key problems and solutions. AI & Soc 37, 215–230 (2022). Disponível em: <https://doi.org/10.1007/ s00146-021-01154-8>. Acesso em: 03 de novembro de 2023. 6 FLORIDI, Luciano; MITTELSTADT, Brent Daniel; ALLO, Patrick; et al. The ethics of algorithms: mapping the debate. Oxford Internet Institute. Big Data and society: Londres, Jul-Dec 2016, p. 1-21. PANORAMA > RACISMO ALGORÍTMICO 11 Netflix, Spotify e Amazon Prime, e as indicações de produtos em serviços de e-commerce e nas mídias sociais. Serviços públicos também têm designado algoritmos para auxiliarem processos de tomada de decisões estratégicas nos mais diversos campos de atuação, como educação, saúde, finanças, políticas públicas e, até mesmo, órgãos do sistema de justiça. Não só essa incorporação dos algoritmos no dia a dia tem sido motivo de sua popularização. A inteligência artificial (IA) também tem um papel fundamental para colocar os algoritmos na boca do povo. Apesar disso, não podemos dizer que o cidadão comum domine o que são, como funcionam e quais são os reais impactos dessas tecnologias em suas vidas. Apesar de não haver consenso na doutrina especializada sobre o conceito de inteligência artificial, é interessante pensá-la como a utilização de métodos que emulam o comportamento humano inteligente para a solução de problemas complexos.7 Quando os algoritmos de inteligência artificial estão alinhados a técnicas de aprendizagem de máquina (também chamada de machine learning), eles passam a automatizar 7 12 COPPIN, Ben. Inteligência artificial. Trad, e rev. Jorge Duarte Pires Valério. Rio de Janeiro: LTC, 2017, p. 4. PANORAMA > RACISMO ALGORÍTMICO processos. A maioria das aplicações de inteligência artificial são baseadas na categoria de algoritmos conhecidos como Deep Learning (traduzido como “aprendizado profundo”), capazes de tomar decisões sem interferência humana direta, apenas a partir do reconhecimento de padrões em informações contidas em seus bancos de dados. Vivemos em um período econômico-político que Kai-Fu Lee denominou Era dos Dados (The Age of Data), em que algoritmos de IA precisam necessariamente de três elementos para serem bem-sucedidos: Big Data8, poder computacional e o que Lee chama de talento de engenharia. Uma vez que o poder computacional e o trabalho empreendido por desenvolvedores atingem um certo limite, a quantidade de dados 8 Big data é a área de conhecimento que se dedica ao tratamento, análise e obtenção de informações a partir de conjuntos de dados grandes demais para serem analisados por pessoas humanas individualmente, ou mesmo por sistemas tradicionais. A popularização da internet aumentou significativamente a quantidade de dados produzidos, aliada à Internet das Coisas (IoT). O big data tornou-se essencial nas relações econômicas e sociais, sendo também, para alguns autores, uma nova forma de capitalismo de informação com o objetivo de prever e modificar o comportamento humano para a produção de receitas e/ou controle de mercado. Cf. ZUBOFF, Shoshana. Big Other: surveillance capitalism and the prospects of an information civilization. Journal of Information Technology, v.30, 2015, p. 75-89. PANORAMA > RACISMO ALGORÍTMICO 13 se torna decisiva para determinar o poder geral e a precisão de um algoritmo.9 Para que essa quantidade massiva de dados seja lida e interpretada para os mais variados interesses corporativos e governamentais, é imprescindível que o poder computacional aplicado dê conta dessa demanda. Nessa perspectiva, a aprendizagem automática explora o estudo e a construção de algoritmos capazes de compilar uma enorme quantidade de informações em um tempo consideravelmente reduzido. Quanto maior o poder computacional, maior a possibilidade de manejar bancos de dados cada vez mais robustos. O potencial que os algoritmos têm de melhorar o bem-estar individual e social não elimina os riscos éticos envolvidos na sua utilização. Modelos de inteligência artificial e algoritmos são construídos por humanos e, portanto, não são eticamente neutros. Os dados que treinam esses algoritmos são montados, limpos, rotulados e anotados também por humanos. Em outras palavras, são seres humanos, imersos em uma sociedade complexa, que escrevem a receita. Se uma das 9 14 LEE, Kai-Fu. AI Superpowers: China, Silicon Valley and the New World Order. Boston: Houghton Mifflin Harcourt, 2018, p. 14. PANORAMA > RACISMO ALGORÍTMICO instruções contiver um viés tendencioso, o resultado será tendencioso, ainda que se cumpram todos os comandos. Ou seja, apesar de a matemática estar correta em muitos casos, ela pode ser mal utilizada, já que os algoritmos procurarão padrões em dados tendenciosos. Os cálculos podem até apresentar acurácia, mas os resultados nem sempre estarão corretos.10 Racismo algorítmico: entre a denegação e a estrutura Existe um entendimento no senso comum que relaciona automaticamente as tecnologias a uma ideia de eficiência pura, de neutralidade e de verdade inquestionável. Essa compreensão é alimentada pelas grandes empresas de tecnologia – para as quais a problematização dessa neutralidade representa perdas financeiras – e por outros agentes e instituições sociais que se beneficiam de diferentes formas do 10 VIEIRA, Carla. Vieses e a importância de sempre se analisar o cenário completo. Carlavieira.dev, São Paulo: 14 de abril de 2019. Disponível em: < https://www.carlavieira.dev/ blog/9-26-vieses-e-a-import%C3%A2ncia-de-sempre-analisar-o-cen%C3%A1rio-completo/>. Acesso em: 15 de fevereiro de 2022. PANORAMA > RACISMO ALGORÍTMICO 15 enviesamento nas tecnologias. Os algoritmos não ficam de fora desse discurso de objetividade. Um desafio, portanto, para compreender o racismo algorítmico é contrapor essa ideia. Na obra Algoritmos de Destruição em Massa, Cathy O’Neil demonstra como o conceito de modelos matemáticos são opiniões embutidas na matemática. Para ela, modelos nada mais são do que a representação abstrata de algum processo. Eles colhem o que sabem sobre um determinado tema e usam essas informações para prever respostas em diversas situações, “esteja ele rodando dentro de um computador ou em nossa cabeça, (...) eles nos dizem o que esperar e guiam nossas decisões”11. Para conduzir decisões automatizadas, os modelos matemáticos são produzidos e passam por intervenções humanas. Os algoritmos desenvolvidos por humanos para aprendizado de máquina possuem alto potencial de absorção de preconceitos e discriminações que já fazem parte da organização da sociedade. A presença desses elementos tanto nos 11 16 O’Neil, Cathy. Algoritmos de destruição em massa: como o big data aumenta a desigualdade e ameaça a democracia. Trad. Rafael Abraham. 1ª Ed. Santo Andre: Editora Rua do Sabão, 2020, p. 30-31. PANORAMA > RACISMO ALGORÍTMICO processos de subjetivação individual quanto de estruturação social não é uma questão: inúmeros estudos a comprovam há décadas. Na década de 1980, a filósofa brasileira Lélia Gonzalez cunhou a classificação “racismo por denegação” para caracterizar a existência de um racismo disfarçado nas sociedades de origem latina, como a brasileira. Gonzalez usa o conceito freudiano12 para descrever o “processo pelo qual o indivíduo, embora formulando um de seus desejos, pensamentos ou sentimentos, até aí recalcado, continua a defender-se dele negando que lhe pertença”.13 Para a autora, a eficácia da dominação colonial exerceu sobre os colonizados efeitos de alienação, de tal modo que a violência passou a assumir novos contornos em face da resistência do colonizado. Chega, muitas vezes, a nem parecer uma violência, mas uma verdadeira superioridade. O racismo, então, 12 “Denegar seria negar, defender-se de um desejo, de algo que existe no mundo dos fatos, mas é encoberto (...)” MATTOSO, Ana Carolina. Amefricanidade e opressões de gênero e sexualidade. (no prelo) p. 7. 13 LAPLANCHE, J. e PONTALIS, J. B. Vocabulário da Psicanálise. Santos: Livraria Martins Fontes, 1970, apud, GONZALEZ, Lélia. A categoria político-cultural da amefricanidade. Rev. TB. Rio de Janeiro, 92/93; 47/68, jan-jul. 1988, p. 69. PANORAMA > RACISMO ALGORÍTMICO 17 desempenha um papel fundamental na internalização da superioridade do colonizador pelos colonizados, se reproduzindo em duas faces: o racismo aberto e o racismo disfarçado. O racismo aberto é uma articulação ideológica que resulta do método de colonização anglo-saxã, que estabelece a identificação racial pela ancestralidade, de forma que é negra a pessoa que tem antepassados negros. Na medida em que o grupo branco pretende afirmar sua superioridade mantendo sua “pureza” racial, a solução assumida de forma explícita é a segregação dos grupos não brancos. A autora traz o exemplo da África do Sul com a doutrina do apartheid, em que haveria o desenvolvimento “igual, mas separado”.14 Já nas sociedades de origem latina, como a brasileira, o racismo se caracterizaria por seu aspecto “disfarçado”. Nele, prevalecem teorias da miscigenação, da assimilação e da “democracia racial”. Isso se dá porque, entre outras coisas, os países de colonização luso-espanhola herdaram de suas metrópoles ideologias de classificação social (racial e sexual) e técnicas jurídico-administrativas produzidas por elas ao longo 14 18 GONZALEZ, Lélia. A categoria político-cultural da amefricanidade. Op. cit, p. 71-72. PANORAMA > RACISMO ALGORÍTMICO de sua formação histórica. Pelo contato histórico com os povos do norte da África, essas sociedades já haviam se estruturado com base em um modelo rigidamente hierárquico. Nesse sentido, ainda que as colônias fossem racialmente estratificadas, essa estratificação não dependeu da criação de formas tão explícitas de segregação, por conta das hierarquias que garantiam a superioridade dos brancos como grupo dominante.15 O racismo por denegação explica as dinâmicas do racismo com base em um processo pelo qual a sociedade brasileira, embora formulando seus desejos recalcados de segregação e discriminação, se defende deles ao negar que lhe pertença. É sob esse pano de fundo que o racismo algorítmico se projeta no Brasil. As contribuições de Lélia reforçam a compreensão desse fenômeno e da forma como ele se enraíza na nossa sociedade. É neste terreno, em que o racismo é negado de maneira ampla, que vieses conscientes e inconscientes interferem nos processos de tomada de decisão dos modelos matemáticos. Assim, o racismo algorítmico não se apresenta apenas como uma falha no sistema operacional, mas como 15 Ibid. p. 73. PANORAMA > RACISMO ALGORÍTMICO 19 parte estruturante dele. 16 Não são raros os casos e relatos de racismo envolvendo algoritmos e sistemas de IA no cenário internacional, a exemplo de robôs que não conseguem ver rostos de pessoas negras17, reconhecimento facial que gera falsos positivos para criminosos em rostos negros18, algoritmos de alocação de recursos de saúde que punem pacientes negros19, carros autônomos que atropelariam com maior probabilidade pedestres negros 20 16 NOBLE, Safiya Umoja. Algorithms of oppression: how search engines reinforce racism. New York: NYU Press, 2018, p. 10. 17 BUOLAMWINI, Joy. When the robot doesn’t see dark skin. MIT Media Lab. 21 de junho de 2018. Disponível em: < https:// www.media.mit.edu/articles/when-the-robot/>. Acesso em: 29 jan. 2021. 18 HAO, Karen. A US government study confirms most face recognition systems are racist. MIT Technology Review. Dezembro de 2020. Disponível em: < https://www.technologyreview.com/2019/12/20/79/ai-face-recognition-racist-us-government-nist-study/>. Acesso em: 30 de janeiro de 2021. NUNES, Pablo; LIMA, Thallita Gabriele Lopes; CRUZ, Thaís Gonçalves. O SERTÃO VAI VIRAR MAR: Expansão do reconhecimento facial na Bahia. Rio de Janeiro: CESeC, 2023. Disponível em: https://opanoptico.com.br/Caso/o-sertao-vai-virar-mar-expansao-do-reconhecimento-facial-na-bahia/ . Acesso em outubro de 2023. 19 LEDFORD, Heidi. Millions of blakc people affected by racial bias in health-care algorithms. Nature. 24 de outubro de 2019. Disponível em: < https://www.nature.com/articles/d41586-01903228-6> Acesso em: 15 de fevereiro de 2023. PANORAMA > RACISMO ALGORÍTMICO em comparação a pedestres brancos20, melhores condições para hosts brancos em aplicativos de hospedagem21, dentre outros cuja lista, lamentavelmente, não para de crescer22. É com base no estudo dos dispositivos, das ferramentas tecnológicas e das metodologias computacionais, e na compreensão de aspectos políticos e econômicos das sociedades contemporâneas, que se desenvolve o conceito de racismo algorítmico. Isso porque, quando se discute a categoria raça, não há como desconsiderar as relações de poder. Afinal, raça é um argumento político utilizado historicamente para naturalizar desigualdades e legitimar 20 CUTHBERTSON, Anthony. Self-driving cars more likely to drive into black people, study claims. Independent. 6 de março de 2019. Disponível em: < https://www.independent.co.uk/ life-style/gadgets-and-tech/news/self-driving-car-crash-racial-bias-black-people-study-a8810031.html>. Acesso em: 15 de fevereiro de 2023. 21 LEE, Dave. AirBnB racismo claim: african-american less likely to get rooms. BBC News. 12 dez 2015. Disponível em: < https:// www.bbc.com/news/technology-35077448> Acesso em: 15 de fevereiro de 2023. 22 Nessa direção, Tarcizio Silva mantém o que intitula Linha do Tempo do Racismo Algorítmico: um banco de dados atualizado continuamente contendo casos evidenciados na mídia de racismo algorítmico, disponível para consulta livre e gratuita em seu site. Disponível em: < https://tarciziosilva.com.br/blog/destaques/ posts/racismo-algoritmico-linha-do-tempo/>. Acesso em: 15 de fevereiro de 2023. PANORAMA > RACISMO ALGORÍTMICO 21 a segregação e o genocídio de grupos sociologicamente considerados minoritários.23 Ainda para compreender o conceito que trabalhamos aqui, é importante diferenciar o racismo de outros fenômenos sociais também associados à ideia de raça, quais sejam: preconceito e discriminação. Não apenas para fins didáticos, mas para não cairmos na armadilha de subdimensionar os efeitos e motivações do racismo algorítmico. Para Silvio Almeida, o racismo é uma forma sistemática de discriminação que tem o elemento raça como fundamento. Ele se manifesta por meio de práticas conscientes ou inconscientes, que resultam em desvantagens ou privilégios para os indivíduos, a depender do grupo racial ao qual pertençam. O racismo, portanto, transcende a ação individual e tem o poder como elemento constitutivo das relações raciais. O racismo se diferencia do preconceito racial, que é o “juízo baseado em estereótipos sobre as pessoas que pertencem a determinado grupo racializado, e 23 22 ALMEIDA, Silvio. O que é racismo estrutural. Coleção Feminismos Plurais. Djamila Ribeiro (Org.) São Paulo: Sueli Carneiro; Pólen, 2019, p. 30-32. PANORAMA > RACISMO ALGORÍTMICO que pode ou não resultar em práticas discriminatórias.”24 Almeida traz como exemplo de preconceito a atribuição a pessoas racializadas de características com base em estereótipos construídos socialmente, como considerar que pessoas negras são violentas ou não são confiáveis, que judeus são avarentos e até mesmo que orientais são naturalmente aptos às ciências exatas. A discriminação racial se dá quando se atribui tratamento diferenciado, discriminatório, a membros de grupos racialmente identificados com base nos preconceitos raciais. É só com o uso da força, portanto, que se torna possível atribuir vantagens e desvantagens por conta da raça. A diferença entre as três categorias não é meramente alegórica, ela importa para desvelarmos aspectos importantes da realidade concreta. Quando entendemos o racismo como uma decorrência da própria estrutura social, vemos que não se trata de uma patologia social (concepção individualista do racismo), nem de desarranjos institucionais causados pela hegemonia de determinados grupos raciais na imposição de seus interesses políticos e econômicos (concepção institucional do racismo). 24 Ibid. PANORAMA > RACISMO ALGORÍTMICO 23 O racismo algorítmico seria, portanto, uma categoria analítica que dá conta dos aspectos tecnopolíticos dos algoritmos com base no elemento raça, sem prejuízo das imbricações25 de gênero, classe, sexualidade, deficiência e outras categorias de opressão que lhe sobrevenham. Ele se expressa a partir das desigualdades políticas, econômicas e jurídicas próprias do racismo estrutural, e não de falibilidades pontuais no uso e produção da tecnologia em cada caso concreto. Em uma sociedade marcada pelo racismo por denegação, o racismo algorítmico encontra solo fértil para reproduzir seus efeitos nefastos. À luz do discurso de neutralidade das tecnologias, e da supremacia das capacidades técnicas perante as falibilidades humanas nos processos de tomada de decisão, são delegadas cada vez mais decisões estratégicas às soluções tecnológicas sem atenção aos aspectos éticos e impactos sociais que elas desencadeiam. 25 24 O conceito de imbricação de opressões trazido neste trabalho recorre aos ensinamentos de Ochy Curiel, que busca entender o modo como essas opressões têm atravessado historicamente a experiência da colonialidade em efeitos estruturais e estruturantes sobre os corpos que não experienciaram os privilégios de raça, classe, gênero, sexualidade, entre outros. Cf. CURIEL, Ochy. CURIEL, Ochy. “De las Identidades a las Imbricación de las opresiones: Desde La experiencia.” In Encrespando. Anais do I Seminário Internacional: Refletindo a Década Internacional dos Afrodescentendes (ONU, 2015-2024) / FLAUZINA, Ana; PIRES, Thula (org.). Brasília: Brado Negro, 2016, p. 80. PANORAMA > RACISMO ALGORÍTMICO Racismo algorítmico e vieses algorítmicos: distinções conceituais Você sabe o que são algoritmos de aprendizagem automática? Trata-se de tecnologias que permitem o funcionamento do que chamamos de “agentes inteligentes”, por exemplo. Esses agentes usam técnicas de inteligência artificial com aprendizagem automática para se adaptar a novas situações – ou aprender ‘sozinhos’ –, na medida em que os dados disponíveis lhes permitam realizar ajustes sem necessidade do auxílio humano direto. Eles podem apresentar comportamentos complexos, ou até mesmo comportamentos que só humanos fariam. Acontece que os algoritmos de aprendizagem automática são inspirados por pessoas, criados por pessoas e, principalmente, causam impactos em pessoas. Eles já se configuram como uma poderosa ferramenta de altíssimo alcance global, da qual estamos apenas começando a compreender os efeitos e potencialidades. PANORAMA > RACISMO ALGORÍTMICO 25 Esse processo, portanto, pode implicar em resultados delicados, que refletem comportamentos e valores éticos questionáveis no âmbito das relações sociais. Isto porque, determinados parâmetros operacionais são, muitas vezes, elaborados por desenvolvedores e configurados por usuários, privilegiando certos valores e interesses em detrimento de outros.26 Tanto na internet, quanto no uso diário da tecnologia, está presente o fenômeno dos vieses algorítmicos, especialmente quando falamos de decisões automatizadas, ou seja, decisões que, em algum momento, já foram delegadas à reflexão humana, e hoje são tomadas automaticamente por um software que codifica e computa milhares de regras e instruções em frações de segundo.27 Os impactos das decisões produzidas por algoritmos são capazes de modular o comportamento e a conduta dos usuários, muitas 26 26 BREY, Philip; Soraker, Johnny. Philosophy of Computing and Information Technology. In A. Meijers (Ed.), Philosophy of Technology and Engineering Sciences (pp. 1341-1408). (Handbook of the Philosophy of Science; Vol. 9, No. IX). Amsterdam: Elsevier. 2009. Disponível em: < https://linkinghub.elsevier. com/retrieve/pii/B9780444516671500513>. Acesso em 27 de abril de 2020. 27 PASQUALE, Frank. The Black Box Society. Harvard University Press, 2005, p. 4. PANORAMA > RACISMO ALGORÍTMICO vezes de forma discreta, reproduzindo relações de poder e opressão já existentes na sociedade.28 Podemos conceituar vieses (bias) como pesos desproporcionais a favor ou contra algo ou alguém. Uma decisão enviesada, ou tendenciosa, ganha contornos de unilateralidade, isto é, é composta pela visão de mundo, pela experiência, pelos valores e até mesmo pela intuição de um sujeito ou de um grupo em relação ao contexto no qual está inserido. As pessoas podem desenvolver vieses a favor ou contra um indivíduo, um grupo étnico e racial, uma orientação sexual ou identidade de gênero, uma nação ou povo, uma religião, uma classe social, um partido ou posicionamento político, uma ideologia, entre muitos outros elementos. Nessa direção, os vieses algorítmicos (algorithmic bias) são o fenômeno a partir do qual as pessoas incorporam sua visão de mundo e, não raras vezes, preconceitos às tecnologias. Essa incorporação pode ou não culminar em discriminação racial, atribuindo tratamento diferenciado a membros de 28 SILVA, Tarcízio. Racismo algorítmico em plataformas digitais: microagressões e discriminação em código. In: Comunidades, algoritmos e ativismos digitais. Tarcizio Silva (Org.) São Paulo: LiteraRua, 2020, p. 130. PANORAMA > RACISMO ALGORÍTMICO 27 grupos racialmente identificados quando utilizam as tecnologias.29 O racismo algorítmico não é sinônimo de vieses algorítmicos. São conceitos distintos, mas não antagônicos, pois é a partir dos vieses que o racismo algorítmico se concretiza no contexto sociotécnico. Os vieses algorítmicos mobilizam as categorias de preconceito racial e discriminação racial, enquanto o racismo algorítmico trabalha com a categoria de racismo como estrutura e forma sistemática de discriminação, que ganha expressão como desigualdade política, econômica e jurídica em desfavor da população negra e indígena na forma como essas tecnologias são incorporadas no Brasil. Algoritmos operam construindo um modelo a partir de inputs amostrais – isto é, quando um computador ou dispositivo está recebendo um comando ou sinal de fontes externas. Nesse sentido, o processo de criação de um algoritmo de IA possui muitas partes manuais: desde a coleta de dados até a escolha de quem vai 29 28 Cf. KREMER, Bianca. Direito e tecnologia em perspectiva amefricana: autonomia, algoritmos e racialidade. 2021, p. 136. Doutorado. Tese de doutorado. Faculdade de Direito. Pontifícia Universidade Católica do Rio de Janeiro. Rio de Janeiro, 31 de março de 2021. Disponível em: < https://www. maxwell.vrac.puc-rio.br/58993/58993.PDF> Acesso em: 15 de fevereiro de 2023. PANORAMA > RACISMO ALGORÍTMICO coletá-los; da origem dos dados até a análise sobre a representação do problema que está sendo tratado e, potencialmente, solucionado pelo algoritmo. É nesse momento que entram os vieses: o desenvolvedor, ou a equipe de desenvolvedores, a partir de seu juízo baseado em estereótipos sobre outros pertencentes a um determinado grupo racial, incute esses preconceitos na máquina, sobretudo indiretamente. Em sociedades marcadas pelo racismo por denegação e por regras de neutralidade racial, como a brasileira, isso fica ainda mais evidente. Adilson Moreira, quando conceitua discriminação direta e indireta, trabalha com o elemento da intencionalidade. A discriminação direta traz a imposição de tratamento desvantajoso com intenção de discriminar, enquanto a discriminação indireta traz a ausência de intencionalidade explícita de discriminar pessoas30. Além de considerar essas diferentes formas, é preciso perceber que existem diferenças sociais significativas na forma como as pessoas vão experienciar a tecnologia em um tecido social já esgarçado e marcado por conflitos e antagonismos. 30 MOREIRA, Adilson José. O que é discriminação? Belo Horizonte: Letramento, 2017, p. 102. PANORAMA > RACISMO ALGORÍTMICO 29 Portanto, quando a máquina promove decisões automatizadas a partir desses inputs amostrais enviesados, fomenta processos e tomadas de decisões humanas e institucionais que promovem a discriminação racial, isto é, o tratamento diferenciado a membros de grupos racialmente identificados. Já o racismo algorítmico transcende as ações individuais dos desenvolvedores e recai nas dimensões de poder de um grupo racial sobre o outro, a partir das dinâmicas econômicas, políticas e jurídicas da nova Economia Digital. Isso gera novos contornos aos aspectos de vigilância e controle em todas as esferas da vida da população negra no Brasil, reiterando os processos históricos e políticos que os posicionaram no seio da sociedade brasileira como cidadãos de segunda classe. Modelos sempre conterão erros por serem simplificações do mundo real. As informações que os alimentam – seja quando são inicialmente desenvolvidos por seres humanos, seja quando formulados e reformulados pela própria máquina ao ser submetida a treinamento e aprendizagem31 – não darão conta de 31 30 O’NEIL, Cathy. Algoritmos de destruição matemática. Op. cit. p. 33. PANORAMA > RACISMO ALGORÍTMICO toda a complexidade do mundo real e das relações sociais. Mas não se trata apenas de apontar esse fato como uma falibilidade possível da máquina. Trata-se de denunciar a impossibilidade de sua neutralidade. Por maior que seja o poder computacional, sempre haverá escolhas sobre o que é realmente importante ao se criar um modelo. Algumas coisas serão incluídas em inputs enquanto outras ficarão de fora. E essas escolhas são permeadas por comportamentos individuais e processos institucionais derivados de uma sociedade em que o racismo funciona como regra, não exceção. Nesse sentido, a concepção estrutural do racismo, popularizada no Brasil por Silvio Almeida, alinhada à lógica do racismo por denegação, desenvolvida por Lélia Gonzalez, nos oferece a possibilidade de redefinir a gramática tecnopolítica dos algoritmos. É preciso tomar como ponto de partida as tensões políticas, econômicas e sociais que nos dizem respeito na sociedade da informação que herdamos, informando uma nova práxis nos debates sobre racismo e tecnologia, que é o conceito de racismo algorítmico. A categoria do racismo algorítmico denuncia, ao mesmo tempo, a formação histórica e política que PANORAMA > RACISMO ALGORÍTMICO 31 constrói e mantém a raça como elemento de discriminação sistemática no Brasil e a não neutralidade das tecnologias amplamente adotadas no país. A centralidade da discussão racial proporcionada pela categoria é fundamental para pensarmos o contexto de disputa política a que estamos submetidos no cenário da sociedade da informação. Corpo negro e vigilância: da colonização às novas tecnologias Corporalidades negras e vigilância são temas constantemente entrelaçados por força de uma herança histórica do período colonial que se desdobra até os dias atuais na forma de desigualdade social, divisão racial do espaço, pobreza insidiosa, política de encarceramento em massa, violência policial e toda sorte de práticas ultrajantes. Não é por acaso que o Brasil é o nono país mais desigual do mundo, ficando atrás apenas de nações do continente africano32. Esse 32 32 HUMAN Development Report 2019. United Nations Development Programme. Disponível em: < http://hdr.undp.org/en/2019-report/download>. Acesso em: 27 de janeiro de 2021. PANORAMA > RACISMO ALGORÍTMICO é um dos resultados de um projeto de genocídio33 que teve início com a colonização, mas se atualiza em diversos aspectos nos dias atuais. Neste tópico, veremos um panorama da vigilância e da estigmatização que atravessa esses corpos historicamente, hoje auxiliadas pelas tecnologias. A cada cem pessoas chegadas no Brasil durante o período colonial, 86 eram escravizadas africanas.34 Estima-se com relativa precisão que aproximadamente 12 milhões de seres humanos foram embarcados 33 Empregamos aqui a categoria genocídio em ampla acepção, como um processo de sufocamento das comunidades negras nas mais diversas frentes de atuação institucional, no ínterim das dinâmicas que elegeram o racismo como pedra angular do Estado brasileiro e de suas instituições jurídico-políticas. Cf. FLAUZINA, Ana Luiza Pinheiro. Corpo negro caído no chão. O sistema penal e o projeto genocida do Estado brasileiro. Rio de Janeiro: Contraponto, 2008. Ver também: VARGAS, João Helion Costa, A Diáspora Negra como Genocídio, REVISTA DA ABPN, no. 2, Ju.- Out. 2010, p.31-56. 34 GOMES, Laurentino. Escravidão. v.1. Rio de Janeiro: Globo Livros, 2019, p. 255. Para maiores informações, sugerimos o banco de dados The Transatlantic Slave Trade Database, que cobre cerca de 80% das viagens de navios negreiros ao longo de três séculos, com versão em português e atualização constante em tempo real. Disponível em: <www.slavevoyage.com>. Acesso em: 27 jan 2021. PANORAMA > RACISMO ALGORÍTMICO 33 forçosamente35, entre 1500 e 1867, para a travessia do Atlântico, em cerca de 36 mil viagens em navios negreiros. Dessas, apenas 10 milhões chegaram vivos às Américas, tendo o Brasil recebido sozinho mais de 4,9 milhões de cativos, o equivalente a 47% do total desembarcado em todo o continente americano – número 10 vezes superior ao destinado às colônias inglesas da América do Norte. Aqui, o controle sobre as corporalidades negras feitas cativas era majoritariamente realizado por meio da violência, e a disciplinarização do poder senhorial se mostrava o ponto nodal da tecnologia de vigilância colonial. O escravo é mantido vivo, mas em estado de injúria. “Violência, aqui, torna-se um componente de etiqueta”.36 Por outro lado, a situação dos negros libertos colocava em xeque a lógica disciplinar no âmbito senhorial, que controlava também seu trânsito no espaço público. Ao deixarem o cativeiro, esses negros libertos se concentravam nos 34 35 A esse embarque forçoso denominamos diáspora africana, também chamado de diáspora negra. Um fenômeno sociocultural e histórico que ocorreu devido à imigração forçada de africanos para fins escravagistas mercantis, que perdurou do início da Idade Moderna ao final do século XIX. 36 MBEMBE, Achille. Necropolítica. São Paulo: Ubu Editora, 2018, p. 28. PANORAMA > RACISMO ALGORÍTMICO centros urbanos e, no pós-abolição, na massa negra livre. A criminalização da vadiagem veio, então, como resposta na forma de uma rede pública de vigilância sobre esses corpos em trânsito37. O tipo penal da vadiagem foi levado a cabo no Código Criminal do Império de 1830 e no Código Penal de 1890, já na República, se mostrando a criminalização da liberdade em última instância.38 Segundo Ana Carolina Mattoso, a lógica que inaugura a urbanização e a formação dos valores de uma sociedade industrial no país é informada pela “criminalização da liberdade negra, pela repressão de seus ajuntamentos, pela tradução do ócio, da diversão, das variadas formas de produção de sentidos para o mundo”39 como desvio, transgressão. Pela repressão da sua ocupação e leitura do espaço público. A liberdade de circulação e dos múltiplos fazeres do negro, expressa em seus ajuntamentos, festas, danças, jogos e exercício da espiritualidade, não coadunavam com 37 MATTOSO, Ana Carolina. Da vadiagem ao ‘rolezinho’, do samba ao 150 bpm. Op. cit. p. 66. 38 FLAUZINA, Ana Luiza Pinheiro. Corpo negro caído no chão. Op. cit. p. 70. 39 MATTOSO, Ana Carolina Da vadiagem ao “rolezinho”, do samba ao 150 bpm: lazer de preto não é direito, é crime. In: Rebelião. FLAUZINA, Ana Luisa Pinheiro; PIRES, Thula. (Org.) Brasilia: Brado Negro, Nirema, 2020. p. 67. PANORAMA > RACISMO ALGORÍTMICO 35 os valores da sociedade urbano-industrial brasileira do século XIX. As elites temiam insurreições que as colocassem em perigo, razão pela qual nossa sociedade se construiu sob a negação e o apagamento dos divertimentos que lhes eram próprios, por meio de uma constante vigilância repressiva. Na atualidade, essa vigilância massiva ganha novos contornos com as tecnologias de aprendizado de máquina, que vimos no tópico anterior, e o fenômeno do big data. A captação, o armazenamento e a análise de dados vêm se transformando ao longo da trajetória do desenvolvimento tecnológico e têm atingido também as forças de segurança, atualizando a capacidade de controle e de renovação do racismo. A cada ano, cresce o número de pessoas e dispositivos conectados à rede mundial de computadores, crescendo também a quantidade de informação gerada e armazenada. Nesse contexto, podemos definir big data como aquilo que é realizado em larga escala que não poderia ser feito em escalas menores, para extrair percepções (insights) ou criar novas formas de valor.40 Sua potência, portanto, 40 36 MAYER-SCHONBER, Viktor. Big data: a revolution that will transform how we live, work and think. New York: Eamon Dolan/ Houghton Mifflin Harcourt, 2014, p. 6. PANORAMA > RACISMO ALGORÍTMICO comporta a extração de valor de informações em larga escala. Não é a quantidade massiva de dados que forma o diferencial do big data, mas aquilo que pode ser feito a partir da extração dessas informações. Atividades de inteligência, portanto, realizadas com base em dados. Big data é, portanto, menos sobre dados e mais sobre a capacidade de pesquisa, agregação e referência cruzada de grandes conjuntos de dados41. Assim, o uso desse tipo de tecnologia gera preocupações, sobretudo quando aplicado às atividades de segurança pública no contexto brasileiro. O Big Data tem sido utilizado no campo da prevenção e controle de segurança pública, situação em que é mobilizado para refletir de forma abrangente as características quantitativas do crime, peculiaridades do tempo e do espaço em que ele se insere, além de eventuais processos de mudança observáveis dentro de um período. Alguns autores têm denominado esse campo de atuação como Big Data Criminal, cujo valor se reflete principalmente em 41 BOYD, Danah; CRAWFORD, Kate. Critical questions for Big Data. Information. Communication & Society. Volume 15, 2012, Issue 5. 10 mai 2012. Disponível em: < https://www.tandfonline. com/doi/abs/10.1080/1369118X.2012.678878> Acesso em 15 de fevereiro de 2023. PANORAMA > RACISMO ALGORÍTMICO 37 práticas consideradas inovadoras para a prevenção de crimes.42 A aplicação de modelagem por computadores a dados criminais passados para predizer atividade criminal futura tem sido alvo de diversas críticas no cenário internacional, sobretudo com as denúncias de estereótipos racistas sendo reforçados por esse tipo de tecnologia. Ganhou destaque em 2016 uma matéria da ProPublica43 que denunciou práticas racistas no COMPAS, sigla em inglês para o que pode ser traduzido como Gerenciamento de Perfis de Infratores no Sistema Penitenciário para Sanções Alternativas. O sistema utiliza modelos matemáticos e algoritmos para aferir o grau de periculosidade de criminosos em apoio à tomada de decisões judiciais em alguns estados da 38 42 CAI, Yijun; LI, Dian; WANG, Yuyue. Intelligent Crime Prevention and Control Big Data Analysis System Based on Imaging and Capsule Network Model. Neural Processing Letters. Springer Nature, 30 de abril de 2020. Disponível em: < https://link.springer.com/article/10.1007/s11063-020-102561>. Acesso em: 15 de fevereiro de 2023. 43 ProPublica é uma corporação sem fins lucrativos com sede em Nova York. Descreve-se como uma redação independente que produz jornalismo investigativo de interesse público. Cf. ABOUT us. ProPublica. Net. Disponível em: < https://www. propublica.org/about>. Acesso em 15 de dezembro de 2020. PANORAMA > RACISMO ALGORÍTMICO federação nos Estados Unidos, a exemplo de Nova York, Wisconsin, Califórnia, Flórida, entre outros. O seu escopo é determinar a pena de condenados e, por sua vez, tornar as sentenças supostamente mais justas. O software funciona por meio de um questionário com a atribuição de um sistema de pontos, o qual se descobriu conceder uma pontuação consideravelmente maior para infratores de minorias étnicas.44 Um dos exemplos mais evidentes de racismo relatados na matéria foi a comparação do grau de periculosidade aferido entre pessoas negras e brancas com características bem diferentes. No primeiro caso, à esquerda da imagem a seguir, duas pessoas cometeram pequenos furtos: Vernon Prater, um homem branco, e Brisha Borden, uma mulher negra. Ambos já tinham passagens pela polícia, de modo que Vernon tinha em seu registro dois assaltos à mão armada e uma tentativa de assalto à mão armada, além de ter histórico de reincidência em roubo, algo semelhante ao roubo majorado no sistema brasileiro. Por outro 44 ANGWIN, Julia; LARSON, Jeff; MATTU, Surya; KIRCHNER, Lauren. Machine bias: there’s software used across the country to predict future criminals. And it’s biased against black. Propublica. 23 de maio de 2016. Disponível em: < https://www.propublica. org/article/machine-bias-risk-assessments-in-criminal-sentencing>. Acesso em 15 de dezembro de 2020. PANORAMA > RACISMO ALGORÍTMICO 39 lado, Brisha tinha em seu histórico quatro crimes de menor potencial ofensivo quando ainda era adolescente, sem nenhum outro tipo de reincidência. O sistema apontou Vernon como potencial de baixo risco, recebendo nota 3, enquanto Brisha obteve nota 8. O segundo caso foi ainda mais escandaloso. Dois homens foram acusados de crime de posse de drogas: Dylan Fugett, um homem branco, e Bernard Parker, um homem negro. Dylan tinha passagem na polícia por tentativa de roubo e reincidência com três posses de droga, enquanto Bernard tinha em seu histórico apenas uma resistência à abordagem policial sem violência, sem nenhuma reincidência. Dylan foi considerado um sujeito de baixo risco com nota 3, enquanto Bernard foi considerado pelo algoritmo como elemento de alto risco, com nota 10. 40 PANORAMA > RACISMO ALGORÍTMICO O policiamento preditivo é um tipo de tecnologia que reforça vieses discriminatórios por essência, uma vez que as atividades de inteligência não se dão apartadas de uma estrutura social e institucional racista. Infelizmente, desde 2021 a ideia vem ganhando força perante as forças de segurança e hubs de desenvolvimento no Brasil. O Instituto Igarapé, por exemplo, chegou a lançar no mesmo ano um edital com o intuito de selecionar cinco municípios brasileiros para testagem de sua ferramenta tecnológica chamada CrimeRadar45, que prometia prever a ocorrência de crimes como forma de potencializar os recursos das forças de segurança, enquanto mitigaria potenciais impactos sociais negativos em populações vulneráveis. A iniciativa sofreu diversas críticas da sociedade civil e de ativistas devido à ausência de informações precisas sobre como os dados seriam levantados, armazenados e compartilhados, ou mesmo sobre os meios que viabilizariam essa mitigação de violência. Sem informações conclusivas por parte do instituto, e após pressão da sociedade civil, o projeto foi suspenso por tempo indeterminado. 45 Disponível em: <https://igarape.org.br/apps/crimeradar/>. Acesso em: 01 de novembro de 2023. PANORAMA > RACISMO ALGORÍTMICO 41 Ao contrário da proposta de policiamento preditivo, outra tecnologia que tem servido à atualização da vigilância sobre corpos negros tem crescido exponencialmente no Brasil: o reconhecimento facial. O reconhecimento facial é uma tecnologia de identificação biométrica realizada a partir da coleta de dados faciais, que podem ser provenientes de fotografias ou segmentos de vídeos. Esses sistemas automatizados extraem representações matemáticas de traços faciais específicos como, por exemplo, a distância entre os olhos ou o formato do nariz, produzindo o que é chamado de padrão facial. É justamente no processo de comparação desse padrão facial a outros padrões faciais contidos na base de dados prévia do sistema que a tecnologia identifica indivíduos desconhecidos – como é o caso das câmeras de monitoramento nas ruas – ou autentica pessoas conhecidas – a exemplo do desbloqueio de celulares com Face ID e da validação de contas bancárias em smartphones.46 46 42 KREMER, Bianca. Reconhecimento facial no Brasil: uma perspectiva de raça e gênero. Coding Rights Medium. Rio de Janeiro, 7 de fevereiro de 2022. Disponível em: <https://medium.com/ codingrights/reconhecimento-facial-no-brasil-uma-perspectiva-de-ra%C3%A7a-e-g%C3%AAnero-9fe027c3a176>. Acesso em: 15 de fevereiro de 2023. PANORAMA > RACISMO ALGORÍTMICO O Brasil estreou o uso de tecnologias de reconhecimento facial na área de segurança pública oficialmente em 2018. Após um ano de experiências em cinco estados do Brasil e monitoramento dos casos de prisões e abordagens policiais, a Rede de Observatórios da Segurança publicou levantamento demonstrando que 90,5% dos presos por monitoramento facial no Brasil eram negros,47 no contexto de uma sociedade em que 56% da população é autodeclarada negra, categoria composta por pretos e pardos.48 A despeito disso, até 2021 a tecnologia já era adotada por vinte estados brasileiros.49 Em julho de 2019, foi amplamente noticiado em jornais de grande circulação que o sistema utilizado 47 NUNES, Pablo. Exclusivo: levantamento revela que 90,5% dos presos por reconhecimento facial no Brasil são negros. The Intercept. 21 nov 2019. Disponível em: < https://theintercept. com/2019/11/21/presos-monitoramento-facial-brasil-negros/> Acesso em: 27 de janeiro de 2021. 48 Desigualdades sociais por cor ou raça no Brasil em 2022. IBGE. Disponível em < https://www.ibge.gov.br/estatisticas/ sociais/populacao/25844-desigualdades-sociais-por-cor-ou-raca. html?=&t=resultados>. Acesso em 15 de fevereiro de 2023. 49 DAMASCENO, Victoria. FERNANDES, Samuel. Sob críticas reconhecimento facial chega a 20 Estados brasileiros. Valor Econômico, 10 de julho de 2021. Disponível em: < https:// valor.globo.com/brasil/noticia/2021/07/10/sob-crticas-reconhecimento-facial-chega-a-20-estados-do-pas.ghtml>. Acesso em: 15 de fevereiro de 2023. PANORAMA > RACISMO ALGORÍTMICO 43 pela polícia do Rio de Janeiro em caráter experimental abordou equivocadamente uma mulher como procurada pela Justiça na orla de Copacabana.50 Dias depois, descobriu-se que a criminosa procurada já estava presa havia quatro anos – um indício de que o banco de dados utilizado detinha graves problemas de atualização, e que a abordagem policial se deu de maneira amplamente enviesada. Este foi apenas um de diversos outros casos em que o sistema levou policiais da cidade a prender pessoas por engano com o uso da tecnologia de reconhecimento facial51. O estado de São Paulo vem travando algumas das disputas mais intensas em matéria de uso de reconhecimento facial nos espaços públicos e para fins de segurança pública. Lá, foi lançado, em 2022, o edital do Smart Sampa, um projeto que prevê a instalação de 20 mil câmeras com monitoramento facial até 2024, com um investimento de R$70 milhões por ano. 44 50 WERNECK, Antonio. Reconhecimento facial falha em segundo dia, e mulher inocente é confundida com criminosa já presa. O Globo. 11 de julho de 2019. Disponível em: < https://oglobo. globo.com/rio/reconhecimento-facial-falha-em-segundo-dia-mulher-inocente-confundida-com-criminosa-ja-presa-23798913>. Acesso em: 28 de janeiro de 2021. 51 ALMEIDA, Emily. Homem é preso por engano em Copacabana. Band. 24 de julho de 2019. Disponível em: <https://bandnewsfmrio.com.br/editorias-detalhes/homem-e-preso-por-engano-em-copacabana> Acesso em: 15 de fevereiro de 2023. PANORAMA > RACISMO ALGORÍTMICO Vale lembrar que o reconhecimento facial e seu potencial para a violação de direitos já está em pauta desde 2019 na região, quando a SPTrans decidiu instalar um sistema de câmeras com reconhecimento facial no metrô com o argumento de facilitar a identificação de suspeitos de crimes, fugitivos e até pessoas desaparecidas. Empresas da França e Irlanda desenvolveram o projeto, estimando o alcance diário na média de 3,5 milhões de usuários do transporte, ao custo de R$ 58 milhões. Diversas entidades de defesa dos direitos do cidadão e do consumidor ingressaram com ação judicial no intuito de interromper o projeto, sem sucesso. O vigilantismo, o controle e a aplicação de violência sobre os corpos e em territorialidades negras no Brasil, pelo poder público, informam uma herança do período colonial que se desdobra até os dias atuais, na forma de perfilamento racial e tradição racista das instituições policiais e de órgãos do sistema de justiça. Esse cenário ganha novos contornos com a massiva adoção de aparatos tecnológicos pelos órgãos de segurança pública em todo o país, ainda que as falhas nesses processos sejam constantemente demonstradas por ativistas, instituições de pesquisa, organizações de defesa de direitos e outros agentes sociais. PANORAMA > RACISMO ALGORÍTMICO 45 Considerações Finais A raça opera a produção da política e a aplicação do direito sob uma densa armadura institucional de neutralidade racial. É no cenário da realidade punitivista brasileira que as tecnologias de aprendizado de máquina vêm ganhando cada vez mais espaço em instituições – gerando também grande preocupação – com a promessa de soluções em caráter de securitização, de vigilância e, até mesmo, de otimização de serviços públicos e privados. Em uma sociedade marcada pelo racismo por denegação, como a brasileira, o racismo algorítmico encontra solo fértil para reproduzir seus efeitos nefastos. À luz do discurso de neutralidade das tecnologias e da supremacia das capacidades técnicas perante as falibilidades humanas nos processos de tomada de decisão, são delegadas cada vez mais decisões estratégicas às soluções tecnológicas, sem atenção aos aspectos éticos e impactos sociais que elas desencadeiam. A adoção de novas tecnologias e as promessas de transformação social que elas carregam fazem parte da projeção de futuros possíveis, especialmente em 46 PANORAMA > RACISMO ALGORÍTMICO um país como o Brasil, amplamente marcado pela desigualdade social e pela hierarquização da humanidade de seus cidadãos. No entanto, quando a tecnologia, em sua produção e em seu uso, é camuflada de universalidade, ela se torna incapaz de produzir emancipação para sujeitos e experiências que não foram levados em consideração no seu desenvolvimento e na conformação do seu conteúdo. Como vimos, os vieses algorítmicos se expressam nos processos de codificação e uso da tecnologia, enquanto o racismo algorítmico produz efeitos na aplicação de tecnologias de aprendizagem automática em larga escala. O racismo algorítmico reproduz desigualdades políticas, econômicas e jurídicas próprias do racismo estrutural, e não de falibilidades pontuais no uso e na produção da tecnologia em cada caso concreto. Existe uma trajetória histórica de seletividade racial no país, em especial no campo da segurança pública. A população negra ainda enfrenta os efeitos das tecnologias de dominação colonial sob o espectro da vigilância, agora com o uso de novos aparatos tecnológicos. Essas tecnologias de dominação, ontem e hoje, condicionam seu trânsito no espaço público e as condições de possibilidade para o acesso a bens e PANORAMA > RACISMO ALGORÍTMICO 47 serviços de toda sorte, e conformam suas condições de possibilidade de ser, estar e bem viver. À medida que os algoritmos assumem cada vez mais aspectos da vida social em larga escala, também replicam violências e estereótipos discriminatórios presentes no tecido social, afinal, os modelos matemáticos não são neutros, eles engendram disputas políticas. Evgeny Morozov afirma acertadamente que aquele que domina a tecnologia mais avançada domina o mundo52. Olhando para o contexto brasileiro e para o fenômeno do racismo algorítmico, o parafraseamos: quem domina a narrativa do uso dos dados também domina as disputas políticas que os modelos matemáticos afirmam. 52 48 MOROZOV, Evgeny. Big tech: a ascensão dos dados e a morte da política. Trad. Claudio Marcondes. São Paulo: Ubu Editora, 2018, p. 11. PANORAMA > RACISMO ALGORÍTMICO Indicações de leitura ALMEIDA, Silvio. O que é racismo estrutural. Coleção Feminismos Plurais. Djamila Ribeiro (Org.) São Paulo: Sueli Carneiro; Pólen, 2019. FLAUZINA, Ana Luiza Pinheiro. Corpo negro caído no chão. O sistema penal e o projeto genocida do Estado brasileiro. Rio de Janeiro: Contraponto, 2008. FAUSTINO, Deivison; LIPPOLD, Walter. Colonialismo digital: por uma crítica hacker-fanoniana. São Paulo: Ed. Raízes da America, 2022. GONZALEZ, Lélia. A categoria político-cultural de amefricanidade. In: Tempo Brasileiro. Rio de Janeiro, nº. 92/93 (jan/jun). 1988, pp.69-82. O’NEIL, Cathy. Algoritmos de destruição em massa: como o big data aumenta a desigualdade e ameaça a democracia. Trad. Rafael Abraham. 1ª Ed. Santo Andre: Editora Rua do Sabão, 2020. SILVA, Tarcizio. Racismo algorítmico: inteligência artificial e discriminações nas redes digitais. In: AMADEU, Sergio (Org.) Col. Democracia Digital. 2021. PANORAMA > RACISMO ALGORÍTMICO 49 Referências bibliográficas ALMEIDA, Silvio. O que é racismo estrutural. Coleção Feminismos Plurais. Djamila Ribeiro (Org.) São Paulo: Sueli Carneiro; Pólen, 2019. ALMEIDA, Emily. Homem é preso por engano em Copacabana. Band. 24 de julho de 2019. Disponível em: < https://bandnewsfmrio.com.br/ editorias-detalhes/homem-e-preso-por-engano-em-copacabana> Acesso em: 15 de fevereiro de 2023. ANGWIN, Julia; LARSON, Jeff; MATTU, Surya; KIRCHNER, Lauren. Machine bias: there’s software used across the country to predict future criminals. And it’s biased against black. Propublica. 23 de maio de 2016. Disponível em: < https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing>. Acesso em 15 de dezembro de 2020. BOYD, Danah; CRAWFORD, Kate. Critical questions for Big Data. Information. Communication & Society. Volume 15, 2012, Issue 5. 10 mai 2012. Disponível em: < https://www.tandfonline.com/doi/abs/10.1080/13691 18X.2012.678878> Acesso em: 15 de fevereiro de 2023. BREY, Philip; Soraker, Johnny. Philosophy of Computing and Information Technology. In A. Meijers (Ed.), Philosophy of Technology and Engineering Sciences (pp. 1341-1408). (Handbook of the Philosophy of Science; Vol. 9, No. IX). Amsterdam: Elsevier. 2009. Disponível em: < https://linkinghub. elsevier.com/retrieve/pii/B9780444516671500513>. Acesso em 27 de abril 2020. BUOLAMWINI, Joy. When the robot doesn’t see dark skin. MIT Media Lab. 21 de junho de 2018. Disponível em: < https://www.media.mit.edu/articles/ when-the-robot/>. Acesso em: 29 de janeiro de 2021. CAI, Yijun; LI, Dian; WANG, Yuyue. Intelligent Crime Prevention and Control Big Data Analysis System Based on Imaging and Capsule Network Model. Neural Processing Letters. Springer Nature, 30 de abril de 2020. Disponível em: < https://link.springer.com/article/10.1007/ s11063-020-10256-1>. Acesso em: 15 de fevereiro de 2023. 50 PANORAMA > RACISMO ALGORÍTMICO COPPIN, Ben. Inteligência artificial. Trad, e rev. Jorge Duarte Pires Valério. Rio de Janeiro: LTC, 2017. CURIEL, Ochy. CURIEL, Ochy. “De las Identidades a las Imbricación de las opresiones: Desde La experiencia.” In Encrespando. Anais do I Seminário Internacional: Refletindo a Década Internacional dos Afrodescentendes (ONU, 2015-2024) / FLAUZINA, Ana; PIRES, Thula (org.). Brasília: Brado Negro, 2016. CUTHBERTSON, Anthony. Self-driving cars more likely to drive into black people, study claims. Independent. 6 de março de 2019. Disponível em: < https://www.independent.co.uk/life-style/gadgets-and-tech/news/self-driving-car-crash-racial-bias-black-people-study-a8810031.html>. Acesso em: 15 de fevereiro de 2023. DAMASCENO, Victoria. FERNANDES, Samuel. Sob críticas reconhecimento facial chega a 20 Estados brasileiros. Valor Econômico, 10 de julho de 2021. Disponível em: < https://valor.globo.com/brasil/noticia/2021/07/10/ sob-crticas-reconhecimento-facial-chega-a-20-estados-do-pas.ghtml>. Acesso em: 15 de fevereiro de 2023. FLAUZINA, Ana Luiza Pinheiro. Corpo negro caído no chão. O sistema penal e o projeto genocida do Estado brasileiro. Rio de Janeiro: Contraponto, 2008. FLORIDI, Luciano; MITTELSTADT, Brent Daniel; ALLO, Patrick; et al. The ethics of algorithms: mapping the debate. Oxford Internet Institute. Big Data and society: Londres, Jul-Dec 2016, p. 1-21. GOMES, Laurentino. Escravidão. v.1. Rio de Janeiro: Globo Livros, 2019. GONZALEZ, Lélia. A categoria político-cultural de amefricanidade. In: Tempo Brasileiro. Rio de Janeiro, nº. 92/93 (jan/jun). 1988, pp.69-82. HAO, Karen. A US government study confirms most face recognition systems are racist. MIT Technology Review. Dezembro de 2020. Disponível em: < https://www.technologyreview.com/2019/12/20/79/ai-face-recognition-racist-us-government-nist-study/> . Acesso em 30 de janeiro de 2021. HUMAN Development Report 2019. United Nations Development Programme. Disponível em: < http://hdr.undp.org/en/2019-report/download>. Acesso em: 27 de janeiro de 2021. PANORAMA > RACISMO ALGORÍTMICO 51 IBGE. Desigualdades sociais por cor ou raça no Brasil em 2022. Junho de 2022. Disponível em < https://www.ibge.gov.br/estatisticas/sociais/populacao/25844-desigualdades-sociais-por-cor-ou-raca.html?=&t=resultados>. Acesso em 15 de fevereiro de 2023. KREMER, Bianca. Direito e tecnologia em perspectiva amefricana: autonomia, algoritmos e racialidade. 2021. Doutorado. Tese de doutorado. Faculdade de Direito. Pontifícia Universidade Católica do Rio de Janeiro. Rio de Janeiro, 31 de março de 2021. Disponível em: <https://www.maxwell.vrac.puc-rio. br/58993/58993.PDF> Acesso em: 15 de fevereiro de 2023. ______. Reconhecimento facial no Brasil: uma perspectiva de raça e gênero. Coding Rights Medium. Rio de Janeiro, 7 de fevereiro de 2022. Disponível em: <https://medium.com/codingrights/reconhecimento-facial-no-brasil-uma-perspectiva-de-ra%C3%A7a-e-g%C3%AAnero-9fe027c3a176>. Acesso em: 15 de fevereiro de 2023 LEDFORD, Heidi. Millions of black people affected by racial bias in health-care algorithms. Nature. 24 de outubro de 2019. Disponível em: < https:// www.nature.com/articles/d41586-019-03228-6> Acesso em: 15 de fevereiro de 2023. LEE, Dave. AirBnB racismo claim: african-american less likely to get rooms. BBC News. 12 de dezembro de 2015. Disponível em: < https://www.bbc. com/news/technology-35077448> Acesso em: 15 de fevereiro de 2023. MATTOSO, Ana Carolina. Da vadiagem ao “rolezinho”, do samba ao 150 bpm: lazer de preto não é direito, é crime. In: Rebelião. FLAUZINA, Ana Luisa Pinheiro; PIRES, Thula. (Org.) Brasilia: Brado Negro, Nirema, 2020. MAYER-SCHONBER, Viktor. Big data: a revolution that will transform how we live, work and think. New York: Eamon Dolan/Houghton Mifflin Harcourt, 2014. MBEMBE, Achille. Necropolítica. São Paulo: Ubu Editora, 2018. MOREIRA, Adilson José. O que é discriminação? Belo Horizonte: Letramento, 2017. MOROZOV, Evgeny. Big tech: a ascensão dos dados e a morte da política. Trad. Claudio Marcondes. São Paulo: Ubu Editora, 2018. 52 PANORAMA > RACISMO ALGORÍTMICO NOBLE, Safiya Umoja. Algorithms of oppression: how search engines reinforce racism. New York: NYU Press, 2018. NUNES, Pablo. Exclusivo: levantamento revela que 90,5% dos presos por reconhecimento facial no Brasil são negros. The Intercept. 21 de novembro de 2019. Disponível em: < https://theintercept.com/2019/11/21/presos-monitoramento-facial-brasil-negros/> Acesso em: 27 de janeiro de 2021. O’NEIL, Cathy. Algoritmos de destruição em massa: como o big data aumenta a desigualdade e ameaça a democracia. Trad. Rafael Abraham. 1ª Ed. Santo Andre: Editora Rua do Sabão, 2020. PASQUALE, Frank. The Black Box Society. Harvard University Press, 2005. SILVA, Tarcizio. Racismo algorítmico: inteligência artificial e discriminações nas redes digitais. In: AMADEU, Sergio (Org.) Col. Democracia Digital. 2021. ______. Racismo algorítmico em plataformas digitais: microagressões e discriminação em código. In: Comunidades, algoritmos e ativismos digitais. Tarcizio Silva (Org.) São Paulo: LiteraRua, 2020, p. 130. VARGAS, João Helion Costa. A Diáspora Negra como Genocídio. REVISTA DA ABPN, no. 2, Ju.- Out. 2010, p.31-56. VIEIRA, Carla. Vieses e a importância de sempre se analisar o cenário completo. Carlavieira.dev, São Paulo: 14 de abril de 2019. Disponível em: < https://www.carlavieira.dev/blog/9-26-vieses-e-a-import%C3%A2ncia-de-sempre-analisar-o-cen%C3%A1rio-completo/>. Acesso em: 15 de fevereiro de 2022. LEE, Kai-Fu. AI Superpowers: China, Silicon Valley and the New World Order. Boston: Houghton Mifflin Harcourt, 2018. WERNECK, Antonio. Reconhecimento facial falha em segundo dia, e mulher inocente é confundida com criminosa já presa. O Globo. 11 de julho de 2019. Disponível em: < https://oglobo.globo.com/rio/reconhecimento-facial-falha-em-segundo-dia-mulher-inocente-confundida-com-criminosa-ja-presa-23798913>. Acesso em: 28 de janeiro de 2021. ZUBOFF, Shoshana. Big Other: surveillance capitalism and the prospects of an information civilization. Journal of Information Technology, v.30, 2015, p. 75-89. PANORAMA > RACISMO ALGORÍTMICO 53 FICHA TÉCNICA O PANÓPTICO: MONITOR DO RECONHECIMENTO FACIAL NO BRASIL Um projeto do Centro de Estudos de Segurança e Cidadania (CESeC) Coordenação do CESeC Julita Lemgruber Silvia Ramos Pablo Nunes Coordenadora Adjunta Mariana Siracusa EQUIPE DO PANÓPTICO Coordenador Pablo Nunes Coordenadora de Pesquisa Thallita G. L. Lima Pesquisadoras Yasmin Rodrigues Thaís Gonçalves Cruz Estagiário de pesquisa Rodrigo Raimundo Coordenador de Comunicação Caio Brasil Comunicação Fabiano Soares Renato Cafuzo Arte da capa Caio Brasil e Renato Cafuzo Design Refinaria Design 54 PANORAMA > RACISMO ALGORÍTMICO FALE COM A GENTE contatopanoptico@cesecseguranca.com.br @opanopticobr opanoptico.com.br APOIO OPEN SOCIETY FOUNDATION FORD FOUNDATION COMO CITAR: KREMER, Bianca. Racismo Algorítmico [Coleção Panorama]. Org. Thallita G. L. Lima; Pablo Nunes. Rio de Janeiro: CESeC, 2023. O Panóptico é um projeto do Centro de Estudo de Segurança e Cidadania – CESeC - que monitora a adoção da tecnologia de reconhecimento facial pelas instituições de segurança pública do Brasil. Desde 2018, o CESeC tem acompanhado os efeitos do uso de reconhecimento facial pelas polícias, tendo revelado no primeiro levantamento que cerca de 90% das pessoas presas com o uso dessa tecnologia eram negras. O projeto agora tem por foco estudar os casos de adoção de tecnologias policiais nos estados e municípios brasileiros, além de apresentar o papel de governos e empresas no financiamento e na oferta dessa tecnologia. Todos os dados utilizados pela pesquisa serão disponibilizados para o público geral. Além do monitoramento dos projetos, o Panóptico também tem por objetivo comunicar de maneira abrangente sobre os riscos do uso de reconhecimento facial e seus vieses para a população negra.