Data for Black Lives: a tecnologia digital como ferramenta de mudança
Escrito por
Luiza Dutra (Ver todos os posts desta autoria)
3 de dezembro de 2024
Você já pensou em formas de usar tecnologias de inteligência artificial não como armas, mas como ferramentas de emancipação e mudanças para comunidades locais?
O Data For Black Lives (Dados para as Vidas Negras, em tradução livre) é um movimento de ativistas, organizadores e cientistas comprometidos com a missão de usar dados para criar mudanças concretas e mensuráveis na vida das pessoas negras. Entre os dias 18 e 20 de novembro, participei da III Conferência Data for Black Lives que ocorreu em Miami, EUA, e quero aqui, neste texto, te apresentar algumas questões discutidas por lá.
Data For Black Lives: muito mais que uma conferência
O movimento Data for Black Lives (D4BL) surgiu em um momento crucial, marcado por um novo cenário político após as eleições de 2016 e pelos primeiros passos da inteligência artificial na transformação de indústrias e da sociedade. Reconheceram que a sociedade estava diante de novas batalhas pelos direitos civis mais urgentes de nosso tempo. Como bem nos informam, formas de racismo e opressão exigem, por sua vez, novas abordagens de ativismo, resistência e pesquisa.
Passados sete anos, o movimento chegou a um novo ciclo. A reconfiguração do sistema político, da economia global e da sociedade agora entra em uma fase distinta. Em meio à instabilidade política que todos enfrentam, surge uma oportunidade de avançar com uma nova visão coletiva para o futuro, em que as comunidades negras e outros povos historicamente marginalizados possuam o poder político e as ferramentas necessárias para prosperar.
Conforme o D4BL, a história nos mostra que, sem uma visão inspiradora, as pessoas não conseguem avançar. Desde o início, esse movimento foi guiado por uma visão forte e nítida, que se reflete em suas ações para transformar os dados em um instrumento de empoderamento, e não em uma arma de opressão. O objetivo é desmantelar as estruturas que concentram o poder dos grandes dados nas mãos de poucos e redistribuí-lo para aqueles que mais necessitam, além de se opor ao uso de tecnologias de vigilância e outras ferramentas de dados como armas, que buscam intimidar, enfraquecer e silenciar as vozes políticas da população negra.
O trabalho do D4BL está enraizado na pesquisa, na defesa de direitos e na construção de movimentos que desafiam o uso discriminatório de dados e algoritmos em diferentes sistemas. Através de uma rede nacional que reúne mais de 20.000 cientistas e ativistas, a iniciativa busca garantir que os dados e a tecnologia se tornem forças para o bem, ao invés de instrumentos de opressão nas comunidades negras.
Mas quais as principais discussões trazidas na conferência de 2024?
Anualmente, o D4BL realiza uma conferência como forma de reunir ativistas, cientistas e pesquisadores para discutirem novos futuros possíveis no uso de tecnologias digitais. Como forma de criar um espaço de oportunidade para conexão, colaboração e co-conspiração entre alguns dos principais cientistas de dados, matemáticos, organizadores de movimentos e ativistas que estão na linha de frente das pesquisas e batalhas políticas no que tange à proteção de dados e uso de IA.
Buscando enxergar os dados como forma de protesto. Dados como forma de accountability. Dados como forma ações coletivas.
Mais de 40 palestrantes discutiram sobre:
- Inteligência artificial para a libertação; a mesa de abertura do D4BL III teve como debate principal a defesa ao desmantelamento das estruturas que concentram o poder da inteligência artificial (IA) nas mãos de um pequeno grupo de pessoas e a redistribuição desse poder para aqueles que mais precisam, promovendo uma transformação profunda e há muito tempo necessária em nossa sociedade. Nos alertaram que big data não é uma inovação recente, mas parte de um legado histórico de controle e opressão que remonta a práticas de vigilância e classificação usadas ao longo da história para reforçar desigualdades sociais e econômicas. Desde a escravização, onde pessoas eram tratadas como mercadorias e controladas por sistemas políticos e econômicos, até as políticas públicas contemporâneas, os dados sempre foram usados para perpetuar a discriminação e a marginalização. O que chamamos de “big data” hoje é, portanto, uma versão moderna de um processo histórico de vigilância e controle, que continua a refletir e amplificar as estruturas de poder e opressão estabelecidas ao longo dos séculos.
Assim, como usar a IA para libertação? - Data Trauma e segurança pública. Como explicado pela professora Renée Cummings, o trauma de dados (data trauma) é o que acontece com você e o que acontece dentro de você. Diferentes comunidades experimentam os dados de maneiras diferentes e esses conjuntos de dados não têm o luxo da amnésia histórica. O dano emocional e psicológico causado pelo uso indevido, manuseio incorreto ou coleta antiética de dados é o que chamamos de trauma de dados. Esse trauma se manifesta no sofrimento e no impacto a longo prazo sobre indivíduos e comunidades quando seus dados são extraídos, explorados, negligenciados ou desvalorizados, resultando em preconceito, discriminação e falta de recursos, oportunidades e acesso, minando legados e negando sonhos. O trauma de dados destaca a necessidade de práticas éticas, responsáveis, seguras e confiáveis no uso de dados e IA, assim como práticas orientadas pela justiça, informadas pelo trauma, que busquem mitigar danos e promover equidade, justiça e imparcialidade nas práticas de dados e no design, desenvolvimento, adoção e aquisição de IA. O trauma de dados é a decisão do passado presa na memória dos dados; dados permeados por significados culturais, independentemente de seu significado computacional. E isso se relaciona com bias de dados, discriminação de dados, marginalização de dados, perfilamento de dados, vitimização por dados.
A questão central que resta é: estamos usando as novas tecnologias para modernizar velhas tipologias raciais? - Ustopia, e não utopia ou distopia. Tudo começa com a imaginação. Cada sistema, cada força política, cada lugar. O que criamos em nossa mente, manifestamos em nosso corpo. Mesmo diante das adversidades, e com esperança renovada, conseguimos, de forma coletiva, vislumbrar um futuro e elaborar estratégias para existir e prosperar em ambientes extremamente desafiadores. Na sessão de encerramento da terceira conferência Data for Black Lives, Ruja Benjamin explorou o papel da imaginação, da construção de novos mundos e das visões compartilhadas de Utopia na transformação social e no desenvolvimento de tecnologias voltadas para a liberdade. Ou melhor, da Ustopia para libertação do espírito do opressor; criando novas formas de ser e imaginar. Apontou caminhos a partir da IA enquanto inteligência ancestral e imaginação abundante.
Nesse sentido, o que podemos alcançar quando sonhamos e imaginamos juntos?
E como pensarmos isso em nossa realidade brasileira?
Inteligência ancestral como ferramenta para desenvolvimento de histórias, dados e tecnologias
Pensar na realidade brasileira é encarar o uso de tecnologias em uma sociedade também racializada – como vemos nos EUA. Não que as duas sociedades sejam tão similares em sua história e cultura, mas são sociedades existentes pelas marcas da escravização. Pela marca de instituições racializadas e pela hierarquia racial enquanto constituinte das relações sociais.
Assim, discutir o uso de tecnologias digitais, inteligência artificial e proteção de dados, é uma discussão racializada. É, ou precisa ser, uma forma de ação coletiva. De escuta de histórias ancestrais para a busca de um futuro mais inclusivo. Histórias e ancestralidade podem nos dar pistas de como usar as tecnologias em favor de populações que foram historicamente colocadas em segundo plano. Usar o saber ancestral e os sonhos em primeiro plano.
E aqui convido a branquitude para pensar caminhos possíveis para debater sobre racialização e saberes tecnológicos. Para se enxergar dentro desta hierarquia racial que é renovada pelo uso da tecnologia; a racialização dos saberes tecnológicos envolve compreender como as tecnologias, desde a sua criação até a sua aplicação, estão profundamente entrelaçadas com as dinâmicas de poder, privilégio e discriminação racial. A branquitude, como um sistema que privilegia os brancos em várias esferas da sociedade, também influencia a construção e o uso das tecnologias, refletindo as desigualdades históricas e sociais.
Conclusão – formas de resistir e revolucionar
O movimento Data for Black Lives (D4BL) surgiu em um momento decisivo, quando novas tecnologias e o cenário político pós-2016 geraram novas formas de opressão e desafios para os direitos civis. Desde então, o D4BL tem lutado contra o uso discriminatório de dados e IA, buscando empoderar comunidades negras e outras populações marginalizadas. O movimento defende a redistribuição do poder dos grandes dados, transformando-os em uma ferramenta de resistência e transformação social, em vez de uma arma de controle. Sua missão se concentra em combater as estruturas históricas de vigilância e opressão que, através dos dados, continuam a reforçar desigualdades raciais e econômicas.
Na conferência de 2024, D4BL continuou a debater como a inteligência artificial pode ser uma ferramenta para a libertação, abordando temas como o trauma de dados e a segurança pública. A discussão girou em torno da necessidade de práticas éticas e justas no uso de dados, alertando para o dano psicológico e social causado pelo uso indevido de informações. Além disso, o evento enfatizou a importância da imaginação coletiva para a criação de um futuro mais justo e equitativo, onde as tecnologias sejam usadas para a liberdade e o empoderamento, e não para perpetuar as desigualdades do passado.
Finalizo lembrando que reconhecendo e desafiando a racialização dos saberes tecnológicos, podemos buscar alternativas que promovam um uso mais justo e equitativo da tecnologia, capaz de combater as desigualdades raciais em vez de perpetuá-las.
Convido todas as pessoas leitoras para entenderem mais sobre a importância que gira em torno deste debate a partir de alguns textos do IRIS:
https://irisbh.com.br/o-papel-das-mulheres-negras-no-ativismo-digital/
https://irisbh.com.br/me-homenageiem-em-vida-para-que-depois-eu-possa-so-descansar/
https://irisbh.com.br/como-nao-esta-o-antirracismo-na-regulacao-de-ia-no-brasil/
Escrito por
Luiza Dutra (Ver todos os posts desta autoria)
Luiza Correa de Magalhães Dutra, doutoranda e mestra em Ciências Criminais pela Pontifícia Universidade do Rio Grande do Sul. Especialista em Segurança Pública, Cidadania e Diversidade pela Universidade Federal do Rio Grande do Sul. Bacharela em Ciências Sociais pela UFRGS, com período sanduíche realizado no Science-Po Rennes, França, e Bacharela em Direito pela PUCRS. Pesquisadora.