Blog

O que levamos na mala para o #FIB14

Escrito por

29 de maio de 2024

Confira o que nossa equipe preparou para a 14ª edição do Fórum da Internet no Brasil, o #FIB14, entre os dias 21 e 24 de maio em Curitiba (PR) e todos os diálogos que tivemos por lá!

Seja indo pela 3ª vez, como nosse pesquisadore Wilson, ou o mais veterano Paulo Rená que participa desde a primeira edição dos debates no Fórum da Internet no Brasil, não tem como não ficar com aquele frio na barriga. O FIB é um dos eventos que reúne diversos atores sociais em prol de uma internet mais democrática, diversa e inclusiva, onde temos sempre muitas trocas e diálogos.

No #FIB14, a equipe do IRIS novamente teve participação marcante, seja presencialmente ou remotamente, levando em sua bagagem muita pesquisa e experiência, criando diálogos sobre temas que envolve IA, proteção de dados, mercado criativo, LGPD e muito mais. Aqui, a gente te conta mais sobre a nossa participação no #FIB14!

Inteligência artificial e atividade policial

Não tem como a gente ignorar que as nossas atividades cotidianas estão cercadas pela tecnologia. Mas você já se perguntou de que maneira tecnologias como inteligência artificial são aplicadas na segurança pública? 

Esse é um tema que cabe muito debate, principalmente sobre formas de incrementar essas tecnologias para respeitar os direitos humanos e não reproduzir vieses e estigmas – em especial contra as populações mais vulneráveis.

No painel do #FIB14, que debateu sobre segurança pública e IA, entendendo novos riscos e o incremento à segurança, nossa pesquisadora Luiza Dutra destaca pontos relevantes como a letalidade policial, o perfil de pessoas que sofrem com o policiamento ostensivo carregado de racismo, a racialidade presente na polícia brasileira e a ideia vendida de melhoria do agir policial a partir da introdução de novas tecnologias.

Sobre isso, Luiza também relembra os estudos do IRIS sobre a incorporação de tecnologias como o hacking governamental e aqui a gente tem um projeto que buscou estudar cada uma das principais técnicas aplicadas às investigações criminais. Além disso, no debate, especialistas como Lucas Andrade (SEPOL/RJ), Michele Lima (UFMG) e Humberto Garay (Dígitro Tecnologia) reforçaram:

  • A necessidade de estabelecer padrões que determinam a adoção mais transparentes de tecnologias de IA, afinal é preciso garantir o uso juridicamente seguro das tecnologias, como destacou Lucas Andrade (SEPOL/RJ);
  • Reforço das regulamentações para uma aplicação segura e transparente dos sistemas de IA de acordo com regulações definidas pelas instituições de segurança, como menciona Humberto Garay (Dígitro Tecnologia) ;
  • Pensar em como será a implementação da tecnologia, Michele Lima (UFMG) destaca que não basta implementar uma tecnologia de fora sem ter uma análise do nosso contexto, definir parâmetros e a sua implementação;

IA e proteção de dados a partir de uma perspectiva transcentrada

Wilson Guilherme, pesquisadore do IRIS, participou do painel representando a WGP Advocacia e Consultoria Jurídica, que trouxe pela primeira vez no #FIB14 um painel transcentrado para debater e refletir sobre IA e proteção de dados, que contou também com a participação de Amanda Souza (Ministério da Previdência Social), Ariel Pimentel (Rede Transfeminista de Cuidados Digitais) e Lunara Silva (UFPE), com moderação de Bruni Fernandes (EBA – UFMG) e relatoria de Rudá Lemos (Ciber org). Com isso, Wilson trouxe a seguinte reflexão:

 

Se dados sensíveis são todos os dados que podem ser utilizados para projeção de discriminação, por que identidade de gênero não seria um dado sensível?

O debate pautou como a identidade de gênero produz discriminações quando manuseado de forma violenta pelas tecnologias de IA, seja no acesso à saúde, transporte público e muitos outros direitos, como pontua Wilson Guilherme. 

A gente não pode esquecer o quanto as tecnologias podem ser excludentes e enviadas – principalmente quando estamos falando de grupos historicamente minoritários. Por isso, o debate de gênero na GI é tão necessário e urgente

Na mesa ainda foi debatido sobre:

  • Os pilares para o combate de vieses e estereótipos no desenvolvimento de tecnologias;
  • Uma mudança na forma de pensar na tecnologia, que vão além da binariedade para olhar os problemas;
  • A falta de dados também é dado e demonstra uma falta de interesse e desconexão com a pauta;
  • A tecnologia reproduz e reforça as desigualdades sociais, o que acaba por reproduzir essas violências;
  • O necessário reconhecimento do não binarismo na legislação brasileira.

O Painel lançou ainda o primeiro mapeamento de pessoas trans, travestis e não bináries da Governança da Internet no Brasil. Se você é uma dessas pessoas ou conhece alguém que componha esse grupo, acesse o link para contribuir com o mapeamento.

Diálogos entre LGPD e regulação de IA

A coleta, armazenamento e tratamento de dados dos usuários por parte das IA’s generativas também é um ponto de reflexão sobre a proteção de dados das pessoas – principalmente ao consentimento explícito ao utilizá-las, afinal, como dar consentimento se nem sabemos de fato o que estamos permitindo.  

Sobre isso, o painel buscou debater sobre as permissões que são dadas pelos titulares de dados e base de dados que são utilizadas para treinar as IA’s generativas, sem o aval dos proprietários. Nossa Coordenadora de Pesquisa e pesquisadora, Fernanda Rodrigues (UFMG), e a pesquisadora, Glenda Dantas (UFBA) participaram do workshop enquanto representantes da comunidade científica e tecnológica, e puderam debater sobre o tema a partir de casos fictícios apresentados. 

Fernanda cita a opacidade que há por trás dessas tecnologias, que vendem que os benefícios são muito maiores que os riscos, como um evangelismo tecnológico. Em contrapartida, a gente não sabe tudo que é feito para que essa tecnologia chegue até nós. 


Fernanda Rodrigues, também trouxe um pouco de como essa IA é treinada, a partir do uso indiscriminado e enviesado de conteúdos de imagem e voz da web, infringindo inúmeros direitos. 

“Como é que a gente pode dizer que tem o consentimento formando quando não sabemos sobre todas essas questões que vão impactar em como esta tecnologia está sendo treinada?”, reflete Fernanda. 

Outras trocas que tivemos durante o painel foram:

 

  • O dilema entre o direito de imagem de uma pessoa que se identifica com uma criação girada pela IA, como apontou Mônica Marques (Berton e Bortolotto Advogados);
  • As  IA’s generativas e como proteger os dados de crianças e adolescentes visto que são pessoas em desenvolvimento e o desconhecimento das leis de proteção e mecanismos de segurança, o consentimento parental insuficiente, conforme aponto Emanuel Alencar (Seta – Makira e’ta);
  • Como funciona os diferentes tratamentos de dados pelas tecnologias generativas em suas fases de treinamento e interação com os usuários, ressalta Lucas dos Anjos (ANPD), que fala que a instituição também tem se atentado a isso.

Neurodireitos e o uso de dados neurais pela tecnologia

Para além da IA, as neurotecnologias também têm se desenvolvido significativamente para além do seu uso terapêutico e o que isso implica na prática? A necessidade de proteção dos nossos direitos e da nossa atividade neural. Por isso, o avanço dos neurodireitos é fundamental.

Nossa pesquisadora, Rafaela Ferreira, participou deste debate e compartilhou com a mesa algumas das preocupações ao redor do mundo sobre o avanço das neurotecnologias, como o seu uso abusivo e discriminatório, além do seu acesso desigual. No painel, Rafaela também citou a necessidade de regulação pautada na proteção de dados das pessoas e o debate multissetorial como ganho para o reconhecimento dos neurodireitos.

O painel também debateu sobre o reconhecimento dos neurodireitos ao redor do mundo, sobretudo na América Latina, como a mente humana passou a adquirir valor jurídico nesta nova realidade e como o Brasil debate sobre a proteção da mente humana frente ao avanço das neurotecnologias, pontuados por Ana Paula Bialer (Bialer e Falsetti Sociedade de Advogados), Camila Pintarelli (Procuradoria do Estado de São Paulo) e Juliana Roman (IBRACEM). 

Design ético no contexto de IA

O desenvolvimento ético desde a concepção de sistemas de IA também esteve em pauta no #FIB14, questionando a diversidade existente (ou a falta dela) em equipe de tecnologia e como pensar em design ético também faz parte de uma escolha política, social e técnica

Nossa diretora Ana Bárbara Gomes participou do painel ao lado de Anne Oliveira (UFAM), Diogo Dal Magro (HI Order Regulação e Tecnologia) e  Lucas Borges (ANPD), e trouxe a relação da tecnologia com a sociedade e o equívoco que temos ao olhar para tecnologia como um objeto amorfo. 

A conversa também girou em torno de:

  • Que as escolhas técnicas são estritamente racionais e inquestionáveis, afinal, toda escolha também é política;
  • As aplicações de IA no poder público e como isso deve ser pautado em critérios únicos na sua utilização, contrastando com um cenário de pouca governança;

A relação da tecnologia com os dados pessoais e a necessidade da proteção de dados dos titulares, com a criação de estruturas ao redor do mundo para proteger esses dados.

Tecnologias digitais e proteção de ativistas

Como a tecnologia pode contribuir para a promoção dos direitos humanos em lutas sociais? Esse é um questionamento debatido no painel do #FIB14 que reflete a realidade brasileira, de pessoas que acabam sendo vítimas por promover os direitos humanos, tanto on quanto offline.  O painel foi proposto pelo C-PARTES – Coletivo de Pesquisa e Ativismo de Rondônia sobre Tecnologia, Estado e Sociedade (representado pela relatora Bianca Marques) em parceria com o IRIS  (representado pelo nosso pesquisador Paulo Rená, que fez a mediação). 

Na conversa, Andressa Regina (Ministério dos Direitos Humanos e da Cidadania) relatou sobre a pauta LGBTQIA+ e a relação com a tecnologia e lutas sociais. Ela fez um apontamento interessante:

 

Os códigos, que de maneira geral, sustentam a internet são discriminatórios e enviesados, mas que o são por que são sustentados por uma cultura que também é discriminatória e enviesada.

 

Dessa forma, a tecnologia também pode ser propagadora de diversas violências éticas que permeiam também nossa sociedade. Contudo, as tecnologias também servem para evidenciar como esses códigos sociais operam. 

O painel também buscou debater sobre a vulnerabilidade digital de alguns dos grupos historicamente marginalizados e as possibilidades que a tecnologia traz para mitigar violências e vulnerabilidades, individual e coletivamente. Além disso, Thiane Barros (UFBA), também aponta como somos direcionados para analisar a nossa relação com a tecnologia apenas por um ótica do consumo e não uma reflexão mais crítica. 

Carlos Cabral (Tempest Security Intelligence) também cita como as políticas de autorregulação das empresas impactam na proteção de defensores dos direitos humanos, abordando como as normas e padrões dessas empresas são pensadas para proteger o próprio mercado. 


Mercado criativo e IA generativa

Chegando ao final do último dia de #FIB14, que mistura criativa e novas tecnologias, nosso Coordenador de Pesquisa, Felipe Duarte, e pesquisadora, Júlia Caldeira, representaram o IRIS na conversa sobre o avanço da IA generativa no mercado criativo e quais são as implicações dessa decisão. Wilson Guilherme, pesquisadore do IRIS, também participou da conversa representando o terceiro setor, o Movimento Descentralizado de Apoio ao SLAM.

No painel, os representantes do setor público, privado, terceiro setor e comunidade científica e tecnológica, conversaram sobre:

  • A complexidade entre o processo criativo de artistas e a geração por IA, passando pela necessidade de regulação que caminha ao lado de inovação;
  • A ética, privacidade e responsabilidade civil quando falamos do uso de imagem e voz de artistas, tanto aqueles que estão vivos, quantos os que faleceram, e como a lei brasileira protege estes artistas;
  • A interseção com a LGPD e o uso de dados pelas IA’s generativas, que vão desde dados pessoas à obras protegidas por direito autoral;
  • O apagamento da intelectualidade de artistas, que tem tudo a ver com o epistemicídio. 

Ao final ainda rolou uma relatoria ilustrada que compilou todas as contribuições de uma forma bem visual.

E o que trouxemos na mala depois do #FIB14?

O #FIB14 foi marcado por muita reflexão, diálogo multissetorial e trocas significativas com diferentes atores sociais. Além de deliciosas memórias sobre o lugar (almoços, festas, turismo) e aqueles pequenos brindes (sempre tem uma camiseta, mochila, broche, adesivo etc.), podemos listar pelos menos três aprendizados que trazemos na bagagem:
  • perguntar também é participar: mesmo se não estiver no painel do seu interesse, prepare suas questões e se prepara para ser a primeira pessoa à frente do microfone ou formule suas questões pelo youtube, pois muitas falas importantes aparecem nesse momento;
  • os corredores são até mais importantes que as salas: há um potencial imenso para contatos mais livres no momento das pausas entre os paineis, quando você pode conhecer ou estreitar laços com pessoas e iniciativas muito bacanas, com as quais vale a pena “trocar” redes sociais;
  • a governança começa antes e não termina com o evento: muitas conversas se mostraram continuações de debates anteriores, e vários tópicos ficaram em aberto para o futuro, o que exige uma preparação direcionada e um olhar atento para novas oportunidades.


O melhor é que você pode ver e rever esses debates conferindo a
playlist do IRIS no #FIB14! Lembrando também que em breve você também pode conferir as relatorias dos painéis no site do evento.

Escrito por

Estagiária de comunicação do Instituto de Referência em Internet e Sociedade. Graduanda do curso de Jornalismo no Uni-bh, escreve para as redes sociais do Instituto e do perfil Mulheres na Governança, apoiando também em outros projetos do IRIS. Tem interesse em moderação de conteúdo, algoritmos e narrativas transmídia.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *