IA em plataformas digitais e saúde: viés discriminatório, confiabilidade e responsabilidade legal
7 de novembro de 2024
Como informações inconsistentes e desigualdades sociais vêm sendo propagadas por algoritmos usados em plataformas digitais e na área de saúde? Neste texto, respondemos a essa pergunta e apresentamos a maneira pela qual podem ser responsabilizados os seres humanos e as plataformas mediante o uso de IA.
A ascensão das plataformas digitais
Plataformas digitais são as novas vertentes, desde a propagação da Internet, daqueles sistemas primitivos de distribuição de bens e serviços há muito utilizados na sociedade. Sua principal peculiaridade é o aumento no nível de efeitos, quando comparadas com suas antecessoras. Dessa maneira, ao tratar de plataformas digitais, falamos sobre um mercado de baixo custo e de distribuição de bens, com retornos significativos, somados ao alcance global delas no meio digital.
Com isso, percebe-se a capacidade de impulsionamento que tais mecanismos permitem aos que entram em seu mercado e são bem sucedidos. Assim, ocorrem disputas entre as grandes plataformas, por usuários e relevância, em uma competição não apenas no mercado, mas pelo mercado.
Nesse contexto, nota-se a ascensão da IA como ferramenta de tais estruturas distribuidoras de bens e serviços. Essa nova tecnologia tem sido muito útil para controle e regulação, a respeito do funcionamento ou da organização das plataformas digitais, bem como dos conteúdos provenientes de seus usuários. Além disso, é uma importante oportunidade para o corte de gastos financeiros, a partir da automatização de tarefas, mediante, por exemplo, criação de conteúdo textual e visual. Nesse cenário, a IA se tornou um interesse inevitável para a competição de mercado.
Apesar disso, em conjunto com tais vantagens, são vistos novos problemas e ameaças à justiça, à verdade e à igualdade nesse contexto. Destaca-se, primeiro, a propagação de informações falsas ou descontextualizadas pela IA. Além disso, evidencia-se, nessas ferramentas e em suas atuações, a discriminação algorítmica, com a disseminação de informações com pesos desproporcionais em relação a determinados grupos sociais vulnerabilizados.
O algoritmo discriminatório: exemplo do Stable Diffusion
A partir da ascensão da IA, era inevitável que seu uso aumentasse, como no caso de chatbots. Tais algoritmos utilizam os dados que armazenam para responder a muitas questões, mas isso não significa que as respostas sejam totalmente confiáveis.
Diante disso, como pode uma ferramenta funcionar em plataformas se ela não gera respostas confiáveis? A consulta aos chatbots implica um grave risco de propagação de informações tendenciosas e inverídicas, comprometendo a qualidade dos serviços prestados.
Apesar de serem projetadas para oferecer respostas precisas e ditas “imparciais”, tais tecnologias acabam intensificando concepções discriminatórias dos criadores. É isso que reflete o funcionamento do Stable Diffusion, uma IA geradora de imagens a partir de comandos textuais, que tem amplificado estereótipos de raça e gênero, segundo o artigo “Humans are biased. Generative AI is even Worse”.
Tal constatação foi baseada em uma análise de imagens geradas pelo Stable Diffusion, que, diante do comando de representar trabalhadores de alta renda, ilustrou, em maioria, pessoas brancas ou de pele mais clara. Já pessoas pretas predominaram entre representações de empregos como “trabalhador de fast-food” e “assistente social”, por exemplo. Essa dinâmica, envolvendo diversas sugestões à IA geradora de imagens, visava evidenciar a presença de viéses discriminatórios no referido algoritmo. Houve também distinção de gênero, com a associação de mulheres a ocupações ligadas ao cuidado com o lar e que historicamente trazem salários menos valorizados.
Nesse sentido, tal cenário impacta o funcionamento das plataformas digitais, visto que elas estão utilizando IA para impulsionar os serviços prestados. Ainda segundo a Bloomberg, startups vêm recorrendo ao Stable Diffusion para produzir imagens publicitárias, e tal uso tende a se disseminar entre grandes empresas. Ademais, a referida pesquisa indicou que 90% do conteúdo da internet pode passar a ser gerado via IA dentro de alguns anos, o que pode perpetuar ainda mais estereótipos.
IA e Saúde: impacto na prestação de serviços
É evidente o impacto da IA se usada indevidamente pelas plataformas digitais, e a disseminação de informações inverídicas é uma das principais consequências, como em serviços de tratamento à saúde. Diante disso, mediante o crescente uso de chatbots, por exemplo, surge a tendência cotidiana de consultá-los para obter diagnósticos.
Sem dúvidas, tal dinâmica traz vantagens para serviços de saúde, mas, na atual condição da IA, entende-se que consultas sem fiscalização profissional podem comprometer o bem-estar dos usuários. O artigo Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum, dos autores John Ayers, Adam Poliak e Mark Dredze, disserta sobre isso, ao analisar se um chatbot consegue gerar respostas com qualidade e nível de empatia similares aos de profissionais de medicina. Como resultado de tal estudo, algumas vantagens na consulta aos chatbots foram observadas – destacando-se a completude de informações nesses diagnósticos.
No entanto, ainda não há segurança para atribuir, sem fiscalização, a consulta médica a tais algoritmos, conforme diz o artigo Chat GPT and AI in healthcare: Just what the doctor ordered?. Tal dissertação, analisando o uso do Chat GPT por profissionais de medicina para consultas, ressalta que, se a base de dados for enviesada, isto é, discriminatória entre grupos sociais, as orientações geradas por tal ferramenta também exibirão um viés. Diante disso, o artigo recomenda identificar e eliminar tal problema algorítmico. Ademais, a conclusão indica que os recursos de IA devem ser usados com cautela, mediante acompanhamento profissional..
Responsabilidade: a indispensável fiscalização sobre a IA
Assim, é necessária regulamentação mais incisiva sobre o funcionamento da IA, com fiscalização ativa, e responsabilização dos que a utilizam de maneira equivocada. Entretanto, as plataformas digitais já têm responsabilidade delimitada pelo Marco Civil da Internet, Lei nº 12.965, de 23 de abril de 2014, sobre os conteúdos nelas publicados por terceiros, possíveis objetos de moderação por IA.
Tal dispositivo, no artigo 19, define:
Artigo 19. Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.
Evidentemente, a discriminação, o preconceito, e dados falsos demandam maior responsabilidade das plataformas por tais conteúdos. Relacionando a IA a este cenário, a situação descrita se agrava com a discriminação algorítmica, que afeta a moderação de conteúdo das plataformas digitais, com decisões tendenciosas (por exemplo, no controle sobre termos de comunidades negras, que podem ser utilizados por seus integrantes como símbolo de força, mas por terceiros como ofensas).
Portanto, é imprescindível nova regulamentação sobre uso da IA por plataformas no Brasil, em moderação de conteúdo, ou visando outros propósitos. Ademais, revela-se indispensável a participação humana nas atividades mencionadas, inclusive no combate à discriminação algorítmica, já que não cabe uma completa substituição pela tecnologia nos serviços, estando a IA ainda em desenvolvimento. Com isso, será possível projetar a atenuação de vieses algorítmicos e a defesa das minorias afetadas, bem como a propagação de conteúdo verídico.
O caminho regulatório a ser seguido
Em suma, plataformas digitais, influentes na prestação de serviços, podem dinamizar seu funcionamento pela IA. A rapidez de processamento de informações e a produção de respostas personalizadas são muito vantajosas. No entanto, esses benefícios não podem motivar o uso não monitorado de tais ferramentas.
Logo, há avaliações e correções que devem ser realizadas nesses algoritmos antes que possam atuar solitariamente na sociedade. O viés discriminatório e a incerteza sobre as informações propagadas são as principais barreiras diante de tal proposta. A partir disso, em prol da democracia, deve haver fiscalização, análise de riscos e correção das ferramentas de IA por seus fornecedores. Nesse sentido, com ressalva para os diferentes contextos sociais entre a América Latina e a Europa, destaca-se o pioneirismo do Regulamento sobre Inteligência Artificial (“The AI Act”), da União Europeia, como uma importante referência, já estabelecida, de responsabilização sobre o desenvolvimento de Inteligência Artificial. Tal legislação pode inspirar uma importante iniciativa regulatória no Brasil, sobretudo, pois protege bens jurídicos essenciais à democracia, vide o disposto no Art. 1 Subject Matter – EU AI Act.