Este texto não foi escrito pelo ChatGPT: IA, riscos e regulação
Escrito por
Gustavo Rodrigues (Ver todos os posts desta autoria)
27 de fevereiro de 2023
A Inteligência Artificial tem se tornado cada vez mais presente em nossas vidas, e, com isso, surgem novas questões sobre a responsabilidade e os limites éticos da tecnologia. O ChatGPT (Chat Generative Pre-trained Transformer – Transformador Pré-Treinado Generativo), tecnologia que ganhou o noticiário nas últimas semanas, é um exemplo dessa preocupação em virtude de seus potenciais riscos de utilização indevida ou lesiva. No blog post do IRIS, vamos discutir sobre os riscos da IA, suas implicações e como as iniciativas regulatórias internacionais e nacionais estão tentando endereçar esses desafios.
Entendendo a ferramenta
O ChatGPT é uma tecnologia de inteligência artificial voltada à conversação e produção de conteúdos em formato de texto. Suas aplicações são as mais variadas e incluem atendimento ao público, criação, edição e tradução de textos acadêmicos, assistência no desenvolvimento de software, entre outros.
Lançada em novembro de 2022, a ferramenta recebeu enorme atenção midiática em razão das implicações de sua elevada capacidade de escrever textos complexos e que seguem padrões de organização e cognição similares aos da escrita humana. Recentemente, o ChatGPT se tornou a aplicação mais rápida a alcançar 100 milhões usuários mensais ativos, feito realizado em apenas dois meses.
Entre as controvérsias apontadas por especialistas estão os riscos de utilização para fraude acadêmica, geração de respostas abusivas, violentas e/ou discriminatórias, tratamento indevido de dados pessoais. Ainda, a máquina pode contribuir para a disseminação de desinformação, seja de forma não-intencional (ao oferecer respostas incorretas, porém críveis a usuários que buscam informação) ou intencional (ao permitir a automatização da redação de notícias falsas, por exemplo).
Nesse cenário, é importante refletir sobre que soluções podem ser empregadas para prevenção de riscos e mitigação de danos. E esse é um diálogo que se inicia desde muito antes do lançamento de uma ferramenta e deve envolver os mais diversos atores: acadêmicos, reguladores, desenvolvedores, empresários, etc.
O debate internacional
O caso do ChatGPT ilustra uma dicotomia central ao debate sobre IA. Por um lado, a tecnologia tem um potencial elevadíssimo para o desenvolvimento econômico, social e ganhos de produtividade. No entanto, todo esse potencial não se dissocia de riscos sociais bastante sérios que muitas de suas aplicações carregam.
Nesse cenário, os diversos atores envolvidos no debate vem buscando desenvolver princípios e parâmetros que possam direcionar o desenvolvimento e o uso da IA de modo a garantir que ela realize seu potencial sem ferir direitos.
Exemplos de diretrizes incluem os princípios e a recomendação da Organização para a Cooperação e Desenvolvimento Econômico, os princípios do G20 para uma IA centrada no ser humano, os relatórios do Grupo de Peritos de Alto Nível sobre IA da Comissão Europeia, a Declaração de Toronto, etc.
O aspecto comum a essas iniciativas é justamente o reconhecimento de que limites éticos devem existir para que a inovação ocorra de forma responsável. Esses limites incluem critérios de transparência, segurança, prevenção de danos, revisão humana, não-discriminação, etc. Ainda, por vezes, incluem a proibição de usos excessivamente lesivos, como o uso de IA para o desenvolvimento de armas ou para reconhecimento facial na segurança pública.
O Brasil e o Marco Legal da Inteligência Artificial
Nos últimos anos, o debate público internacional em torno dos riscos da inteligência artificial tem gerado esforços políticos para endereçar esses desafios através de regulação. Na Europa, por exemplo, muito se discute sobre o AI Act, uma proposta de regulamento que imporia aos países do bloco uma série de obrigações relacionadas à supervisão, controle, prevenção e prestação de contas sobre o desenvolvimento e implementação desses sistemas.
No Brasil, o foco do debate tem sido o chamado Marco Legal da Inteligência Artificial, proposta legislativa aprovada no plenário da Câmara dos Deputados em 2021. O texto, contudo, foi alvo de duras críticas por parte de especialistas e ativistas, sendo denunciado como uma espécie de carta de intenções que pouco ou nada de concreto faria para avançar no tratamento da matéria.
No final de 2022, todavia, uma comissão de juristas responsável por elaborar um texto substitutivo para o Senado ofereceu uma resposta mais robusta. Construída a partir de um ciclo de audiências públicas com a participação de diversos especialistas, a nova versão da proposta avança sensivelmente em relação a questões como contestação de sistemas, transparência e obrigações de avaliação de impacto e participação social no caso de usos pelo poder público.
Por outro lado, dois desafios substanciais devem aguardar as próximas etapas do debate: no mérito, o texto ainda precisa avançar em áreas importantes, como uma proibição geral e explícita ao uso de reconhecimento facial e na instituição de previsões sobre reparação. Por outro, resta saber se os avanços prévios serão mantidos perante a atuação do lobby privado em favor de uma regulação mais frágil.
Conclusão
O ChatGPT é um exemplo da complexa equação entre o potencial da inteligência artificial e os possíveis riscos sociais de sua aplicação. Para garantir que a inovação ocorra de forma responsável, diversas iniciativas foram desenvolvidas a nível internacional para estabelecer diretrizes éticas que direcionam a criação e uso da IA.
No Brasil, pouco se avançou nessa direção, mas os esforços recentes, como a proposta do Marco Legal da Inteligência Artificial elaborada pela comissão de juristas do Senado, são sinais de que o debate começa a ser endereçado. Contudo, ainda há desafios a serem superados para garantir a responsabilidade na utilização da tecnologia, como a proibição geral e explícita ao uso de reconhecimento facial e a instituição de previsões de reparação.
Se interessou pelo tema? Leia mais sobre a posição do IRIS quanto à regulação de IA a partir de nossa contribuição para a consulta pública realizada pela comissão de juristas do Senado.
Escrito por
Gustavo Rodrigues (Ver todos os posts desta autoria)
É diretor do Instituto de Referência em Internet e Sociedade. Mestrando em Divulgação Científica e Cultural pela Universidade Estadual de Campinas (Unicamp) e bacharel em Antropologia, com habilitação em Antropologia Social, pela Universidade Federal de Minas Gerais (UFMG). Membro do núcleo de coordenação da Rede de Pesquisa em Governança da Internet e alumni da Escola de Governança da Internet no Brasil (EGI). Seus interesses temáticos são antropologia do Estado, privacidade e proteção de dados pessoais, sociologia da ciência e da tecnologia, governança de plataformas e políticas de criptografia e cibersegurança.