Blog

Erro e inovação: o porquê de inteligências artificiais 99% precisas

8 de julho de 2019

Grande parte das discussões acerca da expansão do papel da inteligência artificial na sociedade contemporânea diz respeito à redução (ou eliminação completa) de suas margens de erro: acurácia na avaliação automatizada de decisões judiciais; redução de riscos na condução de veículos autônomos; aperfeiçoamento de sistemas de segurança pública pelo reconhecimento facial de suspeitos em ambientes públicos; análise preditiva de mercados financeiros para melhor aproveitamento de fundos de investimento; entre outros. Esses são exemplos bastante contundentes que justificam o desenvolvimento de inteligências artificiais impecáveis. No entanto, e se o erro também tivesse uma função importante no desenvolvimento humano e tecnológico? Será mesmo benéfica a busca pela eliminação absoluta de imperfeições em sistemas de processamento automático de dados? Este texto busca oferecer uma contribuição para uma inteligência artificial que comporte margens de erro, ainda que mínimas.

Faz sentido almejar tecnologias impecáveis

É natural que o desenvolvimento tecnológico tenha como objetivo a eliminação de erros. Um tratamento médico busca precisão no combate a determinada doença, assim como a redução de eventuais efeitos colaterais. A equipe de engenheiros responsável pelo lançamento de um satélite almeja considerar todos os fatores que possam influenciar sua trajetória, de forma a alcançar a posição de órbita ideal.

Na criação de sistemas automatizados de processamento de dados, a lógica é similar. A inteligência artificial envolvida no reconhecimento de linguagem do Google Tradutor, em suas aplicações neurais, por exemplo, busca flexibilidade na identificação de palavras raras e vasta contextualização, aumentando as chances de um output de tradução cada vez mais correto. 

Um dos maiores desafios regulatórios de veículos autônomos é a redução de erros do sistema, para evitar acidentes que coloquem em risco vidas humanas, patrimônio e a ordem do trânsito. Ainda que por vezes esses sistemas apresentem taxas de erro menores que a humana, a insegurança que a tecnologia provoca e a necessidade de alocação de responsabilidade ainda exigem padrões de performance melhores que os atuais para disseminação dessa inteligência. 

Em outros cenários, a mineração de grandes quantidades de dados (big data) em publicações científicas, por exemplo, pode corroborar a evidência de correlações que os olhos humanos não veem a princípio, até por sua capacidade de análise. Recentemente, estudo publicado na Nature demonstra resultados de machine learning aplicado a 3,3 milhões de abstracts de artigos científicos sobre ciência de materiais, revelando com antecedência as descobertas de novos materiais termoelétricos e sugerindo novas combinações de materiais ainda desconhecidos. Ou seja, as novas tecnologias não apenas contribuem para uma estruturação sistemática do conhecimento, como também apontam caminhos mais promissores de desenvolvimento por meio da eficiência na análise de resultados de pesquisa, sejam eles positivos, negativos etc.

Levando em consideração esse contexto, faz sentido que o desenvolvimento de novas tecnologias almeje, em geral, a eliminação completa de imperfeições. Mas, no contexto da inteligência artificial, o que significa “erro”?  

O que entendemos por erro?

O fascínio científico pela retidão perpassa diversas áreas do conhecimento, desde dilemas filosóficos à aplicação prática de princípios físicos, químicos e matemáticos. No entanto, a própria definição de erro comporta críticas e reflexões, para além de uma lógica binária de certo e errado. Afinal, o que entendemos por esse conceito também concilia aspectos relacionados a contextualização, propósito e até mesmo ética.

Por exemplo, o dilema do trem (1967), de Philippa Foot, poderia ser apresentado a uma inteligência artificial, cuja proposta de solução dependeria, basicamente, dos critérios fornecidos como parâmetro para sua tomada de decisão. Se tomarmos como critério parâmetros utilitaristas, a resposta mais simples talvez seria a escolha pelo menor número de mortes possível. No entanto, se mais fatores forem adicionados, como gênero, faixa etária, entre outros elementos subjetivos, a linha divisória entre certo e errado torna-se cada vez mais turva. Você pode testar alguns desses limites morais (e sua resposta a esses dilemas hipotéticos) na ferramenta Moral Machine, desenvolvida pelo MIT Media Lab.

Além disso, o que muitos resultados interpretados como “erro” indicam é que há (bastante) espaço para aprendizado com essas falhas. Políticas públicas bem-sucedidas, por exemplo, levam em consideração equívocos passados, especialmente quando acompanhadas de efetivos e abrangentes mecanismos de aferição de variáveis causais. Em uma análise automatizada quanto ao sucesso ou fracasso de determinadas políticas públicas, seria importante que esse processamento considerasse o maior número de dados e variáveis possível, incluindo medidas que falharam no passado. Focar na análise dos erros, nesses casos, pode informar mais sobre como desenhar melhores políticas no futuro do que simplesmente analisar as medidas bem-sucedidas de outras bases comparativas (como é muito comum em estudos comparados e no tradicional costume de importação legislativa). 

O que chamamos de intuição, ou espontaneidade, também pode ser aplicada no processo científico, frequentemente dando origem a esses equívocos. A intuição na tomada de decisões leva à elaboração de inferências causais não necessariamente corretas, mas inovadoras. Diversos aspectos subjetivos do raciocínio humano dificilmente poderiam ser imbuídos no processamento de dados de uma inteligência artificial. Por esse motivo, inteligências artificiais extremamente especializadas têm melhores níveis de performance (ou seja, menos erros), do que aquelas generalistas, que pretendem se assemelhar à inteligência humana. Apesar de mais suscetível ao erro, o processo de raciocínio humano também pode ser mais criativo.

Essas circunstâncias demonstram a possibilidade de estabelecermos nuances na análise de resultados, bem como de extrair aspectos positivos a partir desses cenários aparentemente negativos. O surgimento de periódicos especializados justamente na publicação de resultados negativos, em diversas áreas do conhecimento, corrobora a importância do erro para a ciência.

Inteligência artificial, erro e inovação

A história dos processos de inovação permite constatar que o erro é fundamental para o progresso científico. Um exemplo clássico que ilustra a possibilidade de erros gerarem novos produtos é o caso do teflon. Trata-se de produto utilizado em panelas antiaderentes, que decorreu de um experimento do químico Roy Plunkett, em 1928. O cientista pretendia utilizar o clorofluorcarbono (CFC) em processos de refrigeração. O resultado, entretanto, foi diverso, pois gerou uma substância com propriedades lubrificantes e antiaderentes. 

A importância do erro não se limita a esse exemplo clássico. Diversas empresas reconhecem, cada vez mais, a necessidade de se “premiar o erro”. A Sanofi e Siemens são exemplos dessa realidade, na medida em que elas passaram a promover iniciativas para diminuir o estigma do erro. O que se busca é premiar avaliações de erros cometidos pela empresa, mas também institucionalizar essas análises, de maneira a mapeá-los, com transparência.

O erro não é apenas um elemento fundamental ao progresso científico, mas também é essencial ao processo artístico. Um bom músico é forjado a partir de erros e acertos, que se revelam em trajetórias rígidas e disciplinadas. Todavia, é possível ressignificar a relação entre erro e elaboração artística. Um exemplo disso é Naná Vasconcelos que extrapolou as potencialidades dos instrumentos e permitiu transformar, o que seria tratado como forma errada de tocar o instrumento, em inovações de timbre. Essa compreensão do erro pode ser expandida a várias outras expressões artísticas, como, por exemplo, à pintura e à escultura.

A inovação gerada pela inteligência artificial, a seu turno, é caracterizada pela precisão no gerenciamento de uma enorme quantidade de dados. Sabe-se que a produção de obras de arte por essa tecnologia já é uma realidade. Em 2018, a primeira obra realizada a partir da inteligência artificial foi comprada em leilão, por 432.500 dólares. Trata-se da obra Portrait d’Édouad Belamy, elaborada pelo grupo Obvious, por meio de dois algoritmos que foram alimentados com 15.000 retratos clássicos, pintados entre os séculos XIV e XX. Já o pintor Roman Lipski utiliza o programa, desenvolvido por Florian Dohmann, para transformar as suas obras em outras. O programa reconhece os objetos, através de sistemas neuronais, e cria variações de obras existentes. Essa relação entre pintor e inteligência artificial vai além, pois Roman Lipski assume que as obras do programa influenciam novas elaborações. Assim, esse diálogo acaba constituindo uma espécie de “looping criativo”.

A obra Portrait d’Édouad Belamy

A inteligência artificial também tem sido utilizada em várias outras situações. Recentemente, o Boticário lançou perfume com fragrância feita com inteligência artificial. Esse tipo de tecnologia também tem sido utilizado para criação de texto, inclusive na redação de diálogos para livros ou filmes. Outra aplicação é no domínio da composição musical, com programas como Amper, que tem auxiliado vários artistas que não obrigatoriamente têm uma formação musical.

Retoma-se o fato de que o erro não é um elemento exógeno ao fenômeno da inovação. Como visto, ele é uma condição preexistente em alguns processos de desenvolvimento tecnológico e artístico. Diante disso, como lidar com o erro e a imprevisibilidade quando envolverem processos mediados pela inteligência artificial?

Redução de assimetrias e enviesamento justificado

O debate sobre ética no desenvolvimento de inteligência artificial frequentemente inclui parâmetros referentes aos propósitos de inclusão, promoção da diversidade, justiça e equidade nessas tecnologias, como refletem recentes publicações da OCDE e da União Europeia. Mas e se esses propósitos necessitarem justamente que esses sistemas automatizados funcionem de maneira contraintuitiva à forma como foram programados? Seja em razão do banco de dados utilizado, ou dos próprios parâmetros de julgamento para a tomada de decisões, os resultados de desempenho de uma inteligência artificial, ainda que corretos, podem não ser ideais, ou socialmente almejados. 

Como exemplo, podemos citar os resultados orgânicos de pesquisa em bancos de imagens, já denunciados por diversos membros da sociedade civil (Desabafo Social, University of Washington, entre outros) como contendo distorções referentes ao banco de dados e ao sistema de reconhecimento de suas representações. Como grande parte das imagens disponíveis online já revela problemas de representatividade racial, por exemplo, os resultados de buscas nesses bancos também refletem essas desigualdades. 

Além disso, há os exemplos de policiamento preditivo e automatização de decisões acerca de livramento condicional em Nova York, que utilizam bases de dados de um sistema penal já bastante enviesado em termos raciais e econômicos, com graves consequências para a perpetuação dessas desigualdades. Ainda que magistrados, como seres humanos, também sejam passíveis de diversas subjetividades na tomada de decisões, os sistemas automatizados desenvolvidos correm o risco de reproduzi-las e até mesmo aprimorá-las. 

Portanto, em alguns casos, é importante que certas tecnologias não tenham 100% de acurácia, ou até mesmo que o componente humano esteja envolvido em fases de balizamento e ratificação das suas decisões. O objetivo do processamento automatizado de dados pode ser justamente a correção das assimetrias já presentes em bases de dados (normalmente dados do “mundo offline”) por meio de um enviesamento “positivo”. 

Ou seja, é possível almejar a redução de enviesamentos em processos intermediados por tecnologias automatizadas, exatamente para torná-los mais justos, diversos e inclusivos. Nesses casos, pode ser socialmente ideal a incorporação de aspectos não orgânicos, teoricamente imbuindo de “erros” algumas inteligências artificiais.

Conclusão

O erro pode ser aceito como um elemento constitutivo do processo de solução de problemas por inteligência artificial. Essa constatação permite ressignificar a infalibilidade das previsões decorrentes dessas tecnologias. Aceitar a possibilidade de erro coloca em evidência a necessidade de se rediscutir aspectos jurídicos, morais e filosóficos sobre a adoção desses tipos de soluções. Além disso, permite avançar em dois eixos: desconstituir uma visão dogmática de precisão inquestionável das decisões regidas por essas tecnologias; e entender o erro como essencial ao processo científico, no geral, mas também naquele mediado por inteligência artificial. Essa proposta de inteligências artificiais 99% precisas cientificiza o processo de desenvolvimento tecnológico, mitigando a falsa dualidade entre erro e acerto no processamento automático de dados. 

Se você quer saber mais informações sobre o papel da inteligência artificial nas disputas geoeconômicas e tecnológicas, confira este outro post no blog do IRIS.

As opiniões e perspectivas retratadas neste artigo pertencem a seu autor e não necessariamente refletem as políticas e posicionamentos oficiais do Instituto de Referência em Internet e Sociedade.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *