A ética no desenvolvimento da Inteligência ArtificialDaoura

A Inteligência Artificial (IA) é uma referência dentro da computação que mimetiza e replica a cognição humana em sistemas digitais, operando de modo procedural, programado ou autônomo, tarefas que auxiliem os seres humanos nas tomadas de decisões do dia a dia. Dentro da IA, tem-se uma área denominada Machine Learning (ML) que busca realizar uma determinada tarefa ou conjunto de tarefas, baseando-se em um conjunto de dados que, depois de treinados, resulta num modelo padronizado de resolução destas tarefas.

Para se chegar neste conjunto de dados, muita informação deve ser fornecida para que o sistema de ML aprenda a identificar o que se espera, reconhecendo padrões a partir do treinamento realizado. Estas informações são fornecidas por pessoas dedicadas a quantificar e qualificar que os dados representem aquilo que se espera que a máquina aprenda. Neste momento, deve-se ter uma acuidade e atenção na organização destes dados porque cada ser humano envolvido no processo de treinamento possui uma cultura sócio-formativa em seu desenvolvimento integral, o que induz e interfere diretamente na qualidade como os dados são estruturados.

Isto é o que se chama de construção da moralidade no ser humano. Existe a moralidade antes do desenvolvimento de sistemas de IA, que se refere a quem projeta, programa, desenvolve tal sistema, e existe a moralidade após o desenvolvimento, que se refere ao resultado final do sistema de IA, se ele é (ou seria) determinístico, isto é, uma máquina moral. Nos dois casos, é preciso entender que quem é responsável direto por tal dualidade moral é o próprio ser humano. E se é um ser humano, de uma cultura sócio-formativa própria, ele tem também seu próprio viés.

Nos sistemas de ML, os dados são o meio mais usual de aprendizado, logo, eles reproduzem um desequilíbrio se estes mesmos dados forem fornecidos de modo homogêneo, centralizado, concentrado numa só tendência e, por causa do viés, o desenvolvimento de uma IA que funcione de modo heterogêneo é uma tarefa laboriosa. E, como a construção moral de uma pessoa (seus princípios orientadores) resulta na criação de um viés, que necessita englobar diferentes perspectivas e diversidade de ideias, concepções e crenças, é fundamental a ética no desenvolvimento de sistemas de IA que são baseados na integralidade humana.

Exemplos de como um viés erroneamente direcionado pode prejudicar um sistema de ML seriam no recrutamento profissional, se a base de dados de triagem e inspeção curricular considerasse somente a formação que fatores de experiência; na detecção facial, se a base de dados treinada tivesse somente faces de pessoas consideradas caucasianas; na identificação de gênero, se a base de dados identificasse somente características de imagens e desconsiderasse informações demográficas; etc. São inúmeros exemplos em que o viés do desenvolvedor (ou de um time de desenvolvedores) infere diretamente em sistemas de ML, resultando em tomadas de decisões inadequadas e ineficazes durante seu processamento.

Do ponto de vista legal, destacam-se legislações que regulamentam o desenvolvimento, uso e manutenção de sistemas de IA, como a Estratégia Brasileira de IA (EBIA) (Brasil/EBIA, 2021) em seu capítulo “Legislação, Regulação e Uso Ético”, que postula a necessidade de identificar vieses envolvidos em interpretações decisórias (reconhecimento de padrões) e de desafiar tais interpretações, quando cabível ao caráter ético, em discussões sobre como sistemas de ML devem ser confiáveis e centradas na relação humano-máquina, tal qual como adotados da mesma maneira pela legislação européia, na denominação trustworthy Human-Machine AI (ERC-INL, 2020).

A Daoura, nesta perspectiva, tem a preocupação direta, desde o planejamento ao processamento, de que sistemas de ML sigam e fomentem a ética no seu desenvolvimento, como no serviço AI.transforma, dedicado a transformar os dados de sua organização em eficiência operacional; e, no serviço Social.Sensing, dedicado a entender a experiência e percepção das pessoas nas redes para tomadas de decisões diretivas baseadas em insights sobre determinado negócio. Desse modo, ressalta-se então, a necessidade de termos sistemas de ML que realmente repliquem a diversidade de ideias e formações socioculturais das pessoas envolvidas no seu desenvolvimento, porque tais sistemas representam idealmente o cognitivo de informações direcionadas em suas bases de dados, e precisam assim assimilar quaisquer eventualidades dentro das predições em que um sistema de ML é implementado.

Luciano Lugli, engenheiro sênior de Inteligência Artificial da Daoura e especialista em modelagem cognitiva, processamento de linguagem natural e robótica.