Inteligência Artificial e segredo de negócio: uma aproximação a partir da LGPD 138 Quadro 5 – Tipos de Discriminação Algorítmica: Formas de discriminação algorítmica segundo Mendes, Mattiuzzo e Fujimoto Tipo Definição 1 Discriminação por erro estatístico Esse erro deriva da ação ou omissão dos desenvolvedores (engenheiros ou cientistas de dados) do algoritmo. Segundo as autoras, o erro é genuinamente estatístico e abrange tanto dados incorretamente coletados quanto problemas pré-existentes no código do algoritmo, culminando emum resultado incorreto, falhando em contabilizar parte dos dados disponíveis. 2 Discriminação pelo uso de dados sensíveis Nesse caso, embora do ponto de vista estatístico determinada resposta do algoritmo esteja correta, ela é discriminatória por basear-se em dados legalmente protegidos (v.g. escore de crédito baseado na identificação religiosa de determinada pessoa, prática vedada pela Lei do Cadastro Positivo). Nessa hipótese, além de usar dados sensíveis, a classificação se baseia em características endógenas ou destaca grupos historicamente discriminados. 3 Discriminação por generalização injusta (correlação abusiva) Nessa hipótese, ainda que a análise do algoritmo esteja correta, assim como as informações avaliadas, o resultado pecará pela generalização injusta e imprecisa, abrangendo pessoas que não se encaixam na média, grupo ou resultado obtido. Exemplo disso é o caso de uma pessoa submetida a avaliação automatizada para concessão de um empréstimo: a única informação do modelo é que o candidato reside em vizinhança associada a pobreza, logo, ainda que tenha renda superior aos demais, o modelo o classificará como parte do grande grupo (em que pese seja um caso atípico). 4 Discriminação limitadora do exercício de direitos Tambémnesse tipo de discriminação é possível que os resultados estejam corretos e sejam relevantes (do ponto de vista estatístico), contudo, ao contrário das duas primeiras categorias, segundo as autoras, “o problema advém não do tipo de dado utilizado, mas da relação entre a informação empregada pelo algoritmo e a realização de um direito. Se há uma conexão estrita entre ambos e se o direito em questão é demasiadamente afetado, provável que o uso seja discriminatório.”. Fonte: elaborado pelo autor a partir de Mendes, Mattiuzzo e Fujimoto (2021, p. 430-441). Considerando a passagem pelo caso “State v. Loomis”, faz-se pertinente dispor que, no contexto brasileiro, o Conselho Nacional de Justiça não recomenda o uso de tecnologias de IA em casos criminais, especialmente para análises preditivas (como do caso COMPAS), conforme expressamente consta do art. 23, caput, da Resolução nº 332/2020: “A utilização de modelos de Inteligência Artificial em matéria penal não deve ser estimulada, sobretudo com relação à sugestão de modelos de decisões preditivas.”. Contudo, não se aplica o disposto no caput quando se tratar de utilização de soluções computacio-
RkJQdWJsaXNoZXIy MjEzNzYz