137 Inteligência Artificial e segredo de negócio: uma aproximação a partir da LGPD Assim, considerando que a metodologia de trás desses sistemas é um trade secret, juízes acabam não tendo acesso às informações necessárias para modular as suas considerações da ferramenta, portanto, a falta de compressão do sistema continua sendo um problema significativo (Harvard Law Review, 2017, p. 1.530-1.537). Contudo, o caso de Loomis chegou a Suprema Corte de Wisconsin, que manteve a decisão, considerando que o magistrado não teria realizado o julgamento tão somente na avaliação do COMPAS (Mendes; Mattiuzzo; Fujimoto, 2021, p. 425). Conforme atenta Medon (2022), o sistema COMPAS possui vieses discriminatórios visto que “pode acabar dando pontuações consideravelmente maiores para infratores pertencentes a minorias étnicas, revelando um preconceito oculto no algoritmo, cujo funcionamento não é revelado por motivos de segredo comercial” (Medon, 2022, p. 253). Como visto anteriormente, sistemas algoritmos podem não apenas reproduzir vieses discriminatórios humanos, como amplificá-los (Matthews, 2020, p. 82-84). Nesse sentido, Mattiuzzo, Mendes e Fujimoto (2021, p. 430-441) sistematizam quatro categorias principais de discriminação algorítmica: Algorithm Risk. State v. Loomis, 881 N.W.2d 749 (Wis. 2016). Harvard Law Review, v. 130, n. 5, mar. 2017, p. 1530-1537. Disponível em: https://harvardlawreview.org/print/vol-130/state-v-loomis/. Acesso em: 10 set. 2023.
RkJQdWJsaXNoZXIy MjEzNzYz