Anais do XXI Seminário Internacional Nanotecnologias, Sociedade e Meio Ambiente desafios jurídicos éticos e sociais para a “grande transição sustentável” (XXI SEMINANOSOMA) 194 IA forte age como se uma mente humana fosse. Os sistemas com este tipo de IA apresentam estados cognitivos similares a humanos. Ou seja, enquanto a IA fraca se apresenta como uma ferramenta auxiliar, a IA forte se apresenta como um próprio estado cognitivo (SEARLE, 1980, p. 417). A partir disto, vários são os dilemas. O desenvolvimento destes sistemas autônomos indica a possibilidade de uma inteligência igual ou superior a dos seres humanos, fenômeno que é assinalado como “singularidade”, que seria o momento em que a inteligência artificial poderia, de maneira independente, superar as capacidades humanas, tomar o comando de determinadas escolhas e tornar-se independente (KURZWEIL, 2018). Trata-se de mudança imprevisível, drástica e, tal- vez, incontrolável. Sem dúvidas, todos esses avanços e o caráter disruptivo do avanço tecnológico tendem a impactar as relações sociais, implicar no campo político e econômico e apresentar efeitos adversos. Um dos impactos previsíveis está relacionado com o mercado de trabalho. Não só com a inteligência artificial, mas outras formas de desenvolvimento tecnológico tendem a abalar os modos de produção. No entanto, em relação à inteligência artificial, diferente dos impactos de outras tec- nologias ao mercado de trabalho, ela também tende a afetar as formas de trabalho intelectuais e criativas, e não somente as físicas e mecânicas. Por via reflexa, o abalo dos postos de trabalho também majora a vulnerabilidade econômica, da qual decorrem diversas consequências. Outro aspecto que a inteligência artificial já apresenta seus aspectos negativos é no processo democrático e eleitoral. Exemplos já ocorre- ram nas eleições dos Estados Unidos de 2016 e do Reino Unido reti- rando-se da União Europeia (Brexit). A privacidade também não ficará alheia aos impactos da inteligência artificial. A IA se vale da coleta de dados pessoais para “realizar predições, recomendações, manipular interesses e produzir os resultados almejados pelo algoritmo”. Para possibilitar estes resultados, se vale de “dados genéticos, seus sistemas psíquicos, vulnerabilidades, comportamentos de consumo, políticos, financeiros, sexuais, religiosos”. A discriminação algorítmica também é uma real preocupação. Os algoritmos, ao tratar os dados pessoais, aca- bam por refletir vieses e preconceitos e reprisar estruturas de exclu- são. Questões relacionadas com direitos autorais e propriedade intelectual também refletem questionamentos, já que há dúvidas relativas à produção de informação e conteúdo a partir da inteligência artificial (BARROSO; MELLO, 2024, p. 18-23). Em uma visão panorâmica, portanto, sem excluir outros desa- fios e violações que possam decorrer da utilização da inteligência arti-
RkJQdWJsaXNoZXIy MjEzNzYz