Inteligência Artificial no Sul Global

INTELIGÊNCIA ARTIFICIAL NO SUL GLOBAL: REGULAÇÃO, RISCOS DISCRIMINATÓRIOS, GOVERNANÇA E RESPONSABILIDADES Haide Maria Hupffer Wilson Engelmann Taís Fernanda Blauth (organizadores) Casa Leiria

Este livro é o resultado da pesquisa e das relações interinstitucionais produzidas no âmbito do seguinte projeto de investigação científica: INTELIGÊNCIA ARTIFICIAL E SOCIEDADE DE ALGORITMOS: REGULAÇÃO, RISCOS DISCRIMINATÓRIOS, GOVERNANÇA E RESPONSABILIDADES Fundação de Amparo à Pesquisa do Estado do Rio Grande do Sul - FAPERGS Proc. n.º 61271.674.22274.26112021 Edital Fapergs 07/2021 Programa Pesquisador Gaúcho – PqG

INTELIGÊNCIA ARTIFICIAL NO SUL GLOBAL: REGULAÇÃO, RISCOS DISCRIMINATÓRIOS, GOVERNANÇA E RESPONSABILIDADES HAIDE MARIA HUPFFER WILSON ENGELMANN TAÍS FERNANDA BLAUTH (ORGANIZADORES) CASA LEIRIA SÃO LEOPOLDO/RS 2023

INTELIGÊNCIA ARTIFICIAL NO SUL GLOBAL: REGULAÇÃO, RISCOS DISCRIMINATÓRIOS, GOVERNANÇA E RESPONSABILIDADES DOI: 10.29327/5312711 Organizadores: Haide Maria Hupffer, Wilson Engelmann e Taís Fernanda Blauth. Revisão e edição: Casa Leiria. Os textos são de responsabilidade de seus autores. Qualquer parte desta publicação pode ser reproduzida, desde que citada a fonte. Catalogação na Publicação Bibliotecária: Carla Inês Costa dos Santos – CRB 10/973 I61 Inteligência artificial no sul global: regulação, riscos discriminatórios, governança e responsabilidades [recurso eletrônico] / organização Haide Maria Hupffer, Wilson Engelmann, Taís Fernanda Blauth. São Leopoldo: Casa Leiria, 2023. Disponível em: <http://www.guaritadigital.com.br/casaleiria/acervo/ direito/ianosulglobal/index.html > ISBN 978-85-9509-096-5 1. Direito – Inteligência artificial – Regulação. 2. Inteligência artificial – Direito – Governança. III. Inteligência artificial – Direito – Ética. I. Huppfer, Haide Maria (Org.). II. Engelmann, Wilson (Org.). III. Blauth, Taís Fernanda (Org.). CDU 34:004.8 Casa Leiria Ana Carolina Einsfeld Mattos Ana Patrícia Sá Martins Antônia Sueli da Silva Gomes Temóteo Glícia Marili Azevedo de Medeiros Tinoco Haide Maria Hupffer Isabel Cristina Arendt Isabel Cristina Michelan de Azevedo José Ivo Follmann Luciana Paulo Gomes Luiz Felipe Barboza Lacerda Márcia Cristina Furtado Ecoten Rosangela Fritsch Tiago Luís Gil Conselho Editorial (UFRGS) (UEMA) (UERN) (UFRN) (Feevale) (Unisinos) (UFS) (Unisinos) (Unisinos) (UNICAP) (Unisinos) (Unisinos) (UnB)

INTELIGÊNCIA ARTIFICIAL NO SUL GLOBAL: REGULAÇÃO, RISCOS DISCRIMINATÓRIOS, GOVERNANÇA E RESPONSABILIDADES

6 Inteligência Artificial no sul global: regulação, riscos discriminatórios, governança e responsabilidades SUMÁRIO 9 Prefácio Denis Coitinho 13 Inteligência Artificial responsável: significados e desafios Wilson Engelmann 35 Inteligencia Artificial y regulación dentro del Marco Constitucional Argentino: algunas reflexiones sobre el impacto de las nuevas tecnologías Martín Julián Acevedo – Miño 45 Discriminação algorítmica e colonialismo digital José Luiz de Moura Faleiros Júnior 75 Inteligência Artificial e discriminação algorítmica: marcos regulatórios e parâmetros éticos Haide Maria Hupffer Gustavo da Silva Santanna 111 A nova dimensão dos neurodireitos cibernéticos: imunização pactuada contra a ciberescravidão? Paola Cantarini-Guerra Willis Santiago Guerra Filho 137 A Inteligência Artificial dos Large Language Models (LLMs) e os riscos aos Direitos Autorais: diretrizes aplicadas às plataformas e novos deveres éticos-jurídicos para sua utilização Cristiano Colombo Guilherme Damasio Goulart 171 Violencias en las redes sociales: la competencia desigual por su sentido Nelson Arteaga Botello

7 Inteligência Artificial no sul global: regulação, riscos discriminatórios, governança e responsabilidades 193 Inteligência Artificial Generativa frente ao dever de fundamentar as decisões judiciais: o ChatGPT e os limites do artigo 489, §1º, do CPC Darci Guimarães Ribeiro Afonso Vinício Kirschner Fröhlich 221 Inteligencia Artificial y teoría de la evolución. Reflexiones en torno a la viabilidad de la global lex digitalis Carlos de Cores Helguera 239 Consecuencias jurídicas del uso de ChatGPT en la acción de tutela en Colombia Sebastián Díaz Bolívar Dany Steven Gómez Agudelo 259 Segurança Pública em Cidades Inteligentes sob uma perspectiva local José Jorge Barreto Torres Patrícia Verônica Nunes Carvalho Sobral de Souza Diogo de Calasans Melo Andrade 279 Meio Ambiente Digital, Inteligência Artificial e Educação Alexandre Cortez Fernandes Patrícia Montemezzo 301 Sobre os autores 307 Índice remissivo

9 PREFÁCIO Denis Coitinho A tecnologia orientada por Inteligência Artificial (IA), entendida como a capacidade de um sistema – como um software ou incorporada em um aparelho – para executar tarefas comumente associadas a seres inteligentes, já é uma constante em nossas vidas, seja pelas recorrentes recomendações de filmes que recebemos pelos serviços de streaming, tal como Netflix e Amazon Prime, seja pelos filtros de e-mails que usamos, ou pela utilização de algum aplicativo de navegação por GPS, como o Waze, e ela não parece problemática em muitas áreas. Ao contrário, ela parece facilitar nossa vida. Entretanto, esta tecnologia está se estendendo progressivamente para certos domínios nos quais, provavelmente, terá um impacto maior, assim como decidir em circunstâncias de risco, estabelecer prioridades entre pessoas e fazer julgamentos complexos e, portanto, terá que tomar decisões que já se enquadram no domíniomoral. Por isso, parece importante pensar sobre os algoritmos que alimentam esses produtos. Os carros autônomos, por exemplo, precisarão tomar decisões sobre como distribuir o risco entre os passageiros, pedestres e ciclistas, isto é, entre os que utilizam as vias públicas. As armas autônomas letais, terão que identificar e selecionar os alvos humanos que serão eliminados. Por sua vez, algoritmos que já estão em uso no sistema de saúde e no sistema judiciário em alguns países, estabelecem a prioridade de quem receberá um transplante de órgão, bem como aconselham os juízes sobre quem deve obter liberdade condicional ou uma sentença maior de prisão. Até mesmo um aplicativo inocente como Spotify pode apresentar um problema ético em seu algoritmo, como sexismo. Uma pesquisa conduzida por A. Ferraro, X. Serra e C. Bauer demonstrou que o algoritmo da plataforma privilegia músicos homens, sendo as artistas mulheres pouco sugeridas. Quando testaram o algoritmo descobriram que, em média, as seis primeiras faixas recomendadas são de homens (Break the Loop: Gender Imbalance in Music Recommenders, CHIIR ’21, 2021).

10 Prefácio A promessa da IA é que ela melhore nossa vida, pois esses algoritmos podem, teoricamente, decidir sem vieses de gênero, raça ou classe, de forma lógica e racional, evitando qualquer parcialidade e discriminação. Entretanto, pode ser que isso não ocorra tal como esperado, uma vez que todas essas decisões referidas anteriormente, inevitavelmente, parecem envolver padrões éticos e avaliações morais complexas, o que pode resultar em injustiças. Por exemplo, os carros autônomos devem sempre se esforçar para minimizar as baixas, mesmo que às vezes isso signifique sacrificar seus próprios passageiros para um bem maior? As armas autônomas letais devem sempre objetivar a vitória, mesmo ao custo de eliminar um alvo civil ou um soldado ferido, o que colocaria em risco a dignidade humana? As crianças devem sempre ter prioridade para transplantes de órgãos, mesmo quando um paciente mais velho é uma combinação genética melhor para um órgão disponível? Os algoritmos usados em tribunais devem sempre procurar reduzir a reincidência, mesmo resultando em uma discriminação injusta para os réus negros? O problema que nos deparemos atualmente é que alguns usos da IA utilizados em diferentes contextos, como no trânsito, educação, saúde, judiciário, política etc., a exemplo dos programas de reconhecimento facial, avaliação de currículos, classificação de fotografias por assunto e programas que influenciam as decisões judiciais no âmbito penal, tal como o COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), têm revelado disparidades preocupantes de desempenho com base na raça e no gênero das pessoas. Essas disparidades levantam questões urgentes sobre como o uso da IA pode funcionar para promover a justiça ou consolidar a injustiça, podendo revelar, por exemplo, discriminação institucional, injustiça estrutural, como racismo, sexismo e preconceito de classe. Emuma era de crescente utilização da IA, a ideia de que o progresso tecnológico conduz necessariamente à emancipação oportuniza uma grande expectativa. Mas isto pode ser ilusório, uma vez que os sistemas de IA são ainda ferramentas com as quais as pessoas podem exercer poder umas

11 Denis Coitinho sobre as outras. E, como usual, podemos exercer o poder para promover a emancipação ou a subjugação humana. Importante frisar que a importância deste debate se percebe tambémnas novas agendas políticas e sociais que, inclusive, tem se estabelecido em documentos de caráter internacional, como a “Agenda 2030” da ONU, e outros tantos documentos internacionais, emque os Direitos Humanos e a justiça social aparecem como eixos fundamentais para a garantia do futuro da sociedade humana, inclusive ponderando sobre os impactos da tecnologia em nossa vida comum, especialmente nos impactos que recaem nos cidadãos socialmente mais vulneráveis. E essa preocupação parece muito adequada, uma vez que a aplicação da IA parece impactar mais a vida dos cidadãos mais vulneráveis, e isso constituí um claro desrespeito aos direitos humanos, critério este que deve orientar normativamente as sociedades que se pretendem democráticas. Com essa urgência em mente, queremos saudar a publicação do livro Inteligência Artificial no Sul Global: Regulação, Riscos Discriminatórios, Governança e Responsabilidades, organizado pelos professores e pesquisadores Haide Maria Hupffer (Feevale), Wilson Engelmann (Unisinos) e Taís Fernanda Blauth (University of Groningen), que trata commaestria deste relevante problema contemporâneo. O livro investiga importantes temas relativos à inteligência artificial, tais como a questão de regulação, o problema da responsabilidade moral e jurídica, a discriminação algorítmica e colonialismo digital, os neurodireitos cibernéticos, a proteção aos direitos humanos, os riscos aos direitos autorais e à privacidade, o fundamento das decisões judiciais, a educação no contexto da IA, entre outros. A obra é uma coletânea de textos que contou com o financiamento público da FAPERGS (Fundação de Amparo à Pesquisa do Estado do RS) e que reúne uma gama diversificada e qualificada de pesquisadores da área do direito, pesquisadores tanto nacionais quanto internacionais, reunidos pela ligação com a temática. Um ponto central que parece unificar os vários capítulos do livro é o alerta de que devemos enfrentar o desafio enquanto sociedade de regulamentar a IA para

12 Prefácio garantir a promoção de igualdade dos cidadãos, impedindo qualquer discriminação. Dois pontos merecem destaque. Primeiro, a sugestão de orientarmos a IA seguindo certos princípios éticos, identificados a partir dos princípios propostos pelo Chinese National New Generation Artificial Intelligence Governance Professional Committee, tais como Harmonia e Amizade, Equidade e Justiça, Tolerância, Respeito à Privacidade, Segurança, Responsabilidades compartilhadas, Colaboração e Governança, bem como levando em conta as exigências formuladas pelo European High-Level Expert Group in AI, como o Bem-estar social e ambiental, a Diversidade, Não-discriminação e Equidade, a Supervisão humana, a Privacidade e Governança de dados, a Robustez técnica e Segurança do sistemas de IA, a Transparência e a Responsabilidade. Segundo, alertar para o perigo da discriminação algorítmica, objetivando identificar algumas externalidades negativas e os reflexos que algoritmos enviesados podem produzir na sociedade e aos direitos fundamentais, bem como examinar os principais movimentos regulatórios para lidar com as difíceis questões éticas, sociais e políticas sobre os riscos da discriminação algorítmica para que a IA não perpetue o racismo estrutural enraizado nas decisões humanas. O aspecto valioso neste trabalho é que ele faz uma defesa intransigente a respeito de como devemos estruturar modelos de regulação para assegurar a IA responsável, propondo que sigamos certos princípios jurídicos e morais como estruturas normativas para orientação destas novas tecnologias, tais como justiça e equidade, o respeito à privacidade, a garantia da segurança, a robustez e também, fundamentalmente, a transparência. Com isso, espera-se impedir que o desenvolvimento tecnológico, que é desejável para todos nós, tenha um caráter predominantemente econômico, tendo por foco a centralidade humana. Denis Coitinho Coordenador Executivo e Professor do Programa de Pós-Graduação em Filosofia da Unisinos

13 INTELIGÊNCIA ARTIFICIAL RESPONSÁVEL: SIGNIFICADOS E DESAFIOS1 Wilson Engelmann2 Resumo: Os avanços observados com a Inteligência Artificial (IA) são constantes e crescentes. Se objetiva estudar os desafios que a IA está trazendo, notadamente para o campo regulatório. Oproblema a ser respondido é: como estruturarmodelos de regulação para assegurar a Inteligência Artificial responsável? A pesquisa foi realizada a partir da pesquisa bibliográfica, no Portal de Periódicos da Capes, e documental, com preferência a publicações realizadas a partir de 2018, usando-se as palavras-chave abaixo indicadas. Como resultados se destaca a importância dos princípios jurídicos para a estruturação de modelos regulatórios que possam ter aplicação nacional e global, destacadamente a partir da comparação entre China e União Europeia. Também se verifica a importância da teoria 1 Este trabalho é o resultado parcial das pesquisas realizadas pelo autor no âmbito dos seguintes projetos de pesquisa: a) Chamada CNPq n. 09/2020 – Bolsas de Produtividade em Pesquisa – PQ, projeto intitulado: “Percursos para ressignificar a Teoria Geral das Fontes do Direito: o Sandbox regulatório como um elemento estruturante da comunicação reticular entre o Direito e as nanotecnologias”; b) “Sistema do Direito, novas tecnologias, globalização e o constitucionalismo contemporâneo: desafios e perspectivas”, Edital Fapergs/Capes 06/2018 – Programa de Internacionalização da Pós-Graduação no RS. Este trabalho também está vinculado às pesquisas realizadas pelo autor nos seguintes Centros Internacionais de Investigação: CEDIS – Centro de Investigação & Desenvolvimento sobre Direito e Sociedade, da Faculdade de Direito da Universidade Nova de Lisboa, Portugal; do Instituto Jurídico Portucalense, da Universidade Portucalense, cidade do Porto, Portugal; e do CEAD – Centro Francisco Suárez – Centro de Estudos Avançados em Direito da Universidade Lusófona de Lisboa, Portugal. 2 Doutor e Mestre em Direito Público, Programa de Pós-Graduação em Direito da Universidade do Vale do Rio dos Sinos – Unisinos, Brasil; realizou Estágio de Pós- -Doutorado em Direito Público-Direitos Humanos, no Centro de Estudios de Seguridad (CESEG) da Universidade de Santiago de Compostela, Espanha; Professor e Pesquisador do Programa de Pós-Graduação em Direito – Mestrado e Doutorado e do Mestrado Profissional em Direito da Empresa e dos Negócios, ambos da Unisinos; Bolsista de Produtividade em Pesquisa do CNPq; Líder do Grupo de Pesquisa JusNano. ORCID: https://orcid.org/0000-0002-0012-3559. Lattes: http:// lattes.cnpq.br/7143561813892945 E-mail: wengelmann@unisinos.br. DOI: 10.29327/5312711.1-1

14 Inteligência artificial responsável: significados e desafios sobre os Direitos Humanos, a partir de John Finnis, como referencial estruturante à arquitetura autorregulatória regulada e principiológica para os avanços e desafios trazidos pela IA, a fim de se promover as bases da IA responsável. Palavras-chave: Inteligência Artificial. Autorregulação Regulada. Princípios. Direitos Naturais. Direitos Humanos. Direitos Fundamentais. Comparação principiológica entre China e União Europeia. Sumário: 1. Introdução. 2. Conhecendo a Inteligência Artificial. 3. Um plano de vida coerente e a phrónesis aristotélica: estruturas metodológico-éticas para regular a IA. 4. Os princípios jurídicos como estruturas normativas para desenvolver a chamada IA responsável. 5. Considerações Finais. Referências. 1. Introdução O desenvolvimento da Inteligência Artificial é um dado da realidade atual, com projeções bastante expressivas de crescimento e utilização nas variadas áreas de atuação do ser humano. Essa característica levanta uma preocupação: o ser humano será substituído emsuas atividades pelos sistemas de Inteligência Artificial? Como se deverá regular esses avanços, assegurando-se o desenvolvimento da chamada Inteligência Artificial responsável? Esse o problema que o artigo pretende responder. O tema é atual e relevante dado o crescimento das variadas utilizações da IA, por um lado; e a ausência de uma regulação específica, por outro lado. Segundo estudo, elaborado pelo McKinsey Technology Trends Outlook (2022), publicado em agosto de 2022, existem quatorze tendências em IA que estarão em alta a partir de 2023, se destacando, por exemplo, a IA aplicada; conectividade avançada; futuro da bioengenharia; futuro da mobilidade e o futuro da energia limpa, dentre outras aplicações. Esse cenário promissor e desafiador, concomitantemente, sublinha a importância do tema e da discussão sobre a chamada IA responsável.

15 Wilson Engelmann O objetivo geral do trabalho é: estudar os mecanismos para regular os avanços da IA responsável. Os objetivos específicos são: a) conhecer as características e os elementos estruturantes da IA; b) estudar, a partir de John Finnis, o denominado plano de vida coerente e a phrónesis aristotélica, como estruturas metodológico-éticas para regular a IA; c) conhecer os princípios jurídicos, publicados em documentos normativos pela China e União Europeia, como estruturas normativas para desenvolver a chamada IA responsável. Metodologicamente o trabalho foi desenvolvido a partir da pesquisa bibliográfica, principalmente por meio de pesquisa realizada no Portal de Periódicos da Capes, acessado a partir do site principal da Biblioteca da Unisinos, e pesquisa documental. Todas as fontes foram selecionadas a partir da utilização das palavras-chave que apresentam este trabalho, priorizando-se publicações realizadas a partir de 2018. Para se desenvolver os objetivos – geral e específicos – acima apresentados, o trabalho está dividido em três capítulos, conforme se poderá ler a seguir. 2. Conhecendo a Inteligência Artificial A criatividade do ser humano poderá levá-lo à fronteira do conhecimento, gerando novidades e, simultaneamente, riscos imprevisíveis, talvez, no limite, incontroláveis. Essas perspectivas não significam que se deverá abondar o seu espírito inquieto e criativo. Pelo contrário, será preciso avançar com cuidado e respeitando certos balizadores que são apresentados pela própria natureza ao ser humano, como manter a saúde do corpo e mente, e preservar o meio ambiente em que se vive. Uma dessas áreas se chama de “Inteligência Artificial” (IA, doravante), que se posiciona em um espaço de convergência da Computação Aplicada e outros quadrantes tecnológicos com domínios científicos do Direito e da Filosofia, principalmente, mas não exclusivamente. Se observa gradativamente que as áreas “duras” ou “exatas”, apesar de serem aquelas onde a IA se desenvolve e se torna possível, precisa da “ajuda” dos conhecimentos gerados nos domínios menos técnicos e

16 Inteligência artificial responsável: significados e desafios mais humanos ou vinculados às Ciências Sociais Aplicadas e Ciências Humanas. Um exemplo desse cruzamento de áreas poderá ser colhido na época histórica próxima da pandemia da COVID 19. Vale dizer, um artigo publicado na Revista Nature, de 23 de março de 2021, dizia em seu título que a “Ciência não seria suficiente para salvar a humanidade”. Trazendo o conteúdo do artigo para a abordagem sobre a IA, se deve problematizar uma questão-chave: quem está sendo chamado para desenvolver e avaliar os riscos que poderão ser gerados pelo uso em larga escala da IA? Via de regra, se buscam conselhos e/ ou pareceres de especialistas, ou seja, de pessoas em Ciência, Tecnologia, Engenharia e Matemática (a sigla dessas áreas em inglês é STEM) – apesar de estar claro, desde o início da projeção sobre IA, que o comportamento humano, as motivações e a cultura serão fundamentais para uma resposta eficaz. Essa abordagem precisa mudar. A Ciência viabiliza os sistemas de IA, mas as atividades ou áreas inseridas nas Ciências Sociais Aplicadas, Humanidades e Artes para as pessoas e a Economia (a sigla dessas áreas em inglês é SHAPE) ajudam a chegar às realidades sociais, além da análise e avaliação dos impactos sociais, éticos, jurídicos e econômicos dos avanços a partir da IA. A percepção da humanidade é mais robusta quando STEM e SHAPE se unem. Por isso, se poderá dizer que a IA, como um gênero, representa fenômenos sociais, biológicos e tecnológicos, concomitantemente. A partir desse cenário, não se deverá focar excessivamente em evidências de ensaios de controle randomizados, com as variáveis do funcionamento da IA controladas em laboratórios, mas levar em conta as evidências observacionais e qualitativas nas quais as Ciências SHAPE estão imersas (adaptado a partir de Shah, 2021). Qual o fundamento desse cruzamento de conhecimentos das áreas STEM e SHAPE? Pelas diversas facetas que se encontra no próprio conceito de IA, que pode ser entendida como a simulación de procesos de inteligencia humana por medio de máquinas que se extiende a través de capacidades tales como el reconocimiento de voz, la toma de decisiones, la búsqueda semántica y las diversas técnicas de aprendizaje automático (Devang et al, 2019).

17 Wilson Engelmann Por meio do sistema de IA se poderá simular características próprias do ser humano, como raciocinar, conectar dados e projetar resultados e tomar decisões. Por isso, a IA também se define como a “[...] capacidad de un sistema para interpretar correctamente los datos externos y aprender de ellos para utilizarlos con el fin de alcanzar objetivos específicos” (Cuervo Sánchez, 2021). Todas essas características são muito próximas daquelas que os seres humanos também apresentam e que, até agora, distinguia-os dos demais seres vivos que habitam o Planeta Terra. E das máquinas também. Será que essa distinção estaria com os seus dias contados? Não se sabe, ainda. E tem mais um detalhe: para que o sistema de IA possa desenvolver todas essas “competências” precisa do chamado “algoritmo”, que é uma coisa pequena e simples; uma regra usada para automatizar o tratamento de um dado (Barbosa, 2021). Uma espécie de receita: “se isso acontecer, então faça b; se não, então faça c”. Tal a lógica “se/então/mais” da computação clássica. Entretanto, essa é a concepção original, pois […] surgiu um significado mais ambíguo, indicando qualquer sistema de software de tomada de decisão complexo e grande; qualquer meio de obter um conjunto de dados de entrada – e avaliá-los rapidamente, de acordo com um determinado conjunto de critérios (ou “regras”) (Smith, 2018). O sistema complexo que representa o algoritmo viabiliza a Inteligência Artificial (IA) por meio do armazenamento de dados e, a partir deles, consegue estruturar séries de dados, que no Direito podem gerar a “jurimetria”, por exemplo, como uma ferramenta para se ter uma ideia do modo como decide determinado tribunal, a partir de dados coletados por um longo período, que são tratados, estruturados e sistematizados, permitindo-se detectar tendências no sentido de julgamentos e temas escolhidos (Smith, 2018). A partir daí se pode referir que existe certa superioridade da máquina – do sistema – em relação ao ser humano? Ainda não se tem uma resposta acabada para essa pergunta, mas se observa uma tendência para uma resposta positiva. Algoritmos não são novos. Por décadas, eles têm servido como componentes integrais de todos os programas de

18 Inteligência artificial responsável: significados e desafios computador. Na atualidade, os algoritmos, por meio dos avanços do aprendizado de máquina, estão criando uma sociedade amplamente automatizada, transformando muitas facetas da vida. Muitos produtos e serviços – incluindo filtros de e-mail como o “spam”, diagnósticosmédicos, marketing de produto, e carros autônomos – dependem de algoritmos de aprendizado de máquina e sua capacidade de fornecer poder e velocidade surpreendentes. Os algoritmos atuais são “robôs” digitais que possuem habilidades efetivamente autônomas de adaptação e aprendizado (adaptado a partir de Smith, 2018). 3. Um plano de vida coerente e a phrónesis aristotélica: estruturas metodológico-éticas para regular a IA Esse panorama abre diversas frentes para a pesquisa, especialmente para se chegar a um ponto de equilíbrio na denominada “IA responsável”. Como se poderá construir essa possibilidade? A seguir se levantam algumas questões que deverão ser levadas em consideração. Os computadores podem ser treinados para detectar padrões nos dados, mesmo padrões tão sutis que os humanos podem não perceber. Entretanto, quando se trata de identificar a relação entre causa e efeito, as máquinas geralmente ficam perdidas, pois elas carecem de uma compreensão de bom senso sobre o funcionamento do mundo, observável pelo ser humano na sua vida cotidiana. Para que os computadores realizem qualquer tipo de tomada de decisão, eles precisarão entender a causalidade. A incorporação de modelos de causa e efeito em algoritmos de aprendizado de máquina também pode ajudar máquinas autônomas móveis a tomar decisões sobre como navegar nomundo. Mesmo algo como o ChatGPT, o popular gerador de linguagemnatural que produz texto que parece ter sido escrito por umhumano, poderia se beneficiar da incorporação da causalidade. Com ela, o ChatGPT se poderia construir um plano coerente para o que estava tentando dizer e garantir que fosse consistente comos fatos, tais quais são conhecidos (adaptado a partir de Savage, 2023). A mescla da IA nesse novo chat também provocam desafios para as atividades jurídicas, pois trazem as chamadas “ferramentas de IA

19 Wilson Engelmann generativas”. Essa nova categoria da IA está tendo ummomento cultural e comercial, sendo apontada como o futuro da pesquisa, gerando disputas legais sobre direitos autorais e causando pânico em escolas e universidades. A tecnologia, que usa grandes conjuntos de dados para aprender a gerar imagens ou textos que pareçam naturais, pode ser uma boa opção para o setor jurídico, que depende fortemente de documentos e precedentes padronizados, como o caso dos contratos, além da geração automatizada de documentos jurídicos, que tem sido uma área de crescimento há décadas, mesmo em dias de tecnologia baseada em regras, pois os escritórios de advocacia podem recorrer a grande quantidade de modelos altamente padronizados e bancos de precedentes para estruturar a geração de documentos, tornando os resultados muito mais previsíveis do que com a maioria saídas de texto livre (Stokel-Walker, 2023). Essas possibilidades parecem surpreendentes, pois a atividade da advocacia, como a elaboração de peças processuais e outros documentos, e a produção de textos, até agora, eram atividades intelectuais produzidas por seres humanos. Amobilização da linguagem e da criatividade, produziam contratos, peças processuais, textos para jornais, artigos científicos, dentre tantas outras produções intelecto-textuais. Se aprendia desde cedo na Escola a construção de diversas estágios para se aprimorar a escrita, a leitura e a compreensão textual (Floridi, 2023). Os avanços multifacetados das aplicações da IA geram curiosidade sobre quais novidades ainda virão. Paralelamente, se deverá investigar como regular tantas novidades e gerir os riscos que poderão decorrer desses avanços. Se observa uma euforia com as interações viabilizadas por meio da IA. Esse fenômeno poderá provocar um velamento dos impactos éticos, jurídicos e sociais. Se observa que a IA sempre se vincula a um processo de aprendizagem, estruturada a partir de dados: quanto maior o número de dados que o sistema tem à sua disposição, maior o seu nível de aprendizado. Nesse cenário, cabe destacar a Proposta de Regulamento do Parlamento Europeu e do Conselho Europeu (chamada de AI Act) que apresenta a categoria conceitual de sistema de inteligência artificial, como um software, desen-

20 Inteligência artificial responsável: significados e desafios volvido a partir de um variado conjunto de técnicas e abordagens orientadas para um determinado conjunto de objetivos definidos pelo ser humano, gerando saídas como conteúdo, previsões, recomendações ou decisões que influenciam os ambientes com os quais eles interagem (Regulamento, 2021). Essa concepção evidencia a importância da participação do ser humano na definição dos objetivos que devem ser alcançados pelo sistema de IA. Se tem uma característica fundamental: a tecnologia deverá ficar sob o controle humano (Codagnone et al, 2022). Essa linha de preocupação é sublinhada por Luciano Floridi, quando refere: “A AI não é meramente outra utilidade que precisa ser regulada quando estiver madura. É uma força poderosa que está remodelando nossas vidas, interações e nossos ambientes” (Floridi, 2022). Pela análise do cenário atual do desenvolvimento da IA, se poderá dizer que ela está apenas em sua “infância”, ou seja, ainda existe espaço para avanços e não se poderá duvidar que essa referida remodelação de Floridi poderá se concretizar. A garantia do “controle do ser humano” assegura a proteção dos direitos e garantias fundamentais (no plano regulatório interno), além de ser um elemento protetor para salvaguardar os Direitos Humanos (no plano regulatório externo). Se entende o seguinte percurso da tradição: os Direitos Naturais representaram o estágio inicial que preparou a emergência dos Direitos Humanos, que geraram, na sequência da caminhada histórica da humanidade, os Direitos Fundamentais, a partir da inserção dessa amálgama da tradição nos textos constitucionais. Aprofundando e qualificando ainda mais essa trajetória, se poderá dizer que os Direitos de Personalidade representam a versão contemporânea desses movimentos históricos de lutas e sofrimentos, assegurando a sua previsão no principal texto legal do Direito Privado, o Código Civil (Engelmann, 2023). Para se desenhar umprojeto regulatório adequado para o “mundo da IA”, caberá trazer algumas categorias filosóficas: uma delas, é o exercício da prudência, da medida e da cuidadosa avaliação das diversas facetas envolvidas na formulação das respostas jurídicas. Elas deverão ser perspectivadas com o manejo das características que compõe o phrónimos:

21 Wilson Engelmann [...] pensa-se que é característico de uma pessoa que tenha phrónesis ser capaz de deliberar bem acerca do que é bom e conveniente para si mesma, não em relação a um aspecto particular [...] e sim acerca das espécies de coisas que nos levam a viver bemde ummodo geral (Aristóteles, 2001, 1140a). Para que o phrónimos possa alcançar a realização adequada, ou a melhor possível, dos bens humanos básicos (conhecimento, vida, sociabilidade, dentre outros definidos por John Finnis (2011) exigirá o chamado plano de vida racional que busca atingir e atender às características genéricas dos desejos e necessidades humanas e seu ciclo de ocorrência. Esses aspectos, relativos a um plano de vida, inspiraram John Finnis na formulação de uma das exigências básicas da razoabilidade prática, que foi denominada de plano de vida coerente. Cada ser humano, e por relação direta – cada sociedade – deve ter um conjunto de propósitos e orientações, organizados comdeterminado grau de harmonia, passíveis de serem concretizados. Não se trata de planos imaginários e sem possibilidade de realização, mas de compromissos efetivos (Finnis, 2011, p. 103). A vida do ser humano deve estar norteada por um projeto, alicerçado nas vivências pessoais passadas e presentes, mas lançando as vistas para o futuro. Vale dizer, é irracional que o ser humano apenas pense no imediato, esquecendo-se de amarrar cada momento, como um contínuo caminhar de cada um no contexto social. O referido plano de vida, apesar de sua pensada coerência, poderá ser objeto de reformas ou revisões, onde se abandonam velhos projetos e se elegemnovos. Os bens humanos estão integrados e interagem com o plano de vida desenvolvido por cada ser humano, justificando, portanto, alterações no decorrer de sua execução ou a partir do momento em que um novo plano é traçado, especialmente para atender a algumbemhumano básico que necessite, naquele momento, uma maior atenção. O plano de vida racional implica responsabilidade do ser humano, que deverá considerar-se tanto no momento de estipular as metas, como na projeção dos resultados das ações desencadeadas. Valendo também para a regulação da IA. O espaço público e o espaço privado se conectam a partir da introdução do conceito de phrónesis, que representa a tomada de

22 Inteligência artificial responsável: significados e desafios decisões não voltadas somente ao privado. Nesse particular, emerge um aspecto característico: como as pessoas não são iguais, os planos eleitos por cada uma também sofrem variações. Isso destaca a pessoalidade das escolhas, vinculadas a uma série de contornos individuais, marcados pela chamada experiência de vida, e que pode ser chamada de pré-compreensão, profundamente influenciada pela tradição onde o sujeito está imerso. A razoabilidade introduzida nesse contexto indica que o plano de vida coerente não está ligado apenas a uma concepção individual. Pelo contrário, deverá ser traçado com vistas ao coletivo, do qual o individual faz parte, mediante a projeção da concepção aristotélica de phrónimos. O plano de vida coerente, desenhado a partir da tradição, e em observância aos contornos apresentados pelo mundo da vida, sugere um modelo de ação, para orientar a tomada de decisões sobre os possíveis riscos trazidos pela IA. Por conta disso, a formulação de um plano de vida coerente para o grupo social deverá ser agregada a uma outra exigência básica da razoabilidade prática, que John Finnis denomina de bem comum, justamente para reforçar a necessidade de planos coerentes para a vida do ser humano na sociedade, onde se conjugue o individual com o coletivo, o público com o privado, sem a primazia, inicial, de nenhum deles. O bem comum se refere ao fator ou conjunto de fatores que, presentes como considerações no raciocínio prático de uma pessoa, atribui um sentido a, ou uma razão para, sua colaboração comos outros, desde o seu ponto de vista, estruturando uma razão para sua colaboração entre eles mesmos e com essa pessoa” (Finnis, 2011, p. 154). Esse conjunto de elementos poderá auxiliar na construção do caminho rumo à IA responsável. 4. Os princípios jurídicos como estruturas normativas para desenvolver a chamada IA responsável Uma das alternativas que se pode apresentar para a regulação da IA, orientada pela atitude do phrónimos e organizada

23 Wilson Engelmann a partir de um plano coerente de vida, poderá se dar por meio de modelos regulatórios estruturados a partir de princípios, que se encontram vinculados diretamente com a referida amálgama da tradição que inicia com os Direitos Naturais, se conectam aos Direitos Humanos e desembocam nas Constituições contemporâneas, a partir do capítulo dos Direitos Fundamentais. Como se desenvolverá essa perspectiva? Na revisão de literatura sobre o tema se encontraram diversas fontes, dentre as quais se destacam Weng e Izumo (2019), Zhang et al (2022) e AI Ethics Guidelines Global Inventory (2020). Nessa última fonte, foram sistematizados mais de 160 documentos, estruturados a partir de princípios, e que foram elaborados por atores públicos e atores privados, localizados em países do Sul, do Norte, do Leste e de Oeste global. Essas fontes destacam o papel regulatório dos princípios. Os princípios integram a categoria geral de “normas jurídicas”, ao lado das regras. Portanto, os princípios também apresentam uma carga de “dever ser”, com potencial diferente daquele carregado pelas regras. O trabalho jurídico, na resolução de problemas, com o uso dos princípios, que são considerados “mandados de otimização”, emprega critérios hermenêuticos distintos daqueles que norteiam a aplicação das regras, que são “mandados definitivos”. A perspectiva de “atribuição de sentido hermenêutico” exige um rigor metodológico, pois é orientada pelas consequências que a movimentação principiológica busca atingir (Engelmann, 2001; Engelmann, 2023). Se vislumbra um espaço crescente dos princípios e uma perspectiva hermenêutica renovada na sua aplicação, especialmente na construção de modelos normativos para regular os avanços da IA. Os princípios apresentam uma linguagem aberta para se amoldar a novas perspectivas sociais e que exigem regulação ágil e flexível. Tais não são as características da regulação legislativo-estatal. Por isso, se considera o alargamento do campo de aplicação dos princípios: não apenas os princípios expressa e implicitamente formulados nas Constituições ou em outros documentos normativos, mas também os princípios que orientam o intérprete, seguindo as linhas axiológicas fundamentais do ordena-

24 Inteligência artificial responsável: significados e desafios mento jurídico, na formulação da regra e na justificativa da solução a ser dada ao caso (Zaccaria, 2022). Se pode destacar que nesse trabalho de orientação do intérprete se conjugam os princípios inseridos no texto constitucional, assim como os princípios relativos aos Direitos naturais-humanos, abrindo a produção normativa para a conjugação de elementos internos com os elementos externos ao ordenamento jurídico de cada Estado. Os princípios permitem introduzir no mundo jurídico uma série de regras que vêm da economia e das ciências, mas também da moral e outros campos do saber, sublinhando uma capacidade “normogenética ilimitada”; e, como tal, desempenham uma função essencial na difícil governança do pluralismo das fontes do Direito e da complexidade sociojurídica trazida pela IA devendo ser redefinida e recalibrada argumentativamente caso a caso pelo intérprete (Zaccaria, 2022, pp. 20-26). O que sem dúvida se perde em termos de certeza e determinação do Direito, nessa revalorização dos princípios, ganha-se em troca de maior pluralismo: não mais apenas os legisladores, mas também (e sobretudo) os juízes, não mais apenas os Estados, mas também os novos sujeitos particulares e novas agências reguladoras; não mais apenas a legislação estadual, mas também a legislação supraestatal, internacional, comunitária, global, contribuem para configurar o conjunto do Direito (Zaccaria, 2022, pp. 26-29). Esse o cenário criativo, poroso e flexível, onde os princípios jurídicos atuam na atualidade, promovendo a criação normativa de estruturas típicas de autorregulação, em alguns momentos; em outros, de autorregulação regulada (Engelmann, 2022). Esse é o percurso do processo atual de mutação do Direito, já não centrada mais preponderantemente na lei, mas nos dois polos da Constituição e dos documentos internacionais dos Direitos Humanos, por um lado; e dos tribunais nacionais e internacionais de Direitos Humanos, por outro. Isso gera, segundo Zaccaria (2022), um quadro de porosidade do Direito, que acentua dramaticamente a sua contingência e indeterminação e enfraquece a sua capacidade de ordenar e dar forma

25 Wilson Engelmann à convivência civil. Com isso, surge naturalmente o delicado problema de distinguir o que é Direito, do que não é Direito, e para diferenciar novas formas de Direito de formas espúrias e degeneradas (Zaccaria, 2022, pp. 28-29). Com esse panorama, se pode desenhar a revalorização normativa dos princípios, que conduzirão o referido processo de distinção, que tem a arquitetura projetada nas redes digitais, em um panorama específico e inédito da era da hiperconectividade (Floridi, 2015), que se caracteriza pela indiferença de se viver no modo on-line ou no modo off-line, pois as relações humanas e as demais dela decorrentes ocorrem no modo OnLife, ou seja, elas se desenvolvem espaço especial denominado Infosfera, onde tudo poderá ser perfeitamente analógico e digital, off-line e on-line (Floridi, 2018). Essa nova perspectiva que exige a mutação do e no Direito, inovando-se a produção e o reconhecimento do que é jurídico, daquilo que não é albergado pelo Direito, notadamente pelo reconhecimento de procedimentos regulatórios que levam a produção dos efeitos jurídicos para além do legalismo que sempre assume a forma de uma proposta de modelos rígidos, que garantem os bens da certeza e da previsibilidade, mas intrinsecamente inadequados para os tempos instáveis em que se vive (Grossi, 2020, pp. 79-85), gerados pela convergência tecnológica, dentre as quais, uma delas é a IA. A referida revalorização normativa dos princípios se liga ao percurso histórico iniciado pelos Direitos Naturais, passando pelos Direitos Humanos até se chegar aos Direitos Fundamentais. Essa “caminhada” evidencia o papel da historicidade que se deverá projetar no “acontecer histórico” orientado no movimento do círculo hermenêutico (Gadamer). Essa perspectiva se encontra alicerçada na perspectiva trazida por Paolo Grossi (2020, pp. 86-87): “a historicidade significa plasticidade, vontade de se conformar por um devir constante, sem ter a pretensão de interrompê-lo, fixando-o em uma espécie de modelo atemporal e, portanto, anti-histórico”. Valorizar a historicidade é sublinhar o papel da tradição no design da atribuição de sentido hermenêutico ao acontecer da linguagem que compõe o ser humano. Vale dizer,

26 Inteligência artificial responsável: significados e desafios [...] Historicidade significa basicamente humildade diante da complexidade redescoberta, singeleza diante da mudança e do novo que ela comporta; historicidade significa consciência de que, se o resultado de um Direito autenticamente humano deve ser alcançado, ele não pode ser reduzido a uma vontade potestativa, imposta de cima, mas deve ser remetido à busca dos muitos recursos que o fluxo histórico traz consigo: variando e confirmando, ou seja, ressignificando o percurso (Grossi, 2020, pp. 86-98). O percurso que liga os Direitos Naturais aos Direitos Fundamentais se enriquece dessa historicidade e reafirma a sua importância contemporânea, ao sustentar o plano de vida coerente da sociedade, na busca da regulação principiológica, iluminada pelos elementos estruturantes da phrónesis. Se o Direito é fruto da invenção, então o cânone da historicidade do Direito, como abordagem inquestionavelmente afável da dimensão jurídica, representa a bússola orientadora para o legislador e para a comunidade de juristas/intérpretes, bem como o resgate de um Direito que é sempre e apenas experiência, ou seja, uma dimensão da vida (Grossi, 2020, p. 98). Os princípios representam essa conjugação da experiência de vida da sociedade. Por isso, eles estão em condições de, ao se renovarem, servirem para se estruturar modelos de autorregulação regulada para as novidades e os desafios gerados a partir da IA. Colhendo-se um exemplo organizado pelo Fórum Econômico Mundial, que compara os princípios destacados no documento produzido pelo Chinese National New Generation Artificial Intelligence Governance Professional Committee (CNNGAIGPC) e o documento elaborado pelo European High-level Expert Group on AI (HLEGAI), se poderá ter uma ideia das distinções existentes, mas, paralelamente, as convergências principiológicas, que confirmam o papel que os princípios representam na arquitetura da governança regulatória criativa para a IA. Esses aspectos evidenciam a possibilidade de se fazer um diálogo regulatório global a partir de uma fonte do Direito que deverá ser revalorizada: os princípios.

27 Wilson Engelmann Quadro 1: Comparativo de princípios entre China e União Europeia Princípios Éticos propostos pelo Chinese National New Generation Artificial Intelligence Governance Professional Committee Exigências chave formulados pelo European High-level Expert Group on AI 1. Harmonia e amizade 1. Bem-estar social e ambiental 2. Equidade e Justiça 2. Diversidade, não-discriminação e equidade 3. Tolerância e compartilhamento 3. Supervisão humana 4. Respeito à privacidade 4. Privacidade e governança de dados 5. Segurança e controlabilidade dos sistemas de IA 5. Robustez técnica e segurança dos sistemas de IA 6. Responsabilidades compartilhadas 6. Transparência 7. Colaboração aberta 7. Responsabilidade 8. Governança ágil Fonte: World Economic Forum (2021). Em muitos aspectos, os princípios chineses parecem semelhantes aos da União Europeia, promovendo justiça, robustez, privacidade, segurança e transparência. As perspectivas metodológicas, no entanto, revelam diferenças culturais claras. De qualquer modo, o percurso regulatório por meio dos princípios evidencia sinais de aproximação e diálogo. As diretrizes chinesas derivam de uma perspectiva focada na comunidade e orientada a objetivos. “Um alto senso de responsabilidade social e autodisciplina” é esperado dos indivíduos para participar harmoniosamente em uma comunidade que promove tolerância, responsabilidades compartilhadas e colaboração aberta. Essa ênfase é claramente informada pelo valor confucionista de “harmonia”, como um equilíbrio ideal a ser alcançado através do controle de paixões extremas – os conflitos devem ser evitados. Além de uma advertência severa contra “uso ilegal de dados pessoais”, há pouco espaço para regulação estatal. A regulação não é o objetivo desses princípios, que são concebidos para orientar os desenvolvedores da IA da “maneira certa” para a elevação coletiva

28 Inteligência artificial responsável: significados e desafios da sociedade (World Economic Forum, 2021). Aqui se observa o caráter histórico da sociedade chinesa, que influencia a sua concepção sobre o papel dos princípios, ratificando o seu caráter de “mandados de otimização”, com as consequências jurídico-sociais estruturadas em cada caso concreto. Os princípios europeus, emergindo de uma abordagem mais focada em direitos e baseados em direitos, expressam uma ambição diferente, enraizada no Iluminismo e coloridos pela história da Europa. Seu objetivo principal é proteger os indivíduos contra danos bem identificados. Enquanto os princípios chineses enfatizam a promoção de boas práticas, a UE se concentra na prevenção de consequências malignas. Fica bem clara a concepção entre meios e fins que os princípios deverão atender. A orientação chinesa atrai uma direção para o desenvolvimento da IA, de modo que contribui para a melhoria da sociedade, o modelo europeu define as limitações aos seus usos, para que não aconteça às custas de certas pessoas (World Economic Forum, 2021). A regulação estatal acaba trazendo elementos nacionais que dificilmente se comunicarão com a regulação de outros Estados. Por isso, a estrutura regulatória formada a partir dos princípios poderá gerar redes de normatização que aproximam os Estados, em uma verdadeira concepção global da IA responsável, ou seja, preocupada em compatibilizar o desenvolvimento da IA, mas com a centralidade da proteção do ser humano. 5. Considerações finais O tema da IA ganha importância gradativa, especialmente pelos desenvolvimentos de pesquisa nas áreas exatas, especialmente de Ciência da Computação e Computação Aplicada. Se tem uma demora na construção da regulação desses avanços. Por isso, o problema de pesquisa que orientou este capítulo de livro foi: “Como se deverá regular esses avanços, assegurando-se o desenvolvimento da chamada Inteligência Artificial responsável?”. A regulação da IA deverá buscar metodologias que consigam equilibrar o desenvolvimento da pesquisa e dos pro-

29 Wilson Engelmann cessos de inovação decorrentes, com a forma e o tempo dessa regulação. O processo legislativo tradicional não parece ser o caminho mais adequado, dada a demora das suas variadas etapas. Por isso, se apresentou a possibilidade de construção de modelos de “autorregulação regulada”, onde se mescla a iniciativa privada, como um “novo” ator para regular a IA, com a observância de elementos que se encontram em panorama externo a esses atores, como o caso dos Direitos Humanos. Esses foram aqui desenhados a partir das contribuições de John Finnis, notadamente pela orientação encontrada em um dos “requerimentos ou requisitos da razoabilidade prática”, que é a estrutura de um plano de vida coerente: que é considerado uma possibilidade de conjugação de esforços e pressupostos de interesse público com o interesse privado. Tal conjugação, orientada pela arquitetura aristotélica da phrónesis, conduzirá à escolha de princípios, globalmente aceitos, para se estruturar modelos de “autorregulação regulada”. A aceitação normativa dos princípios vem encontrando respaldo em alguns autores da Teoria Geral do Direito, conforme se estudou no capítulo, e, em escala crescente, eles vêm surgindo em diversos documentos de órgãos públicos e privados, em um elevado número de países. Esse fenômeno mostra que os princípios poderão ser um denominador regulatório comum para a IA promovendo um diálogo global de autorregulação regulada. Não se tem, ainda, uma confirmação definitiva dessa possibilidade de resposta ao problema antes proposto, mas se observa ser um caminho que vai ganhando a adesão crescente, justamente pela perspectiva porosa dos princípios. Eles se abrem para a transição regulatória, a partir da orientação proveniente da hermenêutica filosófica, de orientação de Martin Heidegger e Hans-Georg Gadamer. A caminhada foi iniciada. Existe um largo espaço para o avanço e aprofundamento dessa pesquisa, sem se esquecer, também, da possibilidade de se testar esses modelos em laboratórios reais, como é o caso do Living Lab Regulatório. Aqui se trouxe uma pequena construção de uma pesquisa maior que o autor está desenvolvendo.

RkJQdWJsaXNoZXIy MjEzNzYz