Por Paola Cantarini
Wilson Engelmann – BIO
Na Unisinos atuou como coordenador da Graduação em Direito e coordenador Adjunto do Programa de Pós-Graduação em Direito. Atualmente está na Coordenação Executiva do Mestrado Profissional em Direito da Empresa e dos Negócios, sendo que referido mestrado foi fruto das suas pesquisas sobre nanotecnologias, novas tecnologias, riscos e impactos sócio-econômicos das novas tecnologias e a necessária inovação no Direito.
Possui especialização em Direito Político, Mestrado em Direito e Doutorado em Direito, tendo realizado estágio de pós-doutorado na Faculdade de Direito da Universidade de Santiago de Compostela, na Espanha.
Essa entrevista foi realizada originalmente em português no dia 15.12.2023.
Versão original
Paola Cantarini: Poderia começar nos falando sua área principal de atuação, comentando seu trabalho atual relacionado à IA?
Wilson Engelmann: A minha área de formação é o Direito, desde a Graduação na Universidade do Vale do Rio dos Sinos – UNISINOS, sediada em São Leopoldo e Porto Alegre, no Rio Grande do Sul, Brasil. Também na Unisinos eu fiz o meu mestrado e doutorado em Direito Público, no Programa de Pós-Graduação em Direito e, no ano de 2018, realizei um período de estágio pós-doutoral no Centro de Estudos de Segurança, da Universidade de Santiago de Compostela, na Espanha. Sou professor da Escola de Direito da Unisinos há 33 anos. Desde 2008, quando fui admitido como professor e pesquisador no Programa de Pós-Graduação em Direito da Unisinos, desenvolvo projeto de pesquisa sobre as nanotecnologias, regulação, gestão dos riscos e análise dos impactos éticos, sociais e ambientais; Tema que viabilizou a minha bolsa de produtividade em pesquisa do CNPq. A partir das pesquisas na escala nanométrica, eu observei a conexão com a inteligência artificial. Como se estabelece essa conexão? O século XX foi marcado pela Era Industrial, também chamada de visão newtoniana, ou macroscópica, onde a matéria, o espaço e o tempo estavam em “espaços” ou “dimensões” separadas. A passagem para o Século XXI, a pesquisa avança a passos largos para uma perspectiva subatômica, própria da Era da informação e do conhecimento, onde emerge a visão relativísticas e quântica. A partir de agora, dois corpos poderão estar simultaneamente em um mesmo espaço. Klaus Schwab, em seu livro “A quarta revolução industrial”, já sinalizava a convergência tecnológica entre as nanotecnologias, a inteligência artificial e a computação quântica. As nanotecnologias, já que são diversas áreas onde se compreende e controla a matéria na escala de medida que está situada na bilionésima parte de um metro, que equivale à notação científica de 10-9. O que chama a atenção nessa escala de tamanho são as propriedades físico-químicas dos materiais difere daquelas que os seus equivalentes apresentam na escala macro. Com isso, surgem os riscos que poderão emergir dessa manipulação humana da matéria e das criações daí decorrentes. Segundo uma matéria publicada na Revista Você S/A, n. 300, de maio de 2023, intitulada “A Era dos Chips”: a empresa holandesa ASML encabeça a etapa zero da cadeia de produção dos chips: fabrica as máquinas que fabricam processadores, ou seja, chips de 3 nm. E ela tem planos de alcançar os 2 nm até 2025. Os chips são um dos componentes eletrônicos, que viabilizam a geração da inteligência artificial. Portanto, aí está demonstrada a conexão que se observa cada vez mais forte entre os avanços na escala manométrica e os desenvolvimentos da inteligência artificial e da computação quântica. Por isso, na atualidade, as minhas pesquisas e orientações na área do Direito, desde a Graduação até a Pós-Graduação, incluindo também a supervisão de estágios de pós-doutorado, evidenciam as conexões e os impactos jurídicos, éticos, sociais e ambientais do cruzamento das nanotecnologias e da inteligência artificial.
Paola Cantarini: A seu ver, haveria necessidade e daí, em decorrência, também possibilidade de uma lei mundial que objetive a regulação da IA em termos globais, ainda que estabelecendo apenas patamares mínimos?
Wilson Engelmann: Os avanços dessas áreas, que eu venho estudando desde 2008, não estão regulados, a partir da fonte tradicional e mais importante, ao menos nos países da tradição romano-germânica, que é a lei. No Brasil, se observam diversos projetos de lei em tramitação no Congresso Nacional, um deles, com mais velocidade, que é o Projeto de Lei n. 2.338/2023.[1] Os artigos iniciais desse projeto de lei determinam a observância de princípios. A partir de um fundamento que se busca na Teoria Geral do Direito, os princípios são uma espécie do gênero “normas jurídicas”. Portanto, os princípios trazem consigo uma carga deôntica que determina o seu cumprimento, sem nenhum apoio na regra (ou lei, aqui genericamente considerada), que é a segunda categoria desse gênero. Vale dizer, não será necessário de fazer uma lei (uma regra) para se dizer que os princípios devem ser cumpridos. Eles devem ser observados, desde sempre, como normas jurídicas que são. Esse é o primeiro aspecto. Outro detalhe que venho observando na minha pesquisa é justamente uma valorização global dos princípios na regulação da IA. Existem diversas fontes[2] que organizam uma espécie de banco de dados de documentos elaborados por atores públicos e privados no mundo, destacando princípios e seus agrupamentos para uma regulação da IA. O que chama a atenção em uma análise conjunta desses documentos principiológicos é a existência de princípios comuns em documentos oriundos de atores públicos e privados, que se encontram situados em países muito diferentes em variados fatores, tanto no norte e no sul globais; quanto no leste e oeste globais. Por isso, os princípios são uma criativa oportunidade de regulação e que atendem às questões globais e locais, que se encontram cruzadas e não bem definidas ou distintas nos diversos usos proporcionados pela IA. Portanto, chegou o momento para os cientistas da área do Direito voltarem a estudar os princípios, inserindo-os em modelos de autorregulação regulada a serem testados em laboratórios reais, como, por exemplo, os Living Labs Regulatórios.[3] Não se trata de um modelo autorregulatório puro, muito criticado, mas de um modelo que mescla a autonomia das organizações desenvolverem os seus programas internos de cumprimento, com o alinhamento (externo) obrigatório a um conteúdo e controle oriundo do Estado, a partir da inserção do tema dos direitos humanos. Aqui entendidos os direitos humanos a partir de dois autores que integram o referencial teórico das minhas reflexões: John Finnis[4] e John Gerard Ruggie.[5]
O próprio Luciano Floridi, que foi entrevistado recentemente pela Dra. Paola Cantarini, apresenta uma inclinação pela valorização dos princípios para regular os avanços e os riscos da IA.[6]. Embora, Luciano Floridi, em outras oportunidades, tenha deixada clara a necessidade de se fazer uma regulação mais direta e focada em alguns pontos de atenção – especialmente os riscos e as possibilidades da discriminação algorítmica e a tomada de decisões nos mais variados níveis.[7] Se tem observado algumas manifestações sobre a estruturação de um documento internacional (tratado ou convenção, ou algo desse gênero) para regular a IA. No entanto, essa via sempre dependerá de um amplo e global debate e participação de todas as partes interessadas, o que pode se tornar, no limite, impossível. Depois, se deveria chegar a um consenso sobre um mínimo regulatório. Considerando os movimentos geopolíticos globais, não há evidências de que esse caminho consiga chegar a um resultado favorável. Não se pode esquecer que as pesquisas, e os avanços em desenvolvimento e inovação continuam a partir do cruzamento e da potencialização dos efeitos das nanotecnologias, IA e computação quântica. Na área do Direito se deverá promover, com urgência, uma profunda inovação no modo de produzir e reconhecer o jurídico. Se isso não ocorrer, outras áreas do conhecimento, não relacionadas com as questões regulatórias, tomarão o lugar dos juristas para estabelecer a regulação. Dentro desse contexto, procuro desenvolver as pesquisas no Grupo de Pesquisa JUSNANO e em outros espaços nacionais e internacionais onde participo, a fim de se fazer a releitura da Teoria Geral das Fontes do Direito, imbricada com a reorganização e modernização dos tradicionais pressupostos do ainda muito presente positivismo jurídico, notadamente o de vertente legalista.
Paola Cantarini: Como se daria o assim denominado “trade-off” entre inovação e regulação? Ou a regulação por si só iria impedir ou comprometer a inovação e a competição internacional? Segundo Daniel SOLOVE, no livro Nothing to hide. The false tradeoff between privacy and security (Yale University Press, 2011), esta seria uma concepção equivocada. Poderia comentar sobre tal ponto?
Wilson Engelmann: Existe uma relação forte entre a existência, ou não, de um marco regulatório e os seus impactos nos avanços da inovação. Se a regulação for muito restritiva, poderá prejudicar o desenvolvimento adequado da P, D & I; se as exigências e limitações forem excessivas, os investimentos poderão ser redirecionados para países com um marco regulatório mais favorável. Se deve destacar que isso não significa flexibilizar o cuidado com alguns pontos com a saúde e segurança dos trabalhadores e consumidores e os cuidados com os impactos ambientais que a inovação poderá gerar. Pelo contrário, eles deverão ser equilibrados e adequados para aquele momento e estágio do desenvolvimento da tecnologia. Ao mesmo tempo, a abstenção de se regular certa tecnologia, poderá gerar uma dificuldade posterior para limitar os avanços que já se estabeleceram. Isso gera o chamado “dilema do controle”.[8] Se observa uma disparidade entre as competências técnicas que se podem desenvolver, especialmente no contexto do sistema da ciência e como esses avanços geram efeitos no sistema social. Para enfrentar os impactos negativos que poderão ser gerados por determinados avanços tecnológicos, se destacam dois cuidados: se deverá saber se determinada tecnologia poderá ou não gerar certos efeitos negativos. Além disso, deverá haver uma ou mais possibilidades ou caminhos para modificar essa tecnologia de alguma forma, a fim de se evitar esses impactos negativos. O panorama assim caracterizado gera os dois percursos do mencionado dilema: a nossa compreensão da interação entre a tecnologia e a sociedade se apresenta pouco desenvolvida, dificultando a predição plena dos impactos negativos que a combinação das duas tecnologias poderá gerar no sistema social. A segunda trilha do dilema é: quando se tiver um melhor conhecimento dos impactos negativos que a tecnologia poderá provocar, o controle dela e eventual retorno a algum estágio anterior se tornará difícil. Com isso, o controle da tecnologia se apresenta difícil, muito caro e devagar. Portanto, “[…] a essência do controle da tecnologia não está em prever suas consequências [ou impactos] sociais, mas em manter a capacidade de mudar a tecnologia, mesmo quando ela está totalmente desenvolvida e difundida, de modo que quaisquer consequências sociais indesejadas, que ela venha a ter, possam ser eliminadas ou amenizadas”[9]. Com o cruzamento e a potencialização da IA e das nanotecnologias, sem se esquecer dos avanços trazidos pela computação quântica, se observa esse dilema: o sistema da ciência continua o desenvolvimento das tecnologias, gerando novas descobertas, que são transferidas para o sistema produtivo, que gera os produtos da inovação, que o sistema da economia espera e potencializa, sem que se saiba quantos e quais impactos negativos poderão ser gerados no sistema social, no sistema da saúde e no sistema ambiental, dentre outros. Se tem, com esse contexto, um feixe de problemas, que ainda não têm uma ou mais soluções. Por enquanto, se observa um progresso científico e econômico, que poderá gerar um grupo de riscos de danos futuros. Esse é um problema real, que deverá ser resolvido, no limite, ainda ser percebido pelo sistema do Direito. A pesquisa, o desenvolvimento e a inovação do setor, que opera com essas duas tecnologias, são realizados por organizações empresarias nacionais e transnacionais, que desafiam as normas jurídicas dos sistemas nacionais, estruturados a partir da Constituição Federal e substancializados pela estrutura e proteção dos direitos fundamentais. Essas organizações são um ator importante no panorama da globalização, pois impulsionam cadeias de atividades, exigindo um arcabouço normativo próprio e que se diferencia funcionalmente da estrutura normativa interna de cada Estado, que se encontra fundada em categorias conceituais alicerçadas na tradição do sistema de Direito ainda positivo e vinculado à produção do sistema da política estatal. Dessa forma, o “trade-off” entre inovação e regulação, segundo Daniel SOLOVE, no livro Nothing to hide. The false tradeoff between privacy and security (Yale University Press, 2011), evidencia uma concepção equivocada, não está de todo mal posicionada. Existe uma interdependência entre regulação (controle) e inovação que deverá ser analisada, observando-se os pressupostos da Análise Econômica do Direito e a Avaliação do Impacto Regulatório. Essa avaliação nem sempre se faz pelo desenvolvimento legislativo da regulação. Por isso, as referências aos modelos de autorregulação regulada e a sua testagem e modificações a partir do trabalho nos Living Labs Regulatórios parece que tem muitas vantagens ao modelo regulatório tradicional.
Paola Cantarini: Tomando como exemplo paradigmático na área de proteção de dados do LIA – Avaliação de Legítimo Interesse, previsto na LGPD e no GDPR da União Europeia como sendo um documento obrigatório de “compliance”, quando da utilização da base legal de tratamento de dados pessoais, qual seja, do legítimo interesse, onde há, por exemplo, uma análise/teste de proporcionalidade, você entende que seria possível a criação de um “framework” voltado à proteção de direitos fundamentais embutido em um documento específico, a AIIA – Avaliação de Impacto Algorítmico? Isso no sentido de se estabelecer, após uma análise via ponderação, medidas de mitigação de riscos a tais direitos, que sejam adequadas, necessárias e proporcionais em sentido estrito.
Wilson Engelmann: A utilização da regra de ponderação, movimentando os três níveis de aferição, quais sejam, a necessidade, a adequação e a proporcionalidade em sentido estrito poderá ser uma métrica interessante a pragmática para orientar e direcionar a estrutura de um framework, organizado a partir da chamada “regulação baseada em princípios”. Para tanto, se poderá utilizar categorias e conceitos chave que já se tem no âmbito da Análise de Impacto Regulatório e de Avaliação de Resultado Regulatório, que já se tens estudos no Brasil.[10] Além dessas categorias, será importante aplicar aspectos consequencialistas, como as diretrizes que foram inseridas na Lei de Introdução às Normas do Direito Brasileiro, a partir do art. 20, pela Lei n. 13.655/2018. Considerando esse contexto, a Avaliação do Impacto Algorítmico deverá trazer essas categorias e conceitos chave, além dos princípios aceitos globalmente referentes às questões éticas incidentes nessa nova categoria de avaliação do impacto, próprio da Era da IA que se está iniciando a viver na atualidade. Um risco que o uso crescente de algoritmos em praticamente todos os setores da vida em sociedade, passa a ser a discriminação algorítmica. Se trata de uma nova forma de atuação negativa no contexto social, não se observa nenhum movimento consistente para se estabelecer um “mínimo regulatório” para mitigar os efeitos exclusivos (de exclusão) e de discriminação, que se evidenciam a partir de dados que são inseridos nos sistemas de IA tendo como origem dados históricos que já se encontram carregados com preconceitos.[11] Portanto, a conjugação de todos os elementos e categorias aqui apresentadas se terá condições de estruturar um modelo de autorregulação regulada.
Paola Cantarini: O que se entende por governança de IA? Qual a relação que você vê entre inovação, tecnologia e Direito?
Wilson Engelmann: A governança de IA se caracteriza pela reunião de todos os atores interessados em uma forma de desenvolvimento de IA, sejam atores públicos ou privados, conjugando esforços para trabalhar princípios comuns, a serem testados em ambientes laboratoriais reais, como o Living Lab Regulatório. Ao invés de “governo”, que é o modo tradicional de regulação, onde o Poder Legislativo, dentro dos limites democráticos, estabelece uma regulação e a torna obrigatória de “cima para baixo”. Já a governança é uma estrutura organizacional onde as decisões são tomadas em igualdade de contribuições para a definição de certa direção regulatória.
Paola Cantarini: Na Bienal de arquitetura de Veneza deste ano (2023) o tema do pavilhão brasileiro é a Terra e a ancestralidade, ou seja, a decolonização (“De-colonizando o cânone”, pavilhão “Terra”). Seria possível fugir de tal lógica colonialista, também presente nas áreas de IA/dados?
Wilson Engelmann: Sobre essa perspectiva da decolonização se deverá observar alguns parâmetros, tais como: em países “colonizados” muitas vezes se tem o desenvolvimento de conhecimento científico muito mais avançado do que nos países que, em tese, são os colonizadores. Nos países do sul global, por exemplo, se encontra conhecimento científico muito avançado e progressista do que nas instituições e pesquisadores do norte global. Geralmente, o movimento de decolonização se dá justamente dos países do sul global em relação àqueles do norte global. No desenvolvimento de ideias inovadoras, em diversas situações, se observa o inverso: o sul é muito mais avançado que o norte. Para além disso, entre o movimento de decolonização entre o sul e o norte, se deverá acrescentar os países e a produção do conhecimento dos países do leste e do oeste, que muitas vezes são ignorados, posto que se analisa somente o movimento do sul e do norte. Não se trata, assim, de fugir da lógica colonialista, mas analisá-la com perspectivas e metodologias variadas e criativas. Esse movimento certamente demonstrará novas perspectivas de visão desse tema. Evidentemente se tem muito forte as questões produzidas no norte, mas não se deverá considerar apenas essa olhada; às vezes, será preciso inverter a perspectiva de análise, a fim de emergirem novas possibilidades.
Paola Cantarini: Quais os principais desafios atualmente com o avanço da IA, considerando a polêmica com o ChatGPT e a “moratória” solicitada em carta/manifesto assinada por Elon Musk e outros expoentes?
Wilson Engelmann: A moratória não parece ser um movimento adequado, pois ele se torna impossível. Seria algo como se escrever um documento internacional – talvez um tratado ou uma convenção – que deverá ser aceita por todas as partes interessadas na IA. O que se mostra impossível. Os avanços das possibilidades do ChatGPT e outros da mesma categoria são um sinal forte de que a regulação ou a ausência de regulação não impede o seu desenvolvimento. Aliás, esse Chat é o exemplo de como as tecnologias, que se encontram convergentes atuam e progridem, sem respeitar nenhum direito previamente definido. Se deveria avançar na divulgação das pesquisas já existentes no Direito, mostrando que modelos de regulação baseados em princípios são guias seguros e não impeditivos dos avanços da inovação. Lamentavelmente, ainda se espera que alguém, o Estado, diga o que se pode ou não fazer nessa matéria de ChatGPT ou outros sistemas de IA. O que talvez não aconteça. A área do Direito deverá assumir o seu papel regulatório, desvencilhando-se das amarras tradicionais e restritivas, a fim de se abrir para novas fórmulas de regulação, que já existem, tais como: modelos de regulação baseados em princípios, normas ISO e normas de outras organizações internacionais de normalização, guias orientativos oriundos da OCDE, para começar.
[1] Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/157233. Acesso em 15 dez. 2023.
[2] CANCA, Cansu. Operationalizing AI Ethics Principles. Communications of the ACM, v. 63, n. 12, 2020. Disponível em: https://aiethicslab.com/operationalizing-ai-principles/. Acesso em 05 jan. 2023; AI Ethics Lab. Disponível em: https://aiethicslab.com/the-box/. Acesso em 15 dez. 2023; ZHANG, Daniel; MASLEJ, Nestor; BRYNJOLFSSON, Erik et al. The AI Index 2022 Annual Report, AI Index Steering Committee, Stanford Institute for Human-Centered AI, Stanford University, March 2022. Disponível em: https://aiindex.stanford.edu/wp-content/uploads/2022/03/2022-AI-Index-Report_Master.pdf. Acesso em 15 dez. 2023; FJELD, Jessica; ACHTEN, Nele; HILLIGOSS, Hannah et al. Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-based Approaches to Principles for AI. The Berkman Klein Center for Internet & Society Research Publication Series. Research Publication n. 2020-1, January 15, 2020. Disponível em: https://cyber.harvard.edu/publication/2020/principled-ai. Acesso em 15 dez. 2023; AI Ethics Guidelines Global Inventory, abril de 2020. Disponível em: https://inventory.algorithmwatch.org/about. Acesso em 15 dez. 2023.
[3] Sobre esses temas, tomo a liberdade de sugerir as seguintes publicações: ENGELMANN, Wilson. O constitucionalismo organizacional no cenário do sistema jurídico global e digitalizado. Constituição, Sistemas Sociais e Hermenêutica [recurso eletrônico]: Anuário do Programa de Pós-Graduação em Direito da Unisinos, n. 19. Organizadores: VICHINKESKI TEIXEIRA, Anderson; STRECK, Lenio Luiz; ROCHA, Leonel Severo. Blumenau, SC: Editora Dom Modesto, 2023. p. 337-348; ENGELMANN, Wilson; HOHENDORFF, Raquel von. Buscando un marco legal ágil y adaptativo para conjugar el ODS 12 con los avances nanotecnológicos. Propuesta de um Sandbox Jurídico. In CASADO GONZÁLEZ, María et al (Coord.). Libro Blanco de las nanotecnologías: una visión ético-social ante los avances de la nanociencia y la nanotecnología. Navarra: Editorial Aranzadi, S.A.U., 2021, p. 171-196; ENGELMANN, Wilson. O papel do Living Lab Regulatório no cenário da Inteligência Artificial. In VEIGA, Fábio da Silva (org.). Derecho Iberoamericano en análisis. Navarra, Espanha: Editorial Aranzadi, S.A.U., v. 1, 2021, p. 1-20; ENGELMANN, Wilson; SILVA, Silvio Bitencourt da. O Living Lab regulatório como alternativa para testar modelos normativos à inteligência artificial. In ARRABAL, Alejandro Knaesel; CARVALHO, Luciano Castro de; CARDOSO, Rodrigo dos Santos (Org.). Cultura da inovação e propriedade intelectual. Curitiba: Bagai, 2021, p. 145-164; ENGELMANN, Wilson.A (re)leitura da Teoria do Fato Jurídico à luz do “Diálogo entre as Fontes do Direito”: abrindo espaços no Direito Privado constitucionalizado para o ingresso de novos direitos provenientes das nanotecnologias. In STRECK, Lenio Luiz; ROCHA, Leonel Severo; CALLEGARI, André Luís. (Org.). Constituição, Sistemas Sociais e Hermenêutica, Anuário do Programa de Pós-Graduação em Direito da UNISINOS. Porto Alegre: Livraria do Advogado Editora Ltda., 2010, v. 7; ENGELMANN, Wilson. Nanotecnologia e direitos humanos. Cadernos de Dereito Actual, Santiago de Compostela, Espanha,n. 9. Núm. Ordinario, 2018, p. 441-487. Disponível em http://www.cadernosdedereitoactual.es/ojs/index.php/cadernos/article/view/325/201. Acesso em 15 des. 2023.
[4] FINNIS, John Mitchell. Natural law and natural rights. Second edition. Oxford: Oxford University Press, 2011; ENGELMANN, Wilson. Direito natural, ética e hermenêutica. 2. ed. rev., atual. e ampl. Rio de Janeiro: Lumen Juris, 2023.
[5] RUGGIE, John Gerard. Business and Human Rights: the evolving international agenda. The American Journal of International Law, v. 101, n. 4 (Oct., 2007), p. 819-840. Disponível em: https://www.jstor.org/stable/40006320. Acesso em: 15 dez. 2023; RUGGIE, John Gerard. Human Rights Council Seventeenth Session; Agenda item 3: Promotion and protection of all human rights, civil, political, economic, social and cultural rights, including the right to development. Report of the Special Representative of the Secretary-General on the issue of human rights and transnational corporations and other business enterprises. Esse documento está datado de 21 de março de 2011. Disponível em: https://www.right-docs.org/doc/a-hrc-17-31/. Acesso em: 15 dez. 2023; RUGGIE, John Gerard. Multinationals as global institution: power, authority and relative autonomy. Regulation & Governance, v. 12, p. 317-333, 2018. Disponível em: https://doi-org.ez101.periodicos.capes.gov.br/10.1111/rego.12154. Acesso em: 15 dez. 2023; RUGGIE, John Gerard. Quando negócios não são apenas negócios: as corporações multinacionais e os direitos humanos. São Paulo: Planeta sustentável, 2014.
[6] FLORIDI, Luciano; COWLS, Josh; BELTRAMETTI, Monica et al. AI4People – an Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations. Minds and Machines, v. 28, p. 689-707, 2018. https://doi.org/10.1007/s11023-018-9482-5; FLORIDI, Luciano et al. The ethics of algorithms: key problems and solutions. AI & Society, 2021. https://doi.org/10.1007/s00146-021-01154-8.
[7] FLORIDI, Luciano. “Precisamos regular, não guerrear”. Tradução de Dora Kaufman. Época negócios, n. 190, maio 2023, p. 58-63.
[8] COLLINGRIDGE, David. The social control of technology. New York: St Martin’s Press, 1980.
[9] COLLINGRIDGE, David. The social control of technology. New York: St Martin’s Press, 1980, p. 19-21.
[10] Disponível em: https://portal.antt.gov.br/documents/3116054/3118105/Manual+de+Analise+de+Impacto+Regulatorio+%28AIR%29+e+Avalia%C3%A7%C3%A3o+de+Resultado+Regulatorio+%28ARR%29+-+2020.pdf/2ea7dfbd-3b18-f5a3-7362-8a054ec05c6a?t=1635196329297. Acesso em 15 dez. 2023.
[11] Sobre isso, um texto ainda não publicado, mas apresentado nas aulas que o entrevistado ministrou em novembro de 2023 na Universidade Paris 1 – Panthéon Sorbonne, em Paris e na Universidade de Lille, campus de Lille e Paris, na França: “Partial algorithms: new forms of discrimination, in other words, ‘algorithmic discrimination’”.