Entrevista com Eligio Resta

Por Paola Cantarini

Eligio Resta – BIO

Eligio Resta lecionou filosofia do direito e teoria geral do direito na Faculdade em Bari, na London School of Economics e no Birkbeck College. Atualmente, é professor emérito de filosofia do direito e sociologia do direito na Faculdade de Direito da Universidade Roma Ter, sendo também professor de filosofia do direito, informática e lógica jurídica na Universidade telemática internacional UniNettuno; é co-diretor do projeto de pesquisa “Adjudication and Theories of Law” com Duncan Kennedy da Harvard Law School e co-diretor, juntamente com Stefano Rodotà, do seminário permanente sobre a cultura jurídica contemporânea da Fundação Lelio e Lisli Basso-Issoco, bem como das revistas Sociologia del diritto e Politica del diritto.

Essa entrevista foi realizada originalmente em italiano no dia 16.06.2023.

Versão original

Paola Cantarini: Potrebbe iniziare dicendoci qual è la sua principale area di competenza, commentando il suo attuale lavoro relativo all’IA?

Eligio Resta: Da tempo mi sono occupato di questi temi nell’ambito del rapporto tra Il diritto e la vita che, da sempre ha incrociato la questione della tecnica. Si tratta, ancora una volta, di una contraddizione tra le questioni delle passioni calde della vita e delle passioni fredde del diritto, con esiti spesso imprevedibili. Spesso sorrido al pensiero che, nel pensiero della modernità, nasce un paradigma che scava nella differenza tra natura e “artificio”. La politica, in Hobbes, viene definita senza mezzi termini, come “artificial reason” e la sovranità come “uomo artificiale”. E bisognerebbe lavorare meglio, e di più, sul concetto di arti-ficio; non dimenticando la scivolamento semantico che si registra tra mondo greco e mondo moderno. In Grecia la “technè” indicava l’arte, mentre la “poiesis” era, paradossalmente, il fare della vita quotidiana. Tale scivolamento è frequente, come in latino l’”artifex” si contrapponeva al “qualis qualis”, che si attribuiva all’ uomo senza alcuna qualità, per ricordare R. Musil. La mia analisi dell’intelligenza artificiale è incentrata prevalentemente sulle sue implicazioni di ordine filosofico, sociologico e sulla sua possibile regolazione giuridica. Tutti questi profili di analisi sono, poi, interrelati a quella che è stata definita “algoretica”, ovvero la definizione di un essenziale statuto etico del potere algorítmico.

Paola Cantarini: Secondo lei, ci sarebbe la necessità e quindi anche la possibilità di una legge globale che miri a regolamentare l’IA a livello mondiale, anche se stabilisce solo degli standard minimi?

Eligio Resta: L’esigenza di una normazione, pur “mite” e aperta alla co-regolazione, dell’i.a. è ormai condivisa non solo in Europa (che della regolazione della tecnica ha fatto quasi un fattore identitario) ma anche negli Usa, più adusi a rimettere alla legge del mercato la disciplina dei fenomeni sociali ed economici. A questa posizione è sottesa la consapevolezza dei rischi impliciti nel delegare lo sviluppo dell’i.a. alle scelte, autonome e irresponsabili, dei poteri privati del capitalismo digitale. Il rischio maggiore è rimettere ad essi la definizione del perimetro dei diritti e delle libertà, rinunciando a tracciare il limite, il katechon, oltre il quale non si deve fare tutto ciò che si può fare, perché la tecnica oggi consente di farlo. Si registra qui un nodo teorico importante, in cui si contrappongono due codici linguistici diversi: quello della tecnica che parla in nome del “possiamo fare tutto quello che possiamo fare”, mentre il diritto, e l’etica, si interrogano se “possiamo fare tutto quello che possiamo fare?”  Normare l’i.a. vuol dire dunque scegliere, ancora una volta, di guidarne lo sviluppo per renderla funzionale (e non antitetica) alle libertà, ai diritti, alla solidarietà.

Paola Cantarini: Come funzionerebbe il cosiddetto trade-off tra innovazione e regolamentazione? Oppure la sola regolamentazione impedirebbe o metterebbe a rischio l’innovazione e la concorrenza internazionale? Secondo Daniel SOLOVE, nel suo libro Nothing to hide. The false tradeoff between privacy and security (Yale University Press, 2011), questa sarebbe un’idea sbagliata. Potrebbe commentare questo punto?

Eligio Resta: Concepire innovazione e regolazione (come anche, per riprendere il titolo, privacy e sicurezza) come un gioco a somma zero è sbagliato come pensare di poter contrapporre individuale e collettivo, libertà e norma. Non è certo la regolazione in sé un ostacolo all’innovazione; lo è, semmai, una regolazione inadeguata, non sufficientemente “future-proof”, per usare una definizione che invece è stata riferita all’Artificial Intelligence Act.

Paola Cantarini:  Prendendo come esempio paradigmatico nell’ambito della protezione dei dati la LIA – valutazione dell’interesse legittimo, prevista dalla LGPD e dal GDPR dell’Unione Europea come documento di conformità obbligatorio, quando si utilizza la base giuridica per il trattamento dei dati personali, cioè l’interesse legittimo, in cui è previsto, ad esempio, un test di analisi/proporzionalità, pensa che sarebbe possibile creare un “quadro” volto a proteggere i diritti fondamentali incorporato in un documento specifico, l’AIIA – Algorithmic Impact Assessment? Nel senso di stabilire, dopo un’analisi e una ponderazione, misure per mitigare i rischi per tali diritti che siano adeguate, necessarie e proporzionali in senso stretto.

Eligio Resta: L’Artificial intelligence act mutua dalla disciplina di protezione dati proprio l’approccio basato sul rischio come baricentro della cornice regolatoria proposta. La tassonomia dei livelli di rischio in cui si articola la disciplina, comprensiva di divieti per i sistemi di i.a. incompatibili con i valori europei ne rappresenta uno sviluppo interessante. In questo senso ben si potrebbe pensare a una valutazione d’impatto degli algoritmi che, però,  tenga conto dell’incidenza di questi sui diritti e le libertà fondamentali.

Paola Cantarini: Cosa si intende per governance dell’IA? Quale rapporto vede tra innovazione, tecnologia e diritto?

Eligio Resta: Il governo dell’i.a. esige anzitutto la definizione del limite oltre cui la tecnica non deve spingersi, se non vogliamo delegarle la definizione del perimetro dei diritti e delle libertà. E’ necessaria una regolazione capace non di bloccare ma di guidare l’innovazione, inserendola anche in una cornice assiologica, rendendola sostenibile dal punto di vista democratico. Per questo, essa deve soprattutto saper combinare poche regole con più importanti principi, per consentire alla norma di adattarsi a una realtà mutevole, valorizzando anche fonti di co-regolazione (si pensi ai codici di condotta), più effettive della sola etero-regolazione. Qui si determina un compito essenziale del diritto che deve tendere a non limitare o consentire tout court, ma a “salvare tutte le possibilità” (to save the chances) compatibilmente con l’imperativo di scommettere sulla propria differenza, senza appiattirsi sulla teconologia (come in altri campi, sulla religione la morale ecc).

Paola Cantarini: Alla Biennale di Architettura di Venezia di quest’anno (2023) il tema del padiglione brasiliano è Earth and ancestry, cioè la decolonizzazione e il Brasile (“De-colonising the canon”, padiglione “Earth” del Brasile alla Biennale di Venezia). È possibile uscire da questa logica colonialista, presente anche nei settori dell’AI/dati?

Eligio Resta: Quello del governo della tecnica potrebbe e dovrebbe essere il terreno elettivo per l’inversione della logica neocolonialista, riconoscendo a queste aree l’opportunità di proporre al mondo schemi regolatori e, prima ancora, culturali diversi da quelli classici occidentali e, per ciò, ancor più arricchenti.

Paola Cantarini: Quali sono le principali sfide che si pongono attualmente all’avanzamento dell’IA, considerando la polemica con ChatGPT e la “moratoria” richiesta in una lettera/manifesto firmata da Elon Musk e altri esponenti?

Eligio Resta: La vera sfida posta dall’i.a. , nella sua forma generativa o meno, è porla al servizio dell’uomo e non viceversa, assicurando che rappresenti uno strumento di progresso sociale, solidarietà e uguaglianza.  Va soprattutto evitato il rischio che l’i.a., per bias cognitivi che possono annidarsi nella logica algoritmica, replichi, persino amplificandole, quelle discriminazioni da cui avrebbe, invece, dovuto liberarci. Significativo l’algoritmo Compas utilizzato da alcune corti americane per il calcolo della prognosi di recidiva penale, incline ad assegnare agli afroamericani un tasso di rischio quasi doppio di quello dei bianchi. E questo, naturalmente, in assenza di alcuna ragione giustificativa ma per la sola tendenza dell’algoritmo ad assumere come predittive le serie statistiche assunte per allenare la macchina. Corollario di questo è la relativa e progressiva deformazione del concetto di “verità scientifica”, con tutti i suoi problemi che l’epistemologia ha posto in evidenza. Torna il foucaultiano “effetto verità” per cui, se consideriamo vere la premesse, tutte le conseguenze saranno vere. Il problema, come si sa, è che considerare vare le premesse non è gratuito né semplice. Qui andrebbe rimeditato il concetto greco di aletheia, che mostra l’autoevidenza e che, per questo, non può essere ri-velata  (rimetterci sopra un altro velo). L’i.a. non può divenire, insomma, lontana dalla razionalità e usata per scopi incontrollabili, come nell’uso più lombrosiano e razzista dell’umana, troppo umana e fallibile razionalità “naturale” ma deve, invece, liberarci da precomprensioni e discriminazioni, promuovendo eguaglianza e solidarietà.

Tradução

Paola Cantarini: Poderia começar nos falando sua área principal de atuação, comentando seu trabalho atual relacionado à IA?

Eligio Resta: Há algum tempo, tenho me dedicado a esses temas no contexto da relação entre o direito e a vida, que sempre se entrelaça com a questão da técnica. Trata-se, mais uma vez, de uma contradição entre as questões das paixões quentes da vida e as paixões frias do direito, com desfechos muitas vezes imprevisíveis. Fico frequentemente refletindo que, no pensamento da modernidade, nasce um paradigma que se aprofunda na diferença entre natureza e “artifício”. A política, em Hobbes, é definida sem rodeios como razão artificial e a soberania como “homem artificial”. E seria necessário trabalhar melhor e mais profundamente o conceito de “arti-fício, sem esquecer o deslocamento semântico que ocorre entre o mundo grego e o mundo moderno. Na Grécia, a “technè” indicava a arte, enquanto a “poiesis” era, paradoxalmente, o fazer da vida cotidiana. Este deslizamento é frequente, pois em latim o “artifex” opunha-se ao “qualis qualis”, atribuído ao homem sem nenhuma qualidade, para recordar R. Musil. Minha análise da inteligência artificial centra-se, sobretudo, em suas implicações filosóficas e sociológicas, bem como em sua possível regulamentação jurídica. Todos esses perfis de análise estão, então, inter-relacionados ao que foi definido como “algorethics”, ou seja, a definição de um estatuto ético essencial do poder algorítmico.

Paola Cantarini: A seu ver, haveria necessidade e daí, em decorrência,  também possibilidade de uma lei mundial que objetive a regulação da IA em termos globais, ainda que estabelecendo apenas patamares mínimos?

Eligio Resta: A necessidade de uma regulamentação, mesmo que “suave” e aberta à co-regulação, da inteligência artificial é agora compartilhada não apenas na Europa (que tornou a regulação da tecnologia quase um fator identitário), mas também nos Estados Unidos, mais acostumados a deixar a lei de mercado disciplinar os fenômenos sociais e econômicos. Subjacente a esta posição está a consciência dos riscos implícitos em delegar o desenvolvimento da IA às escolhas autônomas e irresponsáveis dos poderes privados do capitalismo digital. O maior risco é deixar a eles a definição do escopo dos direitos e das liberdades, renunciando a traçar o limite, o “katechon”, além do qual não devemos fazer tudo o que podemos fazer, porque a tecnologia hoje permite isso. Aqui encontramos um importante nó teórico, onde se contrapõem dois códigos linguísticos distintos: o da técnica que fala em nome do “tudo podemos fazer”, enquanto o direito e a ética questionam se “tudo podemos fazer ?” Regular a I.A. significa, portanto, escolher, mais uma vez, orientar o seu desenvolvimento para torná-lo funcional (e não antitético) às liberdades, aos direitos e à solidariedade.

Paola Cantarini: Como se daria o assim denominado “trade-off” entre inovação e regulação? Ou a regulação por si só iria impedir ou comprometer a inovação e a competição internacional? Segundo Daniel SOLOVE, no livro  Nothing to hide. The false tradeoff between privacy and security (Yale University Press, 2011), esta seria uma concepção equivocada. Poderia comentar sobre tal ponto?

Eligio Resta: Conceber inovação e regulação (assim como para retomar o título, privacidade e segurança) como um jogo de soma zero é tão errado quanto pensar poder opor o individual ao coletivo, a liberdade à norma. Certamente, a regulamentação em si certamente não é um obstáculo à inovação; pelo contrário, trata-se de uma regulamentação inadequada, insuficientemente “à prova de futuro”, para usar uma definição que, por sua vez, foi mencionada no AI ACT. 

Paola Cantarini: Tomando como exemplo paradigmático na área de proteção de dados do LIA – avaliação de legítimo interesse, previsto na LGPD e no GDPR da União Europeia como sendo um documento obrigatório de “compliance”, quando da utilização da base legal de tratamento de dados pessoais, qual seja, do legítimo interesse, onde há, por exemplo, uma análise/teste de proporcionalidade, vc. entende que seria possível a criação de um “framework” voltado à proteção de direitos fundamentais embutido em um  documento específico, a AIIA – Avaliação de Impacto Algorítmico? Isso no sentido de se estabelecer, após uma análise via ponderação, medidas de mitigação de riscos a tais direitos, que sejam adequadas, necessárias e proporcionais em sentido estrito.

 
Eligio Resta: O AI ACT adota a abordagem baseada em risco acerca da disciplina de proteção de dados como o centro de gravidade da estrutura regulatória proposta. A taxonomia dos níveis de risco que compõe a regulamentação, incluindo proibições para sistemas de IA incompatível com os valores europeus, representa um desenvolvimento interessante. Nesse sentido, poderíamos pensar em uma avaliação de impacto dos algoritmos que, no entanto, leve em consideração o impacto destes sobre os direitos e liberdades fundamentais.

Paola Cantarini: O que se entende por governança de IA? Qual a relação que você vê entre inovação, tecnologia e Direito?

Eligio Resta: A governança da AI requer, sobretudo, a definição do limite além do qual a tecnologia não deve se estender, se não quisermos delegar a ela a definição do perímetro dos direitos e liberdades. É necessária uma regulamentação capaz de não bloquear, mas de orientar a inovação, colocando-a também em um quadro axiológico, tornando-a sustentável do ponto de vista democrático. Para isso, ela deve sobretudo ser capaz de conjugar algumas regras com princípios mais importantes, permitindo que a norma se adapte a uma realidade em constante mudança, valorizando também fontes de co-regulação (pense nos códigos de conduta), mais eficazes do que apenas a hetero-regulação. Aqui se delineia uma tarefa essencial do direito, que deve tender não a limitar ou permitir simplismente, mas a “salvar todas as possibilidades” compatíveis com o imperativo de apostar na própria diferença, sem se nivelar pela tecnologia ( como em outros campos, sobre religião, moral, etc.).

Paola Cantarini:  Na Bienal de arquitetura de Veneza deste ano (2023) o tema do pavilhão brasileiro é a Terra e a ancestralidade, ou seja, a decolonização  e o Brasil (“De-colonizando o cânone”, pavilhão “Terra”, do Brasil, na Bienal de Veneza). Seria possível fugir de tal lógica colonialista, também presente nas áreas de IA/dados?

Eligio Resta: A governança da tecnologia poderia e deveria ser o terreno eleito para a reversão da lógica neocolonialista, reconhecendo a essas áreas a oportunidade de propor ao mundo esquemas regulatórios e, antes disso, culturais diferentes dos clássicos ocidentais e, portanto, mesmo mais enriquecedores.

Paola Cantarini: Quais os principais desafios atualmente com o avanço da IA, considerando a polêmica com o ChatGPT e a  “moratória” solicitada em carta/manifesto assinada por Elon Musk e outros expoentes? 

Eligio Resta: O verdadeiro desafio apresentado pela inteligência artificial, em sua forma generativa ou não, é colocá-lo ao serviço do homem e não vice-versa, garantindo que represente um instrumento de progresso social, solidariedade e igualdade. Acima de tudo, deve-se evitar o risco de que a IA, devido a vieses cognitivos que podem se esconder na lógica algorítmica, replique, até amplie, aquelas discriminações das quais deveria ter nos libertado. O algoritmo Compas utilizado por alguns tribunais americanos para calcular a probabilidade de reincidência criminal é significativo, inclinado a atribuir aos afro-americanos uma taxa de risco quase o dobro da dos brancos. E isso ocorre, claro, na ausência de qualquer justificativa, mas apenas devido à simples tendência do algoritmo em considerar como preditivas as séries estatísticas utilizadas para treinar a máquina. Um corolário disso é a relativa e progressiva deformação do conceito de “verdade científica”, com todos os problemas que a epistemologia tem evidenciado. Retorna o “efeito de verdade” foucaultiano, segundo o qual, se considerarmos as premissas verdadeiras, todas as consequências serão verdadeiras. O problema, como sabemos, é que considerar as premissas válidas não é gratuito nem simples. Aqui deve ser reconsiderado o conceito grego de “aletheia”, que se mostra auto-evidente e que, por isso, não pode ser re-velado (colocado sobre outro véu). A IA, em suma, não pode se afastar da racionalidade e ser utilizada para fins incontroláveis, como no uso mais lombrosiano e racista da racionalidade “natural” humana, demasiadamente humana e falível, mas deve, ao contrário, no libertar de preconceitos e discriminações, promovendo a igualdade e solidariedade.

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top