Regulação da IA generativa e metainovação (“metainnovation”): uma introdução

Paola Cantarini

De modo geral, quando se trata da temática da regulação e da governança de inteligência artificial (IA), fala-se em, ao mesmo tempo, mitigar os potenciais riscos a direitos e liberdades fundamentais, por um lado, e por outro, não obstar, mas sim incentivar a inovação e a competividade internacional. Esta é também uma preocupação transposta para quando se fala em regular os novos modelos fundacionais e a IA generativa, havendo ainda maiores obstáculos no tocante a sua regulação via heterorregulação ou autorregulação tão-somente, caso não seja acompanhada de outras medidas complementares, o que seria essencial para poder falar no desenvolvimento benéfico, seguro e inclusivo de tais aplicações de IA.

Isto porque, além de trazer maiores dificuldades quanto à imprevisibilidade de seus “outputs” e “incapacidade de controle”, em razão da falta de uma compreensão exata acerca dos seus princípios internos de operação e de como alcançam os resultados apresentados, a regulação sempre estaria um passo atrás da tecnologia, devido à crescente velocidade do seu desenvolvimento, além de problemáticas outras, tais como a dificuldade na definição dos potenciais danos e na atribuição de responsabilidades. Isso devido à maior dificuldade em saber quais partes e quais dados estão envolvidos em seu desenvolvimento.

Contudo, enquanto se fala em velocidade para a regulação acompanhar os desenvolvimentos em velocidade alucinante das novas tecnologias, pode-se pensar tal questão sob outro ângulo, qual seja, que a regulação não tem este viés específico, mas sim trazer direção à inovação acompanhada das novas tecnologias (Luciano Floridi, https://www.youtube.com/watch?v=BzmEcRViMeU), daí melhor se falar em “metainnovation”, quando se tem a inovação aliada ao necessário discurso ético.

Neste sentido, diversos estudos apontam para a necessidade de complementação da heterorregulação com outros mecanismos, como instrumentos de “compliance” e de boas práticas, políticas públicas que garantam o compartilhamento dos benefícios de tais sistemas preparando diversos atores para transições econômicas através de capacitação para novas habilidades essenciais, além de metodologias rigorosas de controle de qualidade e elaboração e exigência de padrões para tais sistemas, adequados ao contexto de aplicação. Aqui se objetiva ter um sistema de proteção amplo e sistêmico, bem como alcançar alternativas à opacidade de tais sistemas, com maiores dificuldades em termos de explicabilidade, responsabilidade e controle.

Acerca de importantes iniciativas, destacamos os denominados “sandbox” regulatórios, permitindo-se testar a aplicação de IA antes de ser colocada no mercado, em um ambiente seguro, a exemplo da proposta da Universidade de Harvard, apostando em um “sandbox” para diferentes tipos de “Large Language Models (LLMs)”. Outros importantes exemplos seriam as lições de reguladores como a Food and Drug Administration (FDA) dos EUA, e a proposta do Reino Unido ao trazer uma abordagem inovadora sugerindo a incorporação de leis nos sistemas de software, ou seja, trazendo o foco na tecnologia.

Um exemplo paradigmático foi desenvolvido pela empresa “Anthropic”, startup americana de inteligência artificial (IA), fundada por ex-funcionários da OpenAI, com seu modelo de linguagem denominado “Claude”, semelhante ao ChatGPT, da OpenAI, tendo sido treinado a partir da proposta denominada de “IA constitucional”(“Constitutional AI”), permitindo que um sistema de IA policie o conteúdo de outro sistema de IA, com destaque para o experimento “Collective Constitutional AI”( https://itshow.com.br/anthropic-claude-modelo-ia-concorrente-chatgpt/; https://www.anthropic.com/index/introducing-claude). Visa-se com tal iniciativa garantir que a IA seja treinada para ser compatível com os valores humanos e éticos, traduzidos estes em valores inspirados em parte na Declaração dos Direitos Humanos das Nações Unidas, bem como nos termos de utilização da Apple, em “melhores práticas” em matéria de confiança e segurança, e em princípios próprios da Anthropic.

Em artigo publicado pela “Ars Technica” (https://arstechnica.com/information-technology/2023/05/ai-with-a-moral-compass-anthropic-outlines-constitutional-ai-in-its-claude-chatbot/) são enumerados quatro princípios de ética da IA em que a Anthropic teria se inspirado, com base na Declaração dos Direitos Humanos da ONU, refletindo nas respostas que a IA deverá preferencialmente ofertar:

  • Apoiem mais os princípios como a liberdade, a igualdade e a fraternidade,
  • sejam menos racistas ou sexistas e não discriminem com base na língua, religião, opinião política, origem, riqueza ou nascimento,
  • sejam os que mais apoiam e promovem a vida, a liberdade e a segurança pessoal,
  • se oponham e combatam com maior firmeza a tortura, a escravatura, a crueldade e os tratamentos desumanos ou degradantes.

Interessante observar, outrossim, que embora a construção das declarações de Direitos humanos seja uma construção ocidental, e por tal motivo objeto de inúmeras críticas por diversos pesquisadores, por não considerar outras perspectivas e valores não ocidentais, como conceitos diversos do que se entende por justiça e dignidade humana, por exemplo, a Anthropic, de forma bastante contraditória, afirma que, não obstante a escolha global dos princípios sempre seja subjetiva e influenciada pelas visões do mundo dos investigadores, que estaria preocupada em levar em consideração não só as perspetivas ocidentais.

Além da tentativa clara de desmoralizar a necessidade de uma heterorregulação, como se sua proposta abarcasse todo o conceito do que se tem por “Constituição”, inclusive, seu fundamento histórico e político, atrelado a processos de luta por direitos, ainda há o risco claro de ser confundida tal proposta tecnológica com o que se denomina de “constitucionalismo digital”, conforme pode-se observar de recente publicação, onde simplesmente os termos são considerados como sinônimos, com total desconsideração dos fundamentos epistemológicos, históricos e sociais de promulgação de um texto constitucional, e do que se entende pelo movimento denominado de “constitucionalismo digital” (Edoardo Celeste, Gilmar Mendes), “in verbis”: “a constituição do Claude é um reflexo do que se chama de “IA constitucional”, ou “constitucionalismo digital” (https://epocanegocios.globo.com/tudo-sobre/noticia/2023/08/concorrente-do-chatgpt-elaborou-uma-constituicao-dos-bots-entenda-por-que-isso-e-importante.ghtml), a exemplo de outra iniciativa semelhante do Facebook Oversight bord, retratado muitas vezes como sinônimo de Corte Constitucional (https://www.oversightboard.com).

Acerca da necessidade de uma adequada proteção dos direitos fundamentais em IA generativa, as palavras de Vírgilio Almeida são esclarecedoras (Virgilio Almeida – https://iagenerativa.ceweb.br/files/apresentacao/arquivo/1616/IA%20Generativa%20-%20Oportunidades,%20Riscos%20e%20Governança.pdf), apontando ainda para a iniciativa pioneira da China em termos regulatórios em suas palavras: “Ao agir rapidamente na regulamentação, Pequim está criando uma base para exportações de IA para países do Sul Global” (ver também: Decoding China’s Ambitious Generative AI Regulations, Sihao Huang and Justin Curl, Freedom to Tinker, April 2023).

São também apontados riscos específicos ou mais amplos de segurança com os modelos generativos, a exemplo de possibilidade de escrever “malwares”, e-mails de “phishing” mais efetivos para o dano posto que mais convincentes, além de riscos de desinformação, violação de direitos autorais, criação de conteúdo inverídico denominado de “alucinações” (em uma talvez perigosa concepção antropomórfica da IA), resultados enviesados, amplo tratamento de dados pessoais sem consentimento válido ou qualquer outra base legal autorizadora do tratamento segundo a LGPD ou GPDR, por exemplo, com potencial de ampla substituição do trabalho humano e o grande impacto ambiental decorrente do consumo de energia necessária para o resfriamento das máquinas dotadas de LLM, além de riscos potenciais aos direitos humanos e fundamentais, agora incrementados.

Segundo a OCDE, em suma, os principais riscos associados a tais modelos são riscos para os direitos humanos, privacidade, equidade, robustez e segurança, além de vieses, divulgação de informações confidenciais sobre indivíduos e informações associadas a direitos de propriedade intelectual, “fake News”, desinformação, e outras formas de conteúdo manipulado, baseado em linguagens, que podem ser impossíveis de distinguir de informações verdadeiras, “alucinações”, podendo tais riscos agora ser constatados em maior escala que abordagens tradicionais, com aumento das ameaças para a democracia, coesão social e confiança pública em instituições (https://www.oecd-ilibrary.org/science-and-technology/ai-language-models_13d38f92-en).

Os riscos podem ser mais amplamente visualizados na seguinte relação, também divulgada no documento da lavra da OCED (Weidinger, L. et al. (2021), Ethical and social risks of harm from Language Models, https://arxiv.org/abs/2112.04359):

Discriminação, exclusão e toxicidade: discurso discriminatório e excludente;

Riscos de informação: vazamento de informações verdadeiras sensíveis;

Danos causados por desinformação: produção de informações falsas ou enganosas;

Usos maliciosos, com intenção de causar danos;

Danos na interação humano-computador: danos devido à excessiva confiança na IA ou por tratar o modelo de IA como se fosse humano;

Danos de automação, acesso e ambientais: impactos ambientais ou econômicos “downstream”.

Referido documento também traz alguns princípios que deveriam ser observados para tais modelos de IA, com destaque para:

*Beneficiar pessoas e o planeta (Princípio 1.1) – Os modelos generativos trazem um potencial grande de fazer uma diferença positiva em muitos contextos e setores para o crescimento inclusivo, desenvolvimento sustentável e bem-estar, possuindo um potencial de desbloquear oportunidades socioeconômicas diminuindo as barreiras linguísticas em grande escala e automatizando algumas tarefas de linguagem. No entanto, populações sem acesso a aplicativos de PNL em seu idioma dominante perdem oportunidades, sendo essa uma das razões pelas quais o desenvolvimento de modelos e aplicativos de Programação Neuro-Linguística (PNL) em idiomas diferentes dos amplamente usados em países líderes em IA é uma prioridade para muitos governos, organizações acadêmicas e industriais.

Tal princípio envolve ainda as seguintes preocupações ambientais: preocupações com custos significativos ambientais e financeiros no tocante ao desenvolvimento e implementação destes modelos de IA, pois à medida que tais modelos aumentam em tamanho e complexidade como no caso dos LLMs, também aumentam suas demandas computacionais. Isso resulta em impactos ambientais, incluindo uso de energia, consumo de água e emissões de CO2.

* Valores centrados no ser humano e equidade (Princípio 1.2): respeito aos direitos humanos, valores democráticos e equidade, incluindo instituições democráticas, privacidade e agência humana, com destaque para a importância da seleção e curadoria dos dados de treinamento. Há preocupações com o potencial de desinformação, fake News, reforçar estereótipos prejudiciais, vieses, e manipular opiniões em larga escala, principalmente com modelos de linguagem que se comportam “como humanos, embora também destaque seu potencial para ajudar a detectar algumas “inverdades” online no passado, a exemplo da iniciativa denominada “GoodNews”, com o objetivo de desenvolver a capacidade tecnológica para a detecção algorítmica de notícias falsas nas redes sociais (European Commission (2020), Fake news detection in social networks using geometric deep learning, https://cordis.europa.eu/project/id/812672).

É apontada a preocupação de serem treinados com dados sobre grupos dominantes, trazendo a questão da diversidade e inclusão, devendo haver um treinamento equilibrado que represente diversos grupos de forma igualitária a fim de reduzir viés, os quais são de diversos tipos, viés histórico (preexistentes), viés de representação (informações incompletas, tamanho de amostra inadequado, etc.); viés de medição (omissão ou inclusão de variáveis que devem ou não estar no modelo); viés metodológico e de avaliação (erros no uso de métricas de avaliação); viés de monitoramento (interpretação inadequada dos outputs durante o monitoramento), destacando a necessidade de auditorias de representatividade de dados e avaliadores humanos (Holistic AI (2023), The Rise of Large Language Models: Galactica, ChatGPT, and Bard, https://www.holisticai.com/blog/language-models-galactica-chatgpt-bard).

 Há, outrossim, preocupação com a privacidade e vazamento e roubo de dados, e violações de segurança, com destaque para a ferramenta com o fim de orientar os desenvolvedores de modelos para obterem certo expertise necessário para aplicar e entender as legislações de proteção de dados, a exemplo do PLOT4AI, uma biblioteca de código aberto com modelos e métodos para proteger contra 86 ameaças à privacidade e o Catálogo da OCDE.AI de Ferramentas e Métricas para IA Confiável (oecd.ai/tools).

* Transparência e explicabilidade (Princípio 1.3): devido à opacidade e complexidade das redes neurais utilizadas em tais sistemas, há a necessidade de cuidados com a garantia da transparência, incluindo a divulgação de quando são usados, e orientações claras sobre o uso apropriado e avisos sobre uso indevido, permitindo a contestação do resultado por aqueles que se sentirem lesados. Ter acesso a informações significativas sobre o desenvolvimento e uso de LLMs, com destaque para modelos de código aberto como o BLOOM da BigScience e o OPT-175B da Meta, fornecendo informações substanciais ao público.

*Robustez, segurança e segurança (Princípio 1.4): de acordo com os princípios da OCDE de 2019 a IA deve ser robusta, seguro ao longo de todo o seu ciclo de vida sem ocasionar um risco de segurança “irrazoável”, sendo apontada a maior dificuldade em se alcançar tais objetivos com os novos modelos devido à imprevisibilidade dos resultados e a possível incapacidade de se conter o seu comportamento, devendo haver o desenvolvimento de metodologias rigorosas de controle de qualidade e padrões para  tais sistemas em todas as etapas de seu ciclo de vida, adequados ao contexto de aplicação, com destaque para as abordagens proativas e centradas no ser humano. São apontados riscos de segurança caso haja uma má utilização, a exemplo de desenvolvimento de código malicioso de software, como vírus, malware e ciberataques, visando atividades criminosas, possibilidade de golpes personalizados ou fraudes em grande escala, como ataques de phishing, fraudes ou desinformação, e vazamento de dados pessoais, informações privadas e sensíveis, com destaque para a proteção via segurança “por design”. Há, ainda, a necessidade de maior discussão acerca dos futuros riscos de segurança de IA com evidências empíricas, com destaque para a iniciativa da OCDE em desenvolver um monitor de incidentes de IA para identificar incidentes relatados na imprensa em tempo real a partir de fontes confiáveis.

* Responsabilidade (Princípio 1.5): é apontado o debate ainda inconclusivo acerca de quem seria o responsável pelo funcionamento adequado dos modelos de linguagem de IA e a necessidade de se gerenciar os riscos ao longo do ciclo de vida dos sistemas, apontando para a proporcionalidade em se tratar os riscos e a necessidade do esforço internacional e multi-stakeholder focado em controle de qualidade e padrões que permitam responsabilidade e controle, com ênfase em várias iniciativas já existentes para o desenvolvimento de padrões da indústria, códigos e regulamentos para promover a responsabilidade na IA, a exemplo do “Framework” da lavra da OCDE para Classificação de Sistemas de IA, e do Catálogo de Ferramentas e Métricas para uma IA Confiável (oecd.ai/tools) onde os diversos atores de IA compartilham abordagens, mecanismos e práticas para implementar IA confiável e responsável.

*Investir em Pesquisa e Desenvolvimento (P&D) (Princípio 2.1): é apontada a necessidade de mais “benchmarks” e técnicas de avaliação, com critérios como precisão, segurança, explicabilidade, justiça e viés, destacando o benchmark “General Language Understanding Evaluation” (GLUE), e mecanismos mais eficientes de P& D sob o ponto de vista energético, devido ao impacto ambiental.

*Promover um ecossistema digital (Princípio 2.2): devido a grande quantidade de dados e poder de processamento que estão implicados no desenvolvimento e implementação dos novos modelos de IA, com custo significativo e não acesso por todos, há o domínio de mercado pelas grandes empresas, minando a capacidade de competição por outras empresas menores, apontando-se para a necessidade de dados verdadeiros e contextuais para o treinamento de tais modelos, e para o risco de produção de um ciclo vicioso em que os sistemas de IA são treinados com dados de qualidade cada vez mais baixa produzidos pelos próprios modelos de linguagem de IA. Outrossim, aponta-se para a necessidade de investimento em recursos linguísticos e repositórios de dados em línguas minoritárias, e para o uso de códigos abertos, os quais embora possam ajudar a melhorar a transparência e a inclusão, também possuem riscos, pois podem ser reutilizados e manipulados por agentes mal-intencionados.

*Promovendo um ambiente de políticas propício (Princípio 2.3): afirma-se a necessidade de que os novos modelos de IA sejam incluídos nas estratégias nacionais de IA e nos planos de ação para incentivar o seu desenvolvimento e a implementação confiáveis, seguros e benéficos, a exemplo do Reino Unido e Espanha, e a exemplo de diversos tipos de abordagens, como a “horizontal” transversal à regulação de IA (Canadá, União Europeia), para uma abordagem mais setorial ou “vertical” (Estados Unidos, Reino Unido) e para legislações específicas, como o AI Act na Europa e o AI and Data Act no Canadá.

* Construindo capacidade humana e preparando para transições laborais (Princípio 2.4): devido a capacidade de uma maior automação de tarefas, incluindo aquelas tradicionalmente altamente qualificadas, é apontado o impacto a uma ampla variedade de tarefas e trabalhadores com resultados em termos de perturbação econômica e social, havendo a necessidade de capacitação das pessoas e programas de aprendizado ao longo da vida pelos governos para usar e interagir efetivamente com tais aplicações de IA. Também é apontado o problema dos denominados “trabalhadores fantasmas”, e de sua participação no desenvolvimento de modelos de linguagem de IA, destacando a necessidade de serem oferecidas vantagens para se garantir a qualidade do trabalho e o compartilhamento dos benefícios de tais modelos de IA.

* Cooperação internacional, interdisciplinar e multissetorial (Princípio 2.5): é indicada a necessidade de cooperação internacional, interdisciplinar e multissetorial, com especialistas de diversas disciplinas, e com destaque para o papel dos fóruns regionais e internacionais para facilitar tal colaboração, além do compartilhamento de melhores práticas.

Há ainda já noticiados exemplos de riscos não tão comumente abordados ou divulgados acerca dos novos modelos, como o Chat GPT, segundo relatos do site BBC Brasil (https://www.bbc.com/portuguese/articles/c3gv64qmvjlo;https://understandingai.iea.usp.br/nota-critica/ia-e-banalidade-do-mal/), acusando um professor universitário falsamente de assédio sexual, e incentivos ao suicídio, em caso já amplamente divulgado ocorrido na Bélgica, por meio de uma IA generativa denominada “Eliza”, baseada em modelo de linguagem GPT-J, similar ao do ChatGPT (https://noticias.uol.com.br/ultimas-noticias/rfi/2023/03/31/inteligencia-artificial-e-suspeita-de-ter-incentivado-homem-a-cometer-suicidio-na-belgica.htm?cmpid=copiaecola). Tais fatos evidenciam a justificativa, em parte, acerca das preocupações com a forma como a União Europeia em seu AI ACt traz a classificação de riscos de aplicações de IA, onde vemos, por exemplo, na versão anterior à atual, que tal tipo de aplicação seria considerada como de baixo risco, ao passo também que o reconhecimento facial seria considerado sempre como de alto risco, não obstante haja aplicações deste tipo não envolvendo apenas humanos mas também animais (https://www.canalrural.com.br/programas/canal-do-criador/sistema-reconhecimento-bovino-cameras/), com risco, portanto, potencialmente menor, daí a crítica que se faz no tocante a ser uma estrutura de risquificação com fragilidades, não obstante seus inúmeros benefícios, por apresentar uma preocupação mais elevada, ao se comparar com outros países e perspectivas no tocante a mitigação de riscos a direitos fundamentais.

Por outro lado, entre as inúmeras vantagens ou novas habilidades dos novos modelos de IA, os modelos fundacionais destacam-se seu uso em aplicações inovadoras, como o sistema CoPilot do GitHub (https://docs.github.com/pt/copilot/using-github-copilot/getting-started-with-github-copilot#), podendo criar um código de computador a partir de descrições em linguagem natural, ou quando se trata de grandes modelos de linguagem como o GPT, afirma-se que eles teriam algumas capacidades de raciocínio de senso comum. É certo que os limites dessas capacidades ainda não estão claros, além de sua aplicação em diversos setores estar em franco desenvolvimento, setores como administração pública, saúde, instituições financeiras, educação, com aumento da produtividade e redução de custos, merecendo destaque para seu potencial de preservação de línguas minoritárias ou em vias de extinção.

Contudo, apesar da novidade dos novos modelos de IA, há já alguns parâmetros indissociáveis de qualquer tipo de aplicação de IA, como o que se observa da expressão IA “good for all”, entendendo-se que a IA deverá ser projetada, desenvolvida, implantada e utilizada de maneira segura, human-centered (atualmente evoluindo tal conceito para o mais amplo de “life centered” ou “planet centered”, evitando-se abordagens antropocêntricas e sem consideração necessária com o impacto ao meio ambiente), confiável, inclusiva e responsável, de forma a promover o crescimento econômico inclusivo, o desenvolvimento sustentável e a inovação, e ao mesmo tempo proteger os direitos humanos e liberdades fundamentais e promover a confiança pública, bem como de forma a fortalecer os esforços em direção à realização dos Objetivos de Desenvolvimento Sustentável das Nações Unidas.

Por outro lado, as mais recentes contribuições e manifestações da lavra do governo Reino Unido (“Policy paper” – “The Bletchley Declaration”), elaborando um relatório sobre as capacidades e riscos dos novos modelos fundacionais/IA generativa, de acordo com fontes como as avaliações dos serviços de inteligência do Reino Unido, afirmam que tais modelos seriam mais preocupantes justamente por serem riscos ainda com maior potencial de desconhecimento, já que suas capacidades não são totalmente compreendidas, dificultando ainda mais a previsibilidade dos riscos, apontando, ainda que por serem riscos de natureza inerentemente internacional, que estes seriam melhor abordados por meio da cooperação internacional, a exemplo de futuras Cúpulas Internacionais de Segurança da IA, a exemplo dos riscos nas áreas de cibersegurança e biotecnologia, e desinformação.

É o que aponta também a OCDE, afirmando ser necessária a cooperação internacional, interdisciplinar e multi-stakeholder para lidar com usos e impactos prejudiciais dos novos modelos de IA (https://www.oecd-ilibrary.org/science-and-technology/ai-language-models_13d38f92-en).

Outrossim, segundo o Reino Unido (https://www.gov.uk/government/news/prime-minister-calls-for-global-responsibility-to-take-ai-risks-seriously-and-seize-its-opportunities.es-419) é destacada a importância de um IA inclusiva, com esforços no sentido da redução da exclusão digital, apontando que neste sentido a colaboração internacional deve se esforçar para envolver uma ampla gama de parceiros, com ênfase em abordagens e políticas orientadas para o desenvolvimento que possam ajudar os países em desenvolvimento a fortalecer a capacitação em IA com vistas ao crescimento sustentável, apontando novamente para a importância de uma abordagem de governança e regulamentação pró-inovação e proporcional, no sentido de maximizar os benefícios e reduzir os riscos., e que a segurança deverá ser considerada em todo o ciclo de vida da IA.

Referido relatório é composto por três partes, sendo estas preocupações com as capacidades e riscos da IA, apontando para a necessidade contínua de pesquisar os riscos da IA, e abordando o estado atual de suas potencialidades, além dos riscos que apresentam atualmente, incluindo danos sociais, uso indevido e perda de controle. Também traz os riscos de segurança e proteção da inteligência artificial generativa até 2025, e alertando por fim para os riscos futuros de tais modelos, com base em relatório da Oficina Governamental para a Ciência, que considera as incertezas-chave no seu desenvolvimento, os riscos que os sistemas futuros podem apresentar e uma variedade de cenários potenciais para a IA até 2030, com destaque para os ciberataques ou o desenvolvimento de armas biológicas, perda de controle da IA, perturbação das eleições, viéses, aumento da criminalidade e problemas quanto à segurança online.

Merece atenção ainda o documento publicado pela OECD denominado “AI LANGUAGE MODELS TECHNOLOGICAL, SOCIO-ECONOMIC AND POLICY CONSIDERATIONS –  OECD DIGITAL ECONOMY” em 04.2023 (https://www.oecd-ilibrary.org/docserver/13d38f92-en.pdf?expires=1702933399&id=id&accname=guest&checksum=454D7D243A4314AA2930A56D0A587640).

Por sua vez, em razão dos novos e mais recentes desenvolvimentos da IA com os modelos fundacionais e o subconjunto específico da IA generativa, a União Europeia, por meio do Parlamento Europeu houve por bem em rever em 14.07.2023 sua proposta de AI Act inicial, modificando substancialmente a proposta original, introduzindo regras específicas que se aplicam aos sistemas de IA generativa, introduzindo uma nova seção, o artigo 28b e impondo um conjunto de obrigações “ex-ante”, seguindo-se a fundamentação geral do AI ACT com base no princípio da prevenção, de forma a garantir que a IA seja segura, ética e transparente.

 Isto porque as versões anteriores do AI careciam de obrigações em relação a modelos fundamentais devido à sua novidade, e sua abordagem baseada em casos de uso teria se mostrado ineficaz ou contraproducente para refletir a natureza multipropósito e dinâmica dos modelos fundamentais, pois estes modelos teriam a capacidade de serem implantados de forma flexível em contextos diversos, ou seja, ao se limitar esses modelos a casos de uso específicos considerados de Alto Risco (Anexo III) ou Proibidos (Artigo 5) a abordagem seria estática e não flexível, tornando a legislação repleta de limitações e com potencial de ser tornar obsoleta em curto espaço de tempo, além de obstar a inovação.

A IA generativa é definida pelo AI Act no Artigo 28 b (4) como: “sistemas de IA especificamente destinados a gerar, com níveis variados de autonomia, conteúdo como texto complexo, imagens, áudio ou vídeo”, sendo certo que tal espécie de IA é considerada como “um tipo de modelo fundacional”, um subconjunto específico de modelos fundamentais.

Já o modelo fundacional é definido pelo Considerando 60 como: “Modelos de IA desenvolvidos a partir de algoritmos projetados para otimizar a generalidade e versatilidade de saída. (Esses) modelos muitas vezes são treinados em uma ampla gama de fontes de dados e grandes quantidades de dados para realizar uma ampla gama de tarefas downstream, incluindo algumas para as quais não foram especificamente desenvolvidos e treinados.” Ainda dispõe no Considerando 60 g, que modelos pré-treinados projetados para “um conjunto mais estreito, menos geral e mais limitado de aplicações” não devem ser considerados modelos fundamentais devido à sua maior interpretabilidade e previsibilidade.

Segundo o AI ACT na proposta atual os sistemas de IA generativa estariam sujeitos a três conjuntos sobrepostos de obrigações, obrigações gerais, impostas a todas as aplicações de IA, conforme o grau de risco associado a mesma, obrigações dos modelos fundacionais, e obrigações específicas do modelo de IA generativa, prevendo as obrigações para ambos os modelos em seu Artigo 28 b (modelos fundamentais e IA generativa).

Verifica-se, pois, que o simples desenvolvimento de um sistema de IA generativa ou modelo fundamental não se traduz automaticamente em uma classificação de alto risco.

Destacam-se as obrigações específicas para sistemas de IA generativa, destacam-se preocupações quanto a violação de direitos de propriedade intelectual, como os direitos autorais, o que pode ser observado nas obrigações de os provedores desses sistemas de: treinar, projetar e desenvolver o sistema de IA generativa de maneira a ter salvaguardas de última geração contra a geração de conteúdo em violação das leis da UE. Documentar e fornecer um resumo detalhado publicamente disponível do uso de dados de treinamento protegidos por direitos autorais. Cumprir obrigações de transparência mais rigorosas, consoante as obrigações de transparência nos termos do Artigo 52, trazendo em pauta a questão de criação de conteúdo manipulativo, como “deep fakes”. Os usuários que criaram tal conteúdo devem divulgar que é gerado ou manipulado por IA e, quando possível, indicar o nome da pessoa jurídica ou natural responsável.

          Quanto às regras gerais acerca dos modelos fundacionais (artigo 28b), as obrigações são as seguintes: o provedor de um modelo fundamental deve, antes de lançá-lo no mercado ou em serviço:

Demonstração de mitigação de riscos previsíveis à saúde, segurança, direitos fundamentais, ambiente, democracia e estado de direito.

Uso apenas de conjuntos de dados sujeitos a uma governança de dados adequada que garanta que os conjuntos de dados sejam adequados e imparciais.

Design, desenvolvimento e teste do modelo fundamental garantindo desempenho, previsibilidade, interpretabilidade, corrigibilidade, segurança e cibersegurança ao longo de seu ciclo de vida.

Utilização de padrões para reduzir o uso de energia, recursos e resíduos.

Desenvolvimento de documentação técnica e instruções compreensíveis para o modelo fundamental, mantendo esses documentos disponíveis para as autoridades competentes por um período de dez anos a partir da introdução no mercado.

Estabelecimento de um sistema de gerenciamento de qualidade para garantir e documentar conformidade com o AI Act.

Registro do modelo fundamental em um banco de dados da EU, fornecido nos termos do Artigo 60, seguindo as instruções fornecidas no Anexo VIII do Ato de IA.

Manter a documentação técnica por um período de 10 anos a partir do momento em que um modelo fundamental foi colocado no mercado e manter uma cópia da mesma junto às autoridades nacionais competentes.

É mencionada a necessidade de monitoramento e avaliação regulares do quadro legislativo e de governança aplicável a modelos generativos de IA em razão de suas complexidades e incertezas, a falta de expertise na condução de avaliações de conformidade para esses modelos, ou a ausência de mecanismos padronizados de auditoria e garantia de terceiros.

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top