Entrevista com André Lemos

Por Paola Cantarini

  1. Poderia começar nos falando sua área principal de atuação, comentando seu trabalho atual relacionado à IA?

Eu sou professor titular da Faculdade de Comunicação da UFBA. Minha área principal de atuação é “comunicação e tecnologia”. Particularmente, eu me interesso pelas tecnologias digitais e sua relação com a sociedade e a cultura (Lemos, 2002). Atualmente tenho trabalhado numa perspectiva teórico-metodológica ligada ao neomaterialismo, à sociologia pragmática, à teoria ator-rede, ao realismo especulativo. Elas têm em comum elementos que nos ajudam a entender os problemas da cultura digital sem ficarmos presos a uma dimensão antropocêntrica (Lemos, 2013, 2018, 2020b, 2020a, 2021). Na minha opinião, entender as materialidades dos processos é uma forma de melhor cernir como humanos e não humanos estão envolvidos nas questões centrais da atual sociedade de plataformas e cultura algorítmica. A inteligência artificial torna-se uma questão central hoje, principalmente a partir do surgimento do chatGPT. Busco desenvolver análises e metodologias para o entendimento das diversas facetas contemporâneas da relação comunicação e tecnologia.

  • Na Bienal de arquitetura de Veneza deste ano (2023) o tema do pavilhão brasileiro é a Terra e a ancestralidade, ou seja, a decolonização  e o Brasil (“De-colonizando o cânone”, pavilhão “Terra”, do Brasil, na Bienal de Veneza). Seria possível fugir de tal lógica colonialista, também presente nas áreas de IA/dados e como superar a questão do “colonialismo mental”, já que muitas das críticas ao colonialismo partem do Norte e não do Sul?

Eu acho que o tema escolhido para Bienal de Arquitetura de Veneza (Terra e Ancestralidade) é muito oportuno e tem ligação direta com a cultura digital contemporânea. Embora nem sempre destacado como merece, a emergente sociedade de plataformas e a inteligência artificial estão diretamente vinculadas à crise do antropoceno (Terra) e ao novo colonialismo (de dados) (Ancestralidade).

Analisando uma das formas da materialidade da cultura digital, a infraestrutura, o funcionamento da sociedade de plataformas e do atual capitalismo de dados operam pelo amplo consumo de matéria prima, água e de energia do planeta, necessários para a produção de dispositivos eletrônicos e o funcionamento de para viabilizar o fluxo de dados nas diversas plataformas. A nuvem não é desmaterializada, mas ancorada nas entranhas da Terra, gerando pegada de carbono. Entender as materialidades da cultura digital nos leva a uma compreensão mais profunda sobre como a cultura digital colabora para aumentar os problemas do antropoceno (Conty, 2018; Gabrys, 2011). O “solucionismo tecnológico” não me parece ser uma saída para o planeta.

Por outro lado, a atual sociedade de plataformas e da inteligência artificial mobilizam uma economia (capitalismo de dados ou de vigilância) baseada na extração de dados como alimento central do sistema (Srnicek & De Sutter, 2016; Zuboff, 2019). A dataficação da vida (Lemos, 2021) é o motor da sociedade contemporânea. Os dados são extraídos, consumidos e processados gerando a riqueza das grandes empresas de tecnologia. Elas estão no Norte Global. O Brasil, por exemplo, é um grande consumidor desses serviços, mas não desenvolve inteligência artificial, nem plataformas digitais importantes. Somos, então, fornecedores de dados. O novo colonialismo caracteriza-se por esse fluxo de dados do Sul em direção ao Norte, ameaçando, consequentemente, a soberania dos países (Couldry & Mejias, 2019). Recentemente os Estados Unidos passaram uma regulação que impede que dados de cidadãos americanos saiam do país. Embora alguns questionem o conceito de colonialismo de dados (por exageros em relação ao colonialismo histórico), acho que essa é uma discussão muito importante que deve ser politicamente amadurecida localmente.

Mas não é só a migração dos dados que importa. Não existe dado bruto. Todo dado é produzido, formatado e não “extraído”, como foram as matérias primas das colônias no século 16. Eles são produzidos! O que torna a questão ainda mais complicada. Para ser produzido, o dado deve ser formatado e a formatação é uma decisão tecnopolítica importante que, para funcionar, deve ser replicada universalmente. Portanto, o colonialismo não é apenas extração, mas produção de dados pessoais sob um determinado formato. Ações e pessoas são homogeneizadas em um poder formatador que gera o dado. Essa forma específica de produção de dado é o que o Colin Koopman (Koopman, 2019) chama de formatação ou infopower. Portanto, o colonialismo hoje está ligado à extração de dados que, por sua vez, é fruto de processos de formatação do indivíduo (de suas ações, intenções, erros…), criando um infopoder acoplado às grandes empresas.

Portanto, terra e colonialismo são temas centrais e urgentes a serem enfrentados na sociedade global de plataformas e de sistemas de inteligência artificial.

  • Quais os principais desafios atualmente com o avanço da IA, em especial com a IA generativa, considerando a polêmica com o ChatGPT e a  “moratória” solicitada em carta/manifesto assinada por Elon Musk e outros expoentes? 

A Inteligência artificial coloca alguns desafios e traz preocupação em diversos campos da sociedade (emprego, ambiente, educação, inovação, informação..). Essas preocupações foram inclusive a fonte da carta produzida por Elon Musk, Harari e outros. Na minha opinião, a carta era alarmista e prepotente, propunha algo inócuo (moratória de seis meses), desviando dos problemas atuais da lógica algorítmica da sociedade de plataformas (polarização, desinformação, negacionismo…). Parece que está tudo bem e o perigo vem agora com a GAI. Tornou-se obsoleta rapidamente.

Isso dito, há desafios importantes. Os principais problemas se colocam em relação ao trabalho, à educação, à informação, à arte e ao ambiente. Muitos empregos serão substituídos a médio e longo prazos. Dados mostram que há o potencial de que 25% da força de trabalho mundial seja deslocada pela IA. A economia vai gerar novos processos de inovação e desemprego. Em países como o Brasil, com uma massa de trabalhadores pouco qualificada, o estrago pode ser bem grande. Em relação ao aprendizado e ao conhecimento científico, descobertas importantes serão feitas, ferramentas para ajuda no processo pedagógico estarão cada vez mais disponíveis. Com medo, universidades e escolas, ao invés de aproveitarem a oportunidade para repensar processos e práticas pedagógicas, resolvem banir o uso da IA. A IA pode ainda ampliar em muito os efeitos nefastos da desinformação, com mecanismos de difícil discernimento entre o real e o fictício, como por exemplo o uso de deepfake. Jornais pedem regulação do uso de suas matérias para alimentar modelos de IA por violação de direito privado. Na arte, há muita discussão sobre a violação da propriedade e do direito de autor, visto que esses algoritmos utilizam dados que estão disponíveis na internet, como por exemplo a recente discussão sobre o uso de uma imagem gerada por IA para ilustrar a capa de um livro no prêmio Jabuti. Em relação ao meio ambiente, o consumo de água e de energia para produzir os modelos da IA são gigantescos, colocando em xeque a expansão dessa tecnologia.

É preciso, portanto, instrumentos de regulação e política de inovação. Conciliar essas duas coisas não é fácil. No entanto, esses problemas são de todos os sistemas sociotécnicos e sempre são mais valorizados quando estão no seu nascedouro. A IA surge nos anos 1950, mas é agora que ela alcança uma amplitude social mundial. O interessante é sempre questionar ético-politicamente os dispositivos, seja um carro, seja uma IA generativa. Devemos discutir e decidir, autonomamente, sobre que processos queremos que sejam transformados pela IA. Estes devem servir ao comum, não a Big Techs. Todos os sistemas têm vieses. A questão não é criar um que não tenha, mas perguntar, politicamente, que vieses devem ter. A potência instrumental dessas inteligências generativas deve ser aproveitada, mas a questão deve ser sempre questionar o porquê, e com elas formatam a ação, o discurso, as organizações.

  • Fala-se da relação íntima entre “e-cultura e e-democracia”, bem como que a IA por ser uma das mais disruptivas das tecnologias estaria a re-ontologizar nosso mundo, criando até mesmo novas subjetividades (Floridi). Na denominada “economia do clique” e do “mercado de atenção” são apontados por diversos autores os riscos à democracia pela disseminação de “fake news”, além de outros impactos causados pela IA na cultura e na criatividade humana, com a criação de uma “esfera cibernética”, envolvendo a criação de novas subjetividades diagonais e transversais na cybercultura. Segundo a pesquisa elaborada por ABRAJI/ITSRIO há, contudo, diversas ferramentas e medidas no combate às Fake News, como ser cético com as manchetes, investigar a fonte, conferir datas e verificar as evidências. Qual o papel, no seu entender, no tocante à cidadania e educação digital para fazer frente a tais desafios e problemáticas? Quais outras medidas você apontaria como essenciais no combate à faze News e à desinformação?

Importante, em primeiro lugar, esclarecer que a nossa inteligência é sempre artificial. Com isso eu estou dizendo que somos resultado de uma relação híbrida da physis com a techné, de nossa aptidão neurofisiológica com os artefatos que produzimos. E isso das pinturas rupestres, passando pela escrita, a internet até a IA. A maneira como agimos e pensamos – desenvolvemos capacidades antecipadoras e adaptativas na manipulação de signos (inteligência) – vem de um ecossistema de dispositivos nos constitui. Portanto,  conhecimento, cultura, subjetividade estão sempre sendo construídos de modo intrinsecamente relacionado às tecnologias. Somos, como diz Latour, “antropomorfizados”, de fora para dentro. A nova questão, na minha opinião, não é se novas subjetividades surgem com a IA, mas como participamos dessa construção sem virarmos apenas reféns dos planos do mercado das Big Techs. Portanto, é importante evitar uma visão purificadora e simplória da relação humano – tecnologia. Tudo é construído, somos construídos. O problema não é a construção em si, pois não há alternativa, mas as formas que ela toma. Precisamos dar o sentido a essa construção. Isso é agir politicamente em relação aos objetos técnicos. Por exemplo, que partes do mundo devemos deixar livre desses sistemas?

Em segundo lugar, as fakes news são ações políticas visando produzir desinformação utilizando-se das gramáticas das diversas plataformas (YouTube, TikTok, WhatsApp, Facebook, X…). Não é um problema jornalístico, embora o simule, mas tecnopolítico. O problema das fake news não vai ser resolvido com agências de checagem, regulação, educação midiática ou mecanismos tecnológicos. Todas essas ações são necessárias, mas não conseguirão barrar a lógica social das FN a curto prazo. Esta tem a sua eficácia por uma aderência empáticas de pessoas à ideologia da sua “tribo”. Não se trata de cidadãos racionais que recebem uma informação e podem checar a verdade em uma agência de notícias. Ou de um sistema técnico filtrando, ou mesmo de uma lei que criminalize essas práticas.

Certamente o problema deve ser enfrentado com instrumentos técnicos (as plataformas devem agir no sentido de coibir a veiculação de eventos ilegais ou sabidamente falso; as agências de checagem devem fazer o trabalho de desconstrução da mentira…), pela educação (as pessoas devem ser informadas e serem sensibilizada), e legalmente (com instrumentos regulatórios que ajudem a coibir a prática). Estamos vendo uma forma de regulação da IA e desinformação por parte do TSE no Brasil, que acabou de passar uma regulação sobre IA e responsabilização das plataformas com a desinformação em período eleitoral.

Tudo isso deve ser feito, mas temos que entender os princípios: primeiro, a nossa subjetividade se constitui na relação com os dispositivos; segundo, fake news é ação política, usando gramáticas das plataformas, sendo alimentada por uma cultura do sentimento, não numa cultura da razão. Não acho que tenha solução fácil.

  • Segundo alguns autores a maneira mais fácil e eficaz de combater a desinformação com o uso da inteligência artificial é desmantelar redes de robôs responsáveis pela disseminação de notícias falsas e conteúdo malicioso – um processo sujeito a uma maior automação (Filho, Marrafon, Medón, 2022). Segundo outros, por se tratar de um fenômeno multifacetado, envolveria uma abordagem mais holística e uma múltipla dimensão de abordagens, técnica, jurídica, cultural e econômica, e, sobretudo, destacando-se o papel da educação digital e de qualidade. Poderia comentar sobre tal questão e problemática?

Acho que essa questão já foi respondida anteriormente, mas podemos usar diversas ferramentas técnicas, jurídicas, educacionais para discutir o fenômeno. O problema não se resolve barrando bots (dimensão técnica), educando midiaticamente as pessoas, criando agências de checagem, ou regulando a IA. Tudo deve ser feito para minimizar o impacto da desinformação, mas sem paternalismo e sem censura. O cerne do problema, na minha opinião vem da aderência emocional das pessoas a ídolos ou ideologias e isso faz parte de toda e qualquer sociedade, ao longo dos tempos. Diferente de erros e falhas em sistemas técnicos (Lemos, 2023), esses fenômenos expressam o lado disruptivo da atual sociedade de plataformas e da IA. Eles trazem problemas ético-políticos importantes, mesmo quando funcionam de acordo com suas gramáticas. Daí a necessidade de uma ação política mais profunda, o que leva tempo.

  • No mais novo livro de Lucia Santaella, “Há como deter a invasão do ChatGPT?” é destacada a problemática de um maior potencial de “fake News” e que “em termos pragmaticistas seus discursos parecem humanos, demasiadamente humanos e passam a agir como se fossem humanos (p. 497), além de uma produção discursiva “tudo ready-made” e que à maneira de um “fast food” mental degenera o pragmatismo e sua exigência de mediação lenta e dificultosa de uma ponderação flexiva”(p. 497), apontando-se ainda para a falta de senso comum (p. 536), trazendo seríssimas questões de ética e da premente necessidade “ponderada” de regulamentação (p. 562). Fala-se muito na área da IA de um “trade-off” entre inovação e regulação, e na busca de tal equilíbrio, da proporcionalidade, portanto, para não se obstar a inovação e a competitividade internacional. De outro lado, ao pensamos em países do Sul Global como o Brasil com maiores fragilidades institucionais, democráticas e de proteção adequada aos direitos fundamentais de parcelas vulneráveis da população, como poderíamos pensar em tal “proporcionalidade” da parte regulatória? Um exemplo paradigmático é o genocídio dos “rohingya”, uma minoria étnica, islamista, que vive na região da Rakhine, em Mianmar e se encaixam no conceito de “apátridas”, porque, nos termos da legislação vigente, não conseguem provar que são nativos de Mianmar. O discurso de ódio produzido utilizando-se a rede social do Facebook demonstrou a maior fragilidade neste caso do que em outros locais; outro exemplo foi o discurso de ódio no Brasil após a derrota de Bolsonaro com invasão do STF e do Congresso Nacional, ocasionando danos a bens e pessoas. Não haveria então que se pensar em uma legislação mais protetiva em países do Sul Global diante de tais exemplos paradigmáticos?

Como respondi mais acima, um dos desafios da IA está situado na área da informação, particularmente da desinformação, como deepfake. Mas há outras, como o viés causado por falhas nos sistemas e vícios de criação de bancos de dados; a autonomia de sistemas tomando decisões independentes que podem não ser as melhores, embora possam ser as mais “lógicas”; a ampliação de sistemas de monitoramento, vigilância e controle de movimento e ação de pessoas… A regulação da IA é importantíssima, bem como das plataformas digitais, mas isso deve ser feito com muita discussão. Há sim uma tensão entre inovação e regulação. No que se refere à desinformação, por exemplo, pela nova regulação da IA nas eleições pelo TSE, a publicidade pode usar a inteligência artificial, mas deve avisar. Acho uma boa medida, mas há uma confusão que causará problema. A publicidade sempre manipulou imagens sem precisar dizer que meio técnico utilizou. Isso não significa autorização para manipular uma foto no photoshop ou IA criando situações constrangedoras para pessoas ou grupos. Nesse caso, por que regular? O mesmo pode ser dito no caso de deepfake. Deve ser proibido manipular imagens de pessoas sem autorização. Mas é possível ver um fair use de deepfake, mesmo em uma campanha eleitoral. O caso do designer desclassificado na reta final do prêmio Jabuti diz muito sobre os desafios da regulamentação. Se fosse o design com photoshop, não precisaria explicitar e estaria tudo ok. Mas com a IA, ele tem que dizer que usou e, mais ainda, usando, não pode concorrer. Por quê? Acusação de plágio e de ausência de trabalho autoral. Ora, não houve reclamação de detentores de direito da imagem e o trabalho é certamente autoral. Em suma, acho a decisão do TSE acertada, pois não podia cruzar os braços, mas creio que precisará de adaptações mais adiante.

Sobre discurso de ódio, há também uma questão tênue entre liberdade de expressão e ataque a diferenças. Acho que as plataformas não devem sozinhas decidir o que pode ou não ser dito.  Corre-se o risco de censura prévia feita por empresas privadas. Mas elas podem fazer muito mais do que estão fazendo para coibir ações claramente ilegais. Deve-se estar em acordo com o que reza a Constituição Federal que limita a liberdade em relação à dignidade do outro. Certamente, precisamos ter uma regulação protetiva em relação ao uso das plataformas e da IA, no mundo, e não sul global. E isso está em andamento.

Referências

Conty, A. F. (2018). The Politics of Nature: New Materialist Responses to the Anthropocene. Theory, Culture & Society, 35(7–8), 73–96. https://doi.org/10.1177/0263276418802891

Couldry, N., & Mejias, U. A. (2019). Data Colonialism: Rethinking Big Data’s Relation to the Contemporary Subject. Television & New Media, 20(4), 336–349. https://doi.org/10.1177/1527476418796632

Gabrys, J. (2011). Digital Rubbish: A natural history of electronics. University of Michigan Press. https://doi.org/10.3998/dcbooks.9380304.0001.001

Koopman, C. (2019). How We Became Our Data: A Genealogy of the Informational Person. University of Chicago Press. https://doi.org/10.7208/chicago/9780226626611.001.0001

Lemos, A. (2002). Cibercultura: Tecnologia e vida social na cultura contemporânea. Sulina.

Lemos, A. (2013). A comunicação das coisas. Teoria ator-rede e cibercultura. Annablume.

Lemos, A. (2018). Cyberculture and Globalization. Em A. Lemos, Oxford Research Encyclopedia of Communication. Oxford University Press. https://doi.org/10.1093/acrefore/9780190228613.013.646

Lemos, A. (2020a). Comunicação, Mediação e Modo de Existência na Cibercultura. Em G. Alzamora, J. Ziller, & F. Coutinho (Orgs.), Dossiê Bruno Latour. UFMG.

Lemos, A. (2020b). Epistemologia da comunicação, neomaterialismo e cultura digital. Galáxia (São Paulo), 43, 54–66. https://doi.org/10.1590/1982-25532020143970

Lemos, A. (2021). Dataficação da vida. Civitas – Revista de Ciências Sociais, 21(2), 193–202. https://doi.org/10.15448/1984-7289.2021.2.39638

Lemos, A. (2023). Errores en la cultura digital. Em M. Carlon (Org.), Lo contemporáneo: Indagaciones sobre el cambio de época en/desde América Latina. (p. 65–90). UBA.

Srnicek, N., & De Sutter, L. (2016). Platform capitalism. Polity Press.

Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power (First edition). PublicAffairs.

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top