
O jornalista Vitor Netto colabora com o colunista Rodrigo Lopes, titular deste espaço.
O professor do da Universidade de Virgínia (EUA) e da Pontifícia Universidade Católica do Rio Grande do Sul (PUCRS), David Nemer, esteve na última semana em Porto Alegre para uma série de palestras para falar sobre as ameaças à democracia diante da tecnologia e a ascensão do tecnofeudalismo.
A coluna conversou com ele sobre o assunto:
Um artigo seu publicado recentemente fala sobre a relação das ameaças à democracia e as tecnologias digitais. E traz o termo tecnofeudalismo. O que é esse termo?
É um termo que foi cunhado por Cédric Duran, que ele tenta entender como é que está esse jogo comercial com as big techs. Acho que está todo mundo querendo entender qual é de fato o papel das grandes plataformas online nesse capitalismo que vivemos hoje. Temos uma mudança de paradigma em que as empresas mais poderosas não são mais da indústria do alimento ou da comunicação puramente, mas é de um conglomerado que ocupa diversas facetas das nossas vidas. Isso tem um impacto fundamental, principalmente nos afazeres do nosso dia a dia. Então, o tecnofeudalismo tenta entender como que essas empresas de big tech se tornam mais poderosas no mundo, não só pelo acúmulo de capital, mas pelo espaço que elas ocupam na comunicação, de trabalho e sociais. Se você parar para pensar, elas estão mediando praticamente todas essas relações nas nossas vidas. E, ao entender que isso é um novo movimento, tanto comercial quanto da indústria e até mesmo econômico, vemos que já não existe mais aquele entendimento de capitalismo liberal, onde as empresas estavam ali competindo entre si, sem qualquer tipo de dominação ou do Estado ou de diversas áreas que caracterizariam o monopólio. Hoje vemos essas empresas de big tech se comportando como senhores feudais, da época do feudalismo, em que exploram os usuários, e que eles nem geram mais uma oportunidade de trabalho como teria no capitalismo liberal. Na verdade, eles exploram o usuário através da precarização do trabalho, seja no trabalho de Uber, iFood, essas questões, e também na geração de dados, em que nós, apesar de termos a percepção de ser usuário, estamos, na verdade, trabalhando para essas plataformas ao produzir dados que é importante, por exemplo, para treinar as plataformas de inteligência artificial deles. E eles estão definindo as regras desse jogo, dessa nova relação comercial. E por se tratar de empresas que dominam esse espaço, ditam as regras, intermediam todas as nossas relações, eles não aceitam qualquer tipo de outra entidade a definir como eles devem se comportar. Ou seja, eles não aceitam o Estado regulando essas plataformas para tentar conter um pouco esse tipo de monopólio, por exemplo. E ao refutar a presença do Estado, aí sim eles criam mecanismos que permitem atacar e destruir os pilares democráticos que sustentam esse Estado que poderia e deveria regulamentar essas big techs.
E onde entram as ameaças à democracia?
Vemos elas através de plataformas priorizando o conteúdo de desinformação que questionam a legitimidade do Estado, questionam a legitimidade da Constituição, começam a trazer interpretações totalmente diferentes de leis que estavam muito bem entendidas no passado, como, por exemplo, a liberdade de expressão. No Brasil sempre entendemos muito bem a nossa liberdade de expressão. Tínhamos, por exemplo, acordado e concordado que ato racista, fala racista, ela não deveria fazer parte da liberdade de expressão. Ela é um crime. A sociedade entendeu e aceitou isso. E agora começamos a ver um desafio desses entendimentos justamente porque as plataformas precisam de não ter qualquer tipo de regulação. Por que o conteúdo extremista, como é um conteúdo racista, ele gera engajamento. Gerar engajamento, isso transforma em geração de dados, que é o que as plataformas precisam para lucrar. Elas precisam otimizar ali dentro do que a gente chama da economia da atenção. O que isso significa? Quanto mais tempo o usuário fica na plataforma, mais justificativa ela vai ter para falar para o anunciante: "olha, o meu usuário passa muito mais hora na minha plataforma, então se você anunciar aqui, esse meu usuário vai ver a sua marca diversas vezes". Só que qual é a forma de prender o usuário nas plataformas? É priorizando o tipo de conteúdo que mais engaja. Qual é o que gera como emoção negativa? Que é a ansiedade, medo e frustração. E é claro, sabemos que conteúdo racista é o que mais vai gerar engajamento porque gera essa frustração. Ou criando um pânico moral. Sabemos que a desinformação vem sempre junto com esse pânico moral para gerar o engajamento. E é claro, minar as instituições democráticas.
Quais as principais ameaças?
Acho que uma é a precarização do trabalho. Porque quando você cria uma precarização do trabalho, você cria uma dependência e uma aceitação para plataformas que vão oferecer um certo tipo de renda que oferece cada vez menos proteção ao trabalhador. Então você coloca o sujeito ali à disposição de qualquer tipo de trabalho. E vem de um sonho de que, ao engajar com esse trabalho precarizado, a pessoa consegue subir na vida ou ser um grande empreendedor. Isso é uma falácia, isso não acontece. O outro é como que essas plataformas agem como atores legisladores, ou seja, eles querem definir suas próprias regras e seus próprios termos de uso que deveriam, na concepção deles, funcionar como as leis que governam o país. Então eles minam qualquer tentativa de regulação do Estado perante a eles. Ou seja, o Estado que tem como dever garantir o bem-estar social de todo cidadão, as plataformas vêm refutar qualquer presença do Estado e as plataformas querem, entre aspas, tomar conta do cidadão. Só que o tomar conta do cidadão pelas plataformas é extrair o máximo de dados que podemos produzir. E isso não é cuidado nem bem-estar social, é explorar o nosso trabalho. E o pior: de graça, sem qualquer tipo de compensação. E não é nem só monetário, financeiro, é de cuidado mesmo. Tanto é que vivemos numa sociedade extremamente ansiosa. Não é só pela questão das redes sociais, mas as redes sociais fazem parte desse sistema, tecnofederalismo, que promove esse tipo de comportamento na nossa sociedade. E, claro, como eu venho sempre falando, a questão da promoção e da manipulação da informação. Isso é extremamente perigoso porque essas plataformas conseguem manipular, através dos seus algoritmos, priorizando cada tipo de discurso, qualquer tipo de narrativa que eles quiserem. Por exemplo, se eles quiserem viralizar um vídeo que venha a sustentar qualquer tipo de conhecimento deles próprios ou de qualquer princípio, valores próprios deles, eles vão manipular para fazer esse vídeo viralizar e vai ser altamente consumido. Um grande exemplo disso foi o vídeo do Nikolas (Ferreira, deputado federal) no Instagram. Foi um dos mais compartilhados, um dos mais assistidos, porque o algoritmo priorizou aquele tipo de conteúdo. Não podemos ser ingênuos de dizer que aquilo foi um crescimento orgânico. Não foi. Essa ideia de que desinformação circula de forma orgânica é um conceito muito antigo e já ultrapassado. Não cabe mais. Nas minhas próprias pesquisas, eu mostro como há uma infraestrutura humana trabalha fortemente para promover a desinformação no Brasil. Principalmente no WhatsApp, que não tem um algoritmo para distribuir conteúdo. Essa infraestrutura humana age para fazer essa curadoria e distribuição de desinformação no próprio aplicativo.
Existe diferença entre o tecnofeudalismo entre os países?
Segue a mesma lógica. O que muda um pouco são as consequências desse tecnofeudalismo. É claro que em países onde tem regulação forte, os pilares da democracia são extremamente bem fundados, você não vai ficar à mercê dessas consequências. Mas no país como o Brasil, onde temos uma democracia muito jovem, temos uma extrema-direita que está o tempo todo tentando dominar também a democracia, isso é amplificado através das consequências do tecnofeudalismo. O tecnofeudalismo, por exemplo, está em ameaça na própria Europa, porque lá as regras estão sendo montadas e executadas justamente para que os países da União Europeia não fiquem à mercê dessas big techs. Um país como a Finlândia, por exemplo, ela tem suas regulações extremamente fortes e presentes atuais para justamente que através da educação midiática que eles promovem lá não caiam nas armadilhas promovidas por esse tecnofeudalismo, por exemplo. Então começamos a ver países, principalmente nessa periferia da tensão mundial, a se protegerem para não ficar à mercê de um novo tipo de exploração que vem de fora, por exemplo. Temos países como a Nigéria, que tem liderado diversas frentes para se proteger através de regulação e leis contra essas big techs. Até mesmo países mais desenvolvidos como a Austrália também tem liderado isso, Singapura. O Brasil sempre teve a frente nesse quesito e é uma pena que a gente não consegue avançar mais devido às condições atuais do nosso congresso, que é extremamente conservador e que vê qualquer tipo de tentativa de regulação como censura. Quando o Brasil passa o Marco Civil da Internet em 2014, ele lidera o mundo nessas questões de regulação da internet. O PL 2030, que foi erroneamente categorizado ou classificado como PL das Fake News, que na verdade era sobre responsabilização das big techs, o Brasil tinha ali uma nova chance de renovar o Marco Civil para liderar o mundo nessa frente de regulação. Então, cabe a nós, nesse processo que chamamos de checks and balances, que é de pesos e contratempos, no sistema de Três Poderes, os outros poderes agirem para suprir um poder que não faz o seu papel. Então, hoje temos a Suprema Corte reinterpretando o artigo 19 do Marco Civil da Internet, que é justamente isso, sobre a responsabilização das big techs sobre os conteúdos ali postados. O artigo 19 entende que a plataforma, a priori, não é responsável por um conteúdo postado por um usuário, mas que uma vez esse conteúdo julgado como ilegal, a plataforma precisa retirar, se não é retirada, é civilmente responsabilizado também por esse conteúdo. Esse artigo 19 foi formulado lá em 2014, não existia o entendimento de inteligência artificial generativa, enfim, muita coisa mudou. Então, é preciso reinterpretar. Antes o entendimento era o seguinte: quem produz é quem é responsável, como se as plataformas não tivessem qualquer tipo de papel nessa informação. Então, hoje, por exemplo, como as plataformas, elas utilizam o algoritmo para priorizar certos tipos de conteúdo, ela faz parte da dinâmica da produção daquele conteúdo. Por isso que elas devem ser responsáveis ainda mais, porque tem um ator, o algoritmo mais ativo, em fazer essa informação circular. Hoje temos o STF (Supremo Tribunal Federal) reinterpretando esse artigo e o meu entendimento, acho que não acabou o julgamento completo, mas tudo está levando a crer que os ministros vão entender que as plataformas têm de ter, sim, mais responsabilização sobre os conteúdos delas.
Esse é o melhor tipo de regulação?
Não é o ideal, porque o melhor tipo de regulação é uma aquela passando pelo Legislativo, mas diante do contexto, é uma saída por agora. Ou seja, é um curativo que conseguimos colocar diante do que é possível através das vias democráticas. O ideal é uma legislação atual e de proteção do usuário, que é o cidadão brasileiro. Então que a próxima (a ser debatida) seja novamente um processo que tenha que incorporar a sociedade civil, as entidades interessadas nesse assunto, pesquisadores, o meio acadêmico, enfim, todo mundo que tenha ali um entendimento que possa contribuir para uma regulamentação abrangente, atual e que proteja principalmente os cidadãos brasileiros.
Vemos o governo de Donald Trump bem alinhado com os grandes empresários das big techs. Há riscos para a sociedade?
Sim. É um risco muito grande porque hoje vemos essas big techs se alinhando a políticas de extrema direita nos Estados Unidos. Antes, elas ainda diziam ter uma preocupação com questões de inclusão, diversidade, equidade, queriam tornar suas plataformas menos tóxicas, não faziam o trabalho completo, mas pelo menos existia um esforço pequeno para retirar conteúdos racistas, misóginos e transfóbicos. Hoje, com esse alinhamento com a extrema direita, eles abandonam toda essa política. E essa política foi abandonada principalmente porque o próprio Trump já tinha falado que ele iria trazer sanções às plataformas que, na palavra dele, censurasse o conteúdo conservador. Essas plataformas, o maior medo delas é a regulação. E o Trump ocupa um espaço onde qualquer palavra que ele falar, se ele quiser que vire lei, vai virar, porque ele tem o Executivo na mão, ele tem o Legislativo na mão e tem a Suprema Corte na mão também. Qualquer coisa que ele propor tem sérios riscos de ser aprovado como lei, principalmente uma regulamentação que venha nos moldes dele contra as big techs. É por isso que vemos as big techs cedendo 100% a todos esses anseios, pedidos e crenças da extrema direita americana porque eles não querem qualquer tipo de regulamentação. E para eles é o que chamamos de win-win, ou seja, é vitória dupla, porque justamente o conteúdo que a extrema direita fala que não quer que seja censurado ou moderado é o que mais gera engajamento, porque é o tipo de conteúdo que gera o afeto negativo, ou seja, o medo, a aflição, a frustração, é o que mais monetiza, é o que mais viraliza. Então para eles faz todo sentido seguir essa linha e ceder e estar na frente como os bastiões da liberdade de expressão. Eles usam isso, essa desculpa que eles estão promovendo da liberdade de expressão, mas na verdade querem que o conteúdo que antes não era permitido e agora circule o máximo possível porque vai gerar mais engajamento. Isso para o Brasil é ruim porque torna-se as plataformas mais tóxicas com alto grau de radicalização online, quebra as leis brasileiras, já que o Brasil criminaliza o discurso homofóbico, o discurso racista, isso não pode, o discurso nazista é criminoso. Nos Estados Unidos não, você pode promover o nazismo lá e você é protegido pela liberdade de expressão, pela primeira emenda. E com isso começa a criar atrito porque a justiça vai fazer o seu dever, que é pedir a retirada desses conteúdos. Eu acredito que daqui para frente também, quem quiser entrar nessa briga vai perder, porque o Brasil não vai ceder e não deve ceder, temos que manter a nossa soberania acima dessas plataformas. Só que cria crises internacionais, e crise internacional não é boa para ninguém. Então eu acredito que esse vai ser o modus operandi, ou seja, essas plataformas vão estar o tempo todo esticando a corda para ver até onde o STF vai segurar. Então acho que esse é um grande problema, porque esse esticar da corda vai estar testando todos esses pilares que sustentam a democracia brasileira.
Na primeira eleição de Barack Obama, em 2008, os grandes nomes do Vale do Silício estavam alinhados com o democrata. Quando que a chave virou?
Tanto que Obama é considerado o primeiro presidente do Twitter. Vira a chave quando, ao se aprimorar esses algoritmos, ao entender melhor qual tipo de conteúdo vai monetizar mais, as plataformas começam a mudar o discurso, começam a entender melhor o que deve se fazer para otimizar os lucros deles. Quando eles entendem que um discurso extremista é o que mais vai gerar engajamento e mais lucro, então eles vão começar a andar nessa linha. É claro que eles não vão admitir que eles estão querendo promover ou monetizar em cima de discurso extremista. O que eles vão falar? Que estão promovendo a liberdade de expressão. É assim que eles maquiam. E essa virada de chave completa vem nessa vitória do Trump, como eu falei, com esse medo de regulação, então eles abrem as porteiras nessa desculpa que estão promovendo a liberdade de expressão, porque é justamente isso que o Trump e o movimento MAGA, que é o Make America Great Again, quer ouvir.
Você disse nas redes sociais que se tornou cínico demais para acreditar que os movimentos populares e de base sejam capazes sozinhos de enfrentar as big techs e que é essencial um Estado forte. O que a sociedade civil pode fazer, ou deveria fazer, para mudar esse cenário e qual o papel que o Estado tem de ter?
Isso foi uma provocação que lancei para começarmos a ser um pouco mais realista do que se pode fazer e o que realmente tem efeito. É claro que temos diversas manifestações populares, de desenvolvimento de tecnologias populares, tecnologias cidadãs. Isso é muito importante, principalmente para o empoderamento de populações marginalizadas, vulnerabilizadas. Mas isso não bate de frente, de fato, com as big techs que dominaram o mercado como o feudalismo. Hoje, as big techs, elas são grandes o suficiente para qualquer movimento social ter qualquer tipo de efeito. O que eu quero dizer? Se fizermos uma campanha para abandonar o X, um antigo Twitter, como teve, não fez qualquer tipo de efeito na mudança de comportamento da gerência do X ou do Elon Musk. Podemos fazer o movimento que for para sair do Facebook. Infelizmente, eles são grandes demais para que o movimento de saída, o movimento popular, para tentar contê-los, vai conseguir. Eles são poderosos demais. Hoje, eu acredito que o único que tem o poder suficiente para tentar detê-los é o Estado. Mesmo sabendo que esse Estado muitas vezes é perverso, muitas vezes deixa de cuidar de nós, dos cidadãos. Mas é a esperança que eu tenho. E uma forma de fazer isso, e o que eu converso muito com os alunos, é começar a demandar e pedir candidatos ao Congresso, ao Executivo, enfim, que tenham uma agenda digital de proteção dos seus próprios cidadãos. Hoje, nós temos a Erika Hilton, que é extremamente ativa nessa questão. Ela entende muito bem. Mas é uma mulher só, precisamos de mais. Precisamos de uma bancada digital, de cidadania digital, para que lute pelos próprios cidadãos, para que passe uma regulação. O motivo do PL 2030 ter morrido, ter sido engavetado, é porque não temos essa representação no Congresso, uma representação forte, que entenda a necessidade de ter uma regulação para conter as big techs. No meu entendimento, é a única forma. Essas big techs são fortes o suficiente para aniquilar essas iniciativas. Então, o cidadão, através do seu representante no Estado, é que consegue, no meu entender hoje, fazer frente a essas big techs.
Em 2021 lançou o livro Tecnologia do Oprimido. O que é esse termo e, de lá para cá, o que mudou?
O Tecnologia do Oprimido é um livro que lancei, baseado em uma pesquisa que faço desde 2012, nas favelas de Vitória (ES), que é para entender como funciona essa utilização da tecnologia por pessoas que vivem em lugares marginalizados, precarizados, como as favelas. Esse livro tenta entender como eles utilizam para o seu empoderamento. Já que vemos que o acesso às redes sociais, às vezes, pode amplificar opressões. Como que eles utilizam para a sua sobrevivência, para a sua libertação. Então, ali eu conto diversos casos como que eles montam as suas próprias infraestruturas, já que o Estado não é presente para montar infraestrutura. Como é que eles levam à luz a internet, eles se organizam de forma coletiva para ter o direito de acessar a internet, por exemplo, que pouca gente sabe, mas todo brasileiro tem direito ao acesso à internet, que é o direito à informação. Se ele tem direito, então temos de fazer valer. Então, todas as metodologias que eles desenvolvem para trazer essa internet, as metodologias que eles desenvolvem para ensinar um ao outro a utilizar a internet, as redes sociais, que possa promover o empoderamento deles. Só que um grande problema é que isso vem com um preço muito alto. Quando eles acessam essas plataformas, eles também são alvos de outras formas de discriminação. E é uma tecnologia que não promove muito a identidade deles. E hoje, quatro anos depois, infelizmente, esse uso consciente está sendo deteriorado devido ao uso individual da tecnologia. Hoje essa tecnologia do oprimido está cada vez mais perdendo espaço para uma força mais opressora, já que o Estado vem cada vez mais cedendo espaço justamente para essas big techs ocuparem. E, como a gente sabe, não existe vácuo no poder. Alguém vai ocupar, e é justamente aí que reforça essa ideia de tecnofeldalismo, que eles vão ocupar um espaço que o Estado cede o tempo todo e não protege seus próprios cidadãos.