Artwork

Content provided by Episode – Manual do Usuário. All podcast content including episodes, graphics, and podcast descriptions are uploaded and provided directly by Episode – Manual do Usuário or their podcast platform partner. If you believe someone is using your copyrighted work without your permission, you can follow the process outlined here https://ro.player.fm/legal.
Player FM - Aplicație Podcast
Treceți offline cu aplicația Player FM !

O papel da big tech nas eleições brasileiras de 2022, parte 2

 
Distribuie
 

Manage episode 413531549 series 2830860
Content provided by Episode – Manual do Usuário. All podcast content including episodes, graphics, and podcast descriptions are uploaded and provided directly by Episode – Manual do Usuário or their podcast platform partner. If you believe someone is using your copyrighted work without your permission, you can follow the process outlined here https://ro.player.fm/legal.

Este episódio é uma continuação do episódio anterior e o prelúdio para o próximo episódio.

É muito provável que você entenda tudo que eu vou descrever aqui, mas, tal qual a trilogia original de Star Wars, assistir o O Império contra-ataca antes de tudo pode te confundir. Ouvidos na ordem, os episódios se complementam. Muito do que vou falar hoje já foi explicado em detalhes no Tecnocracia #74, o Uma nova esperança desta trilogia1. Nas eleições brasileiras de 2022, tudo que poderia ter acontecido, aconteceu. Ou quase tudo — e não graças à big tech.

Vista no retrospecto, parece claro que a atuação das redes sociais se divide em três fases: a primeira transcorre desde antes da campanha eleitoral e vai até a declaração dos vencedores no segundo turno. O foco da big tech nesta fase é passar a noção de normalidade. O episódio anterior foi 100% dedicado a essa fase:

Há, inicialmente, a tentativa de se mostrar preocupados sobre o processo eleitoral, com acordos firmados com instituições nacionais, e abertos a dialogar com a sociedade civil, com reuniões com pesquisadores e ativistas que acompanham o pleito e avisam sobre os riscos. Há comunicados distribuídos à imprensa, quase sempre indiretos, sem muitas informações, dezenas de palavras escolhidas por comitê para sugerir preocupação e ação. E há também ação, num ritmo menor do que especialistas da área sugeriam como necessário para conter desinformação sobre fraudes nas urnas e ataques ao sistema eleitoral brasileiro.

Este episódio termina a primeira fase e explica a segunda. A terceira fase virá no próximo.

Pelas mãos e celulares de bolsonaristas, presos numa realidade paralela construída meticulosamente pela extrema-direita usando as ferramentas da big tech, a verborragia online transborda para a ação física. Estradas estão fechadas, golpistas se aglomeram em acampamentos nas portas de quartéis, bolsonaristas articulam online a invasão da sede da Polícia Federal em Brasília no dia da diplomação do presidente Lula e a Polícia Federal descobre caminhão com uma bomba nas proximidades do aeroporto de Brasília.

A postura da big tech não muda muito. Pressionadas por pesquisadores e membros da sociedade civil, as empresas se movem vagarosamente, anunciam mudanças nas regras, mas repetem o problema de tolerar conteúdos golpistas ou não excluir todos aqueles que ferem as regras, novas ou não. Mesmo com influenciadores bolsonaristas clamando explicitamente por golpe de estado, as empresas se esforçam mais ainda para negar a realidade e passar uma ideia de normalidade.

A segunda fase se mantém em fervura crescente até a barbárie do 8 de janeiro, quando entra definitivamente em ebulição. Com milhares de terroristas destruindo as sedes dos três poderes da República em Brasília, fica impossível, independente do esforço, demonstrar normalidade.

O 8 de janeiro desengatilha a terceira fase: com as cenas de barbárie, a big tech calcula (corretamente) que a responsabilização deverá cair no seu colo e abandona a postura de “interesse desinteressado” que vinha mantendo. A vontade de fingir normalidade ainda existe, mas não tem mais como. Para evitar a responsabilização e a regulação prometida pelo PL 2630, a big tech repetiu os mesmos argumentos da extrema-direita, a mesma que apoiou, incentivou e, em alguns casos, operacionalizou a tentativa de golpe de estado.

Antes de tocarmos o barco para detalhar primeiro e segundo turno e afins, vamos só conversar sobre dois pontos fundamentais.

O primeiro: a única parte deste debate que tem todas as informações sobre a atuação da big tech é ela própria. Juridicamente, o Brasil (ainda) não exige que plataformas detalhem suas ações de combate à desinformação. Justiça seja feita, não é só o Brasil: é o mundo todo, com exceção da União Europeia que aprovou uma grande lei chamada Digital Services Act (DSA) que impõe obrigações não apenas financeiras, mas também de moderação às plataformas. É uma excelente notícia — para variar vinda da União Europeia —, mas vamos falar disto em outro Tecnocracia2.

Sem as obrigações, a big tech adotou uma comunicação pública que mistura comunicados genéricos para a imprensa com reuniões com a sociedade civil em que pouco se avança. Bem um tiquinho mesmo3. Não existem dados brutos oficiais das plataformas para análise de terceiros. É tudo baseado no “eu tô falando, você pode confiar em mim”. A big tech tem como objetivo primordial usar a comunicação para se blindar o máximo possível.

Dado este cenário opaco, a sociedade civil precisa apelar para engenharia reversa — análises feitas manualmente ou, em sua maioria, por meio de códigos externos para entender, a partir dos dados, as ações de moderação das plataformas no Brasil. Ainda acho inacreditável que a sociedade só tenha uma noção de como as maiores empresas do mundo aplicam (ou deixam de aplicar) suas regras no Brasil graças a um grupo de pesquisadores e/ou jornalistas, a maioria em sua própria casa, criando ferramentas para analisar dados. É um descalabro. Mas enfim.

O segundo ponto eu já falei no episódio anterior: a vida é complicada. Nem todo vilão é só mal, nem todo herói é 100% virtuoso. Em quase todo aspecto da vida há nuances, filigranas que precisam ser consideradas para se ter um entendimento pleno do que se passa. O que fica após nos distanciarmos do olho do furacão é o balanço entre episódios bons e ruins. Ou como eu falei lá no Tecnocracia #25 sobre monopólios de tecnologia:

Historicamente, é possível pescar fatos não medonhos de episódios horrendos. Adolf Hitler resolveu uma inflação galopante e devolveu o poder de compra aos alemães. O Estado Islâmico foi tão bem organizado que resolveu problemas sérios de infra-estrutura, como fornecimento de luz elétrica, em regiões da Síria. A ditadura militar brasileira proporcionou um ápice de crescimento econômico de 14% em 1973. A questão é que nenhum deles entrou na história pelas benesses proporcionadas.

Eu também queria trazer mais vozes ao debate. Então este episódio será entrecortado por falas de pesquisadores e pesquisadoras da sociedade civil que acompanharam de perto, pela análise dos dados, o papel da big tech nas eleições de 2022.

O Tecnocracia é um podcast sem frequência fixa que mistura apuração, opinião e piadas de gosto duvidoso para insistir que plataformas digitais não podem se tornar um novo poder que escolhe quando vai aderir à Constituição ou proteger o Estado Democrático de Direito. Eu sou o Guilherme Felitti e o Tecnocracia está na campanha de financiamento coletivo do Manual do Usuário. Se você quiser participar do grupo fechado e ganhar adesivo (ou só dar dinheiro para gente), acesse manualdousuario.net/apoie.

Em 2 de outubro de 2022, 156 milhões de brasileiros acordaram preparados para irem às suas sessões eleitorais e votarem em deputados estaduais e federais, senadores, governadores e presidente. Por anos (e até mesmo antes de Bolsonaro chegar ao Planalto), o bolsonarismo construiu pacientemente a teoria de que as urnas eletrônicas eram passíveis de fraude e, desde a pandemia, martelou a ideia de que a fraude seria consumada contra Bolsonaro. Nos meses anteriores ao primeiro turno, as plataformas demonstraram boa vontade, ainda que os acordos firmados com o TSE fossem bastante limitados na contenção de desinformação.

Peças no tabuleiro, era hora de elas se movimentarem.

As alegações de fraude no primeiro turno vieram em diferentes sabores. Abre aspas para o compilado da agência de checagem Aos Fatos:

Uma situação frequente foi a recauchutagem de informações falsas de eleições passadas. Aos moldes de 2020, áudios e vídeos que alegam que as urnas estão sendo abastecidas previamente com votos para o ex-presidente Luiz Inácio Lula da Silva (PT) viralizaram no Telegram, no WhatsApp, no Facebook e no TikTok. O primeiro conteúdo do tipo detectado pela reportagem foi um vídeo com 500 mil visualizações no TikTok que alegava que as urnas estariam sendo manipuladas por militantes em um sindicato em Itapeva (SP). Ele se espalhou com nuances em diferentes cidades, como Cordeiro (RJ), Serafina Corrêa (RS) e Brasília. (…) Outros conteúdos desinformativos foram criados a partir de informações verdadeiras, como a substituição de urnas no Japão. Mentiras espalhadas pelo WhatsApp diziam que elas foram trocadas porque mostravam o número 22 pelo 13, mas na verdade o motivo foram falhas técnicas.

Mensageiros, aliás, foram de novo um paraíso da desinformação. De novo o Aos Fatos:

Quatro das cinco principais correntes de baixa qualidade que circularam em grupos públicos de política no WhatsApp no final de semana do primeiro turno mencionam suposta fraude nas urnas — nunca registradas, desde a implantação do sistema eletrônico de votação no Brasil, em 1996.

O Núcleo reportou a circulação de “cerca de 8.000 mensagens (2,6x mais do que na véspera) que mencionam ‘fraude’ no 1º turno, muitas inclusive convocando usuários para ‘guerra’”. Essas mensagens, registradas em mais de 220 canais de Telegram, “totalizaram +665 mil visualizações mensuráveis”.

Alguns colégios eleitorais registraram longas filas, resultado do número alto de eleitores que compareceram mais a validação biométrica. A espera foi abraçada pelo bolsonarismo para avançar o golpismo, segundo reportagem do jornal Folha de S.Paulo:

As filas registradas neste domingo (2) em diversas cidades brasileiras foram logo transformadas em pretexto para acusar uma tentativa de fraude por parte do tribunal. A teoria conspiratória não foi disseminada apenas por eleitores comuns em grupos de conversa, mas por influenciadores nas redes sociais e pela Jovem Pan. Em um link ao vivo, uma repórter na zona sul de São Paulo disse que chegou a uma escola “com filas quilométricas”. “Assim que nós pisamos, olha o que aconteceu: as filas se abriram”, disse.

Era, obviamente, mentira.

Com as urnas fechadas, o ritmo de apuração do TSE também foi usado como “indício” de fraude. De novo a Folha:

A narrativa entre bolsonaristas era que cada intervalo na divulgação do tribunal servia para aumentar votos do ex-presidente Luiz Inácio Lula da Silva (PT). “15 minutos de pausa sem apuração no TSE… Começou a malandragem”, escreveu o influenciador Bernardo Küster no Twitter. O youtuber Renato Barros, que fazia uma live durante a apuração do TSE, reclamava que, a cada pausa, Bolsonaro perdia votos e Lula ganhava. “Estamos vendo o efeito Joe Biden no Brasil”, disse logo após Lula ultrapassar Bolsonaro.

Passado quase um ano, não há qualquer evidência de fraude nas urnas ou na apuração.

Olá, eu sou Nina Santos, sou pesquisadora na área de comunicação digital, trabalho com isso já há bastante tempo, desde a minha graduação, e defendi minha tese em 2019 estudando o uso de mídias sociais nos movimentos de protesto de 2013 e como é que isso mudou o ecossistema comunicacional brasileiro.

Sobre as eleições de 2022 e o papel das Big Techs, acho que eu não diria que elas fizeram um trabalho nem melhor nem pior do que eu esperava, acho que as minhas expectativas eram baixas e acho que elas estiveram ali no limite mais ou menos do que o cenário já pintava. Ou seja, são empresas internacionais que atuam em vários países do mundo, que têm um impacto gigantesco na estruturação do debate público, que tem um discurso público de defesa muito grande de liberdades e da democracia, mas que na prática tem muito poucos mecanismos de cooperação e de respeito às leis e à realidade local.

Então o que a gente viveu em 2022 foi um processo de uma dificuldade muito grande de fazer com que as plataformas tomassem atitudes que visassem proteger esse cenário eleitoral e tudo que estava em jogo, a ameaça à democracia que estava em jogo no Brasil naquele momento.

A gente teve por outro lado ações muito enérgicas, sobretudo do Tribunal Superior Eleitoral, que acho que foram bastante importantes naquele momento, mas que são de alguma forma também excepcionais e que apontam para a necessidade de uma estruturação, de uma regulação mais estruturada e mais perene desse ambiente digital, porque esse não é um problema excepcional, um problema com o qual a gente precisa lidar todos os dias, é um pouco assim que eu vejo essa nossa experiência.

Como toda boa eleição majoritária, muita coisa aconteceu no domingo do primeiro turno de 2022 para qualquer um ser capaz de processar e entender plenamente. Com o passar dos dias, a autópsia do primeiro turno deixou mais claras tanto as estratégias de desinformação do bolsonarismo como a resposta das plataformas digitais.

Sob estresse, a boa vontade demonstrada nos acordos com o TSE virou frouxidão. Houve, sim, conteúdo tirado do ar, mas o ritmo foi muito menor do que o desejável.

Um bom exemplo para ilustrar o comportamento: assim que as urnas foram fechadas e o TSE declarou os vencedores e/ou quem iria ao segundo turno, compilados com vídeos de supostas fraudes passaram a ser veiculados em lives no YouTube em looping. Mais popular de todas, a live “Ao v1vo! Fraud3 na ele1ção! Provas são reveladas”, em linguagem “l33t”4, ficou no ar durante 23 horas e acumulou mais de 8 mil espectadores simultâneos. Só quando o vídeo já tinha mais de 2 milhões de visualizações o YouTube resolveu tirá-lo do ar por infringir as regras. Pior: o vídeo estava monetizado, como mostrou o site Núcleo. O site Wayback Machine registrou para a posteridade uma cópia do site. A live foi veiculada pelo canal Novo Brasil, que, na época, tinha 570 mil inscritos.

Não foi a única. Na segunda-feira, o canal veiculou outra, no mesmo formato, que acumulou 100 mil visualizações antes de ser tirada do ar. Quase um ano depois, o canal Novo Brasil segue ativo no YouTube. Nos três dias após o primeiro turno, a Novelo Data5 achou 16 lives e 137 vídeos disponíveis no YouTube mentindo sobre fraude. Após a deleção das duas lives do Novo Brasil, o site Núcleo achou outros 35 vídeos.

O YouTube estava longe de ser o único. Outra reportagem da Folha, desta vez de 13 de outubro6:

No Facebook, montagem com vídeo de 2018 da então deputada eleita Carla Zambelli dizendo, sem base na realidade, ter havido fraude naquele primeiro turno ficou no ar por ao menos 12 horas e reuniu 791 mil visualizações. “Houve fraude nas urnas eletrônicas, vamos agir, população” era a legenda do post. No Twitter, um perfil que desde o dia 2 compartilhou 14 posts sobre supostas fraudes na votação não teve suas mensagens nem sequer rotuladas com alertas sobre o conteúdo ser potencialmente enganoso ou com orientação que leva a informações no site do TSE (Tribunal Superior Eleitoral). Cinco das publicações tinham a mesma frase: “Tá aí a prova das fraudes nas urnas eletrônicas, fomos todos roubados!” (…) Ao procurar pelo termo “fraude”, o sistema de busca do YouTube sugere “fraude nas eleições 2022” como uma das opções. No Facebook, ao termo “urnas” foram sugeridas buscas como “urnas fraudadas” e “urnas em sindicato”, parte das quais indicadas como “populares agora”.
Checagens de fatos também eram exibidas com destaque, mas vinham acompanhadas de postagens com dados falsos, como um vídeo com a frase “fraude descarada nestas eleições”, no qual um homem com camiseta camuflada e com a palavra “intervenção” escrita acusava a Justiça Eleitoral de fraudar votos. A postagem não tinha nem sequer o rótulo que leva ao site do TSE e foi assistida pelo menos 663 mil vezes. Em outro exemplo, um post do blogueiro bolsonarista Allan dos Santos no Facebook com mais de 5.000 compartilhamentos em que ele diz que “todo mundo sabe que foi fraude” e que “o culpado é o [presidente do TSE] Alexandre de Moraes”, só recebeu o rótulo informativo após contato da Folha.

Na visão do TSE, os acordos fechados meses antes significavam que as plataformas seriam ativas na contenção da desinformação. Na prática, não foi isto que aconteceu. O tribunal abriu uma sessão no seu site para receber denúncias de desinformação. A sociedade civil mandou milhares de exemplos, que o TSE repassava às plataformas. O nó estava aí: ao receber os posts, o processo de verificação das plataformas era lento a ponto de só tirar o conteúdo do ar, como vimos nos exemplos anteriores, quando ele já tinha se espalhado. Muitos posts chegaram ao TSE, que os repassa às plataformas minutos após a publicação, mas a equipe enxuta para lidar com o problema dentro da big tech atrasava o processo. Quando caíam, os posts já tinham se replicado e o trabalho da mentira já estava feito. Antes fosse só a lentidão: alguns dos posts recebidos, ainda que explicitamente contra as regras, eram ignorados pelas plataformas e ficavam no ar (alguns até hoje, quase um ano depois).

Questionada, a big tech respondia ou com algum número grande (a Meta apagou cerca de 600 mil posts durante a campanha eleitoral por violência e discurso de ódio) ou uma nota genérica criada pelo departamento de relações públicas falando em “políticas sólidas para reduzir desinformação”, como a enviada ao site The Brazilian Report. Por baixo do elã de preocupação, porém, o problema seguia. Era padrão que casos específicos não fossem comentados, assim como ver posts problemáticos sumirem ou ganharem selos de mentira só após jornalistas e pesquisadores(as) chamarem a atenção da plataforma.

Isto, aliás, é um outro traço da atuação da big tech na moderação de conteúdo desinformativo no Brasil: há incontáveis exemplos de posts no Twitter, fotos no Instagram, vídeos no YouTube, Kwai e TikTok e posts no Facebook que desapareceram assim que o(a) repórter responsável ligou para ouvir o outro lado. É como se a big tech, algumas das maiores empresas do mundo em valor de mercado, dependessem de jornalistas e pesquisadores externos para fazerem seu trabalho. Enfim, tergiverso.

A primeira semana depois do primeiro turno deixou claro que a principal falha na estrutura montada pelo TSE para conter a desinformação eleitoral estava na atuação das plataformas. Ao fim do primeiro turno, que tinha passado longe da perfeição, as plataformas afrouxaram ainda mais seus processos de moderação. Chegou ao ponto em que o LinkedIn, a duas semanas do segundo turno, disparou uma notificação anunciando que Jair Bolsonaro estava na rede e perguntando se você queria segui-lo. O print fui eu mesmo quem tirei.

Print de sugestão do Twitter para seguir o então candidato à reeleição Jair Bolsonaro.
Print: Guilherme Felitti/Manual do Usuário.

A frouxidão das plataformas não passou incólume pelo TSE. Faltando 11 dias para o segundo turno, o presidente do tribunal, ministro Alexandre de Moraes, convocou uma nova reunião com as plataformas para informar que “a atuação das plataformas foi razoavelmente boa no primeiro turno, mas que neste segundo turno a situação da desinformação está um desastre”. Abre aspas para outra reportagem da Folha, assinada pela repórter Patricia Campos Mello:

Moraes afirmou ainda que as plataformas demoram para remover conteúdo e pressionou para que plataformas como YouTube, TikTok e Kwai não levem mais que quatro a cinco horas para remover vídeos após denúncias do tribunal. Com uma remoção mais rápida seria possível reduzir a viralização desses conteúdos nos aplicativos de mensagens.

Na reunião, Moraes anunciou que o tribunal votaria uma resolução no dia seguinte para ampliar seu poder de polícia contra a desinformação. Nenhuma das plataformas foi avisada com antecedência.

Em 20 de outubro, a dez dias do segundo turno, o TSE aprovou por unanimidade. Abre aspas para o Uol:

Uma resolução que endurece o combate a fake news e amplia o poder de polícia do tribunal para permitir a exclusão de conteúdos falsos e/ou descontextualizados repetidos que já tenham sido alvo de decisões para retirada do ar pelo plenário da Corte. A medida também reduz o tempo para a derrubada de fake news nas redes, sob risco de multa por hora de descumprimento.

Segundo a nova regra, conteúdos falsos teriam que ser removidos em, no máximo, duas horas em dias úteis e uma hora no fim de semana da eleição, contra 4 ou 5 horas no primeiro turno. O TSE também proibiu anúncios eleitorais pagos online “nas 48 horas que antecedem o segundo turno e nas 24 horas seguintes à votação”. Se a plataforma descumprisse as medidas de forma reiterada, o TSE poderia determinar a “suspensão do acesso aos serviços da plataforma implicada, em número de horas proporcional à gravidade da infração, observado o limite máximo de vinte e quatro horas”. Se o conteúdo atacasse o sistema eleitoral, a plataforma que não removesse seria multada entre R$ 100 mil a R$ 150 mil por hora de descumprimento.

A gente já falou aqui no Tecnocracia que, historicamente, operações nacionais de big tech só se mexem de verdade quando o bolso está na mira. Lembra de como o Google só corrigiu de verdade o seríssimo problema de conteúdo pedófilo no Orkut quando a Justiça veio para cima e anunciantes derrubaram campanhas? Contei esta história no Tecnocracia #59. Nas eleições de 2022, não foi diferente. Com a sombra de punições que iam de multas milionárias à suspensão do serviço, a big tech foi obrigada a prestar atenção.

No segundo turno das eleições de 2022, não foi diferente. A pressão da Justiça apressou a retirada de conteúdos fraudulentos e comprovadamente mentirosos, seja verificados por agências de checagens ou negados pelo TSE. Não tornou o cenário ideal, mas agilizou a derrubada de conteúdo lapidado para tumultuar o cenário eleitoral. Sempre bom reiterar: se melhorou, não foi pela ação ativa das plataformas, mas por algum player superior lhe baforando o cangote.

Às 19h57 de 30 de outubro de 2022, o TSE declarou a vitória de Lula sobre Bolsonaro. É aí que acaba a primeira fase da postura da big tech nas eleições. Com todos os resultados homologados pelo TSE, as plataformas anunciaram novas regras para proibir conteúdos alegando fraude eleitoral em 2022. Se eu tivesse que apostar um dinheiro, diria que suspiros sincronizados foram ouvidos nas sedes e casas dos executivos responsáveis pelas decisões eleitorais dentro das operações nacionais da big tech. Aparentemente, o pior tinha passado. Se a postura da big tech foi essa, então não poderia estar mais errada.

Aqui se encerra a primeira fase e começa a segunda. Um episódio da série Os Simpsons ajuda a explicar o que muda essencialmente nesta segunda fase.

Olá, meu nome é Bia Barbosa, eu sou jornalista e integro o Diracom, Direito à Comunicação e Democracia, que é uma organização da sociedade civil que acompanha bastante de perto o tema da liberdade de expressão em um ambiente digital. Nós acompanhamos o debate sobre a regulação de plataformas no Brasil há muitos anos e quando houve a invasão do Capitólio nos Estados Unidos, naquele fatídico 6 de janeiro, uma das grandes preocupações que várias organizações da sociedade civil brasileira tiveram foi como evitar que algo pudesse se repetir aqui no Brasil.

Em parceria com outras organizações que integram a Coalizão de Direitos na Rede, a gente prontamente iniciou um diálogo com as plataformas digitais, com as principais plataformas que têm representação no Brasil, no sentido de questioná-las sobre a existência de protocolos de crise para situações de emergência como essa que poderiam se repetir no processo eleitoral brasileiro que se avizinhava.

Por vários momentos a gente pediu para as plataformas para mostrarem esses protocolos, para dialogarem sobre esses protocolos com as organizações da sociedade civil, no esforço de a gente tentar evitar uma mesma tragédia. Esse diálogo nunca aconteceu de maneira concreta, esses protocolos nunca foram compartilhados, mas algumas delas garantiram que eles existiam.

Quando a gente chega no primeiro turno das eleições e vê episódios como aquele da tentativa de prisão do Roberto Jefferson, em que rapidamente um motim começou a se organizar nas redes sociais e as plataformas não tinham protocolos de crise para aquele momento, isso nos chamou muitíssima atenção e acendeu o alerta vermelha do que viria para o segundo turno.

Infelizmente, durante o segundo turno esses problemas se repetiram, mas o grande choque foi ver como as plataformas não atuaram no dia 8 de janeiro, quando houve uma tentativa de golpe organizada pelas redes sociais e transmitida ao vivo em várias redes sociais aqui em Brasília.

Essas plataformas não só não impediram que esses grupos se organizassem abertamente ao longo de todo o processo eleitoral e depois do Tribunal Superior Eleitoral constatar a vitória do presidente Luiz Inácio Lula da Silva nas urnas, não houve nenhum tipo de protocolo acionado para impedir que essa mobilização se concretizasse por meio dos acampamentos na frente dos exércitos e em chamamentos sistemáticos que continuaram acontecendo nas redes, como no dia 8 de janeiro esses atos foram transmitidos e incitados também pelas redes sociais.

Acho que na avaliação do Diracom, mas também da Coalizão de Direitos na Rede, isso acende um alerta que para nós que trabalhamos com esse tema já estava muito claro, mas que a partir do 8 de janeiro, felizmente, passou a chamar a atenção de uma parcela maior da sociedade brasileira da urgência de se regular o funcionamento das plataformas digitais no Brasil.

Não é uma discussão sobre liberdade de expressão. Nós como jornalistas temos todo o cuidado antes de defender qualquer tipo de regulação ou lei que possa vir a restringir o democrático exercício da liberdade de expressão no ambiente on-line, que é fundamental em qualquer democracia, mas se trata da gente não permitir que interesses econômicos, baseado no atual modelo de negócios que essas plataformas têm, prevaleçam diante do interesse coletivo e da importância de garantir o funcionamento das democracias, para que elas não sejam desestabilizadas, como a gente viu o que aconteceu no dia 8 de janeiro por aqui.

O caldo golpista engrossa com a vitória de Lula

Cena d'“Os Simpsons”, com uma pessoa de terno saindo da casa, outra na sacada e, ao fundo, a casa pegando fogo.
Imagem: Fox/Reprodução.

Em 1996, o 21º episódio da 7ª temporada d’Os Simpsons mostrava o diretor da escola de Bart e Lisa, Seymour Skinner, convidando seu chefe, o superintendente Chalmers, para um jantar em sua casa. Skinner fez promessas de uma banquete, mas o pernil que estava no forno queimou e o diretor foi obrigado a servir hambúrgueres para o chefe enquanto a cozinha — e, consequentemente, a casa — pegava fogo ao fundo.

A cena se tornou um meme pela sequência de absurdos, finalizados quando Chalmers vai embora com labaredas nas janelas após Skinner responder para a mãe que não era a casa que estava pegando fogo, era só a aurora boreal.

Você já entendeu a metáfora: um Skinner sorridente se esforça muito para manter um sorriso no rosto e fingir normalidade enquanto a realidade (no caso d’Os Simpsons, literalmente) ferve ao seu redor.

Assim que o TSE promulgou a vitória de Lula, dois movimentos transbordaram o radicalismo das redes para o mundo real. Dezenas de caminhoneiros passaram a fechar grandes rodovias pelo Brasil e milhares foram às portas dos quartéis acampar. Os dois movimentos radicais se lastreiam na teoria mentirosa da fraude eleitoral e na esperada reação das Forças Armadas a partir da delirante interpretação do artigo 142. Da mesma forma que faziam para questionar as urnas, correligionários de Bolsonaro passaram a usar as redes para convocar outros brasileiros para fechar estradas ou acampar em frente a quartéis na esperança de um golpe.

Com o Brasil pegando fogo, a big tech adotou duas posturas: uma pública de tranquilidade e outra interna de ação mais enérgica de moderação.

Vamos começar falando pela tranquilidade demonstrada publicamente. A big tech entendeu que, ao contrário de 2018, a sociedade e a Justiça estariam de olho no papel fundamental que teria na eleição. Logo, para demonstrar interesse, as plataformas abriram canais de comunicação com organizações da sociedade civil que acompanham o tema. Essas reuniões, quase sempre por videochamadas, se intensificaram perto dos dias de votação.

O modelo é mais ou menos o mesmo: o(a) profissional escolhido para conversar com a sociedade civil não era, necessariamente, quem tomava as decisões importantes. Mas seu papel era também defender estas decisões, num modelo parecido com o chamado “atendimento” nas agências de publicidade.

Eu estive em algumas daquelas reuniões. Assim que Lula ganhou e o golpismo saiu das redes para a realidade, a Novelo Data e outros grupos que estavam analisando a questão há anos começaram a ver o aumento preocupante do conteúdo pedindo golpe de estado. A luz amarela acendeu, mas não para a big tech. Na semana seguinte ao segundo turno, várias organizações se reuniram com o YouTube para expressar nossa preocupação. O recado era claro: a eleição acabou, mas os riscos continuam.

A resposta do YouTube seguiu, de maneira geral, duas linhas argumentativas: pela primeira, alegava que a equipe interna responsável pela moderação mais rápida exigida pelo TSE já estava entupida de trabalho. Não é preciso ser um gênio para entender as entrelinhas: se aqueles funcionários eram os únicos e já estavam atarefados, não havia braços para assumir novas tarefas. A segunda resposta complementava a primeira: o YouTube se disse satisfeito com a evolução que vinha apresentando nos últimos meses. Os norte-americanos (e a Lu vai me ajudar aqui) têm a expressão “self pat on the back” — você dá um tapinha nas costas quando quer congratular alguém e o faz em si mesmo quando é autoelogio. O YouTube demonstrou claramente na prática o tal “self pat on the back”.

A casa estava pegando fogo, mas o YouTube estava parado na soleira sorrindo, orgulhoso da sua evolução e sugerindo que não podia fazer mais. Esse é um traço da big tech não só no Brasil: as promessas sempre resvalam na onipotência. Na promessa, é possível colonizar Marte, desafiar a morte e levar a consciência para um metaverso. Mas, na hora de resolver problemas que essas mesmas empresas criaram, é todo mundo impotente, incapaz, sem recursos.

Print de vídeo do YouTube, com homem branco, de barba, boné e camiseta verde/da bandeira do Brasil, com legenda em que ele diz que o exército “vai tomar conta” em 72 horas.
Imagem: YouTube/Reprodução.

Para engrossar a sensação de “trabalho bem feito”, Meta e Google mudaram regras para tirarem do ar conteúdos que pediam golpe de estado. Ao menos em tese. Na prática, o YouTube manteve vídeos “com convocações de protestos e manifestações pedindo intervenção militar no Brasil ou uso do artigo 142 da Constituição, por entender que não ferem as políticas atuais da plataforma”, segundo reportagem do jornal Folha de S. Paulo:

“Estamos vendo lives no YouTube monetizadas chamando intervenção militar”, diz Bia Barbosa, integrante da Coalizão Direitos na Rede. Segundo monitoramento da Novelo Data, há pelo menos 73 vídeos no YouTube com menções ao artigo 142, convocação das Forças Armadas e incentivos aos bloqueios, muitos com mais de 1 milhão de visualizações.

Esse estudo da Novelo Data encontrou centenas de vídeos em português sobre as paralisações nas estradas e os acampamentos golpistas. Após uma filtragem manual feita em parceria com membros da Coalizão Direitos na Rede, sobraram 73 vídeos que inegavelmente incentivavam bloqueios das estradas e golpe de estado. A resposta do YouTube: “Ao longo da eleição, removemos diversos vídeos que violavam nossas políticas, destacamos conteúdo de fontes autorizadas, como o Tribunal Superior Eleitoral, e limitamos a disseminação de conteúdo duvidoso dentro da plataforma.” De novo, o discurso oficial conflita com a realidade. O ponto é que o YouTube não manteve vídeos com teor problemático apenas nas semanas seguintes ao segundo turno — um ano depois, dos mais de 70 vídeos encontrados pelo estudo, 28 seguem no ar, incluindo um em que golpista em Santa Catarina diz que as estradas só serão desbloqueadas quando o Exército tomar o poder.

Print de post no Facebook, de um vídeo em que aparece Bolsonaro com as palavras em cima e embaixo: “O bicho vai pegar. PT e TSE unidos na fraude”.
Imagem: Facebook/Reprodução.

O cenário não é muito diferente no Facebook. Vídeos das manifestações em frente aos quartéis em que bolsonaristas pedem golpe de estado e incitam que outros golpistas se juntem a eles continuam no ar. Um post do Acorda Piracicaba publicado em 3 de novembro, dizendo que “já está confirmado fraude na (sic) urnas” segue no ar com 54 mil curtidas, 12 mil comentários e 30 mil compartilhamentos. O post traz um vídeo de Bolsonaro mentindo sobre “provas irrefutáveis”. A transmissão ao vivo que o Fiscal do Povo Wellington fez no dia 6 de novembro em frente ao Comando Militar Sudeste do Exército, em São Paulo, segue no ar. No total, são 99 mil curtidas, 24 mil comentários e 747 mil visualizações. Aos 4 minutos e 42 segundos, um entrevistado incita outros a irem às ruas, “onde isto vai se decidir”.

Para piorar, uma falha técnica da Meta mostrou um selo dizendo que os votos ainda estavam sendo contados pelo TSE na semana seguinte ao segundo turno, o que era mentira. O G1 registrou como até mesmo post do derrotado Bolsonaro trazia o selo mesmo após a certificação do resultado pelo próprio TSE. Sem surpresa, o rótulo no Facebook e Instagram foi transformado em desinformação pelo bolsonarismo. Parabéns, Meta, por produzir desinformação no momento em que era fundamental esclarecê-la e limitá-la.

Olá, eu sou professor Marcelo Alves do departamento de comunicação e da graduação de estudos de mídia na PUC do Rio de Janeiro. Como pesquisador, a principal preocupação que eu tinha era que o YouTube e outras plataformas desenvolvessem bons protocolos de governança do conteúdo e de moderação do conteúdo no ambiente digital para as eleições, com foco especificamente no conteúdo de risco antidemocrático, que fosse um risco à integridade eleitoral, particularmente aqueles conteúdos que espalhavam desinformação sobre as urnas eletrônicas ou sobre o sistema eleitoral de forma mais geral, potencialmente levando a o contexto de não aceitação do resultado das eleições.

Eu esperava que essa política fosse desenvolvida com um processo de consulta à sociedade civil, a pesquisadores, acadêmicos, especialistas, jornalistas investigativos, essencialmente para que se cuidasse de quais eram, primeiro, os conceitos que definiam essas políticas, as potenciais sanções, e segundo, qual era o processo de retirada de conteúdo, entendendo que a gente ainda não tem regulação para isso no Brasil. O processo de participação e envolvimento de um grupo maior da sociedade civil poderia trazer uma série de insights, de acúmulos e debates que a gente vem tendo nos últimos anos.

Para além dessa questão de política, uma preocupação que a gente tinha era melhorar o processo de acesso a dados e de transparência geral às informações que circulavam as plataformas, entendendo que quanto mais transparência, mais acesso e mais disponibilidade de informações, principalmente para pesquisadores e jornalistas investigativos, melhor a sociedade civil poderia desenvolver ferramentas e mecanismos de monitoramento e até de avaliação de risco sobre a produção de conteúdo de desinformação, violência política e de risco antidemocrático nas plataformas.

Eu considero que não somente depois do dia 8 de janeiro, mas somando a isso, todo o acúmulo de conhecimento que a gente teve, a produção de reportagens jornalísticas, de pesquisas acadêmicas aplicadas, em grande parte os avanços que foram demonstrados são muito insuficientes. Em alguma medida, houve algum tipo de política de algumas plataformas como o YouTube, que tentaram criar regras, protocolos para retirados de conteúdo. Isso é um avanço que algumas outras plataformas nem tiveram, nem se disponibilizaram a fazer, como Telegram, WhatsApp, por exemplo. Então, embora haja um avanço, esse avanço é muito significativo.

A gente viu durante o segundo turno eleitoral, depois do pós-eleição e até o dia 8 de janeiro, um conteúdo sendo produzido sistematicamente, abertamente, chamando a intervenção militar. Durante todo o período eleitoral, antes do período eleitoral, teve um conteúdo muito significativo, antidemocrático, com argumentos em favor utilizando, propondo uma interpretação do artigo 142, para fins de intervenção militar ou de um poder moderador do exército, enfim. A gente acompanhou durante meses e meses um conteúdo muito significativo, com muitas visualizações, sendo produzido em favor de movimentos antidemocráticos, em que pese pouquíssima reação foi tomada pelo YouTube. Até mesmo no dia 8 de janeiro, grande parte do conteúdo foi removido por ação dos próprios canais, que viam ali algum tipo de implicação legal, a maioria uma ação de automoderação e não uma resposta preventiva do YouTube. Então a reação foi muito atrasada, muito pouco efetiva e muitas vezes olhando para fatores que são muito difíceis de serem aferidos, seja pelo acesso de dados, seja pela falta de transparência nos mecanismos de aplicação das políticas de moderação das plataformas.

É preciso registrar que, na comparação com o ritmo de moderação apresentado nos últimos meses, a big tech mostrou um afã um pouco maior de derrubar conteúdos problemáticos com golpismo nas ruas. Ficou ainda bem longe do ideal, mas que fique o registro. De onde vem essa impressão? Da experiência trazida pela engenharia reversa que falamos no começo do episódio. Este é outro ponto problemático da questão sobre o qual não se fala muito: sem abrir dados detalhados, apenas com comunicados vagos à imprensa, a big tech acaba apagando evidências que poderiam incriminar quem comete crimes ou a si mesma. “Pô, mas se não modera você reclama; se modera, você reclama também.” O ponto aqui é ser transparente sobre a moderação. A sociedade precisa saber o que as donas dos ambientes onde passamos tantas horas do nosso dia e que concentram nossas comunicações fazem para mantê-los sanitizados e seguros.

O radicalismo atingiu seu ápice em 2022 quando um caminhoneiro encontrou uma bomba caseira plantada em seu caminhão-tanque na véspera de Natal. Chamada pelo motorista, a Polícia Militar do Distrito Federal (PMDF) confirmou que era uma bomba caseira e a detonou. O objetivo do plano inicial era explodir os 60 mil litros de querosene no caminhão ao lado do aeroporto para tentar estimular caos suficiente para que as Forças Armadas intercedessem no governo do Distrito Federal.

Era a última semana do governo Bolsonaro, que ainda tinha poder para decretar Garantia de Lei e Ordem. A GLO, como explica o site do Ministério da Defesa, permite o emprego das Forças Armadas “de forma episódica, em área restrita e por tempo limitado, com o objetivo de preservar a ordem pública, a integridade da população e garantir o funcionamento regular das instituições”. Sabe qual artigo, entre outros, regulamenta a GLO? O artigo 142 da Constituição. De novo, não sou eu que estou falando: é o site do Ministério da Defesa do Brasil.

A bomba só não explodiu por um defeito técnico. No mesmo dia da descoberta do plano, a PMDF prendeu o terrorista bolsonarista George Washington em um apartamento atulhado de armas e componentes de bombas e anunciou estar atrás de outros dois apoiadores de Bolsonaro: Alan Diego dos Santos Rodrigues e Wellington Macedo de Souza. Alan se entregou quase um mês depois, em janeiro de 2023, e Wellington foi preso no meio de setembro, 8 meses depois da tentativa de atentado. Tanto o xará do presidente dos EUA quanto Alan já foram condenados pela Justiça do Distrito Federal a penas que vão de 5 a 9 anos de prisão.

Em julho, a PMDF repassou à CPMI do 8 de janeiro dados coletados em suas diligências, mostrando que George Washington acessou ao menos 14 vídeos no YouTube ensinando a fazer explosivos. Abre aspas para reportagem do Metrópoles:

Os vídeos controversos acessados por Oliveira no YouTube tinham títulos didáticos, a exemplo de “Como explodir uma bomba de dinamite”, “Como fazer um detonador”, “Fazer pavio com pólvora” e “Nitrato de amônia”, material usado na fabricação de bombas. Não é possível saber se os vídeos vistos pelo homem continuam no ar, mas a coluna localizou, até esta quinta-feira (13/7), filmagens com títulos idênticos disponíveis a qualquer pessoa no YouTube. Já era sabido que Oliveira havia pesquisado sobre dinamites na plataforma de compras Shopee.

Quando eu li a notícia, fui fazer o que pesquisadores fazem nesta hora: coletar dados. Usei quatro queries: “Como fazer um detonador”, “Como explodir uma bomba de dinamite”, “Fazer pavio com pólvora” e “Nitrato de amônia”, quatro dos títulos de vídeos que estavam no histórico de George Washington no YouTube, segundo a PMDF.

A planilha resultante tem 324 linhas. Muita coisa ali não tem relação com bombas físicas: há tutoriais sobre detonadores no Minecraft e até pegadinhas do João Kléber. Mas em julho de 2023, seis meses depois da tentativa de explodir um caminhão-bomba perto do Aeroporto Internacional de Brasília, seguem no ar vídeos mostrando detalhadamente como construir detonador, pavio com pólvora e bomba de dinamite caseiros. As políticas do YouTube são cristalinas na proibição de conteúdos que facilitem o acesso a itens como explosivos.

O que o YouTube respondeu à coluna do Guilherme Amado no Metrópoles? “Em nota, o YouTube afirmou que os vídeos com títulos citados pela reportagem ‘por si só não representam violações das nossas políticas’. A plataforma disse que proíbe conteúdos que ‘incentivem atividades ilegais ou perigosas com risco de danos físicos graves ou de morte’, acrescentando: ‘Por exemplo, dar instruções de como criar uma bomba que será usada para machucar ou ferir outras pessoas.’”

Nessas horas, a big tech mostra que, para se defender, apela para uma estratégia muito popular da extrema-direita: palavras sem qualquer conexão com a realidade. Tem vídeo, a gente está vendo, o terrorista viu. Mas a nota só diz que não pode.

No terceiro e último episódio da trilogia sobre o papel da big tech nas eleições brasileiras de 2022: com a posse de um novo presidente, as plataformas começam uma ofensiva de charme para se aproximar de Lula. O plano dura uma semana, até a tentativa de golpe de 8 de janeiro. É quando acaba o teatrinho de normalidade e a big tech se engaja sem qualquer vergonha no movimento de se proteger e fugir da responsabilização.

Foto do topo: Fernando Frazão/Agência Brasil.

  1. “Nossa, Guilherme, que humildade.” Mas, sejamos honestos, em termos de vilania ambos têm níveis semelhantes.
  2. O segundo Tecnocracia, lá em janeiro de 2019, explica como a União Européia sempre foi — e continua sendo — o mercado mais preocupado em impor limites e responsabilidades à big tech muito antes de Meta, Google e afins serem fundados.
  3. E não é de carimbó (quem pegou, pegou).
  4. ou seja, alguns “i” e “e” viraram “1” e “3” para dificultar a moderação.
  5. Tal qual o episódio anterior, muito do que falarei hoje envolve meu trabalho e/ou a Novelo Data, minha empresa. Quando for o caso, eu vou ser explícito e 100% transparente.
  6. Essa reportagem tem dados fornecidos pela Novelo Data e uma frase minha sobre a lentidão do YouTube em remover conteúdos mentirosos sobre fraude.

Fonte

  continue reading

33 episoade

Artwork
iconDistribuie
 
Manage episode 413531549 series 2830860
Content provided by Episode – Manual do Usuário. All podcast content including episodes, graphics, and podcast descriptions are uploaded and provided directly by Episode – Manual do Usuário or their podcast platform partner. If you believe someone is using your copyrighted work without your permission, you can follow the process outlined here https://ro.player.fm/legal.

Este episódio é uma continuação do episódio anterior e o prelúdio para o próximo episódio.

É muito provável que você entenda tudo que eu vou descrever aqui, mas, tal qual a trilogia original de Star Wars, assistir o O Império contra-ataca antes de tudo pode te confundir. Ouvidos na ordem, os episódios se complementam. Muito do que vou falar hoje já foi explicado em detalhes no Tecnocracia #74, o Uma nova esperança desta trilogia1. Nas eleições brasileiras de 2022, tudo que poderia ter acontecido, aconteceu. Ou quase tudo — e não graças à big tech.

Vista no retrospecto, parece claro que a atuação das redes sociais se divide em três fases: a primeira transcorre desde antes da campanha eleitoral e vai até a declaração dos vencedores no segundo turno. O foco da big tech nesta fase é passar a noção de normalidade. O episódio anterior foi 100% dedicado a essa fase:

Há, inicialmente, a tentativa de se mostrar preocupados sobre o processo eleitoral, com acordos firmados com instituições nacionais, e abertos a dialogar com a sociedade civil, com reuniões com pesquisadores e ativistas que acompanham o pleito e avisam sobre os riscos. Há comunicados distribuídos à imprensa, quase sempre indiretos, sem muitas informações, dezenas de palavras escolhidas por comitê para sugerir preocupação e ação. E há também ação, num ritmo menor do que especialistas da área sugeriam como necessário para conter desinformação sobre fraudes nas urnas e ataques ao sistema eleitoral brasileiro.

Este episódio termina a primeira fase e explica a segunda. A terceira fase virá no próximo.

Pelas mãos e celulares de bolsonaristas, presos numa realidade paralela construída meticulosamente pela extrema-direita usando as ferramentas da big tech, a verborragia online transborda para a ação física. Estradas estão fechadas, golpistas se aglomeram em acampamentos nas portas de quartéis, bolsonaristas articulam online a invasão da sede da Polícia Federal em Brasília no dia da diplomação do presidente Lula e a Polícia Federal descobre caminhão com uma bomba nas proximidades do aeroporto de Brasília.

A postura da big tech não muda muito. Pressionadas por pesquisadores e membros da sociedade civil, as empresas se movem vagarosamente, anunciam mudanças nas regras, mas repetem o problema de tolerar conteúdos golpistas ou não excluir todos aqueles que ferem as regras, novas ou não. Mesmo com influenciadores bolsonaristas clamando explicitamente por golpe de estado, as empresas se esforçam mais ainda para negar a realidade e passar uma ideia de normalidade.

A segunda fase se mantém em fervura crescente até a barbárie do 8 de janeiro, quando entra definitivamente em ebulição. Com milhares de terroristas destruindo as sedes dos três poderes da República em Brasília, fica impossível, independente do esforço, demonstrar normalidade.

O 8 de janeiro desengatilha a terceira fase: com as cenas de barbárie, a big tech calcula (corretamente) que a responsabilização deverá cair no seu colo e abandona a postura de “interesse desinteressado” que vinha mantendo. A vontade de fingir normalidade ainda existe, mas não tem mais como. Para evitar a responsabilização e a regulação prometida pelo PL 2630, a big tech repetiu os mesmos argumentos da extrema-direita, a mesma que apoiou, incentivou e, em alguns casos, operacionalizou a tentativa de golpe de estado.

Antes de tocarmos o barco para detalhar primeiro e segundo turno e afins, vamos só conversar sobre dois pontos fundamentais.

O primeiro: a única parte deste debate que tem todas as informações sobre a atuação da big tech é ela própria. Juridicamente, o Brasil (ainda) não exige que plataformas detalhem suas ações de combate à desinformação. Justiça seja feita, não é só o Brasil: é o mundo todo, com exceção da União Europeia que aprovou uma grande lei chamada Digital Services Act (DSA) que impõe obrigações não apenas financeiras, mas também de moderação às plataformas. É uma excelente notícia — para variar vinda da União Europeia —, mas vamos falar disto em outro Tecnocracia2.

Sem as obrigações, a big tech adotou uma comunicação pública que mistura comunicados genéricos para a imprensa com reuniões com a sociedade civil em que pouco se avança. Bem um tiquinho mesmo3. Não existem dados brutos oficiais das plataformas para análise de terceiros. É tudo baseado no “eu tô falando, você pode confiar em mim”. A big tech tem como objetivo primordial usar a comunicação para se blindar o máximo possível.

Dado este cenário opaco, a sociedade civil precisa apelar para engenharia reversa — análises feitas manualmente ou, em sua maioria, por meio de códigos externos para entender, a partir dos dados, as ações de moderação das plataformas no Brasil. Ainda acho inacreditável que a sociedade só tenha uma noção de como as maiores empresas do mundo aplicam (ou deixam de aplicar) suas regras no Brasil graças a um grupo de pesquisadores e/ou jornalistas, a maioria em sua própria casa, criando ferramentas para analisar dados. É um descalabro. Mas enfim.

O segundo ponto eu já falei no episódio anterior: a vida é complicada. Nem todo vilão é só mal, nem todo herói é 100% virtuoso. Em quase todo aspecto da vida há nuances, filigranas que precisam ser consideradas para se ter um entendimento pleno do que se passa. O que fica após nos distanciarmos do olho do furacão é o balanço entre episódios bons e ruins. Ou como eu falei lá no Tecnocracia #25 sobre monopólios de tecnologia:

Historicamente, é possível pescar fatos não medonhos de episódios horrendos. Adolf Hitler resolveu uma inflação galopante e devolveu o poder de compra aos alemães. O Estado Islâmico foi tão bem organizado que resolveu problemas sérios de infra-estrutura, como fornecimento de luz elétrica, em regiões da Síria. A ditadura militar brasileira proporcionou um ápice de crescimento econômico de 14% em 1973. A questão é que nenhum deles entrou na história pelas benesses proporcionadas.

Eu também queria trazer mais vozes ao debate. Então este episódio será entrecortado por falas de pesquisadores e pesquisadoras da sociedade civil que acompanharam de perto, pela análise dos dados, o papel da big tech nas eleições de 2022.

O Tecnocracia é um podcast sem frequência fixa que mistura apuração, opinião e piadas de gosto duvidoso para insistir que plataformas digitais não podem se tornar um novo poder que escolhe quando vai aderir à Constituição ou proteger o Estado Democrático de Direito. Eu sou o Guilherme Felitti e o Tecnocracia está na campanha de financiamento coletivo do Manual do Usuário. Se você quiser participar do grupo fechado e ganhar adesivo (ou só dar dinheiro para gente), acesse manualdousuario.net/apoie.

Em 2 de outubro de 2022, 156 milhões de brasileiros acordaram preparados para irem às suas sessões eleitorais e votarem em deputados estaduais e federais, senadores, governadores e presidente. Por anos (e até mesmo antes de Bolsonaro chegar ao Planalto), o bolsonarismo construiu pacientemente a teoria de que as urnas eletrônicas eram passíveis de fraude e, desde a pandemia, martelou a ideia de que a fraude seria consumada contra Bolsonaro. Nos meses anteriores ao primeiro turno, as plataformas demonstraram boa vontade, ainda que os acordos firmados com o TSE fossem bastante limitados na contenção de desinformação.

Peças no tabuleiro, era hora de elas se movimentarem.

As alegações de fraude no primeiro turno vieram em diferentes sabores. Abre aspas para o compilado da agência de checagem Aos Fatos:

Uma situação frequente foi a recauchutagem de informações falsas de eleições passadas. Aos moldes de 2020, áudios e vídeos que alegam que as urnas estão sendo abastecidas previamente com votos para o ex-presidente Luiz Inácio Lula da Silva (PT) viralizaram no Telegram, no WhatsApp, no Facebook e no TikTok. O primeiro conteúdo do tipo detectado pela reportagem foi um vídeo com 500 mil visualizações no TikTok que alegava que as urnas estariam sendo manipuladas por militantes em um sindicato em Itapeva (SP). Ele se espalhou com nuances em diferentes cidades, como Cordeiro (RJ), Serafina Corrêa (RS) e Brasília. (…) Outros conteúdos desinformativos foram criados a partir de informações verdadeiras, como a substituição de urnas no Japão. Mentiras espalhadas pelo WhatsApp diziam que elas foram trocadas porque mostravam o número 22 pelo 13, mas na verdade o motivo foram falhas técnicas.

Mensageiros, aliás, foram de novo um paraíso da desinformação. De novo o Aos Fatos:

Quatro das cinco principais correntes de baixa qualidade que circularam em grupos públicos de política no WhatsApp no final de semana do primeiro turno mencionam suposta fraude nas urnas — nunca registradas, desde a implantação do sistema eletrônico de votação no Brasil, em 1996.

O Núcleo reportou a circulação de “cerca de 8.000 mensagens (2,6x mais do que na véspera) que mencionam ‘fraude’ no 1º turno, muitas inclusive convocando usuários para ‘guerra’”. Essas mensagens, registradas em mais de 220 canais de Telegram, “totalizaram +665 mil visualizações mensuráveis”.

Alguns colégios eleitorais registraram longas filas, resultado do número alto de eleitores que compareceram mais a validação biométrica. A espera foi abraçada pelo bolsonarismo para avançar o golpismo, segundo reportagem do jornal Folha de S.Paulo:

As filas registradas neste domingo (2) em diversas cidades brasileiras foram logo transformadas em pretexto para acusar uma tentativa de fraude por parte do tribunal. A teoria conspiratória não foi disseminada apenas por eleitores comuns em grupos de conversa, mas por influenciadores nas redes sociais e pela Jovem Pan. Em um link ao vivo, uma repórter na zona sul de São Paulo disse que chegou a uma escola “com filas quilométricas”. “Assim que nós pisamos, olha o que aconteceu: as filas se abriram”, disse.

Era, obviamente, mentira.

Com as urnas fechadas, o ritmo de apuração do TSE também foi usado como “indício” de fraude. De novo a Folha:

A narrativa entre bolsonaristas era que cada intervalo na divulgação do tribunal servia para aumentar votos do ex-presidente Luiz Inácio Lula da Silva (PT). “15 minutos de pausa sem apuração no TSE… Começou a malandragem”, escreveu o influenciador Bernardo Küster no Twitter. O youtuber Renato Barros, que fazia uma live durante a apuração do TSE, reclamava que, a cada pausa, Bolsonaro perdia votos e Lula ganhava. “Estamos vendo o efeito Joe Biden no Brasil”, disse logo após Lula ultrapassar Bolsonaro.

Passado quase um ano, não há qualquer evidência de fraude nas urnas ou na apuração.

Olá, eu sou Nina Santos, sou pesquisadora na área de comunicação digital, trabalho com isso já há bastante tempo, desde a minha graduação, e defendi minha tese em 2019 estudando o uso de mídias sociais nos movimentos de protesto de 2013 e como é que isso mudou o ecossistema comunicacional brasileiro.

Sobre as eleições de 2022 e o papel das Big Techs, acho que eu não diria que elas fizeram um trabalho nem melhor nem pior do que eu esperava, acho que as minhas expectativas eram baixas e acho que elas estiveram ali no limite mais ou menos do que o cenário já pintava. Ou seja, são empresas internacionais que atuam em vários países do mundo, que têm um impacto gigantesco na estruturação do debate público, que tem um discurso público de defesa muito grande de liberdades e da democracia, mas que na prática tem muito poucos mecanismos de cooperação e de respeito às leis e à realidade local.

Então o que a gente viveu em 2022 foi um processo de uma dificuldade muito grande de fazer com que as plataformas tomassem atitudes que visassem proteger esse cenário eleitoral e tudo que estava em jogo, a ameaça à democracia que estava em jogo no Brasil naquele momento.

A gente teve por outro lado ações muito enérgicas, sobretudo do Tribunal Superior Eleitoral, que acho que foram bastante importantes naquele momento, mas que são de alguma forma também excepcionais e que apontam para a necessidade de uma estruturação, de uma regulação mais estruturada e mais perene desse ambiente digital, porque esse não é um problema excepcional, um problema com o qual a gente precisa lidar todos os dias, é um pouco assim que eu vejo essa nossa experiência.

Como toda boa eleição majoritária, muita coisa aconteceu no domingo do primeiro turno de 2022 para qualquer um ser capaz de processar e entender plenamente. Com o passar dos dias, a autópsia do primeiro turno deixou mais claras tanto as estratégias de desinformação do bolsonarismo como a resposta das plataformas digitais.

Sob estresse, a boa vontade demonstrada nos acordos com o TSE virou frouxidão. Houve, sim, conteúdo tirado do ar, mas o ritmo foi muito menor do que o desejável.

Um bom exemplo para ilustrar o comportamento: assim que as urnas foram fechadas e o TSE declarou os vencedores e/ou quem iria ao segundo turno, compilados com vídeos de supostas fraudes passaram a ser veiculados em lives no YouTube em looping. Mais popular de todas, a live “Ao v1vo! Fraud3 na ele1ção! Provas são reveladas”, em linguagem “l33t”4, ficou no ar durante 23 horas e acumulou mais de 8 mil espectadores simultâneos. Só quando o vídeo já tinha mais de 2 milhões de visualizações o YouTube resolveu tirá-lo do ar por infringir as regras. Pior: o vídeo estava monetizado, como mostrou o site Núcleo. O site Wayback Machine registrou para a posteridade uma cópia do site. A live foi veiculada pelo canal Novo Brasil, que, na época, tinha 570 mil inscritos.

Não foi a única. Na segunda-feira, o canal veiculou outra, no mesmo formato, que acumulou 100 mil visualizações antes de ser tirada do ar. Quase um ano depois, o canal Novo Brasil segue ativo no YouTube. Nos três dias após o primeiro turno, a Novelo Data5 achou 16 lives e 137 vídeos disponíveis no YouTube mentindo sobre fraude. Após a deleção das duas lives do Novo Brasil, o site Núcleo achou outros 35 vídeos.

O YouTube estava longe de ser o único. Outra reportagem da Folha, desta vez de 13 de outubro6:

No Facebook, montagem com vídeo de 2018 da então deputada eleita Carla Zambelli dizendo, sem base na realidade, ter havido fraude naquele primeiro turno ficou no ar por ao menos 12 horas e reuniu 791 mil visualizações. “Houve fraude nas urnas eletrônicas, vamos agir, população” era a legenda do post. No Twitter, um perfil que desde o dia 2 compartilhou 14 posts sobre supostas fraudes na votação não teve suas mensagens nem sequer rotuladas com alertas sobre o conteúdo ser potencialmente enganoso ou com orientação que leva a informações no site do TSE (Tribunal Superior Eleitoral). Cinco das publicações tinham a mesma frase: “Tá aí a prova das fraudes nas urnas eletrônicas, fomos todos roubados!” (…) Ao procurar pelo termo “fraude”, o sistema de busca do YouTube sugere “fraude nas eleições 2022” como uma das opções. No Facebook, ao termo “urnas” foram sugeridas buscas como “urnas fraudadas” e “urnas em sindicato”, parte das quais indicadas como “populares agora”.
Checagens de fatos também eram exibidas com destaque, mas vinham acompanhadas de postagens com dados falsos, como um vídeo com a frase “fraude descarada nestas eleições”, no qual um homem com camiseta camuflada e com a palavra “intervenção” escrita acusava a Justiça Eleitoral de fraudar votos. A postagem não tinha nem sequer o rótulo que leva ao site do TSE e foi assistida pelo menos 663 mil vezes. Em outro exemplo, um post do blogueiro bolsonarista Allan dos Santos no Facebook com mais de 5.000 compartilhamentos em que ele diz que “todo mundo sabe que foi fraude” e que “o culpado é o [presidente do TSE] Alexandre de Moraes”, só recebeu o rótulo informativo após contato da Folha.

Na visão do TSE, os acordos fechados meses antes significavam que as plataformas seriam ativas na contenção da desinformação. Na prática, não foi isto que aconteceu. O tribunal abriu uma sessão no seu site para receber denúncias de desinformação. A sociedade civil mandou milhares de exemplos, que o TSE repassava às plataformas. O nó estava aí: ao receber os posts, o processo de verificação das plataformas era lento a ponto de só tirar o conteúdo do ar, como vimos nos exemplos anteriores, quando ele já tinha se espalhado. Muitos posts chegaram ao TSE, que os repassa às plataformas minutos após a publicação, mas a equipe enxuta para lidar com o problema dentro da big tech atrasava o processo. Quando caíam, os posts já tinham se replicado e o trabalho da mentira já estava feito. Antes fosse só a lentidão: alguns dos posts recebidos, ainda que explicitamente contra as regras, eram ignorados pelas plataformas e ficavam no ar (alguns até hoje, quase um ano depois).

Questionada, a big tech respondia ou com algum número grande (a Meta apagou cerca de 600 mil posts durante a campanha eleitoral por violência e discurso de ódio) ou uma nota genérica criada pelo departamento de relações públicas falando em “políticas sólidas para reduzir desinformação”, como a enviada ao site The Brazilian Report. Por baixo do elã de preocupação, porém, o problema seguia. Era padrão que casos específicos não fossem comentados, assim como ver posts problemáticos sumirem ou ganharem selos de mentira só após jornalistas e pesquisadores(as) chamarem a atenção da plataforma.

Isto, aliás, é um outro traço da atuação da big tech na moderação de conteúdo desinformativo no Brasil: há incontáveis exemplos de posts no Twitter, fotos no Instagram, vídeos no YouTube, Kwai e TikTok e posts no Facebook que desapareceram assim que o(a) repórter responsável ligou para ouvir o outro lado. É como se a big tech, algumas das maiores empresas do mundo em valor de mercado, dependessem de jornalistas e pesquisadores externos para fazerem seu trabalho. Enfim, tergiverso.

A primeira semana depois do primeiro turno deixou claro que a principal falha na estrutura montada pelo TSE para conter a desinformação eleitoral estava na atuação das plataformas. Ao fim do primeiro turno, que tinha passado longe da perfeição, as plataformas afrouxaram ainda mais seus processos de moderação. Chegou ao ponto em que o LinkedIn, a duas semanas do segundo turno, disparou uma notificação anunciando que Jair Bolsonaro estava na rede e perguntando se você queria segui-lo. O print fui eu mesmo quem tirei.

Print de sugestão do Twitter para seguir o então candidato à reeleição Jair Bolsonaro.
Print: Guilherme Felitti/Manual do Usuário.

A frouxidão das plataformas não passou incólume pelo TSE. Faltando 11 dias para o segundo turno, o presidente do tribunal, ministro Alexandre de Moraes, convocou uma nova reunião com as plataformas para informar que “a atuação das plataformas foi razoavelmente boa no primeiro turno, mas que neste segundo turno a situação da desinformação está um desastre”. Abre aspas para outra reportagem da Folha, assinada pela repórter Patricia Campos Mello:

Moraes afirmou ainda que as plataformas demoram para remover conteúdo e pressionou para que plataformas como YouTube, TikTok e Kwai não levem mais que quatro a cinco horas para remover vídeos após denúncias do tribunal. Com uma remoção mais rápida seria possível reduzir a viralização desses conteúdos nos aplicativos de mensagens.

Na reunião, Moraes anunciou que o tribunal votaria uma resolução no dia seguinte para ampliar seu poder de polícia contra a desinformação. Nenhuma das plataformas foi avisada com antecedência.

Em 20 de outubro, a dez dias do segundo turno, o TSE aprovou por unanimidade. Abre aspas para o Uol:

Uma resolução que endurece o combate a fake news e amplia o poder de polícia do tribunal para permitir a exclusão de conteúdos falsos e/ou descontextualizados repetidos que já tenham sido alvo de decisões para retirada do ar pelo plenário da Corte. A medida também reduz o tempo para a derrubada de fake news nas redes, sob risco de multa por hora de descumprimento.

Segundo a nova regra, conteúdos falsos teriam que ser removidos em, no máximo, duas horas em dias úteis e uma hora no fim de semana da eleição, contra 4 ou 5 horas no primeiro turno. O TSE também proibiu anúncios eleitorais pagos online “nas 48 horas que antecedem o segundo turno e nas 24 horas seguintes à votação”. Se a plataforma descumprisse as medidas de forma reiterada, o TSE poderia determinar a “suspensão do acesso aos serviços da plataforma implicada, em número de horas proporcional à gravidade da infração, observado o limite máximo de vinte e quatro horas”. Se o conteúdo atacasse o sistema eleitoral, a plataforma que não removesse seria multada entre R$ 100 mil a R$ 150 mil por hora de descumprimento.

A gente já falou aqui no Tecnocracia que, historicamente, operações nacionais de big tech só se mexem de verdade quando o bolso está na mira. Lembra de como o Google só corrigiu de verdade o seríssimo problema de conteúdo pedófilo no Orkut quando a Justiça veio para cima e anunciantes derrubaram campanhas? Contei esta história no Tecnocracia #59. Nas eleições de 2022, não foi diferente. Com a sombra de punições que iam de multas milionárias à suspensão do serviço, a big tech foi obrigada a prestar atenção.

No segundo turno das eleições de 2022, não foi diferente. A pressão da Justiça apressou a retirada de conteúdos fraudulentos e comprovadamente mentirosos, seja verificados por agências de checagens ou negados pelo TSE. Não tornou o cenário ideal, mas agilizou a derrubada de conteúdo lapidado para tumultuar o cenário eleitoral. Sempre bom reiterar: se melhorou, não foi pela ação ativa das plataformas, mas por algum player superior lhe baforando o cangote.

Às 19h57 de 30 de outubro de 2022, o TSE declarou a vitória de Lula sobre Bolsonaro. É aí que acaba a primeira fase da postura da big tech nas eleições. Com todos os resultados homologados pelo TSE, as plataformas anunciaram novas regras para proibir conteúdos alegando fraude eleitoral em 2022. Se eu tivesse que apostar um dinheiro, diria que suspiros sincronizados foram ouvidos nas sedes e casas dos executivos responsáveis pelas decisões eleitorais dentro das operações nacionais da big tech. Aparentemente, o pior tinha passado. Se a postura da big tech foi essa, então não poderia estar mais errada.

Aqui se encerra a primeira fase e começa a segunda. Um episódio da série Os Simpsons ajuda a explicar o que muda essencialmente nesta segunda fase.

Olá, meu nome é Bia Barbosa, eu sou jornalista e integro o Diracom, Direito à Comunicação e Democracia, que é uma organização da sociedade civil que acompanha bastante de perto o tema da liberdade de expressão em um ambiente digital. Nós acompanhamos o debate sobre a regulação de plataformas no Brasil há muitos anos e quando houve a invasão do Capitólio nos Estados Unidos, naquele fatídico 6 de janeiro, uma das grandes preocupações que várias organizações da sociedade civil brasileira tiveram foi como evitar que algo pudesse se repetir aqui no Brasil.

Em parceria com outras organizações que integram a Coalizão de Direitos na Rede, a gente prontamente iniciou um diálogo com as plataformas digitais, com as principais plataformas que têm representação no Brasil, no sentido de questioná-las sobre a existência de protocolos de crise para situações de emergência como essa que poderiam se repetir no processo eleitoral brasileiro que se avizinhava.

Por vários momentos a gente pediu para as plataformas para mostrarem esses protocolos, para dialogarem sobre esses protocolos com as organizações da sociedade civil, no esforço de a gente tentar evitar uma mesma tragédia. Esse diálogo nunca aconteceu de maneira concreta, esses protocolos nunca foram compartilhados, mas algumas delas garantiram que eles existiam.

Quando a gente chega no primeiro turno das eleições e vê episódios como aquele da tentativa de prisão do Roberto Jefferson, em que rapidamente um motim começou a se organizar nas redes sociais e as plataformas não tinham protocolos de crise para aquele momento, isso nos chamou muitíssima atenção e acendeu o alerta vermelha do que viria para o segundo turno.

Infelizmente, durante o segundo turno esses problemas se repetiram, mas o grande choque foi ver como as plataformas não atuaram no dia 8 de janeiro, quando houve uma tentativa de golpe organizada pelas redes sociais e transmitida ao vivo em várias redes sociais aqui em Brasília.

Essas plataformas não só não impediram que esses grupos se organizassem abertamente ao longo de todo o processo eleitoral e depois do Tribunal Superior Eleitoral constatar a vitória do presidente Luiz Inácio Lula da Silva nas urnas, não houve nenhum tipo de protocolo acionado para impedir que essa mobilização se concretizasse por meio dos acampamentos na frente dos exércitos e em chamamentos sistemáticos que continuaram acontecendo nas redes, como no dia 8 de janeiro esses atos foram transmitidos e incitados também pelas redes sociais.

Acho que na avaliação do Diracom, mas também da Coalizão de Direitos na Rede, isso acende um alerta que para nós que trabalhamos com esse tema já estava muito claro, mas que a partir do 8 de janeiro, felizmente, passou a chamar a atenção de uma parcela maior da sociedade brasileira da urgência de se regular o funcionamento das plataformas digitais no Brasil.

Não é uma discussão sobre liberdade de expressão. Nós como jornalistas temos todo o cuidado antes de defender qualquer tipo de regulação ou lei que possa vir a restringir o democrático exercício da liberdade de expressão no ambiente on-line, que é fundamental em qualquer democracia, mas se trata da gente não permitir que interesses econômicos, baseado no atual modelo de negócios que essas plataformas têm, prevaleçam diante do interesse coletivo e da importância de garantir o funcionamento das democracias, para que elas não sejam desestabilizadas, como a gente viu o que aconteceu no dia 8 de janeiro por aqui.

O caldo golpista engrossa com a vitória de Lula

Cena d'“Os Simpsons”, com uma pessoa de terno saindo da casa, outra na sacada e, ao fundo, a casa pegando fogo.
Imagem: Fox/Reprodução.

Em 1996, o 21º episódio da 7ª temporada d’Os Simpsons mostrava o diretor da escola de Bart e Lisa, Seymour Skinner, convidando seu chefe, o superintendente Chalmers, para um jantar em sua casa. Skinner fez promessas de uma banquete, mas o pernil que estava no forno queimou e o diretor foi obrigado a servir hambúrgueres para o chefe enquanto a cozinha — e, consequentemente, a casa — pegava fogo ao fundo.

A cena se tornou um meme pela sequência de absurdos, finalizados quando Chalmers vai embora com labaredas nas janelas após Skinner responder para a mãe que não era a casa que estava pegando fogo, era só a aurora boreal.

Você já entendeu a metáfora: um Skinner sorridente se esforça muito para manter um sorriso no rosto e fingir normalidade enquanto a realidade (no caso d’Os Simpsons, literalmente) ferve ao seu redor.

Assim que o TSE promulgou a vitória de Lula, dois movimentos transbordaram o radicalismo das redes para o mundo real. Dezenas de caminhoneiros passaram a fechar grandes rodovias pelo Brasil e milhares foram às portas dos quartéis acampar. Os dois movimentos radicais se lastreiam na teoria mentirosa da fraude eleitoral e na esperada reação das Forças Armadas a partir da delirante interpretação do artigo 142. Da mesma forma que faziam para questionar as urnas, correligionários de Bolsonaro passaram a usar as redes para convocar outros brasileiros para fechar estradas ou acampar em frente a quartéis na esperança de um golpe.

Com o Brasil pegando fogo, a big tech adotou duas posturas: uma pública de tranquilidade e outra interna de ação mais enérgica de moderação.

Vamos começar falando pela tranquilidade demonstrada publicamente. A big tech entendeu que, ao contrário de 2018, a sociedade e a Justiça estariam de olho no papel fundamental que teria na eleição. Logo, para demonstrar interesse, as plataformas abriram canais de comunicação com organizações da sociedade civil que acompanham o tema. Essas reuniões, quase sempre por videochamadas, se intensificaram perto dos dias de votação.

O modelo é mais ou menos o mesmo: o(a) profissional escolhido para conversar com a sociedade civil não era, necessariamente, quem tomava as decisões importantes. Mas seu papel era também defender estas decisões, num modelo parecido com o chamado “atendimento” nas agências de publicidade.

Eu estive em algumas daquelas reuniões. Assim que Lula ganhou e o golpismo saiu das redes para a realidade, a Novelo Data e outros grupos que estavam analisando a questão há anos começaram a ver o aumento preocupante do conteúdo pedindo golpe de estado. A luz amarela acendeu, mas não para a big tech. Na semana seguinte ao segundo turno, várias organizações se reuniram com o YouTube para expressar nossa preocupação. O recado era claro: a eleição acabou, mas os riscos continuam.

A resposta do YouTube seguiu, de maneira geral, duas linhas argumentativas: pela primeira, alegava que a equipe interna responsável pela moderação mais rápida exigida pelo TSE já estava entupida de trabalho. Não é preciso ser um gênio para entender as entrelinhas: se aqueles funcionários eram os únicos e já estavam atarefados, não havia braços para assumir novas tarefas. A segunda resposta complementava a primeira: o YouTube se disse satisfeito com a evolução que vinha apresentando nos últimos meses. Os norte-americanos (e a Lu vai me ajudar aqui) têm a expressão “self pat on the back” — você dá um tapinha nas costas quando quer congratular alguém e o faz em si mesmo quando é autoelogio. O YouTube demonstrou claramente na prática o tal “self pat on the back”.

A casa estava pegando fogo, mas o YouTube estava parado na soleira sorrindo, orgulhoso da sua evolução e sugerindo que não podia fazer mais. Esse é um traço da big tech não só no Brasil: as promessas sempre resvalam na onipotência. Na promessa, é possível colonizar Marte, desafiar a morte e levar a consciência para um metaverso. Mas, na hora de resolver problemas que essas mesmas empresas criaram, é todo mundo impotente, incapaz, sem recursos.

Print de vídeo do YouTube, com homem branco, de barba, boné e camiseta verde/da bandeira do Brasil, com legenda em que ele diz que o exército “vai tomar conta” em 72 horas.
Imagem: YouTube/Reprodução.

Para engrossar a sensação de “trabalho bem feito”, Meta e Google mudaram regras para tirarem do ar conteúdos que pediam golpe de estado. Ao menos em tese. Na prática, o YouTube manteve vídeos “com convocações de protestos e manifestações pedindo intervenção militar no Brasil ou uso do artigo 142 da Constituição, por entender que não ferem as políticas atuais da plataforma”, segundo reportagem do jornal Folha de S. Paulo:

“Estamos vendo lives no YouTube monetizadas chamando intervenção militar”, diz Bia Barbosa, integrante da Coalizão Direitos na Rede. Segundo monitoramento da Novelo Data, há pelo menos 73 vídeos no YouTube com menções ao artigo 142, convocação das Forças Armadas e incentivos aos bloqueios, muitos com mais de 1 milhão de visualizações.

Esse estudo da Novelo Data encontrou centenas de vídeos em português sobre as paralisações nas estradas e os acampamentos golpistas. Após uma filtragem manual feita em parceria com membros da Coalizão Direitos na Rede, sobraram 73 vídeos que inegavelmente incentivavam bloqueios das estradas e golpe de estado. A resposta do YouTube: “Ao longo da eleição, removemos diversos vídeos que violavam nossas políticas, destacamos conteúdo de fontes autorizadas, como o Tribunal Superior Eleitoral, e limitamos a disseminação de conteúdo duvidoso dentro da plataforma.” De novo, o discurso oficial conflita com a realidade. O ponto é que o YouTube não manteve vídeos com teor problemático apenas nas semanas seguintes ao segundo turno — um ano depois, dos mais de 70 vídeos encontrados pelo estudo, 28 seguem no ar, incluindo um em que golpista em Santa Catarina diz que as estradas só serão desbloqueadas quando o Exército tomar o poder.

Print de post no Facebook, de um vídeo em que aparece Bolsonaro com as palavras em cima e embaixo: “O bicho vai pegar. PT e TSE unidos na fraude”.
Imagem: Facebook/Reprodução.

O cenário não é muito diferente no Facebook. Vídeos das manifestações em frente aos quartéis em que bolsonaristas pedem golpe de estado e incitam que outros golpistas se juntem a eles continuam no ar. Um post do Acorda Piracicaba publicado em 3 de novembro, dizendo que “já está confirmado fraude na (sic) urnas” segue no ar com 54 mil curtidas, 12 mil comentários e 30 mil compartilhamentos. O post traz um vídeo de Bolsonaro mentindo sobre “provas irrefutáveis”. A transmissão ao vivo que o Fiscal do Povo Wellington fez no dia 6 de novembro em frente ao Comando Militar Sudeste do Exército, em São Paulo, segue no ar. No total, são 99 mil curtidas, 24 mil comentários e 747 mil visualizações. Aos 4 minutos e 42 segundos, um entrevistado incita outros a irem às ruas, “onde isto vai se decidir”.

Para piorar, uma falha técnica da Meta mostrou um selo dizendo que os votos ainda estavam sendo contados pelo TSE na semana seguinte ao segundo turno, o que era mentira. O G1 registrou como até mesmo post do derrotado Bolsonaro trazia o selo mesmo após a certificação do resultado pelo próprio TSE. Sem surpresa, o rótulo no Facebook e Instagram foi transformado em desinformação pelo bolsonarismo. Parabéns, Meta, por produzir desinformação no momento em que era fundamental esclarecê-la e limitá-la.

Olá, eu sou professor Marcelo Alves do departamento de comunicação e da graduação de estudos de mídia na PUC do Rio de Janeiro. Como pesquisador, a principal preocupação que eu tinha era que o YouTube e outras plataformas desenvolvessem bons protocolos de governança do conteúdo e de moderação do conteúdo no ambiente digital para as eleições, com foco especificamente no conteúdo de risco antidemocrático, que fosse um risco à integridade eleitoral, particularmente aqueles conteúdos que espalhavam desinformação sobre as urnas eletrônicas ou sobre o sistema eleitoral de forma mais geral, potencialmente levando a o contexto de não aceitação do resultado das eleições.

Eu esperava que essa política fosse desenvolvida com um processo de consulta à sociedade civil, a pesquisadores, acadêmicos, especialistas, jornalistas investigativos, essencialmente para que se cuidasse de quais eram, primeiro, os conceitos que definiam essas políticas, as potenciais sanções, e segundo, qual era o processo de retirada de conteúdo, entendendo que a gente ainda não tem regulação para isso no Brasil. O processo de participação e envolvimento de um grupo maior da sociedade civil poderia trazer uma série de insights, de acúmulos e debates que a gente vem tendo nos últimos anos.

Para além dessa questão de política, uma preocupação que a gente tinha era melhorar o processo de acesso a dados e de transparência geral às informações que circulavam as plataformas, entendendo que quanto mais transparência, mais acesso e mais disponibilidade de informações, principalmente para pesquisadores e jornalistas investigativos, melhor a sociedade civil poderia desenvolver ferramentas e mecanismos de monitoramento e até de avaliação de risco sobre a produção de conteúdo de desinformação, violência política e de risco antidemocrático nas plataformas.

Eu considero que não somente depois do dia 8 de janeiro, mas somando a isso, todo o acúmulo de conhecimento que a gente teve, a produção de reportagens jornalísticas, de pesquisas acadêmicas aplicadas, em grande parte os avanços que foram demonstrados são muito insuficientes. Em alguma medida, houve algum tipo de política de algumas plataformas como o YouTube, que tentaram criar regras, protocolos para retirados de conteúdo. Isso é um avanço que algumas outras plataformas nem tiveram, nem se disponibilizaram a fazer, como Telegram, WhatsApp, por exemplo. Então, embora haja um avanço, esse avanço é muito significativo.

A gente viu durante o segundo turno eleitoral, depois do pós-eleição e até o dia 8 de janeiro, um conteúdo sendo produzido sistematicamente, abertamente, chamando a intervenção militar. Durante todo o período eleitoral, antes do período eleitoral, teve um conteúdo muito significativo, antidemocrático, com argumentos em favor utilizando, propondo uma interpretação do artigo 142, para fins de intervenção militar ou de um poder moderador do exército, enfim. A gente acompanhou durante meses e meses um conteúdo muito significativo, com muitas visualizações, sendo produzido em favor de movimentos antidemocráticos, em que pese pouquíssima reação foi tomada pelo YouTube. Até mesmo no dia 8 de janeiro, grande parte do conteúdo foi removido por ação dos próprios canais, que viam ali algum tipo de implicação legal, a maioria uma ação de automoderação e não uma resposta preventiva do YouTube. Então a reação foi muito atrasada, muito pouco efetiva e muitas vezes olhando para fatores que são muito difíceis de serem aferidos, seja pelo acesso de dados, seja pela falta de transparência nos mecanismos de aplicação das políticas de moderação das plataformas.

É preciso registrar que, na comparação com o ritmo de moderação apresentado nos últimos meses, a big tech mostrou um afã um pouco maior de derrubar conteúdos problemáticos com golpismo nas ruas. Ficou ainda bem longe do ideal, mas que fique o registro. De onde vem essa impressão? Da experiência trazida pela engenharia reversa que falamos no começo do episódio. Este é outro ponto problemático da questão sobre o qual não se fala muito: sem abrir dados detalhados, apenas com comunicados vagos à imprensa, a big tech acaba apagando evidências que poderiam incriminar quem comete crimes ou a si mesma. “Pô, mas se não modera você reclama; se modera, você reclama também.” O ponto aqui é ser transparente sobre a moderação. A sociedade precisa saber o que as donas dos ambientes onde passamos tantas horas do nosso dia e que concentram nossas comunicações fazem para mantê-los sanitizados e seguros.

O radicalismo atingiu seu ápice em 2022 quando um caminhoneiro encontrou uma bomba caseira plantada em seu caminhão-tanque na véspera de Natal. Chamada pelo motorista, a Polícia Militar do Distrito Federal (PMDF) confirmou que era uma bomba caseira e a detonou. O objetivo do plano inicial era explodir os 60 mil litros de querosene no caminhão ao lado do aeroporto para tentar estimular caos suficiente para que as Forças Armadas intercedessem no governo do Distrito Federal.

Era a última semana do governo Bolsonaro, que ainda tinha poder para decretar Garantia de Lei e Ordem. A GLO, como explica o site do Ministério da Defesa, permite o emprego das Forças Armadas “de forma episódica, em área restrita e por tempo limitado, com o objetivo de preservar a ordem pública, a integridade da população e garantir o funcionamento regular das instituições”. Sabe qual artigo, entre outros, regulamenta a GLO? O artigo 142 da Constituição. De novo, não sou eu que estou falando: é o site do Ministério da Defesa do Brasil.

A bomba só não explodiu por um defeito técnico. No mesmo dia da descoberta do plano, a PMDF prendeu o terrorista bolsonarista George Washington em um apartamento atulhado de armas e componentes de bombas e anunciou estar atrás de outros dois apoiadores de Bolsonaro: Alan Diego dos Santos Rodrigues e Wellington Macedo de Souza. Alan se entregou quase um mês depois, em janeiro de 2023, e Wellington foi preso no meio de setembro, 8 meses depois da tentativa de atentado. Tanto o xará do presidente dos EUA quanto Alan já foram condenados pela Justiça do Distrito Federal a penas que vão de 5 a 9 anos de prisão.

Em julho, a PMDF repassou à CPMI do 8 de janeiro dados coletados em suas diligências, mostrando que George Washington acessou ao menos 14 vídeos no YouTube ensinando a fazer explosivos. Abre aspas para reportagem do Metrópoles:

Os vídeos controversos acessados por Oliveira no YouTube tinham títulos didáticos, a exemplo de “Como explodir uma bomba de dinamite”, “Como fazer um detonador”, “Fazer pavio com pólvora” e “Nitrato de amônia”, material usado na fabricação de bombas. Não é possível saber se os vídeos vistos pelo homem continuam no ar, mas a coluna localizou, até esta quinta-feira (13/7), filmagens com títulos idênticos disponíveis a qualquer pessoa no YouTube. Já era sabido que Oliveira havia pesquisado sobre dinamites na plataforma de compras Shopee.

Quando eu li a notícia, fui fazer o que pesquisadores fazem nesta hora: coletar dados. Usei quatro queries: “Como fazer um detonador”, “Como explodir uma bomba de dinamite”, “Fazer pavio com pólvora” e “Nitrato de amônia”, quatro dos títulos de vídeos que estavam no histórico de George Washington no YouTube, segundo a PMDF.

A planilha resultante tem 324 linhas. Muita coisa ali não tem relação com bombas físicas: há tutoriais sobre detonadores no Minecraft e até pegadinhas do João Kléber. Mas em julho de 2023, seis meses depois da tentativa de explodir um caminhão-bomba perto do Aeroporto Internacional de Brasília, seguem no ar vídeos mostrando detalhadamente como construir detonador, pavio com pólvora e bomba de dinamite caseiros. As políticas do YouTube são cristalinas na proibição de conteúdos que facilitem o acesso a itens como explosivos.

O que o YouTube respondeu à coluna do Guilherme Amado no Metrópoles? “Em nota, o YouTube afirmou que os vídeos com títulos citados pela reportagem ‘por si só não representam violações das nossas políticas’. A plataforma disse que proíbe conteúdos que ‘incentivem atividades ilegais ou perigosas com risco de danos físicos graves ou de morte’, acrescentando: ‘Por exemplo, dar instruções de como criar uma bomba que será usada para machucar ou ferir outras pessoas.’”

Nessas horas, a big tech mostra que, para se defender, apela para uma estratégia muito popular da extrema-direita: palavras sem qualquer conexão com a realidade. Tem vídeo, a gente está vendo, o terrorista viu. Mas a nota só diz que não pode.

No terceiro e último episódio da trilogia sobre o papel da big tech nas eleições brasileiras de 2022: com a posse de um novo presidente, as plataformas começam uma ofensiva de charme para se aproximar de Lula. O plano dura uma semana, até a tentativa de golpe de 8 de janeiro. É quando acaba o teatrinho de normalidade e a big tech se engaja sem qualquer vergonha no movimento de se proteger e fugir da responsabilização.

Foto do topo: Fernando Frazão/Agência Brasil.

  1. “Nossa, Guilherme, que humildade.” Mas, sejamos honestos, em termos de vilania ambos têm níveis semelhantes.
  2. O segundo Tecnocracia, lá em janeiro de 2019, explica como a União Européia sempre foi — e continua sendo — o mercado mais preocupado em impor limites e responsabilidades à big tech muito antes de Meta, Google e afins serem fundados.
  3. E não é de carimbó (quem pegou, pegou).
  4. ou seja, alguns “i” e “e” viraram “1” e “3” para dificultar a moderação.
  5. Tal qual o episódio anterior, muito do que falarei hoje envolve meu trabalho e/ou a Novelo Data, minha empresa. Quando for o caso, eu vou ser explícito e 100% transparente.
  6. Essa reportagem tem dados fornecidos pela Novelo Data e uma frase minha sobre a lentidão do YouTube em remover conteúdos mentirosos sobre fraude.

Fonte

  continue reading

33 episoade

Toate episoadele

×
 
Loading …

Bun venit la Player FM!

Player FM scanează web-ul pentru podcast-uri de înaltă calitate pentru a vă putea bucura acum. Este cea mai bună aplicație pentru podcast și funcționează pe Android, iPhone și pe web. Înscrieți-vă pentru a sincroniza abonamentele pe toate dispozitivele.

 

Ghid rapid de referință