
A definição pelo Supremo Tribunal Federal da inconstitucionalidade do artigo 19 do Marco Civil da Internet trará mudanças significativas no uso das plataformas digitais.
O artigo 19 determinava que a plataforma só poderia ser responsabilizada civilmente após decisão judicial. Ou seja, só ver-se-ia obrigada a retirar conteúdo, considerado ofensivo por alguém, após decisão judicial. Contudo, o STF decidiu pela inconstitucionalidade deste artigo.
A partir de agora, as plataformas e aplicativos serão responsabilizados pelos danos decorrentes de conteúdo gerados por terceiros em casos de crimes ou atos ilícitos, independentemente da remoção do conteúdo.
A respeito dessa decisão cabem alguns comentários:
As plataformas sempre tiveram discricionariedade na sua política de moderação de conteúdo.
A remoção de conteúdos pode virar uma política quase que oficial das plataformas, mas isso jamais as impediu de moderar conteúdo, incluindo a remoção de postagens e vídeos. Grandes plataformas, como o Facebook, vieram a adotar essa política nos últimos anos, ao trabalhar junto com organizações privadas que se definem como moderadoras de conteúdo ou de fact checking. Qualquer usuário de plataformas ou redes sociais está, em tese, sujeito a ter suas postagens, vídeos ou mesmo contas removidas, independentemente de decisão judicial, a gosto dos moderadores das mesmas.
O transplante da legislação da União Europeia
A decisão do STF foi uma forma de importar o Digital Services Act (DAS) da União Europeia para o Brasil. Pela lei europeia, aprovada em 2022, mas que entrou em vigor em fevereiro de 2024, as plataformas veem-se obrigadas a instituir mecanismo de denúncia sobre conteúdo, enquanto que as maiores, com mais de 45 milhões de usuários, devem, além disso, apresentar relatórios, auditorias, avaliação de riscos e planos de mitigação em colaboração com as autoridades. Em seus votos quanto a matérias os ministros Alexandre de Moraes e Luís Roberto Barroso citaram o DAS como legislação pertinente para a regulação de conteúdo.
Essa “importação” da legislação europeia não veio sem defeitos, uma vez que esta ainda faz a distinção entre o porte das plataformas, pois pela decisão do STF não é feita distinção entre, por exemplo, uma grande plataforma como o X ou Facebook ou algum similar nacional de menor alcance. Enquanto que na EU, houve um período de mais de um ano entre a aprovação da lei e sua entrada em vigor, no Brasil as plataformas terão que, de uma hora para outra, adotar todas as obrigações ditadas pelo STF.
A intensificação dos mecanismos de censura
A censura é uma consequência lógica, tal como vem sendo implementada na Europa. Como, principalmente em conteúdo com teor político, não a um critério claro para se definir o que é, por exemplo, manifestação de pensamentos “antidemocráticos”, as plataformas vão preferir censurar antes. Assim como quaisquer ondas de denúncias, que também podem ser manipuladas, podem forçar as plataformas a retirar conteúdo.
Tendência à dispersão de redes, plataformas e páginas
Essa tendência de escalada da política de censura das plataformas pode ter como efeito a migração de usuários para plataformas menores ou mais segmentadas, em termos de nichos de grupo, no que se refere ao conteúdo. Mesmo que as medidas do STF busquem todas as plataformas, redes menores serão menos suscetíveis a denúncias, pelo escopo menor de usuários. Do mesmo modo, o uso da internet hoje, muito concentrada em poucas redes com milhões de usuários pode voltar a se dispersar, em certa medida, para fóruns ou websites, tal como era antes do advento das grandes redes.
Plataformas como X, principalmente após ser adquirida por Elon Musk, mantiveram a política de abertura aos mais diversos grupos, com uma política relativamente frouxa de conteúdo, como forma de ampliação da quantidade usuários, o que contribuiu para o desenvolvimento de sua ferramenta de IA (Grok). Essa ligação entre variedade de informações e desenvolvimento de ferramentas de IA pode estar por trás das políticas de moderação das plataformas, muito mais do que “conluio com a extrema-direita global”, como frequentemente apontam os defensores dos modelos rígidos de regulação.
O STF adere à doutrina da OTAN de guerra cognitiva
O próprio desenvolvimento do Digital Services Act e seu “puxadinho” adotado pelo STF, deve ser entendido dentro de uma estratégia de desenvolvimento de guerra híbrida ou de guerra cognitiva adotada pela OTAN.
É disso que fala o ex-assessor de Trump, Mike Benz, quando fala do desenvolvimento paulatino do que se chama “complexo industrial da censura”, surgido em meados da década de 2010, após o golpe do Maidan na Ucrânia e da anexação da Crimeia pela Rússia. Se nas décadas anteriores, adotou-se a política de defesa irrestrita da liberdade de expressão como princípio da política externa dos EUA, a partir desse evento percebeu-se que a Rússia e China passaram a dominar as “regras do jogo” também. No âmbito da OTAN, são criados um centro de comunicações estratégicas e é elaborado o conceito de guerra cognitiva.
A partir de evento como Brexit e a primeira eleição de Donald Trump são elaboradas narrativas de que os sistemas eleitorais dos países do bloco estariam vulneráveis à guerra informacional, de modo que, a partir de 2017, o Tribunal Superior Eleitoral passa a trabalhar com organizações supostamente de defesa contra essas ameaças, sobretudo nas eleições de 2022, fato que vem sendo denunciado por grupos conservadores eou bolsonaristas em algumas mídias. A volta de Trump à Casa Branca escancarou essa política.
Se ela é válida ou não, é curioso notar como tais preocupações não estavam presentes no Marco Civil da Internet, aprovado em 2014, logo antes do desenvolvimento dos chamados mecanismos de censura supracitados. O que ocorreu mesmo, com toda a ampla discussão que precedeu a elaboração, votação e implementação do Marco Civil, tal como salientam os especialistas da área.
Decisão do STF não mascara falta de política de segurança das redes no Brasil
É de se lamentar que a decisão sobre uma política informacional sobre plataformas digitais e redes sociais, sediadas nos EUA, onde de lá mantém seus servidores que controlam os fluxos de informação digital não tenham envolvido o Executivo e o Legislativo, ainda mais dentro de uma perspectiva de segurança nacional e cuidado com operações de guerra cognitiva ou informacional que venham de fora. Ou que venha a considerar não só o peso das plataformas nas políticas de moderação de conteúdo, mas também sobre as partes interessadas, ou seja, que tipo de organizações vão falar pela “sociedade civil” de forma a influenciar políticas das redes e decisões judiciais a respeito, além da atuação do ministério público. O que leva a outra questão que é a discussão sobre a atuação de ONGs no Brasil, sobretudo as controladas ou financiadas de fora.