Melhor seria se o Congresso Nacional editasse uma lei para tratar da forma como as plataformas digitais devem se comportar durante as eleições. Mas, como isso não aconteceu, as resoluções do Tribunal Superior Eleitoral sobre o tema trataram de ajustar o contexto jurídico à realidade da era digital, ainda que ao custo da segurança jurídica no setor.
Freepik
Essa é a opinião dos especialistas no assunto consultados pela revista eletrônica Consultor Jurídico em relação à atualização feita pelo TSE na Resolução 23.610/2019, que trata da propaganda eleitoral. O texto impõe uma série de obrigações às chamadas big techs.
Nas eleições deste ano, elas devem adotar medidas para impedir ou diminuir a circulação de fatos notoriamente inverídicos ou gravemente descontextualizados.
Para isso, precisam atualizar seus termos de uso levando em conta essa obrigação, criar canais eficazes de denúncia, planejar ações corretivas e preventivas, avaliar seu impacto nas eleições e criar medidas eficazes e proporcionais para mitigar os riscos identificados.
A empresa que detectar conteúdo político-eleitoral ilícito ou for notificada sobre isso deverá adotar providências imediatas para cessar o impulsionamento, a monetização e o acesso a essa publicação, além de apurar internamente o fato e os perfis e as contas envolvidos.
O descumprimento dessas normas terá consequências. A resolução diz que as big techs serão solidariamente responsáveis, civil e administrativamente, quando não derrubarem imediatamente conteúdos e contas durante o período eleitoral em casos de risco.
Isso vale para atos antidemocráticos, compartilhamento de fatos descontextualizados que atinjam a integridade do processo eleitoral, incitação à violência contra membros da Justiça Eleitoral, discurso de ódio e conteúdo de inteligência artificial em desacordo com as normas.
É o jeito?
Especialista em Direito Digital e proteção de dados, Alexander Coelho, do escritório Godke Advogados, avalia que a atuação do Congresso sobre o tema é imperativa, com a edição de leis claras e precisas que regulamentem o uso da tecnologia nas eleições.
Enquanto essa legislação não sai, o TSE, dentro de sua esfera de competência, tem obrigação de agir para proteger o processo eleitoral. “A resolução, ao atualizar a normativa para incluir as obrigações das big techs, busca adaptar o contexto jurídico à realidade da era digital.”
Marco Sabino, especialista em mídia e internet do Mannrich e Vasconcelos Advogados, destaca que o TSE já havia baixado resolução no mesmo sentido nas eleições de 2022, com o intuito de conter a explosão dos casos de fake News no segundo turno.
Para ele, a tentativa é louvável e possível apenas porque a Constituição de 1988 entregou as chaves das eleições para o Judiciário. “É normal o TSE ter uma capacidade regulamentar um pouco maior, ao menos do ponto de vista da análise do que é melhor nas eleições.”
Sabino aponta que a regulamentação do TSE, no entanto, sobrepõe-se à lei que trata sobre a responsabilização das plataformas digitais no Brasil: o artigo 19 do Marco Civil da Internet.
Com base no modelo americano, esse dispositivo fixa que o provedor só será responsabilizado por danos causados por conteúdo de terceiro se, após ordem judicial, não tomar as providências cabíveis. “O que o TSE faz é modificar o artigo 19”, diz ele. “Mas os motivos são bons”, acrescenta.
Segundo Fernando Mota Novais, do Nelson Wilians Advogados, o poder de regulamentar do TSE deve se pautar na complementação da legislação ordinária eleitoral, mas sempre tendo por base os princípios gerais que regem o pleito.
“A regulamentação realizada, portanto, longe de significar abuso ou desvio de competência, prima pela efetividade e atualidade das regras eleitorais.”
Como ficamos?
O nobre objetivo buscado pelo TSE traz consigo uma série de inconvenientes, na visão de André Giacchetta, do escritório Pinheiro Neto Advogados.
Para ele, o tribunal desborda de sua competência em diversos momentos, principalmente quando inclui nas responsabilidades das big techs conteúdo não apenas eleitoral, mas também político.
O parágrafo 1º do artigo 27-A define esse conteúdo como tudo o que disser respeito a temas eleitorais e, também, cargos eletivos, pessoas detentoras de cargos eletivos, propostas de governo e projetos de lei, entre outros.
Além disso, o TSE cria três modelos distintos de responsabilidade das empresas de tecnologia, sem oferecer balizas mínimas sobre sua caracterização ou cumprimento.
Quando o texto trata do conteúdo ilegal feito por inteligência artificial, a remoção tem de ser imediata e de iniciativa da plataforma ou por ordem judicial. “As plataformas precisa monitorar esse tipo de conteúdo? Há essa obrigação?”, indaga o advogado.
Em caso de divulgação de fatos inverídicos, as plataformas devem agir imediatamente para removê-los, sempre que detectarem sua existência ou forem avisadas por terceiros. Não há, porém, parâmetro para definir o que seria esse tipo de conteúdo. E quem serão esses terceiros? Interessados na derrubada de certas postagens, por exemplo?
E, quando trata da falta de ação das plataformas, a norma as coloca como solidariamente responsáveis, civil e administrativamente, pelos danos nos chamados “casos de risco”.
Nesse ponto, o TSE novamente desborda de sua competência, segundo Giacchetta. O Código Civil fixa, no artigo 265, que solidariedade não se presume: resulta de lei ou da vontade das partes.
“O TSE deveria criar parâmetros para que os provedores tenham balizas do que é um conteúdo sabidamente inverídico. Ou coisas até mais simples. O que são atos antidemocráticos? Vivemos essa discussão hoje. Há um grau de subjetividade na determinação da conduta. Essas balizas seriam algo extremamente relevante”, diz André Giacchetta.
Por fim, o tribunal ainda coloca no artigo 27-A, parágrafo 3º, que as obrigações criadas são “de cumprimento permanente, inclusive em anos não eleitorais e períodos pré e pós-eleições”, o que não parece razoável, em sua análise.
“Nenhuma dessas obrigações estava na consulta pública feita pelo TSE. Nenhuma delas foi objeto nas audiências e nas discussões públicas. Elas apareceram exclusivamente no dia do julgamento da resolução”, diz o advogado.
Bandeira antiga
A legislação brasileira sobre as big techs precisa mesmo ser aprimorada. O Supremo Tribunal Federal deverá julgar dois recursos que discutem a constitucionalidade do artigo 19 do Marco Civil da Internet e abordam a responsabilidade de fiscalizar o conteúdo publicado pelas plataformas.
Como mostrou a ConJur, a lei foi inovadora quando foi editada, em 2014, mas em menos de dez anos dá sinal de obsolescência justamente pela forma de atuação das big techs.
Essa se tornou uma bandeira do ministro Alexandre de Moraes, presidente do TSE. Ele já declarou que responsabilizar essas empresas por abusos cometidos na monetização de conteúdo e pela inteligência artificial pode reequilibrar o jogo democrático.
Como o PL das Fake News está travado no Congresso, o TSE ficou sem alternativas para 2024, ano de eleições municipais em mais de cinco mil cidades brasileiras.
A corte justifica a normatização pela função social e o dever de cuidado dos provedores de aplicação, que orientam seus termos de uso e a prevenção para evitar ou minimizar o uso de seus serviços na prática de ilícitos eleitorais.
“O TSE não está inventando nada. O artigo 170 da Constituição é expresso: a função social da propriedade é obrigatória para nós. Estamos, com base nele, chamando essas empresas ao cumprimento da função”, disse a ministra Cármen Lúcia, relatora das resoluções.
Função social
André Giacchetta alerta que não há na legislação eleitoral brasileira qualquer definição sobre o que é o dever de cuidado. “Como pode se justificar pelo dever de cuidado e pela função social, que na Constituição é a da propriedade?”.
Marco Sabino pondera que os princípios constitucionais são bastante largos, o que até justifica a responsabilização das big techs com base na função social que exercem. “Mas não precisa ser assim. O Congresso é que tem de decidir. A competência não é do TSE.”
Em sua análise, a alternativa seria estabelecer uma fiscalização maior sobre os produtores de conteúdo, o que seria difícil pela pulverização deles pelo mundo. “É a escolha de Sofia. Preferiram responsabilizar o mensageiro para asfixiar o remetente.”
Fernando Mota Novais concorda com a justificativa do TSE porque as big techs exercem verdadeiro papel social. “Elas dão voz e rosto a candidatos e candidatas, e, considerando essa relevância, a regulamentação é, mais do que importante, necessária.”
Já Alexander Coelho avalia que a posição do TSE pode ser vista como válida sob a ótica de que as empresas, especialmente aquelas com grande poder e alcance, têm responsabilidades sociais que vão além do mero lucro.
“Contudo, é essencial que essa função social não seja utilizada como pretexto para medidas que possam vir a coibir a liberdade empresarial ou a livre concorrência. Nesse sentido, o dever de cuidado dos provedores não deve ser confundido com um dever de censura ou controle excessivo do discurso, que é o coração de uma sociedade democrática e livre.”
Fonte: Conjur