Aprovação do projeto contra fake news pode comprometer debate democrático

Integrantes do painel realizado pela Frente Parlamentar da Economia e Cidadania Digital debateram o assunto nesta segunda (1)

Apresentado no início de maio pelo senador Alessandro Vieira (CIDADANIA/SE), o projeto de lei 2630 propõe a instituição da Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet, cujo um dos objetivos principais é combater o envio em massa de conteúdos de desinformação. 

De acordo com o documento inicial, plataformas de rede sociais nacionais e internacionais com público maior do que dois
milhões de usuários precisariam cumprir com novas práticas para evitar a
disseminação de notícias falsas, além de atualizar semanalmente
informações como a quantidade de perfis excluídos e a justificativa para
tal ação. Advertências, multas ou até mesmo proibição do serviço podem
ser consequência para empresas que descumprirem essas regras.  

O PL, porém, vem sendo alvo de críticas por organizações relacionadas com o meio web, tanto por sugerir alterações no Marco Civil da Internet como por conta da falta de indicadores claros e detalhados sobre o que é conteúdo de desinformação pode levar às plataformas a deletar postagens legítimas para não correr o risco de descumprir a lei. 

Nesta segunda (1) a Frente Parlamentar Mista da Economia e Cidadania Digital, também chamada de Frente Digital, realizou um evento on-line para debater a questão de transparência e responsabilidade do intermediário caso o projeto, que deverá entrar em votação até terça-feira (2), seja aprovado. 

A pressa pode ser inimiga da boa intenção 

Com mediação do jornalista Pedro Dória, o painel contou com a presença do senador Alessandro Vieira (CIDADANIA/SE), autor do PL 2630; Vinicius Poit (NOVO/SP); Bia Barbosa (Coalizão Direitos na Rede), Laura Moraes (Avaaz) e Monica Rosina (Facebook). 

Autor do projeto de lei, Vieira afirma que a medida foi proposta para dar mais transparência aos processos para classificar um conteúdo como falso e também fornecer a possibilidade de defesa. “Já
existe uma política de proteção ativa das plataformas, mas ela é
unilateral, não garante notificação prévia e nem direito de defesa e
recurso”. 

Para Bia Barbosa, da Coalizão Direitos na Rede, a responsabilidade das plataformas na checagem e possível remoção de fatos precisa girar em torno de três questões centrais: 

  • Garantir mecanismos claros e ostensivos de recebimento de denúncias de desinformação: ter uma usabilidade que deixe claro ao usuário que ele pode fazer uma denúncia, e não “esconder” a opção, dificultando o trabalho de classificação; 
  • Garantir que a pessoa que teve o conteúdo denuncia tenha o direito de protestar contra a categorização;  
  • E garantir a transparência do processo de denúncia. 

Mesmo concordando com a necessidade de um ajuste na gestão de desinformação feita pelas plataformas de rede social, Barbosa acredita que a aprovação do projeto em seu estado atual pode prejudicar a discussão. 

“Nos preocupa muito que amanhã teremos a votação de um texto que a gente não conhece [a PL está sendo revistada pelo relator pelo senador Angelo Coronel (PSD/BA) ], mas não sabemos se essas incorporações serão aceitas pelo relator”, explica a painelista. “É um problema muito sério no ponto de vista do atropelo do debate democrático.” 

Discussão precisa ser mais longa, porém tem que ser eficiente 

Deputado federal em São Paulo, Vinicius Poit (NOVO) também defende que a discussão sobre a lei seja mais demorada e aprofundada do que o estabelecido pela agenda atual. “Mesmo que alguns países como Alemanha e França estejam revendo a questão do código de conduta [das plataformas sociais, acho que todo o esforço para o diálogo e construir algo com um pouco da opinião de todos é válida nesse momento”. 

Monica Rosina, do Facebook, informou que esse a pauta em questão é vista de forma bastante relevante dentro da empresa. “O Facebook reconhece o problema das notícias falsas como uma das questões mais relevantes internamente, e vem trabalhando na prevenção de abusos.”  

A profissional informou que, entre janeiro e março deste ano, a plataforma eliminou 1,7 bilhões de contas falsas. Sobre a divulgação de desinformação, explicou que a marca atua sobre dois pilares: remoção, quando o conteúdo viola as regras de convivência estabelecidas pela empresa, e redução, na qual o sistema reduz em até 80% o alcance de um texto classificado como falso, além de realizar essa sinalização na própria postagem. 

“O Facebook não quer se colocar como dono da verdade, por isso ele reduz o alcance, mas não remove o conteúdo”, explica. 

Laura Moraes, da Avaaz, acredita que as empresas sociais também precisam fazer um trabalho mais didático para aumentar a conscientização do público sobre o tema. “A gente vê com bons olhos o avanço a criação de mecanismos, mas ainda não é rápido e eficiente o suficiente.” 

Moraes reforça a necessidade de aprovação de uma lei neste sentido, para estruturar esse tema de forma coesa na sociedade. 

“Mesmo com o código de conduta da União Europeia, feito em parceria com as plataformas, está sendo revisto. Mas não é porque a Europa não está fazendo [a sua legislação] que a gente não pode fazer. Não dá para esperar cinco anos [o tempo de elaboração do Marco Civil da Internet] para ver o que acontece.” 

Fonte: Computerworld

01 de junho de 2020