Por Gustavo Binenbojm
Texto publicado originalmente no portal O Globo.
O Projeto de Lei 2.630/2020, aprovado no Senado, tramita na Câmara dos Deputados em regime de urgência e caminha a passos largos para possível aprovação. Os ataques às sedes dos Poderes em 8 de janeiro, urdidos livremente nas plataformas digitais, e os crimes bárbaros contra escolas, viralizados em grupos de mensagens, precipitaram a agenda do Parlamento brasileiro no enfrentamento de questões sobre as quais o mundo está debruçado. Não são triviais, nem há uma bala de prata redentora. As soluções propostas apresentam trade-offs claros que precisam ser sopesados antes da decisão final.
Foi-se o tempo em que teóricos da comunicação, como Manuel Castells ou Eugênio Bucci, acreditavam na neutralidade das redes. Sabe-se hoje que algoritmos sofisticados interferem decisivamente no que vamos ler, ver e ouvir, induzindo comportamentos de consumo e posturas existenciais mais amplas. A curadoria de conteúdos está longe de equiparar-se a uma varredura desinteressada sobre o mérito das discussões. Exclui ou enfatiza pontos de vista que potencializam a capacidade da plataforma de atrair atenção e, por conseguinte, gerar lucros. Por fim, os conteúdos impulsionados mediante pagamento e campanhas maciças de desinformação, promoção de ódio, violência e ataques à democracia colocam em xeque o modelo de negócios baseado na pura autorregulação privada. Ela parece ter falhado ou, ao menos, revelou-se insuficiente.
O debate na Câmara, sob a relatoria do deputado Orlando Silva, amadureceu em relação ao travado no Senado. Em vez de investir no conceito de fake news — de resto, inglório, já que poderia resvalar para um monopólio da verdade —, o PL define com a precisão possível uma lista de conteúdos ilícitos. As plataformas passam a ter um dever de cuidado quanto ao conteúdo postado por terceiros. Se envolver violação a direitos de crianças e adolescentes, devem agir de ofício. Quanto aos demais, devem adotar as providências cabíveis quando notificadas, o que pode chegar à remoção do conteúdo (notice and take down). Na moderação, as redes devem justificar suas ações, como por que algumas mensagens são censuradas e outras não, com base em razões legais ou fundadas nos termos de uso. Os usuários têm direito a um devido processo legal, com os meios e recursos a ele inerentes. Relatórios semestrais devem ser publicados prestando conta à sociedade da atividade de curatela realizada pelas plataformas, a fim de que ela seja transparente, isonômica e possa ser reprogramada.
Numa decisão sábia, o relator retirou do PL a criação de um ente regulador. Além do vício de iniciativa evidente — porque o PL é de origem parlamentar —, criar uma agência para normatizar, fiscalizar e sancionar nesse campo pode ser um tiro no pé da democracia. É desejável conceder um poder normativo amplo a um ente administrativo para construir e ampliar conceitos tão delicados como desinformação ou notícia fraudulenta? Juristas não podem ignorar a História e as lições do passado, para que o remédio não vire veneno.