Entidades exigem critérios claros para remoção de conteúdo da internet
Organizações da sociedade civil defendem que o chamado “PL de combate das fake news” exija que as políticas de uso, de remoção e de direcionamento de conteúdo das redes sociais sejam mais transparentes para o usuário. O tema foi debatido em audiência pública, nesta terça-feira (10), do grupo de trabalho criado em julho pela Câmara dos Deputados para analisar o Projeto de Lei 2630/20, do Senado, que institui a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet, e as mais de 70 propostas apensadas a ele.
Coordenador do Programa de Telecomunicações e Direitos Digitais do (Instituto Brasileiro de Defesa do Consumidor, Diogo Rodrigues foi um dos que defendeu as regras de transparência. “Que as regras sobre moderação de conteúdo sejam comunicadas de forma simples e didática, especialmente as sanções graves, as remoções de conteúdo e a redução dos alcances das postagens, porque essas práticas de moderação acabam por impactar o exercício da liberdade de expressão”, disse.
Segundo ele, também devem ser transparentes aos usuários os critérios para ordenar, priorizar, indexar, reduzir o alcance ou direcionar o conteúdo. Além disso, as plataformas devem contar com serviço de ouvidoria. Ainda conforme o representante do Idec, as decisões das plataformas de remoção de conteúdo devem ser notificadas ao usuário, que devem ter possibilidade de uma defesa efetiva, de apelar das decisões, em procedimentos com duração razoável e pré-estabelecida. O usuário mesmo de plataformas internacionais deve ainda poder recorrer ao Judiciário nacional.
O deputado Orlando Silva (PCdoB-SP), relator do grupo de trabalho, concorda que o tema da transparência é central no projeto. “Eu acredito que o aperfeiçoamento dos termos de uso por parte das plataformas é muito importante, para que possamos ter um compromisso público. O Projeto de Lei 2630 já traz um rosário de informações que devem ser oferecidas ao público, nós devemos revisitar cada um dos incisos e ver se ainda falta algum tema a ser acrescido”, afirmou.
Coordenadora executiva do Intervozes, Ramenia Vieira, defendeu que precisa ser garantido o direito à apelação, que atualmente nem é sempre considerado. E pediu ainda respeito aos direitos humanos e mais transparência nas políticas das plataformas sobre grupos e comunidades, com informações claras grupos e atividades proibidos, por exemplo, e ainda sobre conteúdos patrocinados.
Segundo ela, o modelo de negócio das plataformas favorece a desinformação, e as plataformas desenvolvem apenas práticas pontuais para combatê-la. Ela questionou onde estão as equipes que moderam os conteúdos no Brasil e pediu transparência também sobre essas equipes e os critérios utilizados por elas para remoção de conteúdo.
Representante do Laboratório de Políticas Públicas e Internet (Lapin), José Renato Laranjeiras acredita que o projeto de lei avança em alguns aspectos na transparência, mas pode avançar mais – por exemplo, ao exigir que as plataformas informem melhor sobre técnicas, critérios e sistemas de moderação de conteúdos.
Ele também concorda que as plataformas devem deixar mais claro que direcionam o tipo de conteúdo que será visualizado pelo usuário, que deve compreender por que aquele conteúdo está sendo disponibilizado a ele e deve poder também determinar quais conteúdos interessam a ele.
Já a gerente de Política Públicas do Facebook no Brasil, Rebeca Garcia, defendeu que as regras contidas na lei sejam flexíveis e não detalhadas, por conta da rapidez da evolução tecnológica, de forma que a lei não seja logo ultrapassada. Para ela, a transparência na moderação deve ser concentrada em informar o usuário e lhe dar possibilidade de contestação. Rebeca ressaltou ainda que o devido processo legal não pode permitir que discursos de ódio permaneçam no ar.
* Com infomações da Agência Câmara