BAHIA NOTICIAS
Por Danielle Brant, João Gabriel e Raquel Lopes | Folhapress
O
diretor de Relações Governamentais e Políticas Públicas do Google
Brasil, Marcelo Lacerda, avalia que o PL das Fake News é vago. Ele
também defende que a empresa já adota medidas para moderar conteúdo de
ódio e que a responsabilidade por violência nas escolas não é só das
plataformas.
Lacerda tece uma série de críticas ao projeto relatado pelo deputado
Orlando Silva (PC do B-SP), que deve ser votado na próxima terça-feira
(2). Segundo ele, o texto deixa incertezas sobre como será feita a
regulação das plataformas e se equivoca ao equiparar o cuidado exigido
por mecanismos de buscas ao de redes sociais.
A discussão em torno do projeto ganhou força após o ataque a uma
escola em São Paulo que terminou com a morte de uma professora e um
atentado em creche de Blumenau (SC) que deixou quatro mortos. O
argumento é que a regulamentação das redes poderia ajudar a impedir
novas ondas de violência.
A movimentação causou reação das big techs, que afirmam que o projeto
relatado por Orlando é genérico e que a violência nas escolas é um
problema social, não apenas digital.
"A gente está olhando um problema que tem várias facetas sob só um
ponto específico. Não adianta a gente só atacar as redes e falar que
foram as plataformas [as responsáveis pela violência] quando tem uma
série de outras questões que também precisam ser endereçadas, de cunho
social, da própria escola, dos próprios pais, e que a gente também
ajuda, como a educação midiática", diz à reportagem Lacerda.
"Se a gente olhar isso só sob um aspecto, a gente pode eventualmente
resolver ou endurecer [as leis], mas tem uma série de outros aspectos
que não vão", continua.
Lacerda defende que o parecer apresentado na noite desta quinta-feira (27) é vago e traz dispositivos que podem ser "perversos".
Quando questionado se as regras de controle interno do Google são
suficientes para impedir a disseminação de discurso de ódio na internet,
tendo em vista os ataques às escolas, o diretor defendeu que o projeto
precisa ser mais debatido e que sempre há espaço para melhorar.
"A questão é que a gente não é contra nenhum tipo de regulação que
fale, ‘ok, a partir de agora você vai ter que fazer x, y ou z'. A
questão só é que a gente ainda tem dúvidas sobre o texto que está na
mesa, se isso realmente vai ter esse efeito positivo que todo mundo está
esperando", diz.
"Porque ainda falta mais concretude em vários dos dispositivos que
estão lá e, para isso, precisaria de um pouco mais de tempo para
entender e discutir se essas soluções que estão na mesa realmente vão
dar o resultado esperado", afirma.
Ele diz ainda que o Google, entre março e abril, cumpriu 740 pedidos
de acessos a dados das autoridades governamentais relacionados a
terrorismo e ataques a escolas. Mas entende que o projeto, da forma como
está redigido, abre brechas para que a lei seja usada contra os seus
princípios.
"O texto continua com muitas incertezas e vago em muitos aspectos. De
forma geral a gente entende que essas incertezas, essa falta de
concretude de como aquilo vai se dar na realidade, vai acabar
prejudicando o usuário porque, ao invés de combater a desinformação, tem
risco de fomentar a desinformação", diz.
"São vários incentivos perversos que a lei traz para fomentar na verdade a desinformação e não combater", afirma.
A empresa defende que o projeto seja debatido em uma comissão
especial. Também critica a falta de audiência pública e de discussão do
assunto desde que foi rejeitado em plenário na Câmara, em 2021.
Segundo ele, vários órgãos estão pedindo mais discussão do assunto,
como a OAB (Ordem dos Advogados do Brasil). "Ainda falta um debate um
pouco mais aprofundado para a gente ter um pouco mais de clareza sobre
como vai ser aplicado, quais as consequências [lei] e se aquilo vai
gerar o resultado que a gente espera, que é combater a desinformação",
disse.
O texto em discussão junta contribuições da proposta aprovada pelo
Senado e modificações incorporadas pelo relator na Câmara. Se aprovado
pelos deputados, deve voltar ao Senado, por onde o texto original passou
em 2020.
Lacerda diz que o projeto traz obrigações que as plataformas não têm clareza de como devem ser feitas.
"Tem uma série de obrigações ali que a gente não sabe exatamente como
vão ser feitas, estão sendo jogadas para uma regulação. A gente também
não sabe quem vai regular isso. Vai ser o poder federal? A Presidência?
Agência específica? Ministério específico? Porque também não tem mais a
previsão da entidade regulamentadora", diz.
Na última versão do texto, apresentado nesta quinta-feira (27),
Orlando retirou da redação a criação de uma agência reguladora de
supervisão das plataformas e deixou explícito o livre exercício de
cultos religiosos e a "exposição plena" de seus dogmas e livros
sagrados.
A decisão aconteceu após pressão da oposição e da bancada evangélica contra esses dois pontos do texto.
O diretor do Google critica o fato de o projeto, da maneira como está
estruturado, estipular as mesmas regras para redes sociais e
buscadores. Por exemplo, a previsão de exclusão de postagens, mecanismo
que segundo ele não funciona na lógica dos buscadores —que não fazem
posts, apenas organizam conteúdo publicado.
Outro ponto que traz polêmica no projeto são os direitos autorais e a remuneração para conteúdo jornalístico.
Artistas pretendem fazer uma manifestação em Brasília na próxima
semana para que o texto seja aprovado com instrumentos para remuneração
de material produzido por eles e replicado nas redes sociais.
Lacerda critica o texto por não prever a exclusão de conteúdo
produzido por empresas jornalísticas. Segundo ele, atualmente,
companhias que se dizem do ramo são grandes disseminadoras de fake news
—ele preferiu não citar nomes.
Por isso, argumenta, o projeto deveria também prever formas de sanção a essa atividade, e não apenas de remuneração.
Nenhum comentário:
Postar um comentário