O debate sobre responsabilidade e liberdade de expressão na internet
O debate sobre responsabilidade e liberdade de expressão na internet tem ganhado força em diversos países pelo mundo e, no Brasil, propostas e frentes de diálogo têm surgido nos âmbitos Executivo, Legislativo e Judiciário. Neste último, dois casos a serem julgados pelo Supremo Tribunal Federal, em data a ser definida, têm levantado questões sobre a constitucionalidade do Artigo 19 do Marco Civil da Internet. É esse dispositivo que atualmente confere ao Judiciário a palavra final sobre o que é ou não lícito nas plataformas de internet, sem, contudo, impedi-las de estabelecerem suas próprias regras sobre o conteúdo que hospedam ou exibem.
Para escutar diferentes opiniões e setores da sociedade sobre o tema, o Supremo Tribunal Federal realiza hoje e amanhã uma audiência pública na qual o Google estará presente para debater o regime de responsabilidades das plataformas de internet sobre conteúdos produzidos pelos usuários. Acreditamos que esse debate é de extrema relevância não apenas para empresas de tecnologia, mas para todos os brasileiros que usam a internet. Uma decisão que declare a inconstitucionalidade do Artigo 19 pode impactar a internet como conhecemos: pode afetar a liberdade de expressão e de informação, restringir a inovação e o empreendedorismo e reduzir a capacidade dos brasileiros de se manifestarem no ambiente digital.
Guilherme Sanchez, advogado do Google Brasil
Abaixo, estão os principais pontos do Google em defesa da manutenção do Artigo 19 do Marco Civil da Internet:
- As plataformas não dependem de ordens judiciais para remover conteúdo nocivo. Elas já fazem isso por meio de políticas que regem o que pode ou não ser compartilhado.
É um mito supor que o artigo 19 do Marco Civil da Internet seria a razão pela qual se pode encontrar conteúdos nocivos ou ilegais na internet. Não esperamos até que haja uma decisão judicial para remover esse tipo de conteúdo que viola as políticas das nossas plataformas. Somente no Brasil, em 2022, o YouTube removeu mais de um milhão de vídeos que violavam nossas políticas contra desinformação, discurso de ódio, violência, assédio, segurança infantil, entre outras. Esse número contrasta com uma quantidade muito menor de requisições judiciais para a retirada de conteúdo. No mesmo período, em todo o País, foram pouco mais de 1.700 casos para todos os nossos produtos, incluindo o YouTube. - Mesmo boas políticas de moderação serão incapazes de lidar de maneira exaustiva com todos os conteúdos controversos.
Especialmente considerando a variedade e complexidade com que esse tipo de conteúdo se apresenta na internet. A atuação judicial nesses casos não é um defeito, mas sim uma virtude do Marco Civil da Internet, que reconhece a atribuição do Poder Judiciário para atuar nos casos difíceis e traçar a fronteira entre discursos ilícitos e críticas legítimas, ainda que ácidas. - Aumentar a responsabilidade civil das plataformas não é a chave para tornar a internet um lugar mais seguro.
Responsabilizar plataformas digitais, como se elas próprias fossem as autoras do conteúdo que hospedam ou exibem, levaria a um dever de monitoramento de todo o conteúdo produzido pelas pessoas no ambiente digital, o que comprometeria o ambiente plural da internet e criaria uma pressão para a remoção de qualquer discurso minimamente controverso online. O artigo 19 do Marco Civil reproduz o consenso dos países democráticos em afastar a responsabilidade direta e objetiva de vigilância das plataformas sobre o conteúdo gerado pelas pessoas. Não é o modelo de responsabilização ou o procedimento de notificação e retirada de conteúdo que faz, por exemplo, o artigo 21 do Marco Civil da Internet funcionar bem para remover conteúdo de pornografia de vingança a partir de uma notificação extrajudicial, mas sim o seu caráter ilegal eminentemente objetivo. É muito mais simples identificar uma cena de nudez desautorizada do que interpretar a legalidade de uma fala controversa sobre um tema político, por exemplo. - Trocar a segurança do artigo 19 por um regime de responsabilização baseado em critérios abertos ou pouco precisos geraria enormes riscos.
Entre as possíveis consequências negativas, estão: (i) incentivo às plataformas a presumir a ilegalidade de todo conteúdo controverso, porque essa é a forma mais racional de evitar o risco de responsabilidade civil; (ii) desestímulo ao comportamento responsável das pessoas, na medida em que a conta de sua irresponsabilidade seria transferida para as empresas; e (iii) incentivo a novas ações judiciais contra as plataformas, muitas vezes motivadas pela facilidade de litigar sem custos. - Propostas de aperfeiçoamento da legislação devem estabelecer processos e critérios claros para notificações solicitando a remoção de conteúdo.
Isso evitaria a banalização, a insegurança jurídica e o incentivo econômico à censura. É necessário, por exemplo, que a notificação aponte o conteúdo que se considera ilícito de forma inequívoca, uma justificativa que indique de forma específica o fundamento da alegada ilicitude, além de prazos e procedimentos adequados para a realização deste trabalho.
Temos um grande desafio pela frente, mas responsabilizar as plataformas por conteúdos de terceiros não é uma solução capaz de endereçar a complexidade do ambiente digital e traz consequências mais nefastas do que os desafios atuais que enfrentamos. Seguiremos buscando apoiar a construção das melhores soluções para o ambiente digital no país.
Veja neste link a íntegra da exposição (e da apresentação de apoio) do Google na audiência pública desta terça-feira, 28.