A Meta, big tech responsável por plataformas como Facebook, Instagram e WhatsApp, divulgou nesta quinta-feira (12/12) uma nota em que manifesta preocupação com as discussões no Supremo Tribunal Federal (STF) sobre a constitucionalidade do artigo 19 do Marco Civil da Internet.
O artigo 19 estabelece que plataformas só podem ser responsabilizadas por conteúdos de terceiros caso não os removam após uma ordem judicial, o que foi definido pela Meta como um marco de equilíbrio entre liberdade de expressão e responsabilidade.
“Nenhuma grande democracia no mundo jamais tentou implementar um regime de responsabilidade para plataformas digitais semelhante ao que foi sugerido até aqui no julgamento no STF”, disse a empresa sobre as discussões no STF. Nos votos proferidos, os ministros manifestaram-se no sentido de que plataformas têm o dever de remover certos tipos de conteúdo antes de ordem judicial, considerando determinados parâmetros. Segundo a Meta, o modelo atual é reconhecido internacionalmente e serve de referência para legislações de outros países, como o DSA na União Europeia e a Seção 230 nos Estados Unidos.
Para a companhia, declarar o artigo 19 inconstitucional pode trazer “incertezas jurídicas” e colocar o Brasil em posição “dissonante da comunidade internacional”. A empresa aponta que um regime de responsabilização mais amplo incentivaria plataformas a remover conteúdos de forma preventiva, mesmo que estes não violem as leis ou os padrões das comunidades.
“As plataformas poderiam ser responsabilizadas por conteúdos que não removem, mas também poderiam ser penalizadas por remover conteúdos de acordo com seus padrões de comunidade”, segundo a empresa.
Leia a íntegra da nota divulgada pela Meta
Hoje, queremos expressar nossas preocupações com alguns dos argumentos ouvidos durante o julgamento, pelo Supremo Tribunal Federal (STF), sobre o dispositivo que define o regime de responsabilização de provedores de aplicação de internet no Brasil.
O Artigo 19 do Marco Civil da Internet é reconhecido internacionalmente por estabelecer que intermediários como plataformas digitais só podem ser responsabilizados por conteúdo de terceiros se não o removerem após receberem uma ordem judicial válida para fazê-lo. Isso não significa que as plataformas não tenham regras que proíbam conteúdos nocivos como violência, incitação e abuso infantil. Na Meta, usamos tecnologia automatizada e revisão humana para identificar e agir sobre conteúdos que violam essas políticas.
Nas últimas semanas, respeitados especialistas em internet no Brasil e boa parte da imprensa nacional têm alertado que, se o Artigo 19 for declarado inconstitucional, as incertezas jurídicas deixariam o país dissonante da comunidade internacional.
As plataformas digitais seriam sujeitas a um regime amplo de notificação e remoção e, ao mesmo tempo, poderiam ser responsabilizadas por praticamente todos os tipos de conteúdo mesmo sem que tenham sido notificadas.
Algumas das propostas apresentadas durante o debate levantam questões importantes sobre como esse novo regime de responsabilidade de plataformas digitais funcionaria na prática:
Elas seriam incentivadas a remover conteúdos subjetivos que não necessariamente violam leis locais ou regras das plataformas, em um esforço preventivo para evitar responsabilidade.
As plataformas poderiam ser responsabilizadas por conteúdos que não removem, mas também poderiam ser penalizadas por remover conteúdos de acordo com seus padrões de comunidade que foram aceitos pelos usuários ao criarem suas contas.
A combinação de um sistema amplo de notificação e remoção com responsabilidade objetiva provavelmente sobrecarregaria o Judiciário, com usuários dispostos a litigar mais sobre tópicos subjetivos como difamação sobre os quais haverá expectativa de que as plataformas tomem medidas.
Temos uma longa história de diálogo e colaboração com as autoridades no Brasil, incluindo o Judiciário. Mas nenhuma grande democracia no mundo jamais tentou implementar um regime de responsabilidade para plataformas digitais semelhante ao que foi sugerido até aqui no julgamento no STF. Não é o caso do regime previsto na Lei dos Serviços Digitais (DSA, na sigla em inglês) na União Europeia, nem no NetzDG na Alemanha ou na Seção 230 do Communications Decency Act (CDA) nos Estados Unidos.
Na Meta, estamos comprometidos em melhorar continuamente nossos sistemas e políticas para ajudar a manter as pessoas seguras ao usar nossos aplicativos. Apoiamos a atualização das regras da internet com diretrizes claras para enfrentar os desafios mais substanciais da sociedade.
Esperamos que seja alcançada uma solução balanceada sobre o regime de responsabilidade das plataformas digitais no Brasil à medida que o julgamento sobre a constitucionalidade do Artigo 19 do Marco Civil da Internet avança.