Nesta semana, o Supremo Tribunal Federal (STF) alterou a forma como as plataformas digitais respondem por conteúdos ilícitos postados por terceiros, mexendo no entendimento sobre o artigo 19 do Marco Civil da Internet.

Segundo o advogado especialista em direito digital Rafael Maciel, ouvido pelo Jornal Opção, a mudança representa uma atualização necessária, mas ainda insuficiente, já que carece de regulamentação mais ampla. “É preciso esclarecer alguns mitos”, iniciou Maciel.

“Primeiro, o artigo 19 sempre protegeu a liberdade de expressão. A ideia, na época da criação do Marco Civil, em 2014, era evitar que provedores removessem conteúdos apenas com notificações extrajudiciais, com medo de serem responsabilizados. Então, a lei determinava que eles só seriam obrigados a indenizar se, após ordem judicial para remover um conteúdo ilícito, descumprissem essa determinação.”

No entanto, com a evolução do comportamento das big techs, que passaram a atuar como verdadeiras editoras de conteúdo, direcionando postagens por algoritmos para públicos específicos, o cenário mudou.

“A percepção, hoje, é de que essas plataformas não são apenas repositórios neutros, mas sim editores que influenciam o alcance dos conteúdos. Isso acabou esvaziando o sentido original do artigo 19”, explicou o advogado.

Com a decisão do STF, crimes mais graves — como racismo, terrorismo ou incitação à violência — passam a gerar responsabilidade direta para as plataformas, mesmo sem ordem judicial, desde que sejam notificadas e não removam o conteúdo. Já os crimes contra a honra, como calúnia, difamação e injúria, permanecem dependendo de decisão judicial para que se configure a obrigação de indenizar.

“É importante deixar claro que crimes contra a honra continuam dependendo de ordem judicial. Isso significa que não basta alguém se sentir ofendido e notificar a plataforma para que ela seja automaticamente obrigada a indenizar. É preciso passar pela análise de um juiz, para evitar abusos e preservar a liberdade de expressão”, ressaltou Maciel.

Para o especialista, a decisão do STF supre, em parte, uma lacuna legislativa, mas deveria ter sido fruto de discussão mais ampla no Congresso Nacional. “Essa discussão deveria ter ocorrido no Legislativo, que é quem tem legitimidade para regulamentar de forma detalhada. Mas, como o tema estava judicializado, o STF foi obrigado a decidir”, opinou.

Em relação à segurança jurídica da decisão, Maciel pondera que ainda há pontos nebulosos. “Hoje, as big techs já removem conteúdos por critérios muitas vezes obscuros. Agora, com a possibilidade de serem responsabilizadas diretamente em casos de crimes graves, caberá a elas decidir se removem ou se defendem em juízo, caso entendam que não há crime”, explicou.

“Não se trata de indenização automática, nem de censura imediata, como alguns têm dito.” Questionado se considera a decisão positiva, Maciel foi cauteloso:

“Eu preferiria que isso fosse discutido pelo Congresso. Mas, diante do risco de o STF declarar a inconstitucionalidade total do artigo 19, considero que o consenso encontrado, especialmente ao manter a necessidade de ordem judicial para crimes contra a honra, foi dos males o menor”.

Para ele, o julgamento do STF deve servir como alerta para que o Congresso retome o debate sobre a regulamentação das plataformas digitais. “Essa decisão é uma sinalização política importante, que pode pressionar o Legislativo a avançar com um marco legal mais claro e detalhado. O projeto de lei que tratava do tema foi arquivado, mas precisa voltar à pauta”, concluiu o advogado.

Leia também: STF retoma julgamento sobre responsabilidade das redes sociais por conteúdos de usuários