Publicações

Entre liberdade e responsabilidade: tensões que conduziram à revisão do art. 19 do Marco Civil da Internet

01, 07 2025

Por Tiago Silveira Camargo

O Supremo Tribunal Federal decidiu pela inconstitucionalidade do artigo 19 do Marco Civil da Internet no julgamento conjunto dos Recursos Extraordinários (REs) 1.037.396 e 1.057.258, iniciado em novembro de 2024 e concluído no último dia 26, marcando um divisor de águas na regulação das plataformas digitais no Brasil.

FreepikInternet, rede, conexão

A decisão representa muito mais do que um simples ajuste normativo. Ela expõe as tensões fundamentais entre valores constitucionais essenciais — liberdade de expressão, devido processo legal, proteção da dignidade humana e direito à informação — que se manifestaram de forma cada vez mais aguda no ambiente digital contemporâneo.

As implicações desta mudança se estendem muito além do universo jurídico. Estamos diante de uma reconfiguração que pode alterar profundamente como os brasileiros se expressam, consomem informação e interagem no ambiente digital, com consequências ainda imprevisíveis para o debate democrático, a inovação tecnológica e a própria estrutura do mercado digital nacional.

Modelo original do artigo 19 e suas virtudes

A arquitetura do artigo 19, estabelecida em 2014, apostou no equilíbrio entre proteção e responsabilidade através do modelo de “judicial notice and takedown“. O dispositivo criou uma regra clara: plataformas somente responderiam civilmente por danos decorrentes de conteúdo de terceiros após ordem judicial específica. Era um “porto seguro judicial” que reconhecia simultaneamente a impossibilidade prática de moderação prévia universal e a necessidade de proteger contra censura privada arbitrária.

Durante uma década, este modelo ofereceu proteções robustas para a liberdade de expressão digital brasileira. A exigência de determinação judicial funcionou como barreira institucional contra remoções arbitrárias, blindando manifestações legítimas que sistemas de moderação excessivamente cautelosos poderiam suprimir. Debates políticos acalorados, críticas sociais contundentes e expressões artísticas controversas encontraram refúgio no ambiente digital, protegidos contra censura preventiva baseada em critérios privados ou pressões comerciais.

Tensões emergentes no ecossistema digital

A década seguinte revelou um descompasso crescente entre esta proteção e a realidade emergente do ecossistema digital. A produção exponencial de conteúdo — bilhões de publicações diárias nas principais plataformas — criou uma assimetria estrutural: enquanto informações potencialmente danosas se espalham em segundos, o sistema judicial tradicional opera em meses ou anos.

Campanhas coordenadas de desinformação, especialmente durante ciclos eleitorais, demonstraram como atores mal-intencionados exploram este intervalo temporal, como evidenciado pelas 5.250 denúncias recebidas pelo TSE via Sistema de Alertas (Siade) nas eleições municipais de 2024 [1].

A janela entre publicação e eventual determinação judicial tornou-se uma oportunidade para maximizar o alcance de conteúdos nocivos. Simultaneamente, a opacidade sobre políticas de moderação e critérios algorítmicos impediu que sociedade civil e poder público contribuíssem para soluções colaborativas.

As plataformas desenvolveram capacidades sofisticadas de detecção automatizada — especialmente para conteúdos com maior consenso social sobre sua nocividade, como exploração sexual infantil. Mas as “zonas cinzentas” permaneceram problemáticas: desinformação médica, discursos polarizadores, críticas políticas controversas. Aqui, tanto under-removal quanto over-removal de conteúdos legítimos se tornaram rotina.

Esta evolução coincidiu com uma mudança fundamental na jurisprudência. A percepção inicial da internet como espaço excepcional, menos sujeito à regulação tradicional, cedeu lugar ao reconhecimento de que direitos constitucionais devem ser igualmente protegidos no ambiente virtual. O STF e demais instâncias passaram a pressionar por maior responsabilização das plataformas.

Responsabilidade diferenciada dos atores

Neste cenário complexo, emerge uma questão fundamental: nem todos os atores carregam o mesmo peso de responsabilidade. As big techs ocupam posição singular como arquitetas e operadoras das plataformas digitais. Possuem conhecimento técnico privilegiado sobre os riscos inerentes aos seus serviços e detêm as ferramentas para desenvolver mecanismos preventivos adequados.

O contraste é revelador: a mesma engenhosidade que criou algoritmos ultraprecisos para segmentação publicitária poderia ter sido direcionada, com maior prioridade, para identificação e mitigação de conteúdos danosos. A capacidade de inovação em áreas comercialmente estratégicas contrasta com investimentos limitados em soluções para problemas sociais gerados por suas próprias plataformas.

Como principais beneficiárias econômicas do ecossistema digital, essas empresas tinham não apenas capacidade técnica, mas responsabilidade social de liderar o desenvolvimento preventivo. Embora tenham enfrentado dilemas genuínos entre liberdade de expressão e mitigação de danos, suas escolhas estratégicas — priorizando crescimento e engajamento sobre segurança — contribuíram para o acúmulo de tensões que culminaram na intervenção judicial.

O Poder Legislativo, por sua vez, enfrentou a complexidade de regular tecnologias em evolução acelerada, mas também se mostrou lento para responder aos sinais crescentes de inadequação. A polarização do debate público sobre regulação digital espelha tensões sociais mais amplas, dificultando os consensos necessários para uma legislação equilibrada.

Perspectivas para o novo marco regulatório

A decisão do STF representa uma resposta institucional às tensões acumuladas, mas inaugura também uma era de novos desafios e incertezas. Ao declarar a inconstitucionalidade do artigo 19, o Tribunal altera fundamentalmente o equilíbrio de poder no ecossistema digital brasileiro, transferindo maior responsabilidade de moderação para as próprias plataformas.

Esta mudança pode, efetivamente, resultar em maior proteção contra conteúdos danosos. Contudo, eleva simultaneamente o risco de remoção excessiva de conteúdos legítimos – especialmente aqueles que abordam temas controversos ou criticam figuras públicas. Plataformas menores e empresas emergentes enfrentarão desafios particulares, pois podem não dispor de recursos para implementar sistemas sofisticados de moderação. O resultado provável é uma concentração ainda maior do mercado digital.

A ausência de critérios precisos sobre responsabilização gera incerteza jurídica tanto para empresas quanto para usuários. Sem parâmetros claros sobre quais conteúdos devem ser removidos proativamente, as plataformas podem adotar práticas excessivamente cautelosas, prejudicando o debate público legítimo. Usuários, por sua vez, podem enfrentar maior imprevisibilidade sobre os limites aceitáveis de suas expressões.

O sucesso desta transição dependerá da capacidade de todos os atores reconhecerem que valores constitucionais fundamentais permanecem em tensão legítima. Soluções eficazes não serão perfeitas, mas devem ser proporcionais aos desafios que pretendem endereçar. A declaração de inconstitucionalidade do artigo 19 não encerra o debate sobre liberdade de expressão e responsabilidade digital – inaugura uma nova fase dele.

O desafio será construir um framework que reconheça tanto a necessidade de proteção contra conteúdos danosos quanto a preservação de espaços para debate democrático legítimo. Este equilíbrio será sempre dinâmico, sujeito a revisões constantes à medida que nossa compreensão sobre direitos digitais continue evoluindo. A história nos ensina que marcos regulatórios devem acompanhar as realidades que pretendem regular, mas também que mudanças regulatórias produzem consequências imprevistas, exigindo monitoramento cuidadoso e ajustes contínuos.


[1] TSE. Resultados do Programa Permanente de Enfrentamento à Desinformação nas Eleições 2024. Disponível aqui

Publicado no ConJur.