Responsabilidade civil dos provedores de plataformas digitais no novo Código Civil

Compartilhar no facebook
Compartilhar no twitter
Compartilhar no linkedin

Por Ricardo Campos e Carolina Xavier

Originalmente publicado no Conjur

Nos últimos anos, diversos eventos levantaram questões relacionadas ao poder das plataformas digitais e impulsionaram debates acerca da necessidade de se mitigar seus impactos negativos nos direitos e liberdades fundamentais dos usuários e, de forma mais ampla, nas democracias modernas.

Cite-se, como exemplo, os escândalos envolvendo a Cambridge Analytica e seus impactos em campanhas políticas. Ou, ainda, no âmbito da moderação de conteúdo, a remoção, pelo Facebook, da histórica foto conhecida como “The Terror of War”, que mostra uma garota vietnamita correndo de um ataque de bombas durante a Guerra do Vietnã, sob a justificativa de violação dos padrões da comunidade sobre nudez.

Esses e outros episódios escancararam a posição única na qual se encontram tais empresas no controle do discurso público e têm, portanto, desafiado percepções tradicionais que caracterizam-nas enquanto meras hospedeiras do conteúdo publicado por terceiros.

Tais noções remontam à década de 1990 e, mais especificamente, à aprovação da Seção 230(c) do Communications Decency Act nos Estados Unidos. O dispositivo, de um lado, afasta a possibilidade de equiparação dos provedores a editores e, de outro, concede ampla imunidade para que realizem a moderação de conteúdo voluntariamente.

Trata-se da chamada “cláusula do bom samaritano”, que se apoia na boa fé e na autorregulação como forma de proteger a livre circulação de ideias e de garantir incentivos à inovação [1]. Este paradigma, que refletiu a visão libertária que acompanhou os primeiros anos de desenvolvimento da internet, impactou diversos modelos ao redor do mundo, inclusive o brasileiro.

O Marco Civil da Internet, promulgado em 2014, ocupou-se do tema em seu artigo 19, determinando, como regra geral, a responsabilização subjetiva dos provedores de aplicações apenas nos casos em que tenha havido descumprimento de ordem judicial específica para remoção do conteúdo ilegal. Neste caso, haveria negligência por parte das empresas que, mesmo notificadas, decidiram por não agir.

A regra, contudo, apresenta duas exceções. Em relação a conteúdo envolvendo cenas de nudez ou de atos sexuais de caráter privado, o provedor pode ser responsabilizado quando for notificado pelo usuário prejudicado e não agir para remover a publicação (artigo 21).

A regra geral também é afastada nos casos envolvendo direitos de autor e direitos conexos, tendo em vista que o artigo 19, §2º dispõe acerca da necessidade de previsão legal específica para tanto. Ou seja, de forma geral, trata-se de um modelo que isenta as plataformas de responsabilização – à exceção dos casos em que haja descumprimento de ordem judicial.

Novos modelos de responsabilização

Tal paradigma, contudo, não é mais capaz de lidar com os desafios colocados pelo atual estágio de desenvolvimento da internet, no qual as plataformas digitais cresceram vertiginosamente e acumularam poder suficiente para, na prática, controlar o fluxo comunicacional por meio da organização, filtragem e seleção do conteúdo disponibilizado.

Hoje, essas empresas tornaram-se guardiãs de aspectos elementares da vida cotidiana e, por isso, encontram-se em uma posição de definição dos próprios limites dos direitos fundamentais dos utilizadores [2].

E é diante disso que iniciativas recentes têm buscado pensar novos modelos de responsabilização, que sejam condizentes com tamanha influência e que sejam adequados à nova sociedade das plataformas.

Na União Europeia, por exemplo, o Regulamento dos Serviços Digitais, já em vigor, previu um robusto sistema de supervisão pública, baseado no instituto da autorregulação regulada, que reconhece a necessidade de “indução” do setor privado para o cumprimento de tarefas públicas [3].

Neste caso, mantém-se a estrutura de responsabilização da Diretiva do Comércio Eletrônico (restrita aos casos em que haja efetivo conhecimento do conteúdo/atividade ilegal e inação quanto à sua remoção), ao mesmo tempo em que implementa uma supervisão mais rigorosa, submetendo o desenvolvimento das atividades privadas das empresas ao paradigma normativo do bloco europeu, substantiva e procedimentalmente [4].

Reforma do Código Civil

No Brasil, a revisão do modelo atual tem se dado por duas vias principais. De um lado, o Supremo Tribunal Federal analisa a constitucionalidade do artigo 19 no RE 1.037.396/SP em sede de repercussão geral (Tema 987). De outro lado, o PL 2.630/2020, popularmente conhecido como PL das Fake News, acaba com o artigo 19 e prevê mais deveres e obrigações para as empresas.

No final de 2023, a discussão passou a ter lugar também por meio de uma terceira via: a reforma do Código Civil. No relatório publicado pela Subcomissão de Direito Digital, sugere-se que a responsabilização das plataformas possa se dar: pela reparação de danos causados por conteúdos cuja distribuição tenha sido realizada por meio de publicidade de plataforma; e pelo descumprimento sistemático das obrigações previstas na lei — o que implicaria a revogação do dispositivo do Marco Civil da Internet por incompatibilidade sistêmica.

Autorregulação privada e supervisão pública

Merece destaque, aqui, a segunda hipótese. Inspirada no Regulamento dos Serviços Digitais europeu, a proposta da comissão prevê diversas obrigações aos provedores de plataformas: a adoção de medidas de conformidade de seus sistemas com os direitos da personalidade e a liberdade de expressão; a prevenção e a mitigação de danos por meio da gestão de riscos sistêmicos; a implementação de mecanismos eficazes de reclamação, que permitam que os usuários notifiquem a plataforma acerca da existência de conteúdo ilegal; e a elaboração de termos de uso acessíveis e transparentes.

As chamadas plataformas de grande alcance (aquelas cujo número médio de usuários mensais no país seja superior a dez milhões) ainda estariam sujeitas a auditorias independentes anuais para avaliar o cumprimento das obrigações. Seria, portanto, o descumprimento sistemático de tais obrigações que poderia levar à responsabilização.

A proposta da comissão, assim, afasta-se da tradicional crença de que o Poder Judiciário é a única instância social confiável para a resolução de conflitos e reconhece a enorme gama de situações jurídicas nas quais poderá haver danos irremediáveis caso sua proteção só venha a ser obtida via processo judicial.

A velocidade e a escalabilidade que marcam o conteúdo que circula na internet colocam a necessidade de que as plataformas, mais bem posicionadas para tanto, façam a moderação do conteúdo, desde que submetidas a mecanismos rígidos de transparência, devido processo e contraditório e, ainda, a valores fundamentais da comunidade em que atuam. Na nova sociedade das plataformas — cada vez mais dinâmica e incerta —, a adequada proteção dos direitos dos utilizadores passa, necessariamente, por uma combinação entre autorregulação privada e supervisão pública, como tem sido demonstrado a partir das melhores práticas internacionais.


[1] KLONICK, Kate, The new governors: the people, rules, and processes governing online speech, Harvard Law Review, v. 131, n. 6, 2018., pp. 1607 e seguintes.

[2] FARINHO, Domingos, Fundamental rights and conflict resolution in the Digital Services Act Proposal: a first approach, E-publica, v. 9, n. 1, 2022.

[3] MARANHÃO, Juliano; CAMPOS, Ricardo, Fake News e autorregulação regulada das redes sociais no Brasil: fundamentos constitucionais, in: ABBOUD, Georges; NERY JR., Nelson; CAMPOS, Ricardo (orgs.), Fake News e regulação, Thomson Reuters, 2ª ed.

[4] GRINGS, Maria Gabriela; SANTOS, Carolina, Private enforcement e o regime procedimental do Digital Services Act (DSA), in: CAMPOS, Ricardo (org), O futuro da regulação de plataformas digitais, Contracorrente, 2023.

Sobre o autor
Ricardo Campos

Ricardo Campos

Docente nas áreas de proteção de dados, regulação de serviços digitais e direito público na Faculdade de Direito da Goethe Universität Frankfurt am Main (Alemanha). Doutor e Mestre pela Goethe Universität. Atua com regulação de serviços digitais, proteção de dados, direito público e regulatório. Participa recorrentemente em audiências públicas e comissões no Congresso brasileiro e em tribunais superiores para discussão de temas ligados ao direito e tecnologia. Ganhador do prêmio Werner Pünder sobre regulação de serviços digitais (Alemanha, 2021) e do European Award for Legal Theory da European Academy of Legal Theory (2022). Coordenador da área de Direito Digital da OAB Federal/ESA Nacional. Diretor do Legal Grounds Institute. Sócio do Warde Advogados, consultor jurídico e parecerista
Ricardo Campos

Ricardo Campos

Docente nas áreas de proteção de dados, regulação de serviços digitais e direito público na Faculdade de Direito da Goethe Universität Frankfurt am Main (Alemanha). Doutor e Mestre pela Goethe Universität. Atua com regulação de serviços digitais, proteção de dados, direito público e regulatório. Participa recorrentemente em audiências públicas e comissões no Congresso brasileiro e em tribunais superiores para discussão de temas ligados ao direito e tecnologia. Ganhador do prêmio Werner Pünder sobre regulação de serviços digitais (Alemanha, 2021) e do European Award for Legal Theory da European Academy of Legal Theory (2022). Coordenador da área de Direito Digital da OAB Federal/ESA Nacional. Diretor do Legal Grounds Institute. Sócio do Warde Advogados, consultor jurídico e parecerista

Leia mais

Tradutor »
Pular para o conteúdo