Por Ricardo Campos
Publicado orginalmente na Revista Consultor Jurídico (Conjur)
Estamos num processo de readequação da responsabilidade dos intermediários da internet no mundo. Até mesmo a lendária seção 230 do CDA americano de 1996 [1], que inaugurou uma completa imunização da responsabilidade dos intermediários no inicio da internet, está sendo revisitada.
No caso Anderson v. TikTok de 2024 [2], caso que criança de 10 anos se suicidou ao participar de um desafio chamado “Blackout Challenge” sugerido como conteúdo na rede social TikTok, o Tribunal de Apelações dos Estados Unidos para o 3º Circuito reverteu decisão de primeira instancia ao argumentar que não se tratava mais, no caso do “Blackout Challenge”, da mera distribuição neutra de conteúdo ou atividade de terceiros (escopo da seção 230).
Consistia, no caso, segundo o tribunal, na sua própria expressão da plataforma (first-party speech), visto que a organização, recomendação e curadoria do conteúdo por algoritmo e inteligência artificial [3] da plataforma conferia ao produto da plataforma uma gestão editorial do conteúdo para o consumidor final, não se qualificando mais como mero distribuidor de informações de terceiros.
Recentemente, também a Suprema Corte americana iniciou o debate no caso Moody v. Netchoice, de 2024, sobre a imunização absoluta conferida pela Seção 230 às redes sociais. Apesar de não ter decidido de forma terminativa o caso, e de ter remetido o caso às instancias inferiores, a Suprema Corte deu indicações claras sobre os contornos adequados ao atual momento para a Seção 230.
A corte sinaliza que a proteção às redes sociais deveria se orientar pelos standards conferidos pela Primeira Emenda [4]. Essa é uma tendência de grande mudança no cenário americano, pois abre um novo horizonte de obrigações presentes na Primeira Emenda e ausentes na seção 230.
Tradicionalmente, a famosa e importante First Amendment não atribuía a livrarias, bibliotecas e outros antigos intermediários uma vasta imunidade [5]. Distribuidores de conteúdo, protegidos pela Primeira Emenda, caso saibam ou deveriam saber do conteúdo ilegal e não tomam ação concreta, são responsabilizados [6].
A distinção distribuidor/editor ou autor, que orientavam a jurisprudência no inicio da internet, passa a sofrer transformações em função de uma quase editoração feita pelos algoritmos. A curadoria do conteúdo é o produto final colocado à disposição do mercado, e não simplesmente a disponibilização de espaço para conteúdo de terceiros de forma neutra [7]. Não se trata ingenuamente de desintermediação da informação, mas de uma nova reintermediação.
Responsabilidade solidária nas plataformas digitais
No Brasil, o Tribunal Superior Eleitoral (TSE) já suspendeu, na prática, a eficácia do artigo 19 com a publicação da Resolução 23.732/2024. Por um motivo bem simples. O artigo 19 seria insuficiente e irrelevante para proteção do regime comunicacional eleitoral brasileiro [8].
Dentre outros, a resolução introduziu o artigo 9º-E, que estabelece a responsabilidade solidária das plataformas digitais nas esferas cível e administrativa caso não promovam a indisponibilização imediata de conteúdos e contas durante o período eleitoral em situações específicas, como desinformação sobre candidatos e urnas eletrônicas, crimes contra as instituições democráticas e discursos de ódio. Por que existiriam balizas legais eleitorais para o fluxo informacional conduzidos pelas tecnologias do papel, das frequências de radio e de televisão e não para tecnologia digital?
Já o contexto Europeu tem dado passos claros para aplicar o direito na comunicação digital. Tudo se iniciou com uma importante decisão do BGH alemão, equivalente ao nosso STJ, com uma decisão sobre o instituto do Störerhaftung [9]. Essa decisão foi o nascedouro para o debate alemão e europeu. Störer (pertubardor) é quem contribui de forma adequada para a perpetuação da violação do direito de terceiros, sem entretanto ser autor ou participante [10].
Spacc
No caso das redes sociais, enquanto Störer, são responsáveis apenas pela remoção e/ou omissão na remoção e não pelo ato (post) em si, que continua sendo imputado ao autor. Com a decisão, o BGH estendeu o sistema de responsabilização, já presente para conteúdos patrimoniais (direito de autor e propriedade intelectual) para conteúdos não patrimoniais, penais e contra o Estado de direito.
Privatização da Justiça?
A lei alemã NetzDG de 2017, que se tornou as bases do novo Regulamento Europeu Digital Services Act de 2024, apenas delineou, a partir da base do Störerhaftung, regras de compliance para a gestão das queixas feitas por usuários com procedimentos simples na própria plataforma, deveres de resposta, transparência e critérios concretos [11]. Se antes na Europa, os curadores da liberdade de expressão da população administravam a esfera pública de forma intransparente orientada apenas pela maximização do lucro, com a NetzDG e DSA, essa gestão passa a ser transparente e com critérios de direito público.
Não se trata de privatização da Justiça [12], mas de chamar para deveres adequados quem está na melhor posição para cessar a violação de direitos de terceiros e institucionais. Ao internalizar de regras de compliance para lidar, emitir relatórios de transparência, fundamentar e responder a queixas diretas, as novas infraestruturas da comunicação tornam transparente o modo como é administrada e curada a liberdade de expressão da população gerando conhecimento, num segundo momento, para uma melhor decisão judicial sobre os parâmetros que balizam o produto final das plataformas de redes sociais na curadoria da esfera pública.
Papel do STF
O STF poderia oferecer um contributo ao debate global sobre o tema. Primeiro, restringindo a abrangência da decisão para o real problema dos temas em questão. Para tanto, o próprio MCI oferece um caminho seguro em seu artigo 3º, VI, onde prevê a responsabilização dos agentes de acordo com suas atividades. Assim, o STF pode restringir às redes sociais as possíveis novas obrigações ou declaração de inconstitucionalidade do artigo 19. Rede social tem uma atividade e gera riscos diversos de marketplace, que se difere de operadores de nuvem, que se difere de lojas virtuais de aplicativos, que se difere de aplicativos do mercado financeiro e assim por diante.
Diferenciando os distintos provedores de aplicação da internet, o STF dá um passo duplo. Por um lado, se aproximando dos padrões do direito comparado sobre o tema e, ao mesmo tempo, sinaliza ao futuro debate no Congresso que a internet e suas aplicações se diferenciaram devendo ser tratadas a partir dos riscos e danos concretos que geram, e não de forma indiscriminada e aconceitual como provedores de aplicação.
Redes sociais, que gerenciam a esfera pública e influenciam a formação da opinião pública a partir de seus algoritmos [13], têm funções diferentes de plataformas como marketplaces, aplicativos de mobilidade ou de aluguéis de apartamentos, que estruturam setores econômicos sem administrar debates públicos [14]. Sobre o tema, ver meu parecer no processo [15
Obrigações concretas como camadas extras à decisão judicial poderiam se apoiar no instituto da dimensão objetiva dos direitos fundamentais da organização e procedimento [16]. Esse instituto já recorrente nas decisões do STF [17] também foi usada, dentre outras decisões, na lendária decisão que criou a autodeterminação informacional [18]. Assim como a professora americana Citron, tendo a me distanciar do conceito de dever de cuidado [19] em sua forma genérica e prefiro voltar-me para obrigações procedimentais concretas [20].
Obrigações procedimentais em relação às redes sociais
Dentre as obrigações procedimentais, poderiam ser pensadas: como no artigo 18 do Regulamento Europeu Digital Services Act, dever de informação às autoridades nacionais quando houver suspeita de crimes graves que envolvam ameaças à vida ou à segurança, compartilhando informações relevantes para a investigação [21].
Criar regras de compliance para o manejo interno de queixas privadas sobre possível ilegalidade de conteúdos como já implementada na Alemanha e Europa. O que for manifestamente ilegal, pela posição de Störer (facilitador de ilícitos), deve ser prontamente removido, como conteúdo que violem direitos de crianças e adolescentes, conteúdo contra o Estado democrático de Direito, racismo, meio ambiente, o que estiver numa zona cinzenta, a plataforma envia para um conselho de autorregulação regulada. [22] Vários outros deveres procedimentais poderiam ser pensados para a posição de Störer.
O tempo em que a regulação do mercado de ideias digital se orientava pela dicotomia distribuidor neutro de opiniões de terceiros (novas tecnologias) e editores (antigas tecnologias) caiu por terra com a centralidade do trabalho editorial dos algoritmos e IA na curadoria do conteúdo por redes sociais. Garantir a normalidade institucional democrática é nosso maior desafio, e ele passa inexoravelmente pela pluralidade e transparência da esfera pública digital.
[1] The CDA Section 230, at 47 U.S.C. § 230(c)(1), provides: No provider or user of an interactive computer service shall be treated as the publisher or speaker of any information provided by another information content provider.
[2] Ver também Lemmon v. Snap, caso julgado pelo Nono Circuito de 2021 no caso do Snapchat. O caso envolveu um filtro disponibilizado pelo Snapchat, que permitia que os usuários enviassem mensagens a seus amigos com a exibição da velocidade em que estavam naquele momento. Na tentativa de registrar uma alta velocidade utilizando o filtro, três jovens faleceram em um acidente de carro, o que levou a um processo de negligência movido pelos pais das vítimas. Na ocasião, o Nono Circuito reverteu a decisão de primeira instância que havia decidido pela imunidade prevista na Seção 230 e enfatizou que o caso não se tratava de conteúdo publicado por terceiros (protegido pelo CDA), mas sim de uma nova comunicação própria decorrente do design do filtro desenvolvido pela empresa.
[3] “The Court held that a platform’s algorithm that reflects “editorial judgments” about “compiling the third-party speech it wants in the way it wants” is the platform’s own “expressive product” and is therefore protected by the First Amendment”. Anderson v. Tik Tok, 17.01.2024.
[4] “Like the editors, cable operators, and parade organizers this Court has previously considered, the major social-media platforms curate their feeds by combining “multifarious voices” to create a distinctive expressive offering. Hurley, 515 U. S., at 569. The individual messages may originate with third parties, but the larger offering is the platform’s. It is the product of a wealth of choices about whether—and, if so, how—to convey posts having a certain content or viewpoint. Those choices rest on a set of beliefs about which messages are appropriate and which are not (or which are more appropriate and which less so). And in the aggregate they give the feed a particular expressive quality”. Moody v. NetChoice, 01.07.2024.
[5] Dois casos importantes que ajudaram a moldar esse entendimento no contexto das plataformas digitais e que, posteriormente, resultaram na Seção 230 foram Cubby Inc v. Compuserve Inc., e Stratton Oakmont, Inc. V. Prodigy Services Co. Sobre tais desenvolvimentos, cf. Cf., também, KLONICK, Kate, The new governors: the people, rules, and Processes governing online speech, Harvard Law Review, v. 131.
[6] Sobre o tema, palavras do maior defensor da seção 230 „Distributors generally are not protected if they knew or should have known of the ilegal content and failed to take action.“ Jeff Koseff, The Twenty-Six Words That Created the Internet, Cornell University Press 2019, p. 10. Sobre isso, cf. SKORUP, Brent; HUDDLESTON, Jennifer. The erosion of publisher liability in American Law, Section 230 and the future of online curation, Oklahoma Law Review, v. 72, n. 3, 2020.
[7] Sobre o conceito curadoria de conteúdo ver Ricardo Campos, Thomas Vesting, Curadoria de Conteúdo. Regulação de Mídias para o Século XXI, em: Ricardo Campos (Org.) O futuro da regulação de plataformas digitais: Digital Services Act (DSA), Digital Markets Act (DMA) e seus impactos no Brasil. Editora Contracorrente, Sao Paulo 2023, p. 37 e ss.
[8] Sobre o tema do art. 19 ver Marcelo Bechara de Souza Hobaika, A lei do atrito e a inconstitucionalidade do art. 19 do Marco Civil da Internet. Sua existência é incompatível no ordenamento jurídico com os valores constitucionais mais civilizatórios disponível em https://www.jota.info/artigos/a-lei-do-atrito-e-a-inconstitucionalidade-do-art-19-do-marco-civil-da-internet
[9] Sobre o tema ver Sören Wollin, Störerhaftung im Immaterialgüter- und Persönlichkeitsrecht, Editora Nomos, primeira edição, 2018.
[10] BGH, sentença de 11 de março de 2004, processo nº I ZR 304/01 – leilão na Internet; BGH, sentença de 22 de julho de 2010, processo nº I ZR 139/08 – cadeiras altas para crianças na Internet. BGH, 19.04.2007, Az. I ZR 35/04. BGH, Urteil v. 12.05.2010, Az. I ZR 121/08.
[11] Ricardo Campos (Org.) Fake News e Regulação – 3° Edição. RT.
[12] Esse argumento, e o do chilling effect, foi postulado durante o debate legislativo na Alemanha mas não se confirmaram. Passados alguns anos, o Ministério da Justiça alemão encomendou ao Prof. Martin Eifert, hoje juiz do Tribunal Constitucional Alemão, uma avaliação da lei alemã NetzDG. Segundo Eifert, não há nenhum indicio de restrição da liberdade de expressão ou chilling effect nos anos de aplicação da lei. Esse é o único documento oficial sobre o tema na Alemanha. Para uma “alternative reading“ brasileira sem qualquer fundamento jurídico e oficial do contexto alemão, ver o artigo do administrador Henrique Zétola, Liberdade de expressão nas redes. Como a Alemanha acidentalmente se tornou referência para Rússia e Turquia e pode inspirar o Brasil. Disponível em https://www.jota.info/artigos/liberdade-de-expressao-nas-redes Para acesso ao parecer do juiz da corte constitucional alemão Prof. Martin Eifert ver: https://www.bundestag.de/webarchiv/presse/hib/2020_09/794452-794452
[13] KLONICK, Kate. The new governors: the people, rules, and processes governing online speech. Harvard Law Review, v. 131, n. 6, p. 1598–1670, 2018; FLEW, Terry; MARTIN, Fiona; SUZOR, Nicolas. Internet regulation as media policy: Rethinking the question of digital communication platform governance. Journal of Digital Media & Policy, v. 10, n. 1, p. 33-50, mar. 2019. Disponível em: https://doi.org/10.1386/jdmp.10.1.33_1. Publicado online em 01 mar. 2019.
[14] ROTT, Peter. New Liability of Online Marketplaces Under the Digital Services Act? European Review of Private Law, v. 30, n. 6, p. 1039-1058, 2022. Disponível em: https://doi.org/10.54648/erpl2022046; DUIVENVOORDE, Bram. The Liability of Online Marketplaces under the Unfair Commercial Practices Directive, the E-commerce Directive and the Digital Services Act. Journal of European Consumer and Market Law, v. 11, n. 2, p. 43-52, 2022.
[15] Para uma análise abrangente nesse sentido, cf. CAMPOS, Ricardo. O art. 19 do Marco Civil da Internet e a pluralidade de provedores da internet: da necessidade de diferenciação conceitual (e regulatória) dos provedores de aplicação de internet. Disponível em: https://legalgroundsinstitute.com/wp-content/uploads/2024/10/VersaoF_Artigo19MCI.pdf. Acesso em: 19 nov. 2024.
[16] Sobre o instituto ver HESSE, Konrad, Grundzüge des Verfassungsrechts der Bundesrepublik Deutschland, C. F. Müller, 1999; ALEXY, Robert, Theorie der Grundrechte, Suhrkamp, 1986. DOMBERT, Matthias; RÄUKER, Kaya; Am Beispiel der deutschen Sicherheitsarchitektur: Zum Grundrechtsschutz durch Organisation, Die Öffentliche Verwaltung 5, 2014. BETHGE, Herbert, Grundrechtsverwirklichung und Grundrechtssicherung durch Organisation und Verfahren: Zu einigen Aspekten der aktuellen Grundrechtsdiskussion, Neue Juristische Wochenschrift 1, 1982.
[17] Sobre organização e procedimento na jurisprudência do STF, cf., por exemplo, HC 222141 AgR/PR, 2ª turma, Relator: Min. Ricardo Lewandowski, 06.02.2024; RE 1492655/RJ, Relator: Min. Dias Toffoli, 20.05.2024; ADPF 695 MC/DF, Relator: Min. Gilmar Mendes, 24.06.2020; Rcl 73892/RS, Relatora: Min. Carmen Lúcia, 21.11.2024.
[18] Marion Albers, Informationelle Selbstbestimmung, Editora Nomos, primeira edicao 2005, p. 76 e ss.
[19] Sobre o conceito de dever de cuidado ver: Ricardo Campos, Samuel Barbosa, Carolina Xavier, Riscos sistêmicos e Dever de Cuidado, em Ricardo Campos (Org.) O futuro da regulação de plataformas digitais: Digital Services Act (DSA), Digital Markets Act (DMA) e seus impactos no Brasil. Editora Contracorrente, Sao Paulo 2023, p. 313 – 328.
[20] „Rather than an unguided duty of care, lawmakers should specify the obligations involved, drawing on key lessons from the trust and safety field.“
[21] “Artigo 18.º
Notificação de suspeitas de crime
- Sempre que um prestador de serviços de alojamento virtual tome conhecimento de qualquer informação que levante suspeitas de que ocorreu, está a ocorrer ou é suscetível de ocorrer um crime que envolva uma ameaça à vida ou à segurança de uma ou várias pessoas, o prestador de serviços de alojamento virtual informa imediatamente da sua suspeita as autoridades policiais ou judiciárias do ou dos Estados-Membros em causa e fornece todas as informações pertinentes disponíveis.”
[22] A Alemanha criou um sistema interessante de autorregulação regulada para mercado de ideias digital. Certificou a entidade FSM para emitir „decisões“ nos casos em que as plataformas não estivessem seguras sobre a ilegalidade do conteúdo. O procedimento de decisão da entidade é formado por jornalistas, juristas e diversos profissionais ligados ao tema. Todas decisões estão publicadas no site. https://www.fsm.de/en/fsm/netzdg