Por Milton Pereira de França Netto, do Legal Grounds, e Miguel Felipe Almeida da Câmara
Originalmente publicado no Conjur.
A ideia de que a ruína de um indivíduo ou de uma instituição pode se originar do ardil daquele(s) em quem depositara confiança representa o mote de histórias universalmente contadas. Na tragédia shakespeariana “Otelo”, o declínio do “Mouro de Veneza” — que culmina na morte de sua esposa, Desdêmona — resulta das artimanhas orquestradas pelo ambicioso suboficial Iago, até então desfrutador de sua mais elevada estima.
No ilustre poema “Odisseia”, que narra a épica jornada de Ulisses, Homero alude ao mito do “Cavalo de Troia”. Em meio a um intenso contexto bélico, o artefato ofertado aos habitantes da cidade-estado rival parecia simbolizar a trégua por parte dos gregos, porém, de forma insidiosa, comportava os combatentes responsáveis pela derrocada da fortaleza modernamente situada na Turquia, até então tida como impenetrável.
Sob o moderno olhar tecnológico, o receio de se estar abrigando um “inimigo íntimo” em nossos lares e em entidades públicas ou privadas persiste. Na conjuntura de profusão informacional do Big Data, as aplicações de inteligência artificial (IA) emergem como facilitadoras de tarefas repetitivas, direcionando a atenção humana para incumbências de maior complexidade ou carentes de esforços criativos.
Dentre os seus principais expoentes, os sistemas de Inteligência Artificial Generativa — IAG (Generative Artificial Intelligence — GAI) permitem a criação de conteúdos inéditos nos formatos de imagem, vídeo, áudio e texto, a partir de comandos (prompts) [1] gerados pelos usuários, com destaque para os modelos de linguagem em grande escala (Large Language Models — LLM), como ChatGPT, da Open AI, Claude, da Anthropic, e Gemini, do Google, empregados como assistentes pessoais customizados nas mais diversas áreas.
Em meio ao clamor por soluções inovadoras, a incorporação dessas ferramentas no domínio empresarial não raro ignora perigos evidentes, ocasionando a ulterior adoção de medidas protetivas. Nesse sentido, a inserção de códigos-fonte confidenciais da Samsung no ChatGPT, acidentalmente efetuada por alguns de seus engenheiros, motivou a edição de políticas proibitivas do uso de IA Generativa nas atividades da gigante sul-coreana [2]. Restrições análogas foram adotadas, na sequência, por Apple e Amazon, com o intento de preservar o sigilo de valiosas informações comerciais [3].
O comedimento interno por parte das big techs, motivado pela ciência de tais ameaças latentes, deveria nortear a modernização em curso nas instituições públicas, usualmente pautada pela otimização da produtividade. O pioneirismo do Poder Judiciário, traduzido na impressionante marca de 140 projetos de inteligência artificial sendo desenvolvidos em 62 tribunais [4], parecia seguir essa tendência, à luz das salvaguardas preconizadas pela Resolução nº 332/2020/CNJ e pela Portaria nº 271/2020/CNJ.
Todavia, diante do atual contexto de vigilantismo de dados, a declaração do ministro Luís Roberto Barroso sobre a aproximação do Supremo Tribunal Federal (STF) a essas corporações com o fim de encomendar o desenvolvimento de um “ChatGPT estritamente jurídico” — proferida em sua sessão inaugural na presidência do Conselho Nacional de Justiça (CNJ), em outubro de 2023 — despertou fundadas preocupações [5].
Esclarecimentos acerca do projeto surgiram com a recente publicação do “Relatório Geral: Chamamento Público 001/2023”, que sublinha o real intento de se conceber uma IA Generativa capaz de produzir sumários automatizados para processos públicos das classes de recurso extraordinário (RE) e de recurso extraordinário com agravo (REA). Em sua parte final, é atestada a viabilidade da célere implementação de tais instrumentos, acompanhada por ressalvas quanto à necessidade de aprimoramento do grau de acurácia nos relatórios apresentados, ordenando-se uma subsequente fase de prova de conceito[6].
Debates para regulamentação de IA
De maneira simultânea, o Grupo de Trabalho sobre Inteligência Artificial no Poder Judiciário, instituído pela Resolução nº 338/2023/CNJ [7], vem promovendo debates a respeito da regulamentação do uso de IA Generativa pelas cortes brasileiras. A atuação do GT foi mencionada no acórdão alusivo ao procedimento de controle administrativo (PCA) nº 0000416-89.2023.2.00.0000 [8], em que um advogado pleiteou a proibição do emprego do ChatGPT para a confecção de atos judiciais.
A ementa do julgado pontua que tais “dispositivos oferecem um potencial significativo para aprimorar a eficiência e a eficácia do sistema judicial, porém, sua aplicação requer cuidados específicos, relacionados à ética, à equidade e à responsabilidade”, restando, ao final, determinada a improcedência dos pedidos formulados pelo causídico.
Mais avançado no que concerne à incorporação dessa tecnologia, o Tribunal de Justiça de Santa Catarina (TJSC) adotou o assistente Copilot, da Microsoft, como ferramenta oficial de IA, com o objetivo de otimizar a eficiência e agilizar processos, redirecionando o enfoque dos magistrados para a realização de estudos complementares e o julgamento de casos complexos.
O instrumento de IA tem sido utilizado para resumir peças processuais, transcrever depoimentos e maximizar a prestação de informações aos tribunais superiores [9]. Ao longo da implementação, o TJ-SC afirma ter se resguardado em termos de segurança de dados, de maneira que as informações compartilhadas por juízes e servidores não são levadas a nuvens públicas, ficando protegidas do ambiente externo [10].
Outras iniciativas voltadas à modernização do poder público também se fazem dignas de menção. O Tribunal de Contas da União (TCU) já oferece, a mais de 1.400 usuários, a 3ª versão do ChatTCU, um assistente virtual que se serve do Azure OpenAI Service, da Microsoft, para subsidiar as atividades de “análise de documentos, pesquisa jurídica, tradução e consultas administrativas”, sujeitando-se a um similar pacto de blindagem de informações internas do órgão de controle externo [11].
A Advocacia Geral da União (AGU) seguiu idêntico caminho e formalizou adesão à plataforma em nuvem para aperfeiçoar as tarefas de triagem de processos, produção de textos e jurimetria, tendo recebido do Ministério do Planejamento a liberação do montante de R$ 25 milhões para a contratação [12]. Em ambos os casos, houve a busca dos órgãos por uma integração direta junto à empresa desenvolvedora da inteligência artificial, com vistas a adequar o uso da ferramenta às suas necessidades.
Sob esse tópico reside, justamente, uma grande preocupação da advocacia pública. A operação do ChatGPT (e de outros modelos de linguagem) se tornou algo corriqueiro para muito procuradores municipais, estaduais e federais. Ultrapassada a — até natural — resistência inicial, muitos passam a empregar tais ferramentas para a correção textual em peças jurídicas, e, paulatinamente, aprendem a treiná-las para tarefas mais complexas, como escrever minutas, formular perguntas para audiências e sintetizar processos.
O encantamento dos novos usuários perante a magnitude de funções performadas pelas IAs generativas ocorre de imediato, assim como a frustração por não conseguir assimilar a fórmula ideal para extrair o seu potencial máximo, associada à técnica de engenharia de prompts, que requer uma série de testes práticos mais aprofundados.
Modelos gratuitos desempenham bem
Tendo em vista os custos para a assinatura das versões mais avançadas das ferramentas mencionadas, cujos planos pagos orbitam em torno da quantia mensal de US$20, o seu uso costumeiro se dá por intermédio de modelos disponibilizados gratuitamente. Estes já apresentam um desempenho bastante satisfatório nas tarefas jurídicas acima descritas, otimizado pelo lançamento do modelo GPT-4o mini, pela OpenAI, em julho deste ano.
Todavia, na facilidade de uso, reside, curiosamente, o grande perigo desses sistemas, constantemente aperfeiçoados a partir dos dados e dos feedbacks de respostas fornecidos pelos usuários [13]. Ao iniciarem um diálogo com o ChatGPT, estes se deparam com o alerta para que “não compartilhe(m) informações confidenciais. Os chats podem ser revistos e utilizados para treinar os nossos modelos”.
Em meio à política de privacidade empresarial da OpenAI sobre a utilização de dados comerciais para o treinamentos de modelos, consta a informação “não usamos seus dados, entradas e saídas do ChatGPT Team, ChatGPT Enterprise ou API para o treinamento de nossos modelos” [14].
O ChatGPT Team [15] e o ChatGPT Enterprise [16] são produtos voltados, respectivamente, para pequenas e grandes empresas — do ponto de vista prático e em questão de estrutura, estas se apresentam equiparáveis a entidades públicas, marcadas pela crescente adesão de servidores ao universo da IAG. Em relação a ambos, portanto, vigora a tônica do (teórico) não aproveitamento do conteúdo submetido por clientes comerciais para refinar modelos.
Os usuários individuais da versão gratuita do ChatGPT ou assinantes do serviço Plus também podem limitar o aproveitamento dos dados fornecidos nas conversações para tal empreitada, embora a funcionalidade possa se afigurar estranha ou de difícil localização para o grosso dos consumidores da plataforma.
Surge, assim, um intricado dilema para a advocacia pública: diante do inevitável uso cotidiano das IAs generativas pelos seus membros, em que milhares de peças contendo teses de defesa são submetidas, com frequência, a tais ferramentas e potencialmente empregadas para o seu aperfeiçoamento, estariam os procuradores a ensinar a inteligência artificial a respeito de como o Estado advoga?
Como consequência, ao habitarem o escopo de treinamento da IA, essas informações se tornam passíveis de serem alcançadas a partir da inserção de comandos precisos pelo usuário, o que nos leva a um segundo impasse: não poderia um advogado privado, que litiga contra o poder público, ter o acesso às mencionadas teses de defesa facilitado e, assim, empreender a argumentação contrária?
Certamente, para aqueles que trabalham com grandes volumes de processos, como os advogados públicos, o encargo de escudar o interesse estatal se tornaria mais complexo. Some-se a isso o fato de que os dados sob a custódia do poder público materializam informações de indivíduos e organizações, que, em muitos casos, situam-se em processos judiciais sigilosos.
Poder público é refém do mercado
O transporte acrítico desse tipo de conteúdo para os LLMs em comento tem o condão de se mostrar altamente lesivo e de configurar uma repaginação moderna dos tradicionais incidentes de vazamentos de dados, na qual a administração pública cede informações de interesse, de forma voluntária, em troca da maior eficiência na execução de atividades.
Posto numa encruzilhada, onde a celebração de convênios e a contratação de serviços pagos junto às big techs se tornam imperativas para resguardar dados valiosos — sob a frágil promessa da não exploração de seu conteúdo para o treinamento de modelos de IA, por si, de difícil verificação —, o poder público se vê refém do mercado do segmento.
Nos tempos atuais, a figura mitológica do Leviatã, representada por Thomas Hobbes como uma imagem de força, não mais se associa ao Estado. Consoante leciona José Maria Lassale, hoje, o poder, que rege e dita as relações sociais, emana precipuamente das colossais empresas de tecnologia [17].
Sob a perspectiva da advocacia pública, ganhos de produtividade em tarefas repetitivas são bem-vindos, mas não podem resultar no nocivo compartilhamento de teses internas de imenso valor. Nas hipóteses em que o emprego de chatbots ocorre de maneira avulsa, alheia às pactuações e assinaturas até aqui narradas, a conscientização de servidores se faz indispensável, tanto para possibilitar a obtenção de melhores resultados, quanto para assegurar uma maior proteção informacional.
O enquadramento da inteligência artificial como uma poderosa aliada ou uma inimiga íntima das entidades públicas poderá ser observado com maior clareza nos próximos anos, a partir da consolidação de dados alusivos ao funcionamento desses sistemas, ainda em estágios embrionários de implementação. Todavia, há uma certeza: os seus caminhos se encontrarão intrinsecamente conectados pelas próximas gerações, até o advento de novas tecnologias disruptivas.
Enquanto estas não chegam, relembrar as lições deixadas por Shakespeare e Homero pode se revelar como algo oportuno.
[1] Prompt é um comando (entrada), que pode ser, por exemplo, uma pergunta, frase ou tarefa, fornecida pelo usuário a um modelo de linguagem (e.g. ChatGPT) para que seja apresentada uma resposta (saída).
[2] SAMSUNG proíbe uso de IA após vazamento de dados com ChatGPT. Exame, [S.l.], 3 maio 2023. Disponível em: https://exame.com/tecnologia/samsung-proibe-uso-de-ia-apos-vazamento-de-dados-com-chatgpt/. Acesso em: 2 jul. 2024.
[3] SILADITYA, Ray. Apple é a mais nova empresa a proibir que funcionários usem o ChatGPT. Forbes, [S.l.], 19 maio 2023. Disponível em: https://forbes.com.br/carreira/2023/05/apple-e-a-mais-nova-empresa-a-proibir-que-funcionarios-usem-o-chatgpt/. Acesso em: 2 jul. 2024.
[4] CNJ. Pesquisa uso de inteligência artificial IA no Poder Judiciário 2023. Brasília: CNJ, 2024. Disponível em: 2 jul. 2024. Acesso em: https://static.poder360.com.br/2024/06/pesquisa-uso-da-inteligencia-artificial-ia-nopoder-judiciario-2023.pdf. Acesso em: 2 jul. 2024.
[5] Barroso pede a big techs criação de “ChatGPT” para uso jurídico. Migalhas, [S.l.], 18 out. 2023. Disponível em: https://www.migalhas.com.br/quentes/395504/barroso-pede-a-big-techs-criacao-de-chatgpt-para-uso-juridico. Acesso em: 2 jul. 2024.
[6] STF. Inteligência Artificial e Justiça: Relatório Geral – Chamamento Público 001/2023. Brasília: STF, 2024. Disponível em: https://www.stf.jus.br/arquivo/cms/noticiaNoticiaStf/anexo/RELATORIOCHAMAMENTO.INTELIGNCIA.ARTIFICIAL.pdf. Acesso em: 2 jul. 2024.
[7] CNJ. Resolução nº 338/2023, de 30 de novembro de 2023. Institui Grupo de Trabalho sobre inteligência artificial no Poder Judiciário. CNJ: Brasília, 2023. Disponível em: https://atos.cnj.jus.br/atos/detalhar/5368. Acesso em: 6 jul. 2024.
[8] O documento se encontra disponível em: https://images.jota.info/wp-content/uploads/2024/07/acordao-cnj-chatgpt-00004168920232000000-jota.pdf. Acesso em: 6 jul. 2024.
[9] JUSTIÇA catarinense adota Copilot como ferramenta oficial de inteligência artificial. TJSC, Santa Catarina, 11 jun. 2024. Disponível em: https://www.tjsc.jus.br/web/imprensa/-/justica-catarinense-adota-copilot-como-ferramenta-oficial-de-inteligencia-artificial-. Acesso em: 27 jul. 2024.
[10] TJ disponibiliza vídeos com destaques do evento sobre inteligência artificial generativa. TJSC, Santa Catarina, 23 jul. 2024. https://www.tjsc.jus.br/web/imprensa/-/tj-disponibiliza-videos-com-destaques-do-evento-sobre-inteligencia-artificial-generativa?redirect=%2F.
[11] USO de inteligência artificial aprimora processos internos no Tribunal de Contas da União. Portal TCU, [S.l.], 22 fev. 2024. Disponível em: https://portal.tcu.gov.br/imprensa/noticias/uso-de-inteligencia-artificial-aprimora-processos-internos-no-tcu.htm. Acesso em: 2 jul. 2024.
[12] BARRETO, Kellen. Governo contrata IA para triagem de processos e produção de textos na AGU. G1, Brasília, 11 jun. 2024. Disponível em: https://g1.globo.com/politica/noticia/2024/06/11/governo-contrata-ia-para-triagem-de-processos-e-producao-de-textos-na-agu.ghtml?utm_source=share-universal&utm_medium=share-bar-app&utm_campaign=materias. Acesso em: 2 jul. 2024.
[13] HOW your data is used to improve model performance. OpenAI. Disponível em: https://help.openai.com/en/articles/5722486-how-your-data-is-used-to-improve-model-performance. Acesso em 27 jul. 24.
[14] ENTEPRISE privacy at OpenAI. OpenAI. Disponível em: https://openai.com/enterprise-privacy/. Acesso em 27 jul. 24.
[15] A descrição da modalidade é fornecida no site oficial da OpenAI: “criado para equipes e pequenas empresas, o ChatGPT Team oferece ferramentas colaborativas e acesso self-service ao poder do ChatGPT em um espaço de trabalho dedicado para sua equipe” (tradução nossa). Disponível em: https://openai.com/enterprise-privacy/. Acesso em: 27 jul. 24.
[16] A descrição da modalidade é fornecida no site oficial da OpenAI: “criado para empresas, o ChatGPT Enterprise oferece às organizações a capacidade de usar o ChatGPT com controles, ferramentas de implantação e velocidade necessária para tornar toda a sua organização mais produtiva” (tradução nossa). Disponível em: https://openai.com/enterprise-privacy/. Acesso em: 27 jul. 24.
[17] LASSALE, José María. Ciberleviatán: el colapso de la democracia liberal frente a la revolución digital. 2.ed. Barcelona: Arpa, 2019.
Miguel Felipe Almeida da Câmaraé procurador do estado de Pernambuco, graduado em Direito pela UFPB e pós-graduado pela ESA-OAB/PB e UCAM/RJ.
Milton Pereira de França Nettoé doutorando em Direito pela Universidade Católica de Pernambuco (Unicap), mestre em Direito pelo Centro Universitário Cesmac, pesquisador no Legal Grounds Institute e advogado.