
No dia de ontem, compartilhei nas minhas redes a análise de um caso na Flórida onde um advogado brilhante havia feito um uso incrível da tecnologia para apoiar sua tese de defesa e reforçar sua argumentação. Um ótimo exemplo da advocacia da nova geração!
Hoje, ao contrário, fomos surpreendidos pela notícia de que um advogado teria usado o ChatGPT para tentar anular uma sentença da 4ª Vara Cível de Osasco.
Em resumo, o argumento do recurso foi de que ao perguntar ao ChatGPT, este teria concluído que a sentença teria sido probabilidade "média a grande" de ter sido escrita por uma máquina ou ferramenta de Inteligência Artificial Generativa. E que isso teria ferido o princípio do juízo natural.
O recurso foi negado pelo Tribunal de Justiça de São Paulo que, inclusive, aumentou os honorários de sucumbência para 15%.
Veja a seguir os equívocos cometidos pelo advogado nesse caso:
1. Uso inadequado do ChatGPT como ferramenta pericial
O primeiro erro do advogado foi acreditar que o ChatGPT teria a capacidade de realizar uma análise como a pretendida.
Para quem acompanha a evolução das ferramentas de Inteligência Artificial é fato notório que a própria OpenAI, criadora do ChatGPT, já tentou criar uma ferramenta para essa finalidade e desistiu. (ver notícia aqui).
E não adiantaria ter pesquisado no Google para encontrar uma outra ferramenta. Até hoje, os testes comprovaram que ainda não é possível uma ferramenta afirmar com precisão quando um texto foi criado por um humano ou por uma máquina.
E o teste para isso é muito fácil, basta procurar por um falso positivo. Um exemplo que muitos utilizam é fornecer um texto de Shakespeare ou uma música dos Beatles e perguntar para a ferramenta se ela teria sido criada com a ajuda de Inteligência Artificial.
Se responder que sim, já era. Essa ferramenta é imprestável para acusar qualquer pessoa, pois a sua precisão e assertividade é questionável.
E o próprio relator do caso, que parece entender mais da tecnologia, destacou:
"Sem ferramentas específicas para análise de autoria de texto ou confirmação com a fonte original, é impossível afirmar com certeza se o texto foi escrito por uma IA ou não. Essa avaliação se baseia apenas na observação do estilo e da estrutura". Grifo nosso.
O ChatGPT foi uma escolha completamente inadequada para tal tarefa e levou a uma análise meramente especulativa que não configura prova válida de produção por inteligência artificial.
2. Desconhecimento das limitações da IA Generativa
Em seguida, o erro foi ter confiado demais na resposta do ChatGPT, sem uma análise crítica.
O advogado se apoiou nos argumentos do ChatGPT sem considerar que eles estavam muito frágeis, consequência do efeito chamado de "alucinação da I.A.", que ocorre quando tudo o que a resposta apresenta parece plausível, mas não é verdadeiro. Vejamos:
1.Estrutura Técnica e Formal: O ChatGPT teria dito que o texto estaria estruturado com grande precisão técnica, com sequências de citações legais e explicações doutrinárias concisas, características comuns em textos gerados por IAs treinadas para auxiliar em consultas jurídicas.
Errado: Não existe esse padrão, tem tampouco em "IAs treinadas para auxiliar em consultas jurídicas". A precisão técnica é o mínimo que se espera de uma sentença proferida por um juiz. A sequência de citações legais e explicações doutrinárias são deveres do juiz associados à justificativa da sua decisão. O texto mais conciso é uma escolha de estilo do juiz e, no caso das IAs, o tamanho da resposta depende do que foi solicitado no prompt. Você pode tanto ter uma resposta concisa quanto uma profunda e detalhada.
2. Uso Extensivo de Jurisprudência e Referências Normativas: O ChatGPT teria apontado também que modelos de IA treinados em grandes bases dedados de jurisprudência e doutrina costumam replicar exatamente esse tipo de estrutura, citando súmulas e decisões de tribunais superiores para fundamentar explicações jurídicas.
Errado: Não! Não são as ferramentas de IA que "costumam citar súmulas e decisões para fundamentar explicações jurídicas". Os juízes fazem isso e, mais uma vez, por dever, uma vez que todas as suas decisões devem ser fundamentadas e a fundamentação deve ser informada.
3. Linguagem Jurídica Complexa: O ChatGPT teria apontado a escolha de palavras e o tom impessoal também são indicativos de uso de IA, pois ela tende a replicar linguagem formal e técnica, especialmente em áreas como o direito, onde a interpretação precisa de normas é fundamental".
Errado: A mais fácil de todas. Todos os juízes usam linguagem jurídica complexa, o famoso "juridiquês". Então, se a sentença possui uma linguagem formal e técnica, não é sinal de que foi feita com uma I.A. e não por um juiz humano. Pelo contrário.
3. Fazer acusação séria com provas frágeis
Induzido a erro pelo ChatGPT, que apontou características que nada indicavam realmente que a sentença teria sido feita por uma ferramenta de Inteligência Artificial, fez a seguinte acusação:
"A máquina que decidiu o processo parece ter presumido que não existem taxas de juros de mercado menores do que aquelas que foram apontadas no documento subscrito pelo juiz de primeira instância." Grifo nosso.
Opa! Acusar o juiz de ter terceirizado a decisão para uma máquina é uma acusação muito séria e grave.
Como disse o desembargador-relator do caso, Dr. Carlos Ortiz Gomes, da 15ª Câmara de Direito Privado do Tribunal de Justiça de São Paulo, a acusação "é muito grave" e coloca em xeque os aspectos morais e éticos do juiz.
E ele ainda foi além, acusando uma suposta "IA do TJSP" de parcialidade.
"Resumindo, se a sentença atacada não é nula porque foi proferida por uma máquina, a nulidade resulta da evidente tendência que a IA do TJSP tem de decidir o caso em favor do Banco, ignorando a existência de taxas de juros menores do que aquelas que ela mesma levou em conta." Grifo nosso.
IA do TJ/SP? Que ferramenta é essa? Quem a construiu? Tem comprovação desse viés? Em quantos casos a tal IA do TJ/SP teria decidido a favor do banco?
O relator ainda destacou que a acusação deveria ser pautada em indícios reais de uso antiético da tecnologia, tais como ação que a sentença seria teratológica (absurda ou monstruosa) ou a indicação de uma jurisprudência inexistente.
Tal conduta poderia resultar em representações no CNJ, OAB e possíveis consequências judiciais, a depender do quanto o juiz possa ter se sentido ofendido pelas acusações.
4. Tese frágil sobre o Princípio do Juiz Natural
Ao enveredar pela tese de que o juiz teria terceirizado atarefa de proferir a sentença para uma máquina, o advogado acabou caindo na violação ao Princípio do Juiz Natural.
O risco aqui está na interpretação do que seria o referido princípio.
Se, por “natural”, for entendido “ser humano de carne e osso”, então nunca teremos ações judiciais 100% julgadas por IA, como na China.
No entanto, para o nível de uso como ferramenta de apoio, então não haveria problema, pois o próprio STF criou a sua IA para ajudar na confecção dos votos.
Aliás, não existe proibição para que juízes utilizem ferramentas tecnológicas de apoio. O Judiciário brasileiro já incorpora diversas ferramentas para auxiliar servidores e magistrados.
Esse ponto nos leva ao conceito de "Devido Processo Tecnológico" elaborado por Danielle Keats Citron.
Ele pode ser considerado uma extensão do princípio do devido processo legal tradicional, adaptado para à era digital, exigindo que os sistemas automatizados sejam justos, transparentes e revisáveis e isso incluiria garantir que os cidadãos possam contestar decisões automatizadas e que haja mecanismos claros para corrigir erros e abusos nestes processos.
Porém, nesse caso, o advogado não conseguiu comprovar que a decisão tenha sido realizada de forma automatizada.
Portanto, para alegar violação do Princípio do Juiz Natural, o advogado teria que ter provado que nenhum juiz humano teria participado da análise e decisão, o que não aconteceu no caso em questão.
5. Violação às regras processuais
Por fim, ao utilizar uma ferramenta inadequada para atarefa, desconhecendo suas limitações como as "alucinações", o advogado deixou de apresentar elementos que comprovassem irregularidade no processo decisório ou qualquer elemento concreto de nulidade da sentença, e acabou causando um prejuízo real à parte representada.
Talvez, até houvesse argumentos para a reforma da sentença, alegando que haveria taxas de juros menores no mercado e que as provas dessa realidade foram apresentadas no processo e desconsideradas pelo juiz na decisão. Haveria uma chance.
Porém, ao optar por seguir na linha frágil de acusar o juiz de uso de ferramenta de IA para fazer a sentença, além de ter o recurso negado, o advogado ainda teve os honorários advocatícios sucumbenciais majorados para15%, evidenciando a fragilidade de sua argumentação.
Se forçarmos um pouco mais, é possível até imaginar uma violação da LGPD, uma vez que o advogado provavelmente teria subido a sentença no ChatGPT com os dados pessoais das partes, sem o devido consentimento. Mas isso é uma outra história!
Conclusão
Os advogados precisam estudar muito para fazer um recurso como esse. É necessário sair dos títulos sensacionalistas dos posts da internet e se aprofundar de verdade em Inteligência Artificial.
Quem realmente estuda o tema sabe, por exemplo, do caso COMPAS nos Estados Unidos, onde um estudo realizado pela ProPublica comprovou que a ferramenta tinha um viés de atribuir um grau de periculosidade maior para pessoas negras em comparação a pessoas brancas com o mesmo histórico criminal.(ver aqui)
Então, para se fazer uma acusação dessa, é necessário ter cuidado.
Nós entendemos a sensibilidade do tema, acreditamos que o debate é o caminho para encontrarmos a melhor solução e que o conceito de Devido Processo Tecnológico é bom demais e deve ser implementado, mas tudo com base técnica e não em suposições.
Para finalizar, vale lembrar que a Ordem dos Advogados do Brasil já publicou as suas Recomendações para Uso de IA Generativa por advogados e, entre as principais estão:
Art. 3.4. (conhecimento das ferramentas) Recomenda-se que o(a) advogado(a) que opte pelo uso de ferramentas de IA generativa compreenda razoavelmente como a tecnologia funciona, as limitações, os riscos a ela associados, e os termos de uso e outras políticas aplicáveis a respeito do tratamento de dados realizado.
Art. 3.5. (desenvolvimento profissional) Ao optar pelo uso da IA generativa supervisionada, o(a) advogado(a) deve se envolver em contínua aprendizagem sobre os conteúdos gerados por IA e suas implicações para a prática jurídica, realizando-se capacitações constantes para aqueles que utilizam a ferramenta na equipe e orientações claras sobre utilização ética da ferramenta.
Art. 3.7. (contencioso) Advogados que utilizam IA em litígios devem garantir que as informações fornecidas ao tribunal sejam precisas e verificadas. Neste sentido, o advogado deve: I. (revisão das respostas) Revisar integralmente todas as saídas geradas pela IA antes de apresentá-las em processos judiciais, a fim de evitar erros factuais ou jurídicos. II. (análise humana) Não confiar exclusivamente nos resultados da IA para a elaboração de argumentos ou documentos submetidos aos tribunais, assegurando a análise humana competente.
Art. 3.8. (capacitação em I.A.) Os advogados que utilizarem ferramentas de IA em sua prática profissional devem possuir entendimento adequado das capacidades e limitações dessas tecnologias, de acordo com os princípios estabelecidos nas legislações referenciadas no item 1 deste Provimento. I. (aprendizado contínuo) Atualizar-se continuamente sobre os benefícios e riscos associados à IA. II. (educação continuada) Participar de programas de formação continuada em tecnologias jurídicas. III. (especialistas) Consultar especialistas quando necessário para garantir o uso ético e competente das ferramentas.
Então, colega, o negócio é começar a estudar esse assunto já!
Quer aprender como utilizar a Inteligência Artificial a seu favor?
Entre agora mesmo para o nosso Grupo de Estudos Gratuito em Inteligência Artificial e Automação para advogados.
Clique aqui: https://bit.ly/grupoadvocacIA
Mauro Roberto Martins Junior
Veja mais sobre a notícia aqui: https://www.jota.info/justica/advogado-usa-chatgpt-para-identificar-uso-de-ia-em-sentenca-e-requer-anulacao
Comments