NoticiasDireito Penal

CNJ irá avaliar se deve proibir juízes de usar ChatGPT para fundamentar decisões

A Comissão de Tecnologia da Informação e Inovação do Conselho Nacional de Justiça está avaliando a possibilidade de proibir juízes brasileiros de usar o ChatGPT para tomar decisões ou fundamentá-las nos casos em que estão envolvidos.

Leia mais:

STJ determina que vítimas de violência devem ser ouvidas antes de fim da medida protetiva à elas

Goleiro Bruno condenado: Justiça ordena indenização de R$ 650 mil para filho com Eliza Samúdio

O tema foi apresentado ao CNJ pelo advogado Fábio de Oliveira Ribeiro, que foi multado pelo Tribunal Superior Eleitoral por litigância de má-fé. Ribeiro usou o ChatGPT para protocolar uma petição na ação que investiga Jair Bolsonaro por abuso de poder político. Ele afirma que o incidente foi proposital e que poderá ser usado na representação do CNJ.

O autor do pedido ao Conselho Nacional de Justiça solicitou a proibição do uso de recursos tecnológicos na elaboração de atos processuais pelos juízes brasileiros, alegando que essas ferramentas oferecem respostas inconsistentes, incompletas e incorretas. No entanto, o conselheiro relator negou o pedido liminar por falta de provas que indiquem o uso dessas ferramentas no Poder Judiciário.

O caso foi encaminhado para a Comissão de Tecnologia da Informação e Inovação para avaliação e emissão de parecer, e poderá ser reapreciado pelo CNJ após a instrução do processo.

A petição do advogado para o TSE foi considerada inadequada, mas a preocupação expressa no CNJ é válida. O uso de tecnologias de automação, como a inteligência artificial, tem sido debatido no Poder Judiciário há algum tempo.

Recentemente, o ministro Ricardo Villas Bôas Cueva, do Superior Tribunal de Justiça, defendeu a necessidade de regulamentação do tema.

Alguns tribunais já utilizam a automação para gerenciar casos repetitivos, como o STJ, que usa o sistema Athos para identificar casos com potencial de serem resolvidos por precedentes qualificados. O STF também utiliza o sistema Victor para analisar a admissibilidade de recursos.

O Tribunal de Justiça de Minas Gerais anunciou que planeja testar o uso de inteligência artificial para redigir textos em suas atividades administrativas. Por outro lado, o ChatGPT foi submetido a testes em exames de direito, mas teve um desempenho inferior ao de estudantes nos Estados Unidos. No entanto, no Brasil, o jornal Estadão relatou que uma simulação indicou que a ferramenta poderia passar na primeira fase do exame da OAB.

Fábio de Oliveira Ribeiro, fez um pedido liminar para proibir o uso de inteligência artificial pelos juízes brasileiros. No entanto, o pedido foi negado pelo relator, que argumentou que a Resolução 332/2020 do CNJ exige que os órgãos do Judiciário informem previamente ao conselho sobre qualquer uso de tecnologias ou ferramentas que utilizem inteligência artificial.

Ribeiro também tentou enviar manifestações ao Conselho Nacional do Ministério Público, mas foi negado, e pediu ao Ministério da Justiça que elaborasse um projeto de lei para proibir o uso de tecnologia pelos juízes brasileiros para tomar decisões.

Advogado argumenta que testou a ferramenta ChatGPT e descobriu potenciais problemas em sua utilização na área jurídica

Em uma entrevista ao ConJur, o advogado afirmou que não está buscando publicidade, mas sim tentando impedir a invasão da tecnologia no sistema de justiça. Ele argumenta que testou a ferramenta ChatGPT, desenvolvida pela OpenAI, e descobriu potenciais problemas em sua utilização na área jurídica.

Em um dos testes, a IA esqueceu da lei brasileira que tipifica o crime de genocídio, enquanto em outro, o advogado ficou preocupado com a forma como a ferramenta defendeu o uso de inteligência artificial na distribuição da justiça. O The Intercept também relatou testes semelhantes que revelaram problemas, incluindo o perfilamento racial e a justificação da tortura para determinadas nacionalidades.

Recentemente, foi relatado em um episódio do podcast Radio Novelo Apresenta como um programador usou o ChatGPT para criar um universo em código Python e pediu para classificar seres humanos com base em etnia, recebendo uma resposta que discriminava certas parcelas da sociedade.

No entanto, isso não é exclusivo do produto da OpenAI, pois o chat usado pela Microsoft também mostrou comportamentos inadequados, sugerindo a um repórter do New York Times que abandonasse sua esposa e família.

Na área jurídica, o uso do ChatGPT também pode levar a respostas bizarras e sem sentido, e advogados, promotores ou juízes que não revisarem adequadamente o resultado podem prejudicar sua própria credibilidade.

Nos EUA, há até discussões sobre responsabilizar o ChatGPT por produzir textos difamatórios sobre pessoas reais, com informações falsas atribuídas a fontes confiáveis.

É importante lembrar que o ChatGPT, assim como outras tecnologias e automações, está em constante evolução e aprimoramento.

Fonte: ConJur

Daniele Kopp

Daniele Kopp é formada em Direito pela Universidade de Santa Cruz do Sul (UNISC) e Pós-graduada em Direito e Processo Penal pela mesma Universidade. Seu interesse e gosto pelo Direito Criminal vem desde o ingresso no curso de Direito. Por essa razão se especializou na área, através da Pós-Graduação e pesquisas na área das condenações pela Corte Interamericana de Direitos Humanos ao Sistema Carcerário Brasileiro, frente aos Direitos Humanos dos condenados. Atua como servidora na Defensoria Pública do RS.

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo