Compartilhe
Contate
Role para baixo
Categorias
//O uso de inteligência artificial no processo penal é compatível com a oralidade?

O uso de inteligência artificial no processo penal é compatível com a oralidade?

por Luiz Eduardo Cani e Alexandre Morais da Rosa

As discussões recentes acerca das articulações entre o direito e as novas tecnologias têm provocado uma plêiade de manifestações: da defesa irrestrita à recusa total, passando por dúvidas, ceticismos e incompreensões. A situação se torna ainda mais dramática quando se trata de temas como o suporte à decisão judicial por algoritmos. Aí o caldo entorna e as discussões se tornam acaloradas, em geral sem suporte na produção científica do campo de pesquisa (confira o artigo de Rodrigo Chemim aqui).

Um dos desdobramentos dessa querela atingirá, mais dia ou menos dia, o processo penal e, assim, as discussões acerca da oralidade, entendida aqui no sentido proposto por Alberto Binder [1], sobretudo com o advento da lei “anticrime”, em que o “remendo”  das reformas parciais introduziu mais um arremedo de acusatoriedade (ainda que o STF já tenha suspendido, sine die, a aplicação do juiz das garantias), com diversas inconsistências sistemáticas, pelo qual a “hermenêutica” oportunista do MSI (Movimento da Sabotagem Inquisitória — aqui) esgueira-se.

A relevância da oralidade para um processo acusatório — em que pese se trate de característica secundária, como há muito adverte Jacinto Nelson de Miranda Coutinho — foi percebida ainda em 1935, por James Goldschmidt, para quem a oralidade é o mínimo de configuração acusatória do processo que é, também, condição de possibilidade do contraditório e da concentração do juízo oral [2] (equivalente à audiência de instrução e julgamento brasileira).

A oralidade é também condição de possibilidade da imediação, isto é, de que a decisão será tomada pelo juiz, não por terceiros; de que inexistirá mediação entre a cognição das provas e a decisão (ato cognitivo próprio baseado em evidências que superaram o Teste EVE: existência, validade e eficácia [3]). Todos os atos serão realizados oralmente, tanto pelas partes (alegações iniciais, produção das provas e alegações finais), quanto pelo juiz (sentença oral). Neste momento, desponta aparente contradição com as novas tecnologias: se o juiz proferirá a sentença oralmente e em seguida às alegações finais das partes, a inteligência artificial seria uma ruptura com a imediação e retardaria a sentença.

Esse é um risco. Não se desconsidera. Mas um juízo oral não deve ser adiado para que a sentença seja proferida em gabinete — não de todo. A experiência processual penal chilena serve de norte para compreender que, na sentença oral, os juízes expressam as razões fortes e o dispositivo. Depois disso, têm cinco dias para redigir a sentença articulado motivação adequada, robusta e válida.

De todo modo, a inteligência artificial não entra em cena apenas na elaboração da sentença escrita [4]. Os juízes chilenos, mesmo durante a realização das audiências de custódia, audiências intermediárias (admissibilidade da acusação e admissibilidade/relevância das provas) e juízos orais, podem consultar legislação, doutrina e jurisprudência antes de decidir — e o fazem, conforme se verifica na prática, baixando a cabeça e lendo antes de decidir.

É justamente nesse momento que as “máquinas” podem servir de ferramental relevante para agilizar essa etapa, comparando jurisprudência de diversos Tribunais, súmulas, legislação, processos paradigmáticos suspensos, etc., para que o juiz decida. No segundo momento, em que é necessário redigir a decisão, os algoritmos podem novamente agilizar o trabalho. Robôs-classificadores e Robôs-relatores, conforme a tipologia elaborada no livro “Ensinando um Robô a Julgar”.

Além disso, no Teste EVE (Existência, Validade e Eficácia), as máquinas podem apoiar a decisão no tocante à aderência metodológica e técnica da observância dos requisitos de validade da cadeia de custódia, por exemplo (conforme defendemos aqui).

Por tudo isso, em que pese possa-se criticar os algoritmos, esses não servem para neutralizar os julgadores ou “engessar” a atividade jurisdicional, muito menos a oralidade, senão para auxiliar no desempenho das atividades jurídicas — aqui não se falou dos membros do MP e defensores porque, nos casos desses, o uso deve(ria) ocorrer na preparação da teoria do caso[5], não durante o juízo oral. Raphael Castilho Barilli [6] descreve: “A teoria do caso visa a funcionar como uma metodologia de trabalho que se desenvolve de forma ordenada e estruturada, permitindo que a parte formule um relato consistente acerca do caso que será apresentado em juízo”.

Se o principal aspecto do processo penal é a constante tomada de decisão (de todos os agentes processuais, não só dos magistrados), a experiência decisória acumula os acertos, evita os erros, com a criação de “regras de bolso” exitosas (heurísticas[7], invocadas de modo automático e intuitivo pelo cérebro, quando necessário. A lógica da inteligência artificial pode auxiliar. As decisões e comportamentos decisórios das máquinas, no campo do Direito, exigem a supervisão humana, a saber, as máquinas não podem “decidir sozinhas”, a partir dos critérios e preferências que elegerem, uma vez que a “razão humana” deve “supervisionar” o conjunto de dados (o input), construir o algoritmo (os critérios e o passo a passo da decisão), validar o modelo decorrente (acurácia, precisão etc.), justamente porque produzidas por algoritmos que se valem de heurísticas.

Os resultados “sugeridos” pelas máquinas devem ser “validados” por agentes humanos, no controle das decisões. Diante da capacidade de processamento das máquinas, em algumas situações (p.ex. redes neurais, floresta randômica), a velocidade e volume de processamento de dados impede o entendimento humano (p.ex. Black Box), como no caso de “veículos autônomos”, contexto em que as discussões são complexas, porque não podemos pedir às máquinas a explicação step by step do trajeto decisório. É justamente o que as máquinas fazem melhor do que nós, humanos. O que nos importa com as máquinas é que, assim como os humanos devem “supervisionar” e “validar” as “sugestões decisórias das máquinas”, na linha da diretriz do CNJ (Res. 332/20). A necessária validação das “sugestões decisórias” do nosso sistema implícito/automático (intuitivo; S1) no processo penal passa por criarmos mecanismos de “filtro”, “supervisão” e “homologação” pelo sistema reflexivo/racional. Ao fim e ao cabo, as perspectivas se unem pelo acolhimento da premissa de que as decisões no processo penal devem ser “mediadas” pelo raciocínio lógico (válido e sólido), a partir dos referenciais internos ao Direito, mediante o controle efetivo da utilização de critérios externos (morais, ético, enfim, pessoais), por se tratar de decisões institucionais (do espaço público e não privado).

As máquinas podem auxiliar a decisão judicial com aderência normativa e científica, mantendo o humano como o responsável único pelas deliberações (accountability). A máquina serve de apoio à decisão e não substitui o humano. Eis a diretriz defendida.

[1] BINDER, Alberto. La reforma de la justicia penal: entre el corto y el largo plazo, Sistemas Judiciales, Santiago, a. II, n. 3, pp. 67-72, 2002, p. 68-69 : “Cuando hablamos de ‘oralidad’ no estamos diciendo simplemente las actuaciones de roles escénicos en un espacio más o menos majestuoso. De lo que se trata es de lograr pasar de un modelo de administración de justicia basada en el trámite, en la petición (que es el modelo de las peticiones administrativas) a una administración de justicia basada en el litigio. La estructura del litigio es un punto fundamental como eje articulador de las distintas propuestas de cambio. De allí que no sea extraño que la tradición inquisitorial — una tradición de justicia sin litigio — se ensañe con el juicio y las audiencias orales.

[2] GOLDSCHMIDT, James. Problemas jurídicos y políticos del proceso penal. Conferencias dadas en la Universidad de Madrid en los meses de diciembre de 1934 y de enero, febrero y marzo de 1935. Barcelona: Bosch, 1935, p. 84-85.

[3] MORAIS DA ROSA, Alexandre. Guia do Processo Penal Estratégico. Florianópolis: EMais, 2021, p. 426-428.

[4] Vide: BOEING, Daniel Henrique Arruda; MORAIS DA ROSA, Alexandre. Ensinando um Robô a Julgar: pragmática, discricionariedade, heurísticas e vieses no uso de aprendizado de máquina no Judiciário. Florianópolis: EMais, 2020, p. 73-106.

[5] Sobre teoria do caso: SILVEIRA, Marco Aurélio Nunes da. Por uma teoria da ação processual penal: aspectos teóricos atuais e considerações sobre a necessária reforma acusatória do processo penal brasileiro. Curitiba: Observatório da Mentalidade Inquisitória, 2018, p. 375-384.

[6] BARILI, Raphael Jorge de Castilho. Teoria do Caso e sua aplicabilidade ao Processo Penal Brasileiro. Curitiba: CRV, 2019.

[7] WOJCIECHOWSKI, Paola Biachi; MORAIS DA ROSA, Alexandre. Vieses da Justiça: como as herurísticas e vieses operam nas decisões penais e a atuação contraintuitiva. Florianópolis: EMais, 2021.


 é juiz em Santa Catarina, doutor em Direito pela Universidade Federal do Paraná (UFPR) e professor de Processo Penal na Universidade Federal de Santa Catarina (UFSC) e na Universidade do Vale do Itajaí (Univali).

Luiz Eduardo Cani é doutorando em Ciências Criminais (PUC-RS), bolsista da Capes, advogado e professor.


Publicado originalmente em: https://www.conjur.com.br/2021-jun-18/limite-penal-uso-inteligencia-artificial-processo-penal

  • 2 views
  • 0 Comentário

Leave a Reply

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

© Luiz Eduardo Cani

Contate
Fechar