No
mês passado, foi anunciada a utilização, pelo Supremo Tribunal Federal, da
inteligência artificial (AI), ora denominada de Victor (nome sugestivo), para
pré-processamento de recursos extraordinários, que, além disso, selecionaria
temas de repercussão geral para julgamento[1].
Trata-se
do primeiro passo para a utilização de inteligência artificial pela máxima
corte brasileira, havendo a ressalva de que não seria usada para julgamento dos
feitos.
Mas
essa ressalva pode ser apenas temporária, bem como a AI poderá ser implementada
também em tribunais estaduais, tendo em vista que já existe a sua utilização em
alguns países, como EUA, para decisões judiciais, o que tem gerado inúmeras
polêmicas sobre seu funcionamento.
Cabe
esclarecer que a inteligência artificial funciona através de algoritmos, que
representam uma sequência de operações aplicadas a um número determinado de
dados, para a realização de tarefas por uma máquina.
Tais
dados são inseridos num software, de forma que o programador do sistema crie através
deles diversos códigos e rotinas, para que a máquina realize atividades que
poderiam substituir a atuação humana.
No
entanto, apesar da relevância do avanço da AI para o desempenho da atividade
judicial, há que se fazer certas ponderações no aspecto da Justiça penal, pelas
suas consequências sobre os direitos fundamentais do preso.
No
caso, os EUA já utilizam a AI na atividade policial e judiciária, sendo que,
através de cruzamento de dados coletados sobre determinadas pessoas, já se
adotam políticas de policiamento específicas em alguns locais, para
desarticulação de gangues, e analisa-se a possibilidade de concessão de
benefícios de execução penal.
Em
New Orleans[2], por exemplo, tem sido feita a identificação de pessoas que
seriam potenciais criminosos, pela utilização de dados de redes sociais, para
determinação de perfil de possíveis criminosos, sem evidências concretas de
inclinação para a criminalidade, o que gerou diversas críticas, por estabelecer
uma nova forma institucional de enquadramento de potenciais infratores, dentro
das teorias do Direito Penal do Inimigo.
A
Suprema Corte americana[3] também testou AI para prever o voto de seus juízes
em alguns processos, baseando-se na pesquisa das decisões anteriores sobre
determinadas matérias, havendo margem de 75% de acertos pela máquina, de forma
que, possivelmente, decisões estão sendo tomadas com base no algoritmo
matemático, para poupar o trabalho dos julgadores.
O
caso mais chocante é o do estado americano de Wisconsin[4], onde os magistrados
criminais já calculam a pena de prisão e decidem sobre a concessão de liberdade
provisória pelo sistema de pontos de um algoritmo matemático, que analisa as
respostas dadas pelo réu em um questionário de avaliação da sua periculosidade.
Importa
destacar os critérios do questionário, que inclui perguntas do tipo “alguém da
sua família já foi preso?” ou “é aceitável que alguém que passe fome roube?”.
Frise-se
que o objetivo é eliminar a subjetividade do julgamento, de forma a evitar
erros de avaliação.
Mesmo
assim, esse sistema não parece compatível com a ordem constitucional
brasileira, que preconiza princípios como a presunção de não culpabilidade, a
individualização da pena e da humanidade na execução penal, pela massificação
de possíveis perfis criminosos, através de dados coletados de pessoas com
características aparentemente semelhantes, o que justamente causaria erros
judiciários e acirraria as questões de racismo na Justiça.
Assim,
essa desumanização da execução penal seria conflitante com a ressocialização do
preso, que seria apenas mais um número no sistema que analisa a situação dos
detentos.
Não
se pode aferir, desta forma, a periculosidade de um réu sem a análise
individualizada das circunstâncias da sua prisão para se verificar, então, a
possibilidade de concessão de liberdade provisória, conforme os requisitos do
artigo 312 do CPP:
Art.
312. A prisão preventiva poderá ser decretada como garantia da ordem pública,
da ordem econômica, por conveniência da instrução criminal, ou para assegurar a
aplicação da lei penal, quando houver prova da existência do crime e indício
suficiente de autoria.
Não
bastasse isso, seria relegada à inutilidade a realização da audiência de
custódia, para análise da legalidade do flagrante, a qual foi implantada por
necessidade de observância dos direitos humanos do preso, previstos no Pacto de
São José da Costa Rica.
Outra
questão seria o cálculo da pena para o réu pelo algoritmo matemático,
desprezando-se o teor do caput, artigo 59 do Código Penal, que considera vários
aspectos, como a personalidade do agente e a conduta social, justamente para
garantir a individualização da pena:
Art.
59 - O juiz, atendendo à culpabilidade, aos antecedentes, à conduta social, à
personalidade do agente, aos motivos, às circunstâncias e conseqüências do
crime, bem como ao comportamento da vítima, estabelecerá, conforme seja necessário
e suficiente para reprovação e prevenção do crime.
Logo,
não se pode retirar totalmente a subjetividade da análise dessas questões, uma
vez que não há garantia de acerto pela máquina, tendo em vista que o moderno
sistema de pontos de Wiscosin é sigiloso, sem qualquer transparência nos
critérios desses algoritmos, que são criados por empresas privadas, que detêm
os direitos desses softwares.
A
inteligência artificial, na verdade, pode ser melhor empregada para solucionar
outras questões penais, como o superencarceramento, pela criação de um sistema
que monitorasse automaticamente o fim do período de cumprimento de pena do
preso, bem como alertasse, de forma eficiente, a serventia cartorária sobre os
períodos de análise da possibilidade de concessão de certos benefícios de
execução penal, evitando que muitos detentos fiquem abandonados no sistema, sem
progressão de regime ou acompanhamento da sua situação.
Com
isso, aceitar-se a máquina no lugar do magistrado resultaria em situação
semelhante à descrita na obra 1984, de George Orwell, na qual estaremos sendo
observados e catalogados por pessoas que detêm a tecnologia, a serviço do
governo, sendo que qualquer distorção no sistema poderia causar a prisão
injusta de um cidadão.
Assim,
o nosso Victor poderá virar o monstro Frankenstein, caso comece a ser usado de
forma equivocada, causando graves distorções no sistema judicial brasileiro.
[1]
http://portal.stf.jus.br/noticias/verNoticiaDetalhe.asp?idConteudo=380038
[2]
http://link.estadao.com.br/blogs/ligia-aguilhar/policia-usa-inteligencia-artificial-para-prevenir-crimes-eua
[3]
https://veja.abril.com.br/ciencia/algoritmo-supera-juristas-ao-prever-decisoes-da-justica-americana
[4]
http://www.bbc.com/portuguese/brasil-37677421
Claudia da Costa Bonard de
Carvalho é advogada criminal corporativa.
Revista Consultor
Jurídico
Nenhum comentário:
Postar um comentário