segunda-feira, 11 de junho de 2018

A INTELIGÊNCIA ARTIFICIAL NA JUSTIÇA DOS EUA E O DIREITO PENAL BRASILEIRO. Por Claudia da Costa Bonard de Carvalho

No mês passado, foi anunciada a utilização, pelo Supremo Tribunal Federal, da inteligência artificial (AI), ora denominada de Victor (nome sugestivo), para pré-processamento de recursos extraordinários, que, além disso, selecionaria temas de repercussão geral para julgamento[1].

Trata-se do primeiro passo para a utilização de inteligência artificial pela máxima corte brasileira, havendo a ressalva de que não seria usada para julgamento dos feitos.

Mas essa ressalva pode ser apenas temporária, bem como a AI poderá ser implementada também em tribunais estaduais, tendo em vista que já existe a sua utilização em alguns países, como EUA, para decisões judiciais, o que tem gerado inúmeras polêmicas sobre seu funcionamento.

Cabe esclarecer que a inteligência artificial funciona através de algoritmos, que representam uma sequência de operações aplicadas a um número determinado de dados, para a realização de tarefas por uma máquina.

Tais dados são inseridos num software, de forma que o programador do sistema crie através deles diversos códigos e rotinas, para que a máquina realize atividades que poderiam substituir a atuação humana.

No entanto, apesar da relevância do avanço da AI para o desempenho da atividade judicial, há que se fazer certas ponderações no aspecto da Justiça penal, pelas suas consequências sobre os direitos fundamentais do preso.

No caso, os EUA já utilizam a AI na atividade policial e judiciária, sendo que, através de cruzamento de dados coletados sobre determinadas pessoas, já se adotam políticas de policiamento específicas em alguns locais, para desarticulação de gangues, e analisa-se a possibilidade de concessão de benefícios de execução penal.

Em New Orleans[2], por exemplo, tem sido feita a identificação de pessoas que seriam potenciais criminosos, pela utilização de dados de redes sociais, para determinação de perfil de possíveis criminosos, sem evidências concretas de inclinação para a criminalidade, o que gerou diversas críticas, por estabelecer uma nova forma institucional de enquadramento de potenciais infratores, dentro das teorias do Direito Penal do Inimigo.

A Suprema Corte americana[3] também testou AI para prever o voto de seus juízes em alguns processos, baseando-se na pesquisa das decisões anteriores sobre determinadas matérias, havendo margem de 75% de acertos pela máquina, de forma que, possivelmente, decisões estão sendo tomadas com base no algoritmo matemático, para poupar o trabalho dos julgadores.

O caso mais chocante é o do estado americano de Wisconsin[4], onde os magistrados criminais já calculam a pena de prisão e decidem sobre a concessão de liberdade provisória pelo sistema de pontos de um algoritmo matemático, que analisa as respostas dadas pelo réu em um questionário de avaliação da sua periculosidade.

Importa destacar os critérios do questionário, que inclui perguntas do tipo “alguém da sua família já foi preso?” ou “é aceitável que alguém que passe fome roube?”.

Frise-se que o objetivo é eliminar a subjetividade do julgamento, de forma a evitar erros de avaliação.

Mesmo assim, esse sistema não parece compatível com a ordem constitucional brasileira, que preconiza princípios como a presunção de não culpabilidade, a individualização da pena e da humanidade na execução penal, pela massificação de possíveis perfis criminosos, através de dados coletados de pessoas com características aparentemente semelhantes, o que justamente causaria erros judiciários e acirraria as questões de racismo na Justiça.

Assim, essa desumanização da execução penal seria conflitante com a ressocialização do preso, que seria apenas mais um número no sistema que analisa a situação dos detentos.

Não se pode aferir, desta forma, a periculosidade de um réu sem a análise individualizada das circunstâncias da sua prisão para se verificar, então, a possibilidade de concessão de liberdade provisória, conforme os requisitos do artigo 312 do CPP:

Art. 312. A prisão preventiva poderá ser decretada como garantia da ordem pública, da ordem econômica, por conveniência da instrução criminal, ou para assegurar a aplicação da lei penal, quando houver prova da existência do crime e indício suficiente de autoria.

Não bastasse isso, seria relegada à inutilidade a realização da audiência de custódia, para análise da legalidade do flagrante, a qual foi implantada por necessidade de observância dos direitos humanos do preso, previstos no Pacto de São José da Costa Rica.

Outra questão seria o cálculo da pena para o réu pelo algoritmo matemático, desprezando-se o teor do caput, artigo 59 do Código Penal, que considera vários aspectos, como a personalidade do agente e a conduta social, justamente para garantir a individualização da pena:

Art. 59 - O juiz, atendendo à culpabilidade, aos antecedentes, à conduta social, à personalidade do agente, aos motivos, às circunstâncias e conseqüências do crime, bem como ao comportamento da vítima, estabelecerá, conforme seja necessário e suficiente para reprovação e prevenção do crime.

Logo, não se pode retirar totalmente a subjetividade da análise dessas questões, uma vez que não há garantia de acerto pela máquina, tendo em vista que o moderno sistema de pontos de Wiscosin é sigiloso, sem qualquer transparência nos critérios desses algoritmos, que são criados por empresas privadas, que detêm os direitos desses softwares.

A inteligência artificial, na verdade, pode ser melhor empregada para solucionar outras questões penais, como o superencarceramento, pela criação de um sistema que monitorasse automaticamente o fim do período de cumprimento de pena do preso, bem como alertasse, de forma eficiente, a serventia cartorária sobre os períodos de análise da possibilidade de concessão de certos benefícios de execução penal, evitando que muitos detentos fiquem abandonados no sistema, sem progressão de regime ou acompanhamento da sua situação.

Com isso, aceitar-se a máquina no lugar do magistrado resultaria em situação semelhante à descrita na obra 1984, de George Orwell, na qual estaremos sendo observados e catalogados por pessoas que detêm a tecnologia, a serviço do governo, sendo que qualquer distorção no sistema poderia causar a prisão injusta de um cidadão.

Assim, o nosso Victor poderá virar o monstro Frankenstein, caso comece a ser usado de forma equivocada, causando graves distorções no sistema judicial brasileiro.

[1] http://portal.stf.jus.br/noticias/verNoticiaDetalhe.asp?idConteudo=380038
[2] http://link.estadao.com.br/blogs/ligia-aguilhar/policia-usa-inteligencia-artificial-para-prevenir-crimes-eua
[3] https://veja.abril.com.br/ciencia/algoritmo-supera-juristas-ao-prever-decisoes-da-justica-americana
[4] http://www.bbc.com/portuguese/brasil-37677421

Claudia da Costa Bonard de Carvalho é advogada criminal corporativa.

Revista Consultor Jurídico





Nenhum comentário: