O periculosômetro digital?

Notas sobre o uso de algoritmos e de inteligência artificial no sistema penal

A utilização de novas tecnologias na aplicação do Direito é uma realidade inexorável. Nos últimos anos, Tribunais nacionais e internacionais têm incorporado instrumentos de análise de dados, com o intuito de abreviar os caminhos que conduzem à resolução de casos judiciais.

O Direito Penal não passou incólume por essa tendência. Nos Estados Unidos, os softwares conhecidos por evidence-based practices estão a amparar a dosimetria de sentenças, fixação de regimes de cumprimento e a execução de penas privativas de liberdade, dentre outras etapas do procedimento criminal.

Essas ferramentas são baseadas em métodos atuariais de avaliação de riscos e orientam o processo de decisão dos julgadores a partir de análises probabilísticas do potencial de reincidência do acusado (presumidamente aferido por dados da experiência, portanto evidence-based).

O contínuo aporte de institutos jurídicos do common law ao sistema judicial brasileiro1 torna relevante o exame de mencionadas práticas, para além do interesse acadêmico: em breve os juízes criminais brasileiros podem ser amparados por tais programas evidence-based. Além disso, nosso Judiciário é constantemente premido por demandas de eficiência e celeridade (nem sempre em favor da qualidade da prestação jurisdicional). As ferramentas tecnológicas são uma alternativa viável para agilizar o processo decisório. Assim, além de debater a compatibilidade de mecanismos semelhantes com nosso ordenamento jurídico-penal, é oportuno aprender com os problemas já detectados pela experiência dos juristas norte-americanos. Esse é o propósito deste artigo.

Conjuntura da introdução das ferramentas evidence-based nos EUA

De 1970 a 2008, a política criminal norte-americana caracterizou-se pela prevalência de um viés o recurso ao encarceramento como medida prioritária de controle social. De acordo com Cecelia KLINGELE2, professora de Direito na Universidade de Winsconsin, cada ano do intervalo mencionado registrou um aumento de acusados submetidos ao controle penal, sejam privados de liberdade, sejam submetidos a alguma modalidade de liberdade monitorada. O número de condenados cumprindo pena privativa nos EUA saltou de 196.429, no início dos anos 70, para mais de 1.500.000, em 2010. O número de pessoas presas provisoriamente apresentou um incremento similar. A inflação da população vinculada ao poder punitivo ensejou, além de elevado custo humano e social, um custo econômico-fiscal considerável.

Dados do Departamento de Justiça (DOJ) demonstram que, entre 1977 e 1995, o investimento público em sanções privativas de liberdade cresceu 823%. No ano de 2010, o orçamento destinado ao sistema punitivo, seja dos governos estaduais, seja do governo federal, somava aproximadamente 80 bilhões de dólares ao ano3. A expressiva cifra inclui os custos de construção e manutenção de presídios, de criação de uma rede de atendimento de saúde para os condenados, pagamento de agentes penitenciários e de livramento condicional e de todos os servidores envolvidos com a administração das engrenagens da máquina punitiva.

A análise do DOJ cotejou o peso orçamentário do sistema penal com os resultados obtidos. A conclusão foi bastante singela: o aumento da despesa não significou diminuição de criminalidade nem da taxa de reincidência dos condenados. Como uma das modalidades de reorientação de tal política, surge o recurso aos algoritmos atuariais na Justiça Criminal como forma de arrefecer o hiper-encarceramento.

A premissa de aplicação parece bastante lógica: as ferramentas de probabilidade auxiliam o operador humano a apontar, com maior velocidade, qual o réu que possui maior chance de reincidir. Portanto, com base na pontuação do indivíduo, define-se qual deve ser o regime de segregação, por quanto tempo, se o condenado pode progredir de regime etc. Assim, as penitenciárias seriam reservadas aos acusados mais perigosos, poupando-se os recursos públicos e viabilizando a reabilitação dos acusados menos propensos a reincidir.

Embora a lógica pareça irretocável, a prática da aplicação das ferramentas de inteligência artificial ensejou polêmicas na Justiça Criminal norte-americana, como se examina a seguir.

Propriedade intelectual e vieses do software: lições do caso Winsconsin v. Loomis

Em fevereiro de 20134, na cidade de La Crosse, Wisconsin, um indivíduo no interior de um veículo disparou dois tiros em uma via pública. Ao ser contatada, a polícia local iniciou diligências para localizar o veículo. Ao localizá-lo, teve início uma perseguição que acabou com a prisão de dois suspeitos, Eric L. Loomis e Michael Vang. A polícia apreendeu uma espingarda calibre 12, dois cartuchos deflagrados e cartuchos não deflagrados no interior do veículo.

Eric Loomis foi indiciado pelas capitulações de a) colocar em risco a incolumidade pública, b) tentativa de fugir de um agente de trânsito, c) condução de veículo sem o consentimento do proprietário, d) posse de arma de fogo para uso em crime e posse de espingarda de cano curto ou rifle.

Loomis realizou um acordo com a Promotoria, admitindo a culpa em dois dos delitos menos graves (tentativa de fuga de agente de trânsito e condução de veículo sem o consentimento do proprietário). Após a homologação do acordo do acusado com a Promotoria, determinou-se a realização de uma Investigação Pré-Sentença (Presentence Investigation Report ou simplesmente PSI), que incluiria uma avaliação de risco realizada pela ferramenta evidence-based COMPAS (Correctional Offender Management Profiling for Alternative Sanctions).

Como outras ferramentas similares, o COMPAS atribui uma pontuação a cada imputado, que refere-se ao risco de que o indivíduo em questão torne a se envolver com práticas delitivas. Tal pontuação é determinada por algoritmo, baseado em cálculos atuariais, e leva em conta as respostas dadas pelo próprio acusado a um questionário que visa a determinar seu perfil, considerando informações como o local onde o condenado nasceu e foi criado, grau de instrução, dados sobre família, amigos e vizinhos, histórico de uso de susbtâncias entorpecentes e seus antecedentes criminais,

A condenação de Loomis restou fixada em seis anos de prisão.

Ao tomar conhecimento da utilização do COMPAS para agravamento da condenação, a defesa de Eric Loomis recorreu aos Tribunais, suscitando violação ao devido processo por conta de ausência de informação do critério utilizado pela ferramenta para indicar um incremento no quantum de condenação. Dentre as irresignações defensivas, estava a composição do sistema de pesos no questionário da ferramenta evidence-based. Os quesitos eram de conhecimento do acusado, bem como o resultado do relatório de risco; todavia, a influência de cada pergunta no resultado final não foi informada.

Os advogados de Loomis requereram judicialmente que Northpointe Inc., a companhia que criou o sistema COMPAS, apresentasse os dados relativos aos pesos, esta negou-se a informá-los, alegando que estariam resguardados por seus direitos de propriedade intelectual. A defesa ainda constatou que dados como gênero e raça influenciavam na composição da pontuação final do indivíduo.

Quando o recurso defensivo chegou à Suprema Corte de Wisconsin, esta não deu provimento à impugnação de Loomis. A Corte reconheceu que o algoritmo do COMPAS estava resguardado por propriedade intelectual e que não poderia ser violado. Apesar de não prover o recurso, o Tribunal afirmou que as ferramentas evidence-based podem amparar o trabalho do Juiz sentenciante, mas não podem ser a única fonte de fundamentação. Os julgadores ainda ressaltaram que o acusado deve receber um esclarecimento prévio sobre o uso de tais ferramentas de avaliação de risco e que suas respostas podem servir de parâmetro para graduação da sentença.

O caso Loomis é emblemático, na medida em que evidencia a falta de transparência sobre os algoritmos que repercutirão em fixação de regime, quantidade de pena e possibilidades de progressão. Se ao acusado é vedado conhecer os caminhos que resultaram na composição de sua pontuação, ele deve se conformar em aceitar a conclusão, ante a impossibilidade de refutação dos critérios. Assinala-se por exemplo que a ferramenta utiliza circunstâncias que jamais poderiam fazer parte do raciocínio jurídico, tais como familiares, local de residência e amigos. O Direito Penal deixa de priorizar o fato delitivo e passa priorizar o autor do delito, tornando-se verdadeiro Direito Penal do Autor.

Alguns dados5 sobre a utilização do COMPAS na Florida também trazem preocupação. Citam-se algumas conclusões de pesquisadores da ProPublica, que analisou 10.000 condenações em Broward County:

(i) acusados negros frequentemente foram classificados com maior risco de reincidência do que efetivamente possuíam. Acusados negros que não reincidiram em um período de dois anos tinham o dobro de chance de serem erroneamente classificados como alto risco de reincidência, em relação aos acusados brancos (45% contra 23%);

(ii) acusados brancos frequentemente foram classificados com menor risco do que efetivamente possuíam. Acusados brancos que reincidiram em um intervalo de dois anos foram equivocadamente classificados como baixo risco reincidência em uma proporção quase duas vezes maior que os acusados negros (48% contra 28%);

(iii) no tocante à reincidência especificamente para crimes violentos, acusados negros foram erroneamente classificados como alto risco em uma taxa duas vezes maior que acusados brancos.

Demonstrados alguns problemas na implementação de tais ferramentas no sistema norte-americano, passa-se às considerações finais.

Considerações finais

Não se pretende aqui fazer um libelo contra a utilização de novas tecnologias para a aplicação do Direito Penal, até mesmo porque o progresso é implacável e essa seria uma batalha perdida. A pretensão desse texto é trazer alguns dos problemas à tona para fomentar o debate em torno de algo que integrará a práxis judicial criminal em pouco tempo.

Já alertou Henry LUMMERTZ6 em recente trabalho que a construção de modelos de inteligência artificial é um trabalho sujeito a erros, como toda produção humana. A aplicação dos sistemas evidence-based na realidade norte-americana já demonstrou estar permeada de preconceitos humanos, camuflados por questionários e algoritmos. Com preocupações similares, Alexandre MORAIS DA ROSA7 adverte para o perigo de a inteligência artificial criar uma espécie de argumento de autoridade, por uma sistemática em que o julgador humano exima-se da responsabilidade pelo ato decisório.

Antes de encerrar, cabe explicar o título deste artigo: em conhecida alegoria, esboçada em texto de 1988, o ilustre penalista Eugenio ZAFFARONI8 afirma que uma das mais antigas pretensões da criminologia etiológica, de matriz positivista, é a medição da periculosidade. Assim, como se fosse possível uma metodologia para medição de periculosidade por prognose estatística (periculosômetro, na mordaz ironia do mestre argentino), reúnem-se os fatores de reincidência e passam-se a organizá-las para achar um ponto de convergência. O equívoco de tal raciocínio é assentar uma criminologia no binômio causa-efeito, preconizando o estudo do agente do delito e não do fato delitivo, algo reeditado pelos softwares atuariais de avaliação de risco norte-americanos.

Por fim, reiterando a despretensão de sustar a marcha da história, no caso de incorporação de softwares de inteligência artificial ao sistema penal brasileiro, além do cuidado com os problemas pontuados neste texto, deva-se pensar em termos de onde implementar tais avanços. Uma ideia sensata seria privilegiar pontos mais vulneráveis da persecução penal, como, por exemplo, a obtenção da prova técnica e o cuidado com sua cadeia de custódia, ao invés de procurar adivinhar qual condenado possui maior chance de tornar a delinquir, reduzindo a aplicação do Direito Penal a uma espécie de quiromancia digital.

————————————

1 O transplante de institutos jurídicos anglo-americanos não é exclusividade brasileira e tampouco é fenômeno recente. Em conferência proferida no ano de 1991, com provocativo título, o professor da Universidade de Munique Bernd SCHÜNEMANN alertava para a irradiação do modelo consensual anglo-saxão para os diversos países de tradição romano-germânica. SCHÜNEMANN, Bernd. ¿Crisis del procedimiento penal? (¿Marcha triunfal del procedimiento penal americano en el mundo?). in: Jornadas sobre la reforma del Derecho Penal en Alemania, Cuadernos del Consejo General del Poder Judicial, nº 8, Madrid, C.G.P.J., 1991 (trad. Silvina BACIGALUPO).

2 KLINGELE , Cecelia The Promises and Perils of Evidence-Based Corrections, 91 Notre Dame Law Review, v. 91, n. 2, fev. 2016. p. 577. Disponível em //scholarship.law.nd.edu/ndlr/vol91/iss2/2?utm_source=scholarship.law.nd.edu%2Fndlr%2Fvol91%2Fiss2%2F2&utm_medium=PDF&utm_campaign=PDFCoverPages – Acesso em 1º/10/2018.

3 Department of Justice. Smart on crime. A introdução do documento deixa bastante clara a delimitação do problema e o tipo de providências para tentar superá-lo: “The United States today has the highest rate of incarceration of any nation in the world, and the nationwide cost to state and federal budgets was $80 billion in 2010 alone. This pattern of incarceration is disruptive to families, expensive to the taxpayer, and may not serve the goal of reducing recidivism. We must marshal resources, and use evidence-based strategies, to curb the disturbing rates of recidivism by those reentering our communities”. Disponível em //www.justice.gov/sites/default/files/ag/legacy/2013/08/12/smart-on-crime.pdf – Acesso em dezembro de 2018.

4 Dados obtidos a partir do relatório da decisão da Suprema Corte de Wisconsin no caso nº 2015AP157-CR.

5 LARSON, Jeff; KIRCHNER, Lauren; ANGWIN, Julia. How we analyzed the COMPAS recidivism algorithm. Disponível em: //www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm – Acesso em dezembro de 2018.

6 LUMMERTZ, Henry. Algoritmos, inteligência artificial e o Oráculo de Delfos.Disponível em www.jota.info/opiniao-e-analise/artigos/algoritimos-inteligencia-artificial-e-o-oraculo-de-delfos-12102018 – Acesso em dezembro de 2018. Afirma meu colega LUMMERTZ, com o qual muito dialoguei para a redação deste artigo, que: “Nada impede, no entanto, que tais modelos, ao invés de eliminar os defeitos de um julgamento humano, apenas os disfarcem com a utilização da tecnologia, caso incorporem presunções e preconceitos, que estarão escondidos em algoritmos compreendidos apenas por um pequeno grupo de pessoas que detenham o conhecimento técnico necessário. Nesse caso, os “modelos de reincidência” podem acabar reforçando desigualdades já existentes e disfarçando uma discriminação baseada no status demográfico e socioeconômico do indivíduo”.

7 MORAIS DA ROSA, Alexandre. Desejo made in machine? O fascínio da inteligência artificial. Disponível em //www.conjur.com.br/2018-nov-16/limite-penal-desejo-made-in-machine-fascinio-inteligencia-artificial – Acesso em dezembro de 2018.

8 ZAFFARONI, Eugenio Raúl. Criminología: aproximación desde un margen. v.I. Bogotá: Editorial Temis, 1988. p. 244

Por Antonio Tovo

Fonte: //www.jota.info/opiniao-e-analise/artigos/o-periculosometro-digital-06012019

 

Comentários

Comentários