ArtigosDireito Penal

Responsabilização penal e sistemas de inteligência artificial: um tema controverso

Responsabilização penal e sistemas de inteligência artificial: um tema controverso

O Direito Penal foi criado para controlar os seres humanos e suas relações. Basicamente, surgiu pelos humanos e para os humanos. No entanto, com o desenvolver dos meios tecnológicos percebemos  ofensas criminais não são apenas cometidas por humanos na contemporaneidade.

Diante deste fenômeno, surge o debate sobre qual seria a solução adequada para a aplicação da responsabilidade penal em situações em que o ilícito tenha sido cometido por um sistema de inteligência artificial. 

Responsabilização penal e sistemas de inteligência artificial

Conforme expõe Gabriel Hallevy, há três possibilidades de lidar com este novo fenômeno no âmbito penal:

Perpetration-by-Another Liability Model

O modelo considera que o sistema de inteligência artificial é um agente inocente. A máquina não é humana e jamais será, então não há como aplicar o Direito Penal. O sistema de inteligência artificial atua como mero instrumento.

A principal crítica gira em torno de quando o sistema de inteligência artificial autônomo resolve, sem a interferência humana, cometer um crime. Este primeiro modelo assume o planejamento dos programadores em cometerem o ilícito, usando como instrumento a inteligência artificial ou pela negligência dos programadores

Natural probable consequence liability model

É o modelo pelo qual a inteligência artificial, em suas tarefas diárias, comete um crime sem, no entanto, ter a intenção. A título de exemplo, podemos citar o caso de um piloto de aeronave que ativa o piloto automático e, durante a ativação, o piloto percebe uma tempestade se aproximando.

Ao tentar reverter para o modo manual, o sistema de inteligência artificial entende que o piloto atua como uma ameaça e, em virtude disso, corta o suprimento de ar da cabine e o piloto morre. Esta modalidade de responsabilidade é aplicada aos casos em que o sistema de inteligência artificial cometeu um crime sem que o programador pudesse prever e que tenha atuado com negligência.

Neste caso, aplica-se a responsabilização do programador.

Direct Liability Model

O modelo que não vê a dependência entre o sistema de inteligência artificial e o programador ou usuário. Neste caso, há vertentes que apoiam a punição do próprio sistema de inteligência artificial. O principal questionamento dado a esta abordagem é: como os sistemas podem formular todos os requisitos relevantes para a responsabilização criminal? 

A solução que alguns países têm encontrado foi aplicação dos três modelos de modo coordenado, buscando encontrar um meio termo entre a responsabilização dos sistemas e dos programadores, a depender do contexto do cometimento do crime.

Não obstante, alguns países têm encontrado como uma solução provisória a atribuição a responsabilidade penal do sistema de inteligência artificial autônomo à pessoa jurídica que o criou. No entanto, este é um tema controverso e que merece estudos aprofundados para que seja possível encontrar uma solução à problemática da responsabilização penal nos casos em que envolvam sistemas de inteligência artificial. 


Quer estar por dentro de todos os conteúdos do Canal Ciências Criminais?

Siga-nos no Facebook e no Instagram.

Disponibilizamos conteúdos diários para atualizar estudantes, juristas e atores judiciários.

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo