segunda-feira, 3 de novembro de 2025

Inteligência Artificial e Direito Penal: Quem responde pelo crime nas mãos das máquinas? - #CrimeDigital - #Teoriadodominio doFato - #ProvasDigitais

A expansão da inteligência artificial (IA) inaugura uma era fascinante e, ao mesmo tempo, inquietante. Se por um lado representa um salto tecnológico sem precedentes, por outro impõe dilemas éticos e jurídicos que desafiam as bases do Direito Penal e Processual Penal contemporâneo. Um dos mais urgentes consiste em determinar quem deve ser responsabilizado quando uma prática criminosa é cometida parcial ou integralmente com o auxílio de ferramentas de IA — especialmente aquelas capazes de clonar vozes, criar vídeos falsos (deepfakes) e simular identidades.

O novo rosto do crime digital

Casos de fraudes bancárias com vozes clonadas de executivos, golpes via aplicativos de mensagens com imagens adulteradas e extorsões mediante vídeos manipulados são exemplos concretos do que antes parecia ficção científica. A sofisticação dessas práticas expõe uma zona cinzenta da responsabilização penal: a autoria permanece humana, mas o meio é autônomo, imprevisível e, em muitos casos, incontrolável.

O ordenamento jurídico brasileiro, pautado no princípio da culpabilidade, exige dolo ou culpa para a punição. No entanto, quando a conduta criminosa depende de algoritmos que aprendem, reproduzem e agem sem intervenção humana direta, a aferição desses elementos se torna mais complexa. A pergunta que se impõe é: até onde vai a responsabilidade do programador, do usuário e da própria IA?

O desenvolvedor pode ser responsabilizado?

Em princípio, a responsabilidade penal do desenvolvedor de uma IA somente poderia ser cogitada se comprovado que atuou com dolo ou culpa ao permitir que a ferramenta fosse utilizada para fins ilícitos. Isso ocorreria, por exemplo, se tivesse ciência de que seu software seria usado em esquemas fraudulentos e, mesmo assim, nada fizesse para impedi-lo.

Mais delicada é a hipótese de responsabilidade por omissão. Se o programador, ciente dos riscos, deixa de implementar mecanismos de segurança — como travas algorítmicas, filtros de reconhecimento de voz ou alertas automáticos —, poder-se-ia discutir uma culpa por negligência. Contudo, essa atribuição exige a demonstração de um dever jurídico específico de agir, algo ainda carente de regulamentação no Brasil.

O papel do usuário e o “ônus do estelionatário”

Na prática atual, o ônus recai quase sempre sobre o agente humano que se vale da IA como instrumento do crime. O estelionatário que usa voz clonada ou vídeo falso para enganar uma vítima é, juridicamente, o autor direto do delito, cabendo-lhe a responsabilidade integral pela fraude.

Contudo, essa leitura começa a se mostrar insuficiente. Se a ferramenta utilizada é disponibilizada sem restrições, sem qualquer controle de uso e sabidamente apta a gerar danos, a discussão sobre a coautoria indireta ou a conivência tecnológica do desenvolvedor tende a ganhar força nos tribunais.

Inteligência artificial e a teoria do domínio do fato

O Direito Penal contemporâneo pode vir a recorrer à teoria do domínio do fato para analisar esses novos cenários. Em tese, se o criador ou a empresa desenvolvedora mantém controle funcional sobre o algoritmo ou sobre os resultados que ele produz, poderia responder penalmente por eventuais ilícitos decorrentes de sua aplicação.

Por outro lado, se a IA atua de forma autônoma, sem possibilidade de previsão razoável ou controle direto, seria injusto — e tecnicamente inviável — imputar responsabilidade penal a quem não detém domínio efetivo sobre o fato.

O processo penal diante das provas digitais sintéticas

No campo processual, as preocupações se ampliam. Como assegurar a autenticidade da prova digital diante de vídeos e áudios produzidos artificialmente? Como evitar condenações baseadas em deepfakes ou confissões falsas geradas por clonagem de voz?

O desafio probatório será monumental. A perícia forense digital precisará evoluir rapidamente, incorporando métodos de rastreamento de metadados, verificação de assinaturas digitais e uso de IA defensiva para identificar manipulações. O princípio da presunção de inocência, nesse contexto, deve ser reforçado, pois o risco de falsificações sofisticadas é cada vez maior.

Uma nova dogmática penal à vista

A verdade é que o Direito Penal, tal como estruturado, não está plenamente preparado para lidar com agentes não humanos. Se a IA atua como meio, o autor é humano; se age de forma autônoma, sem controle, surge um vácuo normativo perigoso.

O futuro exigirá uma revisão profunda dos conceitos de imputabilidade, dolo, culpa e autoria mediata, especialmente para compatibilizá-los com uma realidade em que máquinas decidem, aprendem e executam condutas por conta própria.

Enquanto isso, cabe ao intérprete do Direito agir com prudência e rigor técnico: reconhecer os riscos da IA sem cair em pânicos morais, mas também sem ignorar que a omissão regulatória pode transformar a tecnologia em instrumento de impunidade.

Dessa forma concluo que o uso da inteligência artificial no contexto penal impõe ao jurista um duplo dever: compreender tecnicamente as ferramentas e reinterpretar os institutos clássicos à luz da nova realidade digital. O legislador ainda não respondeu plenamente a quem deve ser punido — o desenvolvedor, o usuário ou ambos —, mas o debate já é inevitável.

O futuro do Direito Penal dependerá, em grande parte, da nossa capacidade de equilibrar inovação e responsabilidade, autonomia das máquinas e imputabilidade humana. O desafio está lançado: como punir o crime quando o cúmplice é um algoritmo?

Postagem em destaque

A NECESSIDADE DE TERMOS AMIGOS

Logo após uma audiência ouvi esta indagação de uma escrevente para uma promotora: Porquê, em nossa vida cotidiana, dizemos que temos poucos ...