Perícia técnica aponta que diálogo citado em decisão não existia nos autos e reacende o debate sobre limites do uso de IA no processo penal
A promessa de eficiência associada à inteligência artificial começa a enfrentar seus testes mais sensíveis no Judiciário. Ferramentas capazes de ler milhares de páginas, organizar dados e sugerir análises já fazem parte da rotina jurídica. O problema surge quando esses sistemas deixam de apoiar o trabalho humano e passam a influenciar diretamente decisões que afetam direitos fundamentais. Um caso recente, analisado pelo perito digital Joaquim Neto, expõe com clareza esse risco e foi detalhado pelo especialista em um vídeo publicado em seu canal no YouTube.
O episódio envolve uma decisão judicial que determinou a prisão de um indivíduo com base em um suposto diálogo entre investigados. Ao examinar o processo, a equipe de defesa não conseguiu localizar a conversa mencionada pelo juiz em nenhuma peça dos autos. Após sucessivas tentativas de verificação, Joaquim Neto foi contratado para elaborar um parecer técnico de prova negativa, procedimento pericial voltado a demonstrar, de forma objetiva, a inexistência de determinado elemento probatório.
A análise começou pela leitura minuciosa da decisão. Segundo o perito, o texto apresentava estruturas linguísticas e padrões que indicavam a possível utilização de inteligência artificial na sua elaboração. A observação, por si só, não seria suficiente para qualquer conclusão, mas funcionou como ponto de partida para uma investigação técnica mais aprofundada.
Apesar de ser um defensor do uso da tecnologia no Direito, Joaquim Neto faz uma distinção clara entre ganho de eficiência e delegação de responsabilidade. Para ele, a IA pode reduzir drasticamente o tempo de trabalho e ampliar a capacidade analítica de advogados e peritos. Um levantamento que levaria dias pode ser feito em horas. O risco aparece quando esse ganho operacional é tratado como sinônimo de confiabilidade absoluta.
“A inteligência artificial pode acelerar o trabalho jurídico, mas não valida fatos. Sem a revisão humana, o erro deixa de ser técnico e passa a impactar diretamente a liberdade das pessoas”, afirma o perito.
Para verificar a existência do diálogo citado na decisão, a perícia foi conduzida em três frentes complementares. A primeira envolveu uma análise manual detalhada dos autos, realizada tanto pelo perito quanto pela equipe jurídica. Nenhuma referência ao conteúdo mencionado foi encontrada. Na segunda etapa, foram utilizadas ferramentas tecnológicas capazes de processar grandes volumes de dados e rastrear a origem das informações, sem qualquer correspondência.
A terceira frente incluiu o uso de softwares especializados em reconhecimento de conteúdo em documentos digitalizados, tecnologia amplamente empregada em investigações oficiais. Foram realizadas buscas por palavras-chave, variações semânticas e proximidade de termos relacionados ao suposto diálogo. O resultado permaneceu o mesmo: ausência total de registros.
Mesmo não tendo sido contratado inicialmente para analisar dispositivos móveis, Joaquim Neto avançou na verificação técnica, examinando links de armazenamento em nuvem e o aparelho apontado como origem da conversa. A conclusão foi inequívoca. O diálogo não existia, nem mesmo de forma aproximada. A hipótese mais consistente era a de uma alucinação de inteligência artificial incorporada à decisão sem a devida conferência técnica.
O caso lança um alerta importante para o sistema de Justiça. Sistemas automatizados são capazes de produzir textos coerentes e convincentes mesmo quando o conteúdo é falso. No processo penal, essa característica se torna especialmente sensível, pois pode sustentar decisões que afetam diretamente a liberdade e outros direitos fundamentais.
Para o perito, o episódio não deve ser lido como um argumento contra a tecnologia, mas como um chamado à responsabilidade. “A IA precisa ser tratada como ferramenta de apoio. A responsabilidade técnica e ética pelas decisões continua sendo humana”, afirma.
A experiência analisada por Joaquim Neto revela um desafio que tende a se intensificar nos próximos anos. À medida que o uso de inteligência artificial se expande no Judiciário, cresce também a necessidade de critérios claros, revisão rigorosa e consciência dos limites desses sistemas. A tecnologia avança rápido. O cuidado com suas consequências precisa acompanhar o mesmo ritmo.