Materiais Especiais

A Inteligência Artificial (IA) aplicada ao Direito. A Inteligência Artificial (IA) aplicada ao Direito.

A Inteligência Artificial (IA) aplicada ao Direito.

A Inteligência Artificial (IA) aplicada ao Direito.

27/09/2022

O dicionário Merriam Webster (Merriam-Webster Dictionary), o maior dicionário americano construído sobre a base sólida do Webster Third New International Dictionary e a melhor fonte de informações sobre o idioma inglês, define inteligência artificial como: “A capacidade de uma máquina imitar o comportamento humano inteligente” (“The capability of a machine to imitate intelligent human behavior”).

Isto posto, a inteligência artificial (IA) é uma tecnologia que permite a sistemas e máquinas a capacidade de reproduzir o pensamento humano, excedendo a reprodução de tarefas repetitivas e, permitindo assim, o surgimento de robôs com a capacidade de encontrar e solucionar problemas através de sugestões ou tomada de decisões autônomas.

O precursor da inteligência artificial, John McCarthy, extensamente mencionado como criador do termo "inteligência artificial", afirmou que não existe uma "definição sólida de inteligência que não dependa da sua relação com a inteligência humana", haja vista que, "ainda não podemos caracterizar, de forma geral, que tipos de procedimentos computacionais queremos chamar de inteligentes".

A inteligência artificial, no Direito, é a aplicação das tecnologias de IA no âmbito jurídico por meio de determinado programa, máquina ou sistema com a capacidade de reproduzir o raciocínio de um profissional do Direito.

Desta forma, as máquinas, sistemas e programas supracitados utilizam-se de algoritmos desenvolvidos para tomar decisões, substituindo a mão de obra humana em certa tarefa.

Insta salientar, que se distingue a inteligência artificial de um mero procedimento de automação, que mesmo fazendo parte do processo de análise e fornecimento de informações da IA, nada mais é do que um traçado de dois pontos, o ponto "a" alcança o ponto "b" de forma pré-estabelecida, fornecendo dados. Deste modo, é o procedimento de automatizar uma ação.

Desta forma, na atual fase de IA que atingimos no âmbito jurídico, o que conseguimos designar no momento é um simples ato de automação, por meio de informações que são inseridas em um sistema de inteligência artificial  e que será automatizada uma resposta pré-estabelecida.

Portanto, um mero software jurídico, por exemplo, não é solução de inteligência artificial no Direito.

Recentemente, softwares dessa classe se difundiram em muito escritórios de advocacia, tornando o trabalho dos advogados muito mais eficiente, célere e organizado, principalmente, em se tratando de pesquisas jurisprudenciais.

Esses sistemas só serão cogitados como soluções de inteligência artificial se deixarem de ser meramente uma ferramenta de suporte administrativo para, realmente, ampararem decisões relacionadas à atividade do escritório e/ou prestação jurisdicional.

Portanto, o genuíno seria utilizar a inteligência artificial para interpretar uma quantidade imensa de informações relevantes para processos, estratégias e decisões de defesa ou acusação. Ou seja, além de armazenar os dados, a inteligência artificial poderá utilizá-los para tomar ou sugerir decisões, apontar riscos e expor incoerências, inadequações, desarmonia etc.

Restou-se evidente, que a IA reduz as falhas e aumenta a qualidade do serviço prestado para clientes e contribuinte, gerando um bem-estar comum.

Todavia, o que devemos fazer ou quem devemos responsabilizar quando uma solução de inteligência artificial autônoma comete um equívoco causando danos a terceiros?

Em entrevista no Simpósio Centenário Aeroastro do Instituto de Tecnologia de Massachusetts – MIT, Elon Musk revelou sua preocupação e sugeriu que a intervenção estatal pode ser necessária no caso da inteligência artificial:

“Eu acho que devemos ter muito cuidado com a inteligência artificial. Se eu tivesse que adivinhar qual é a nossa maior ameaça existencial, provavelmente é que... Eu sou cada vez mais inclinado a pensar que deve haver alguma supervisão regulatória, talvez a nível nacional e internacional, apenas para ter certeza de que não fazemos algo muito tolo’’.

Inevitavelmente, começarão a surgir questões legais em torno da inteligência artificial. Quando, quem ou o que poderá ser considerado responsável quando uma máquina autônoma causar danos a determinado bem jurídico tutelado.

Por exemplo, em 2019 o Ministério da Justiça da Estônia informou que está em fase de desenvolvimento um “juiz robô” para atuar em causas de menores complexidades cuja disputa seja menor do que €7.000,00, atribuindo aos “juízes humanos” casos mais complexos.

Em primeiro momento, entre as preocupações, há o possível risco das máquinas com inteligência artificial expressarem predileções, interesses e preconceitos.

Outro aspecto é sobre a dificuldade de supervisão dos sistemas de inteligência artificial e em caso de eventual dano a terceiro, quem deverá ser responsabilizado por tal dano.

Atualmente, está em tramitação, perante o Senado Federal, o projeto de Lei 21/20 com a proposta de criar o ‘’marco legal do desenvolvimento e uso da inteligência artificial (IA) pelo poder público, por empresas, entidades diversas e pessoas físicas’’.

O texto prevê em sua redação, princípios, direitos, deveres e instrumentos de governança para a inteligência artificial, determinando que a IA terá como fundamento o respeito aos direitos humanos e aos valores democráticos, a igualdade, a não discriminação, a pluralidade, a livre iniciativa e a privacidade de dados.

Ainda, o texto legal prevê a figura do ‘’agente de inteligência artificial’’, que poderá ser a pessoa que desenvolve e implanta um sistema (agente de desenvolvimento), bem como o que opera (agente de operação), possuindo uma série de deveres, como, por exemplo, responder legalmente pelas decisões tomadas por um sistema de inteligência artificial e assegurar que os dados utilizados respeitam a Lei Geral de Proteção de Dados (LGPD).

O projeto de lei antevê a responsabilidade civil em seu inciso VI do artigo 6º, apresentando a seguinte redação:

Art. 6º Ao disciplinar a aplicação de inteligência artificial, o poder público deve observar as seguintes diretrizes:

VI - responsabilidade: normas sobre responsabilidade dos agentes que atuam na cadeia de desenvolvimento e operação de sistemas de inteligência artificial devem, salvo disposição em contrário, se pautar na responsabilidade subjetiva, levar em consideração a efetiva participação desses agentes, os danos específicos que se deseja evitar ou remediar, e como esses agentes podem demonstrar adequação às normas aplicáveis por meio de esforços razoáveis compatíveis com padrões internacionais e melhores práticas de mercado.

Deste modo, a responsabilidade civil referente aos danos causados por agentes que atuam na cadeia de desenvolvimento e operação de sistemas de IA será de natureza subjetiva e, portanto, os critérios para avaliar a culpa dos agentes supramencionados, segundo o projeto de lei em análise, seriam: a) a efetiva participação desses agentes; (b) os danos específicos que se deseja evitar ou remediar; e (c) como esses agentes podem demonstrar adequação às normas aplicáveis por meio de esforços razoáveis compatíveis com padrões internacionais e melhores práticas de mercado.

Em atenção ao Poder Judiciário Brasileiro, é evidente o quanto a inteligência artificial tem potencial para garantir grandes impactos na melhoria da prestação jurisdicional.

O Relatório Justiça em Números 2020 (ano-base 2019), que forneceu informações coletadas em 2019 sobre o fluxo processual no sistema de justiça brasileiro, informou que no ano de 2019 o Poder Judiciário finalizou o ano com 77,1 milhões de processos em tramitação.  Ainda, o relatório enfatizou o tempo de tramitação dos processos, que na justiça comum, desde seu ajuizamento até a baixa, é de 6 anos e 6 meses.

O alto número de processos em tramitação no Judiciário, bem como a morosidade é de conhecimento geral e revela-se a necessidade de buscar alternativas para tornar a tramitação dos processos mais eficiente, assim como, reduzir o volume de processos.

O STF - Supremo Tribunal Federal, em parceria com a Universidade de Brasília (UnB), iniciou em 2017, na gestão da ministra Cármen Lúcia na presidência da Corte, o projeto denominado Victor, em homenagem ao ex-Ministro Victor Nunes Leal, que atuou no Supremo Tribunal Federal no período de 1960 a 1969, sendo considerado o principal responsável pela sistematização da jurisprudência do tribunal em súmulas, iniciativa que beneficiou a aplicação dos precedentes judiciais aos recursos.

O projeto Victor foi planejado para auxiliar o STF na análise dos recursos extraordinários recebidos de todo o país, especialmente quanto a sua classificação em temas de repercussão geral de maior incidência, envolvendo o que se chama de aprendizado de máquina (machine learning), utilizando-se de aprendizagem computacional em inteligência artificial a fim de aumentar a eficiência na tramitação dos processos e a velocidade da avaliação judicial dos processos que chegam ao Supremo Tribunal Federal. Insta frisar, que o julgamento dos processos continuarão a cargo dos Ministros do STF.

O Superior Tribunal de Justiça desenvolveu uma ferramenta de inteligência artificial, chamada Sócrates, que tem por objetivo reduzir em 25% o tempo do processo, no momento da sua distribuição à primeira decisão em sede de Recurso Especial, com fornecimento de informações imprescindíveis, como apontar o artigo constitucional invocado para a interposição do recurso, os dispositivos de lei descritos como violados ou objeto de divergência jurisprudencial e os paradigmas citados para justificar a divergência sobre o recurso e o acórdão que perfaz seu objeto, apresentando ao julgador sugestões para decisão.

Outrossim, o Tribunal de Justiça de Pernambuco também implementou uma ferramenta de inteligência artificial denominada Elis, utilizada para análise de processos. Ainda, em Minas Gerais, o Tribunal de Justiça lançou a plataforma Radar, que permite aos magistrados do Tribunal verificar casos repetitivos, agrupá-los e julgá-los conjuntamente.

Este movimento de informatização do judiciário está sendo coordenado pelo Conselho Nacional de Justiça –CNJ, porém, cada Tribunal do país está objetivando implementar sua própria ferramenta de inteligência artificial, em que não há uma padronização da ferramenta entre os Tribunais.

Deve o Conselho Nacional de Justiça aprimorar sua gestão, uniformizando o sistema de inteligência artificial através de uma colaboração conjunta com os Tribunais de todos os Estados.

Isto posto, para o uso de ferramentas de inteligência artificial, objetivando automatizar e auxiliar na sugestão e/ou tomada de decisões gerando celeridade e assertividade com o intuito de desafogar o judiciário brasileiro, é necessário o trabalho em conjunto de todos os Tribunais juntamente com o Conselho Nacional de Justiça – CNJ, a fim de padronizar o sistema de inteligência artificial utilizado no judiciário.

A Inteligência Artificial (IA) é inevitável, sendo resultado do excesso de avanços tecnológicos vivenciados ao longo das últimas décadas, devendo o profissional do Direito conquistar novas competências, habilidades, conhecimentos e se manter atualizado com maior frequência, a fim de se tornar um profissional apto ao mercado.

Contato

Estamos à disposição para entender sua necessidade, priorizar seu caso
e defender seus interesses com a energia que você e sua empresa
procuram e merecem.

(11) 4324-2680
(19) 3661-5806

contato@avg.adv.br

SÃO PAULO - SP
Rua Amaro Cavalheiro, 347
28º andar, conj. 2810 - Pinheiros
CEP 05425011

ESP. SANTO DO PINHAL - SP
Rua Floriano Peixoto, 160
Centro
CEP 13990000