Da Califórnia a Nova York, as associações de advogados dos EUA estão definindo padrões para o uso ético da IA no campo jurídico.

As associações de advogados de vários estados dos EUA começaram a delinear sistematicamente as práticas recomendadas e as diretrizes éticas para o uso de tecnologias de inteligência artificial (IA) generativa nas práticas jurídicas. Essa iniciativa proativa visa a integrar os benefícios da IA e, ao mesmo tempo, proteger a integridade dos serviços jurídicos e a confidencialidade do cliente.

Como a tecnologia de IA continua a evoluir, espera-se que cada vez mais estados, incluindo Texas, Illinois e Nova Jersey, desenvolvam suas próprias diretrizes. A American Bar Association também expressou a intenção de formar um grupo dedicado a examinar como a IA afetará a prática da advocacia e as questões éticas que ela levanta.

A Associação dos Advogados da Califórnia foi uma das primeiras a agir, divulgando um relatório detalhado no ano passado intitulado "Recomendações do Comitê de Responsabilidade e Conduta Profissional sobre a Regulamentação do Uso de IA Generativa por Licenciados". Esse documento pioneiro enfatiza a importância de compreender tanto os riscos quanto os benefícios das tecnologias de IA usadas em serviços jurídicos. A orientação insiste que os advogados devem estar cientes de suas obrigações éticas, que podem variar dependendo do cliente, do caso, da área de atuação e do tipo de ferramentas de IA empregadas.

Seguindo o exemplo da Califórnia, a Flórida também introduziu diretrizes abrangentes para advogados que usam IA generativa. Essas diretrizes enfatizam a necessidade de tomar precauções razoáveis para proteger a confidencialidade do cliente, desenvolver políticas para uma supervisão razoável do uso de IA, garantir que os honorários e os custos sejam razoáveis e cumprir os regulamentos de ética e publicidade aplicáveis.

Mais recentemente, a Associação dos Advogados do Estado de Nova York emitiu seu "Relatório e Recomendações da Força-Tarefa da Associação dos Advogados do Estado de Nova York sobre Inteligência Artificial". Esse documento pede que os advogados não comprometam os padrões éticos da profissão e permaneçam atentos às informações produzidas por ferramentas de IA, como chatbots generativos e pesquisas jurídicas automatizadas.

Recomendações

Uma das principais recomendações em todos os estados é a proteção rigorosa da confidencialidade do cliente. Por exemplo, as diretrizes da Califórnia sugerem que os advogados não devem inserir nenhuma informação confidencial do cliente em um sistema de IA sem as proteções de segurança adequadas. Além disso, os advogados da Flórida são incentivados a obter o consentimento informado dos clientes antes de empregar ferramentas de IA em seu nome.

A questão de como os advogados devem cobrar pelos serviços aprimorados por IA também foi abordada. As diretrizes da Flórida, por exemplo, sugerem que a introdução de ferramentas de IA deve aumentar a eficiência e, portanto, os honorários cobrados devem respeitar as obrigações existentes nas regras dos EUA, que devem ser divulgadas e razoáveis.

Tanto Nova York quanto a Califórnia recomendam que sejam criados programas educacionais para ajudar os profissionais do direito a compreender os possíveis riscos, benefícios e implicações éticas do uso de IA generativa. Além disso, eles destacam a necessidade de educação continuada de profissionais e estudantes de direito para prepará-los adequadamente para os avanços tecnológicos em seu campo.

 

Incidentes

Os casos de uso indevido e as ações disciplinares resultantes destacam os possíveis riscos da IA nas práticas jurídicas. Notadamente, um caso no Colorado envolveu um advogado que foi suspenso por se basear em jurisprudência gerada por IA sem a devida verificação. Tais incidentes catalisaram a criação dessas diretrizes para evitar problemas semelhantes no futuro.

Outro caso semelhante ocorreu na Flórida. Um advogado com mais de 15 anos de experiência violou as regras de um tribunal, bem como a conduta profissional de um procurador do estado, porque ele também apresentou jurisprudência inexistente que havia obtido com IA. O advogado oponente percebeu que os casos apresentados no documento não existiam.