Desde California hasta Nueva York, las asociaciones de abogados estadounidenses están estableciendo los estándares para el uso ético de la IA en el campo legal.

Las asociaciones de abogados en varios estados de EE.UU. han comenzado a delinear de manera sistemática las mejores prácticas y directrices éticas para el uso de tecnologías de inteligencia artificial (IA) generativa en las prácticas legales. Esta iniciativa proactiva pretende integrar los beneficios de la IA mientras se protege la integridad de los servicios legales y la confidencialidad del cliente.

A medida que la tecnología de IA continúa evolucionando, se espera que cada vez más estados, incluidos Texas, Illinois y Nueva Jersey, desarrollen sus propias directrices. La Asociación de Abogados de América también ha expresado intenciones de formar un grupo dedicado a examinar cómo la IA impactará en la práctica del derecho y las cuestiones éticas que plantea.

El Colegio de Abogados de California fue uno de los primeros en actuar, publicando el año pasado un informe detallado titulado "Recomendaciones del Comité de Responsabilidad Profesional y Conducta sobre la Regulación del Uso de IA Generativa por los Licenciatarios". Este documento pionero enfatiza la importancia de comprender tanto los riesgos como los beneficios de las tecnologías de IA utilizadas en los servicios legales. La guía insiste en que los abogados deben ser conscientes de sus obligaciones éticas, que pueden variar dependiendo del cliente, el caso, el área de práctica y el tipo de herramientas de IA empleadas.

Siguiendo el ejemplo de California, Florida también ha introducido directrices completas para los abogados que utilizan IA generativa. Estas directrices enfatizan la necesidad de tomar precauciones razonables para proteger la confidencialidad del cliente, desarrollar políticas para la supervisión razonable del uso de IA, asegurar que los honorarios y costos sean razonables y cumplir con las regulaciones de ética y publicidad aplicables.

Más recientemente, el Colegio de Abogados del Estado de Nueva York emitió su "Informe y Recomendaciones del Grupo de Trabajo sobre Inteligencia Artificial de la Asociación de Abogados del Estado de Nueva York". Este documento insta a los abogados a no comprometer los estándares éticos de la profesión y a permanecer vigilantes sobre la información producida por herramientas de IA, como chatbots generativos y la investigación legal automatizada.

 

Recomendaciones

Una de las recomendaciones principales en todos los estados es la protección estricta de la confidencialidad del cliente. Por ejemplo, las directrices de California sugieren que los abogados no deben ingresar ninguna información confidencial del cliente en un sistema de IA sin adecuadas protecciones de seguridad. Además, se alienta a los abogados en Florida a obtener el consentimiento informado de los clientes antes de emplear herramientas de IA en su representación.

La cuestión de cómo los abogados deberían cobrar por servicios mejorados con IA también ha sido abordada. Las directrices de Florida, por ejemplo, sugieren que la introducción de herramientas de IA debería aumentar la eficiencia y, por lo tanto, los honorarios cobrados deben respetar las obligaciones existentes bajo las normas de EE.UU., que deben ser comunicados y razonables.

Tanto Nueva York como California recomiendan que se establezcan programas educativos para ayudar a los profesionales legales a comprender los riesgos potenciales, los beneficios y las implicaciones éticas del uso de IA generativa. Además, destacan la necesidad de una educación continua de los profesionales legales y estudiantes de derecho para prepararlos adecuadamente para los avances tecnológicos en su campo.

 

Incidentes

Los casos de uso indebido y las acciones disciplinarias resultantes subrayan los riesgos potenciales de la IA en las prácticas legales. Notablemente, un caso en Colorado involucró a un abogado que fue suspendido por confiar en jurisprudencia generada por IA sin la debida verificación. Tales incidentes han catalizado la creación de estas directrices para prevenir problemas similares en el futuro.

Otro caso como este ocurrió en Florida. Un letrado de más de 15 años de experiencia violó las reglas de un tribunal, al igual que la conducta profesional de un abogado del Estado, ya que, también presentó jurisprudencias inexistentes que había obtenido con IA. El defensor de la contraparte se dio cuenta de que los casos expuestos en el documento no existían.