Esse é o argumento apresentado pelo professor britânico Dan Hunter para destacar o valor da inteligência artificial no setor jurídico. Porque, no final das contas, os profissionais do direito fazem uso extensivo e intensivo da linguagem. O reitor executivo da Dickson Poon School of Law, a escola de direito do King's College, falou no palco do EMEA NewLaw Summit, um evento projetado para colocar na mesa os desafios enfrentados pelo campo jurídico e tributário na esfera digital.
Organizado pela divisão Tax & Legal da PwC, bem como pela associação DigitalES e pelo jornal El Confidencial, o encontro investiga a interseção do apoio fornecido pela tecnologia aos profissionais desses setores. E, é claro, a inteligência artificial foi um fator recorrente durante todo o primeiro dia.
A introdução, feita por Joaquín Latorre, sócio responsável pela PwC Tax & Legal, e Víctor Calvo-Sotelo, CEO da DigitalES, já antecipava os tópicos que o EMEA NewLaw Summit abordaria. A necessidade de adaptação aos novos tempos, a mediação da tecnologia - a esfera digital e, por fim, a IA - e o impacto no trabalho dos profissionais foram questões levantadas desde o início.
O objetivo é criar um formato que combine o encontro de especialistas nas áreas jurídica e tributária com um toque de feira de tecnologia. Ter também um espaço de exposição para soluções digitais.
O evento foi aberto com um dos principais palestrantes. Dan Hunter tem uma longa carreira como especialista na simbiose que a TI e o direito cultivaram nas últimas décadas. Além disso, esse renomado especialista em tecnologia jurídica estudou a chegada da avalanche de inteligência artificialna prática jurídica. E é justamente sobre suas consequências que ele falou durante sua palestra.
O palestrante apresentou uma breve visão geral da história da IA. Nessa narrativa, ele teve que destacar uma data: "Desde 2012, o mundo da inteligência artificial mudou". Esse ponto de virada é marcado pelo nascimento da aprendizagem profunda. Aqui temos uma arquitetura de modelos que já é muito profunda em camadas. A partir desse momento, a computação, a velocidade e o tamanho dos bancos de dados aumentaram. Hunter explica como tudo se acelerou.
Foi aí que a verdadeira corrida começou. Mas Hunter destaca outro ano, 2017, quando uma equipe do Google criou o transformador. Esse conceito levará aos grandes modelos de IA, como o ChatGPT, o Gemini ou o Claude. Obviamente, ele levará, em dezembro de 2022, ao lançamento aberto do ChatGPT. Sem a descoberta anterior, isso não teria sido possível.
O reitor executivo da Dickson Poon School of Law já está no momento atual e faz uma declaração ao público: "Estamos neste ponto em que o mundo mudou e não haverá LLMs (modelos de linguagem grandes) que sejam piores do que são agora". Isso significa que estamos apenas em um ponto de partida.
"Agora temos uma situação em que os trabalhadores mais qualificados ficam um pouco melhores com a IA, enquanto os menos qualificados ficam muito melhores com a IA", disse Hunter, levando sua palestra para o campo do direito. "Os advogados usam muitas palavras e os LLMs são bons em criar palavras em contextos em que elas têm valor", disse ele.
O professor mostrou dados que demonstram como os estudantes de direito foram melhores em responder a determinadas perguntas sobre suas matérias com a ajuda da IA. Isso também era verdade quando se tratava de realizar tarefas puramente profissionais, como a elaboração de contratos. Eles fizeram isso mais rapidamente e com maior qualidade.
Maior produtividade
Quando a inteligência artificial é usada com uma intenção definida, a produtividade aumenta, de acordo com Hunter. "O mais importante é que as pessoas ficam mais felizes porque gostam de usar esses modelos", argumenta ele, acrescentando que algumas empresas não permitem que as pessoas usem essas ferramentas. Qual é a solução dos funcionários? Eles a utilizam sem dizer nada. Isso representa um risco, que vem do fato de não adotarem os modelos de IA. "As pessoas os usarão de qualquer maneira", diz Hunter. Mas elas o farão sem controle ou uma metodologia definida.
Há outros riscos, como a famosa caixa preta. "Você não pode perguntar aos LLMs por que eles estão dizendo o que estão dizendo. É só criar uma palavra de cada vez. Você pode criar um conjunto de palavras muito viável, mas não sabe de onde ele vem. Temos que assumir isso e sempre colocar uma pessoa no circuito (o chamado human-in-the-loop), um advogado nesse caso. E nunca deixe a IA trabalhar por conta própria", disse ele.
O preconceito é outro risco que precisa ser abordado. Hunter deu o exemplo do algoritmo de longa duração da Amazon, que foi quase totalmente treinado com pessoas brancas. O problema? Ele alegou que Oprah Winfrey era um homem porque não reconhecia corretamente as pessoas negras. Embora já existam técnicas de atenuação, como o treinamento robusto.
Hunter acabou com as alucinações. Esse é um dos grandes problemas com esses modelos de IA, que causaram um alvoroço no setor jurídico, especialmente com o caso da Avianca. Mas as empresas que desenvolvem os modelos reduziram esse problema conectando as ferramentas à Internet. Este é o caso do GPT-4.
A conclusão do reitor executivo da Dickson Poon School of Law é clara: "Se você não adotar a inteligência artificial, as pessoas farão isso e você criará um problema de segurança. E o momento de fazer isso é agora. Porque se a tecnologia está se movendo tão rápido quanto tudo indica, ela precisa se mover agora".