A Anthropic, uma empresa líder em inteligência artificial, deu um passo significativo em direção à transparência no setor ao publicar as instruções do sistema que orientam o comportamento de seus modelos de linguagem Claude. A divulgação dessas diretrizes, que ocorreu em 12 de julho, marca uma grande mudança na forma como as empresas de IA gerenciam informações sobre seus modelos, já que, tradicionalmente, os fornecedores relutam em compartilhar detalhes desse tipo.
As instruções do sistema (ou system prompts) são um conjunto de diretrizes fornecidas aos modelos de inteligência artificial generativa para estabelecer suas qualidades fundamentais e definir o que eles devem e não devem fazer. Essas instruções são essenciais para evitar comportamentos indesejados nos modelos e para orientar o tom e o foco de suas respostas. Empresas como a OpenAI e a própria Anthropic usam essas diretrizes para garantir que seus modelos operem dentro dos parâmetros desejados.
Transparência
A Anthropic, que tem se destacado no setor por sua abordagem ética e transparente, decidiu publicar essas instruções como parte de seu compromisso com a responsabilidade no desenvolvimento da IA. A empresa indicou que essas divulgações serão uma prática padrão, prometendo atualizar e refinar as diretrizes de forma contínua.
Essa decisão representa um marco, não apenas para a Anthropic, mas para todo o setor de inteligência artificial. Por ser uma das primeiras empresas a compartilhar abertamente as instruções de seu sistema, a Anthropic está pressionando outros participantes do setor a seguirem o exemplo, o que poderia levar a um maior escrutínio público e a um debate mais profundo sobre a ética e o design da inteligência artificial.
Nas instruções publicadas, a Anthropic detalha explicitamente certas restrições para os modelos Claude. Por exemplo, os modelos Claude não podem abrir URLs, links ou vídeos. Além disso, o sistema Claude 3.5 Opus instrui o modelo a "sempre responder como se você não estivesse vendo nenhum rosto" e a "evitar identificar ou nomear pessoas em imagens". Essas restrições fazem parte dos esforços para minimizar o risco de uso indevido da tecnologia e para garantir que os modelos operem de maneira ética e segura.
From zero to Hero with ChatGPT
Mas as diretrizes não se limitam apenas a proibições. Elas também descrevem os traços de personalidade e as características que a Anthropic deseja que os modelos da Claude apresentem. No caso do Opus, Claude é instruído a projetar uma imagem de alta inteligência e intelectualidade, mostrando uma curiosidade natural e um gosto por ouvir e discutir uma ampla gama de tópicos com os usuários.
Outro aspecto importante é a imparcialidade em tópicos controversos. Claude está programado para lidar com essas questões com objetividade, fornecendo respostas cuidadosas e bem fundamentadas, sem se inclinar para um lado ou para o outro. Um detalhe interessante é que Claude deve evitar iniciar suas respostas com termos como "certamente" ou "absolutamente", o que ressalta a intenção de manter um tom neutro e ponderado nas interações.
Implicações
A decisão da Anthropic de tornar essas instruções públicas tem implicações profundas para o setor de inteligência artificial. Esse nível de transparência não apenas fortalece a confiança nos produtos da Anthropic, mas também pressiona outros fornecedores a adotarem práticas semelhantes. Ao divulgar como seus modelos são orientados, a empresa promove um ambiente em que o escrutínio público se torna mais viável, o que poderia levar a uma regulamentação mais rigorosa e a um design mais cuidadoso dos modelos de IA.
Além disso, essa medida pode influenciar o debate sobre a ética na inteligência artificial. Com mais empresas seguindo o exemplo da Anthropic, é provável que vejamos um aumento na discussão pública sobre como os modelos de IA são projetados, treinados e implantados e sobre os valores que devem orientar esses processos.