Práticas recomendadas de Prompt engineering

Os grandes modelos de linguagem (LLMs) reagem ao que lhes pedimos – quanto melhor for a entrada, mais útil será o resultado. Utilize este guia para criar prompts eficazes que ajudem os LLM a ter o melhor desempenho, para que possa obter a resposta mais valiosa.

Especifique a tarefa
Os LLMs são treinados em grandes quantidades de dados. É necessário ser específico sobre o resultado desejado, para que o modelo possa fornecer um resultado focado. Seja claro sobre o que pretende que os LLM façam, fornecendo parâmetros suficientes. Utilize uma linguagem direta e estruture as consultas de forma lógica para melhorar a forma como o modelo interpreta o seu pedido. Nenhuma configuração específica é melhor; escreva intuitivamente e concentre-se na clareza.

Exemplo: redigir um e-mail informal para o meu gestor a solicitar folga.

Forneça o contexto necessário
O contexto molda a forma como os LLM respondem a um pedido, fornecendo informações importantes sobre as suas expectativas. Com contexto relevante, é mais provável que os LLM gerem resultados úteis.

Inclua detalhes importantes sobre o seu pedido para fornecer aos LLM as informações de que necessitam para gerar resultados úteis. Aqui estão algumas questões a considerar ao escrever um prompt eficaz:

  • Quem é o público-alvo? Especifique qualidades relevantes do público, como a idade, a profissão ou o nível de compreensão sobre um tema.
  • Que tom deve usar o modelo? Esclareça a voz e o estilo que os LLM devem utilizar para transmitir a sua mensagem de forma mais eficaz. Pode querer um resultado que seja casual e amigável se o estiver a utilizar para comunicar com um colega, ou algo mais profissional e persuasivo para os clientes.
  • Como devem os LLM estruturar a produção? Especifique o formato que os LLM devem utilizar para ordenar a informação que fornecem. Pode incluir orientações sobre o comprimento ou especificar um tipo de esquema, como uma lista com marcadores ou uma tabela.
  • Qual o objetivo do resultado? Identifique o que pretende que os LLMs realizem com um determinado prompt. Por exemplo, se o seu prompt solicitar que o modelo explique um conceito, o objetivo pode ser garantir que os principiantes nessa área específica obtenham uma compreensão prática do tópico. Definir um objetivo para um LLM ajudará a moldar os resultados de acordo com as suas necessidades específicas.

Exemplo: Escrever um e-mail amigável ao meu colega de RH a agradecer a colaboração num projeto recente, para que saibam que as suas contribuições foram inestimáveis.

Forneça referências
Fornecer aos LLM materiais de referência que atinjam os seus objetivos ou se assemelhem ao que pretende criar pode ajudar a gerar resultados mais úteis. Quer esteja a incluir o seu próprio trabalho, fontes mais amplas ou ambos, também vai querer explicar claramente como estes materiais de referência se relacionam com o seu pedido para obter os melhores resultados possíveis.

Exemplo: Elabore uma lista de possíveis slogans de campanha para uma empresa de óculos de sol no estilo de escrita dos anúncios em outdoors da década de 1960.

Avalie o resultado
Cada modelo tem um conjunto de treino único, depende de diferentes técnicas de programação e é desenvolvido num momento específico. Como resultado, alguns LLM podem saber mais sobre determinados temas do que outros ou podem sofrer um corte de conhecimento. Os modelos também podem ocasionalmente ter alucinações.

Antes de utilizar um resultado gerado por IA, avalie criticamente o resultado para garantir que é aceitável e benéfico para si. Isto pode envolver a realização de algumas pesquisas depois de os LLMs produzirem os seus resultados. Ao avaliar um resultado, pergunte-se:

Esta resposta é precisa? Confirme se as informações estão atualizadas e são factuais.

Esta resposta é imparcial? Avalie se a resposta é justa e imparcial, representa com precisão as populações e evita o tratamento preferencial para determinados indivíduos ou grupos.

  • Esta resposta inclui informação suficiente? Certifique-se de que a resposta fornece uma resposta abrangente e satisfatória à sua consulta.
  • Esta resposta é relevante para o que preciso? Verifique se o resultado está relacionado com o seu prompt e alinhado com o contexto, tópico e tarefa que descreveu.
  • Esta resposta é consistente? Verifique se a sua resposta não é atípica. Se não tiver a certeza, tente solicitar LLMs várias vezes de diferentes formas para garantir que os resultados fornecem informações semelhantes.

Se determinar que uma saída é inaceitável, tente adicionar mais contexto ao aviso inicial para gerar uma resposta mais focada:

Exemplo: a saída de um prompt como O que é condicional? pode ser amplo, variado ou irrelevante para as suas necessidades, uma vez que este termo tem significados diferentes em vários contextos.

Iteração: em vez disso, um aviso como Explique ‘condicionais’ para um programador principiante, como um livro de texto, provavelmente produziria um resultado mais direcionado e útil, especificando o público, o tom e a disciplina.

Adote uma abordagem iterativa
Seja qual for o motivo, um LLM pode não produzir o que precisa na primeira vez que o solicitar. Pode ainda chegar ao resultado desejado com alguma iteração, refinando o aviso inicial, emitindo pedidos de acompanhamento ou fornecendo feedback aos LLM.

Para rever um aviso com êxito, mantenha o que funcionou e ajuste a entrada a partir daí. Pode alterar algumas frases (como se o prompt é um comando ou uma pergunta), reordenar os componentes do prompt (como começar ou terminar com um exemplo) ou fornecer contexto adicional para ajudar a restringir as respostas dos LLMs.

Exemplo: Resuma as seguintes notas da reunião.

Iteração: Resuma as seguintes notas da reunião e identifique as principais conclusões.

Iteração adicional: Resuma as notas da reunião que se seguem, identifique as principais conclusões e liste os itens de ação mais urgentes com os seus prazos.

Para emitir pedidos de acompanhamento de forma eficiente, peça ao modelo para fazer ajustes sem repetir o pedido inicial, como um diálogo de ida e volta. Os LLM são capazes de se basear em interações anteriores dentro de uma conversa, o que significa que se pode concentrar em fazer ajustes individuais e direcionados até ter tudo o que precisa.

Exemplo: Resuma as seguintes notas da reunião.

Acompanhamento: Quais foram as principais conclusões desta reunião?

Segundo seguimento: Quais são os itens de ação mais urgentes e os seus prazos?

This blog post is based on information and concepts derived from the Coursera module titled “Google AI Essentials.” The original content can be found here:
https://www.coursera.org/learn/google-ai-essentials


Comments

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *