Porque é que alguns prompts funcionam e outros falham? Aprende a criar prompts eficazes com técnicas avançadas, exemplos e dicas práticas de IA.
Índice
Já ouviste falar de Prompt Engineering, mas não tens a certeza do que é?
Não te preocupes, nesta Guia vamos explorar em detalhe a arte e a ciência de escrever prompts eficazes para qualquer modelo de IA. Vamos começar por explicar o que é o Prompt Engineering e como as diferentes configurações dos modelos afetam as suas saídas. De seguida, vamos ver uma variedade de técnicas de prompting, que vão desde o simples “zero-shot” até métodos avançados. Além disso, vamos examinar como os prompts podem ser utilizados para tarefas específicas como criação e explicação de código e oferecer dicas práticas para melhorar a qualidade e eficácia dos teus prompts.
O objetivo desta Guia é que seja a mais útil possível para te tornares um especialista na criação de prompts.
O Que é o Prompt Engineering e Porque Deves Começar a Utilizar Já Hoje
Vamos começar por relembrar rapidamente como um LLM (Large Language Model) funciona, um LLM é um motor de previsão e funciona token por token, ou seja, recebe texto sequencial como entrada (input) e prevê o próximo token.
A previsão do próximo token baseia-se na relação entre os tokens anteriores e os dados com que o LLM foi treinado.
Portanto, ao escreveres um prompt, tentas configurar o LLM para prever a sequência correta de tokens.
Um prompt define-se como a entrada de texto (input) (se o modelo for multimodal também pode ser com a entrada de imagens) que um LLM utiliza para prever uma saída específica (output). Pode ser uma instrução, uma afirmação, uma pergunta, um exemplo ou até um contexto narrativo.
Saliento-te já que qualquer pessoa pode escrever um prompt, não é necessário ser um data scientist (cientista de dados) ou um machine learning engineer (engenheiro de aprendizagem automática, que é uma área da IA onde os sistemas aprendem a partir de dados sem serem programados para tudo).
No entanto, criar um prompt eficaz já é outra história, pois muitos aspetos influenciam a sua eficácia, nomeadamente, o modelo de IA utilizado, os dados de treino do modelo, as configurações do modelo, a escolha das palavras, o estilo, o tom, a estrutura e o contexto.
Os prompts mal formulados podem levar a respostas vagas, ambíguas, incorretas, imprecisas e limitar a capacidade do modelo de fornecer um output significativo. Já pelo contrário os prompts claros e bem formulados podem levar a respostas eficazes, precisas e úteis.
Pelo que a eficácia de um prompt está diretamente relacionada à forma como ele é construído.
Os prompts podem ser utilizados para realizar várias tarefas, como, por exemplo, sumarização de texto, extração de informação, perguntas e respostas, classificação de texto, tradução de idiomas ou código, criação de código e de documentação ou raciocínio de código.
Assim sendo, o Prompt Engineering, a Engenharia de Prompts, define-se como o processo iterativo de desenhar prompts de alta qualidade que guiam os LLMs para produzir outputs úteis, precisos e relevantes.
Este processo envolve experimentar para encontrar o melhor prompt, otimizar o seu comprimento e avaliar o seu estilo e estrutura em relação à tarefa.
Ao fazer Engenharia de Prompts, o primeiro passo é escolher um modelo, pois os prompts podem precisar de ser otimizados para o modelo específico utilizado (Gemini, GPT, Claude, Gemma, LLaMA, DeepSeek, entre outros). Por isso é essencial testar e ajustar o prompt conforme o modelo.
A Engenharia de Prompts é uma competência chave para quem quer tirar o verdadeiro proveito da IA. Com um pouco de prática e curiosidade, consegues transformar qualquer ideia numa instrução poderosa e obter exatamente o que procuras de um LLM.
Síntese do Que é a Engenharia de Prompts
1. O que é um prompt?
Um prompt é um texto em linguagem natural que introduzes para comunicar com um modelo de IA. O prompt pode ser desde uma pergunta simples até uma instrução detalhada.
2. Por que é importante?
Um prompt bem escrito produz resultados mais relevantes, corretos e úteis. Os prompts mal formulados levam a respostas vagas, erradas ou inúteis. Ou seja, a qualidade da saída reflete a qualidade da entrada que lhe forneceste.
3. O que podes fazer com os prompts?
- Resumir textos
- Criar ideias e conteúdos
- Traduzir idiomas ou código
- Classificar sentimentos
- Extrair dados
4. Diferenças entre modelos
Cada modelo (GPT, Claude, Gemini, DeepSeek, Grok, entre outros) responde de maneira diferente ao mesmo prompt. Por isso, é essencial testar e ajustar conforme o modelo utilizado.
5. Conclusão
A engenharia de prompts é uma competência fundamental para trabalhar com IA Generativa. Por isso, começa simples, testa, ajusta e evolui.
Como Ajustar a Criatividade da IA
Dominar as Configurações do LLM
Na secção anterior vimos o que é a Engenharia de Prompts e porque razão escrever boas instruções é fundamental para obter resultados relevantes de um LLM, agora vamos ver a outra peça essencial deste puzzle, que é as Configurações do Modelo.
Tal como ajustar o volume ou o brilho num dispositivo, também podes controlar o “nível de criatividade” e o comportamento da IA ao configurar corretamente as variáveis como a temperatura e o número de tokens.
Ora, além do prompt, é necessário experimentar as várias configurações de um LLM.
A maioria dos LLMs oferece opções de configuração que controlam o seu output, sendo crucial defini-las de forma otimizada para a tarefa.
- Comprimento do Output: É o número de tokens a criar numa resposta. Para criar mais tokens requer-se mais computação, o que leva a maior consumo de energia, tempos de resposta potencialmente mais lentos e custos mais elevados. Se reduzires o comprimento máximo apenas interrompes a criação quando o limite é atingido, não tornas o output mais conciso, para isso é necessário otimizar o prompt. A restrição do comprimento do output é importante em técnicas como o ReAct (vamos ver em detalhe mais à frente), onde o LLM pode continuar a emitir tokens desnecessários.
- Temperatura (O Termómetro da Criatividade): Os LLMs preveem probabilidades para o próximo token e estas probabilidades são mostradas para determinar o token produzido. A temperatura é das configurações mais comuns que determina como as probabilidades são processadas.
- A temperatura controla o grau de aleatoriedade na seleção de tokens. Por outras palavras, a temperatura define o quão solta ou previsível é a resposta da IA.
- As temperaturas mais baixas são adequadas para prompts que esperam respostas mais determinísticas (sem criatividade), enquanto que as temperaturas mais altas levam a resultados mais diversos, criativos ou inesperados. Uma temperatura de 0 seleciona sempre o token com maior probabilidade. Uma temperatura de 1 torna todos os tokens igualmente prováveis.
- Logo, uma temperatura de 0.1 a 0.3 produz resultados relativamente coerentes, criativos, mas não excessivamente (ótimo para tarefas objetivas). Para resultados mais criativos (ótimo para brainstorming ou escrita livre), sugiro-te uma temperatura de 0.7 a 0.9. Para tarefas com uma única resposta correta (por exemplo, problemas de matemática), começa com a temperatura a 0.
- Em suma, quanto maior a temperatura, maior a diversidade de palavras e o risco de divagar.
A Engenharia de Prompts não é só escrever bem, é também saber afinar os botões certos. Quando combinas uma instrução clara com configurações ajustadas, desbloqueias o potencial da IA.
Configurações da Temperatura nos Modelos de IA
Objetivo | Temperatura |
---|---|
Equilíbrio criativo | 0.2 |
Muito criativo | 0.9 |
Pouco criativo / técnico | 0.1 |
Resposta exata (por exemplo, matemática) | 0 |
Técnicas de Prompting Que Todos Devemos Conhecer
Já Escreveste um Prompt e Sentiste que a Resposta do Modelo Podia ser Melhor?
Os LLMs são afinados para seguir instruções e treinados com grandes quantidades de dados para entender um prompt e criar uma resposta.
A clareza do texto do prompt melhora a capacidade do LLM de prever o próximo texto provável.
Há técnicas específicas que ajudam a formular o texto do prompt. São chamadas Técnicas de Prompting e podem transformar uma resposta confusa numa saída clara, precisa e relevante.
Vamos explorar essas Técnicas Eficazes de Prompting:
Prompting Geral / Zero-Shot Prompting:
É o tipo de prompt mais simples, forneces apenas uma descrição da tarefa e algum texto para o LLM começar. Não forneces exemplos.
- Exemplo:
Classifica a seguinte crítica de filme como POSITIVA, NEUTRA ou NEGATIVA: “Her é um estudo perturbador sobre o rumo da humanidade com a IA. Uma obra-prima.”
- O resultado esperado é: POSITIVA.
É ideal para tarefas simples, objetivas, mas é pouco eficaz em tarefas complexas ou com nuances.
One-Shot & Few-Shot Prompting:
Quando o zero-shot não funciona, podem ser fornecidas demonstrações ou exemplos no prompt, o que leva a prompts “one-shot” (um único exemplo) e “few-shot” (poucos exemplos). Estes exemplos ajudam o modelo a entender o que é pedido e a direcionar o output (resposta) para uma certa estrutura ou padrão.
Os prompts few-shot mostram ao modelo um padrão a seguir, o que aumenta a probabilidade de o modelo seguir esse padrão. O número de exemplos necessários para few-shot depende da complexidade da tarefa, qualidade dos exemplos e capacidades do modelo, mas pelo menos 3-5 exemplos.
- Exemplo One-Shot Prompting:
EXEMPLO:
{ "tamanho": "média", "ingredientes": [ "queijo", "fiambre" ] }
Pedido:
”Quero uma pizza pequena com atum e cebola.”
- O resultado esperado é:
{ "tamanho": "pequena", "ingredientes": [ "atum", "cebola" ] }
- Exemplo Few-Shot Prompting:
Transforma os pedidos de pizza seguintes para JSON válido.
EXEMPLO 1:
{ "tamanho": "pequena", "ingredientes": [ "queijo", "tomate" ] }
EXEMPLO 2:
{ "tamanho": "grande", "ingredientes": [ "fiambre", "ananás", "queijo extra" ] }
Pedido:
“Quero uma pizza média com cogumelos, cebola e pimentos.”
- O resultado esperado é:
{ "tamanho": "média", "ingredientes": [ "cogumelos", "cebola", "pimentos" ] }
Para obteres o melhor desempenho do modelo, os exemplos devem ser relevantes, variados, de alta qualidade e bem escritos. Deves incluir edge cases (casos extremos ) se o objetivo for um output robusto a várias entradas.
Sistema (System Prompting), Contexto (Conextual Prompting) e Papel (Role Prompting):
São técnicas para guiar a criação de texto dos LLMs e focam-se em diferentes aspetos.
Sistema (System Prompting): Defines as instruções ou regras claras do modelo, isto é, o quadro geral do que o modelo deve fazer (por exemplo, traduzir ou classificar).
Contexto (Contextual Prompting): Forneces detalhes específicos ou informações contextuais relevantes para a conversa ou tarefa (por exemplo, tema ou público-alvo), o que ajuda o modelo a entender as nuances e a adaptar a resposta.
Papel (Role Prompting): Atribuis uma personagem ou persona ou identidade específica ao modelo, o que o ajuda a elaborar respostas consistentes com esse papel, conhecimento e comportamento (por exemplo, professor ou médico).
Pode haver sobreposição entre estas técnicas (por exemplo, um prompt que atribui um papel pode ter contexto).
Fazer a distinção entre estes 3 tipos ajuda a desenhar prompts com uma intenção clara, o que permite combinações flexíveis e facilita a análise da influência de cada tipo no output do modelo.
- Exemplos de cada tipo:
- Sistema:
Classifica críticas de filmes como POSITIVA, NEUTRA ou NEGATIVA.
Devolve apenas a etiqueta em MAIÚSCULAS, sem qualquer texto adicional.
Crítica: “O filme é muito interessante, mas perturbador. A atuação é incrível.”
Resposta:
- O resultado esperado é: NEGATIVA.
Os prompts de sistema são úteis para criar output que cumpram os requisitos específicos, como formato de código ou estrutura JSON e também são úteis para segurança e controlo de toxicidade.
- Contexto:
Contexto: Estás a escrever para um site sobre jogos arcade dos anos 80.
Sugere 3 tópicos para artigos, com uma breve descrição de cada.
- O resultado esperado é:
- A evolução do design dos arcades: das máquinas de madeira aos néons.
- Os 5 jogos mais icónicos dos anos 80 e o seu impacto na cultura pop.
- O renascimento do pixel art: retro ou tendência moderna?
Os prompts contextuais ajudam a garantir interações mais eficientes e precisas, pois o modelo entende mais rapidamente o pedido e cria respostas mais relevantes. São úteis para escrita para públicos específicos e para planeamento.
- Papel:
Quero que assumes o papel de guia turístico. Eu vou-te dizer a cidade e o tipo de lugar que procuro e tu recomendas-me 3 opções.
“Estou em Amesterdão e quero visitar apenas museus.”
Resposta:
- O resultado esperado é:
- Rijksmuseum: lar das obras-primas de Rembrandt e Vermeer.
- Van Gogh Museum: imersão profunda na vida e obra do artista.
- Stedelijk Museum: arte contemporânea num edifício arrojado.
Definir um papel dá ao modelo um plano do tom, estilo e expertise procurados, o que melhora a qualidade e a relevância do output. Diferentes estilos (como, por exemplo, descritivo, direto, formal, familiar, humorístico, inspirador) podem ser utilizados. São úteis para criar personagens ou avatares de IA.
Ao dominares estas Técnicas de Prompting passas a ter um controlo muito maior sobre os resultados que obténs da IA, pois não se trata apenas de pedir algo, mas de estruturar bem a tua intenção.
Técnicas de Prompting
Técnica | Exige exemplos? | Ideal para… |
---|---|---|
Zero-Shot | Não | Tarefas simples |
One-Shot | 1 exemplo | Tarefas estruturadas |
Few-Shot | +3 exemplos | Tarefas complexas ou sensíveis |
System Prompting | Regras diretas | Controlo de formato e tom |
Role Prompting | Persona definida | Respostas com estilo ou perspetiva |
Contextual Prompting | Contexto claro | Tarefas com audiência ou tema definido |
Técnicas Avançadas de Prompting
Estratégias Inteligentes para Potenciar o Que a IA Consegue Fazer por Ti
Se já dominas as bases do Prompt Engineering como dar instruções claras, utilizar exemplos e atribuir papéis à IA, então estás pronto para subir de nível.
Nesta fase, vamos explorar técnicas que aumentam drasticamente a qualidade do raciocínio, a consistência das respostas e a capacidade do LLM para resolver tarefas complexas.
Step-Back Prompting (Dar um passo atrás para avançar com mais clareza):
É uma técnica, para melhorar o desempenho, segundo a qual pedes primeiro ao LLM que considere uma questão geral relacionada à tarefa específica e, em seguida, acrescentas a resposta que obtiveste num prompt subsequente para a tarefa específica. Este recuo permite ao LLM ativar conhecimento contextual e processos de raciocínio relevantes antes de resolver o problema específico. Com esta técnica, os LLMs podem criar respostas mais precisas e perspicazes, o que diminui também potenciais tendências ou orientações.
- Exemplo Step-Back Prompting:
Prompt Tradicional: Escreve uma narrativa envolvente para um nível de videojogo de ação em primeira pessoa.
Resposta: Uma história genérica com ação e inimigos.
Step-Back Prompting: Com base nos jogos de ação em primeira pessoa mais populares, quais são 5 cenários desafiantes e envolventes?
Resposta: Lista de cenários: base militar abandonada, cidade cyberpunk ou nave alienígena.
Segue com: Agora escolhe um dos cenários e escreve uma narrativa envolvente para um novo nível de videojogo.
Resultado: Narrativa muito mais criativa, consistente e focada.
Chain-of-Thought (CoT) (Cadeia de Pensamento) (Ensinar o modelo a pensar como tu):
É uma técnica para melhorar as capacidades de raciocínio dos LLMs ao criar passos de raciocínio intermédios, o que ajuda a obter respostas mais precisas. O CoT mostra o passo a passo do raciocínio, melhora a robustez entre diferentes versões dos LLMs, cria outputs mais longos, o que por sua vez aumenta os custos e o tempo de processamento. O CoT é útil para qualquer tarefa que possa ser resolvida a pensar em voz alta, ou seja, a pensar passo a passo antes de dar a resposta final, como, por exemplo, criação de código ou resolução de problemas matemáticos.
- Exemplo CoT Prompting:
Quando eu tinha 3 anos, o meu companheiro tinha o óctuplo da minha idade. Agora tenho 25. Qual é a idade do meu companheiro? Vamos pensar passo a passo.
Pensamento:
- Quando eu tinha 3 anos, o meu companheiro tinha 24.
- A diferença de idades é 21 anos.
- Agora tenho 25, logo o meu companheiro tem 46.
Resposta: 46 anos.
Esta técnica é simples, mas poderosa, pode ser combinada com o prompting few-shot para obter melhores resultados em tarefas complexas que exijam raciocínio.
Self-Consistency (A força está na maioria):
Em vez de aceitares a primeira resposta criada, executas o mesmo prompt várias vezes com variação (alta temperatura) e depois selecionas a resposta mais consistente, o que melhora a precisão e a coerência.
Dá uma pseudo-probabilidade de uma resposta estar correta, mas tem custos elevados. O processo envolve criar múltiplos caminhos de raciocínio com alta temperatura, extrair a resposta de cada um e escolher a resposta mais comum.
A Self-Consistency é útil para tarefas sensíveis à interpretação, classificação ou decisões críticas e quando há ambiguidade no input.
- Exemplo Self-Consistency:
Classifica o seguinte email como IMPORTANTE ou NÃO IMPORTANTE. Vamos pensar passo a passo.
“Olá, reparei num bug no teu site e fiz uma captura de ecrã. É um site muito interessante, continua o bom trabalho!”
Tentativas:
→ Resposta 1: IMPORTANTE (potencial ameaça).
→ Resposta 2: NÃO IMPORTANTE (parece inofensivo).
→ Resposta 3: IMPORTANTE (possível vulnerabilidade).
Resultado final: Maioritariamente IMPORTANTE.
É uma técnica que requer mais recursos, mas aumenta a robustez da decisão.
Tree-of-Thoughts (ToT) (Árvore de pensamentos) (Raciocínio em árvore para problemas complexos):
Esta técnica generaliza o conceito de CoT, ao permitir aos LLMs explorar múltiplos caminhos de raciocínio simultaneamente (como os ramos de uma árvore), em vez de seguir uma única linha de pensamento. É adequado para tarefas complexas com várias soluções possíveis ou para exploração criativa. O modelo cria várias hipóteses, cada hipótese pode ser expandida com raciocínio adicional e escolhe-se a mais promissora.
- Exemplo ToT:
Quero criar um assistente virtual.
→ Ramo 1: funções de agenda.
→ Ramo 2: foco em produtividade e memória.
→ Ramo 3: integração com voz e dispositivos físicos.
Resultado: Visão estratégica mais completa.
ReAct (Reason & Act) (Raciocinar e agir com ferramentas externas):
É uma técnica que permite aos LLMs resolver tarefas complexas ao utilizar o raciocínio em linguagem natural combinado com ferramentas externas (como, por exemplo, pesquisa na internet ou consulta de bases de dados), o que permite realizar ações e interagir com APIs para obter informação, sendo um primeiro passo para a modelagem de agentes. Imita a forma como os seres humanos operam.
O modelo funciona a combinar raciocínio e ação num ciclo de pensamento-ação, ou seja, o LLM raciocina sobre o problema e cria um plano de ação, realiza as ações, observa os resultados e usa as observações para atualizar o raciocínio e criar um novo plano e continua assim até encontrar a solução.
A implementação prática do ReAct requer o reenvio contínuo de prompts anteriores e a configuração do modelo com exemplos apropriadas.
- Exemplo ReAct:
Pergunta: Em que ano nasceu o atual presidente da República Portuguesa?
[ReAct prompting]
Pensamento: Para responder, preciso saber quem é o presidente atual.
Ação: Pesquisa (“Presidente atual da República Portuguesa”)
Observação: Marcelo Rebelo de Sousa.
Pensamento: Agora posso descobrir a data de nascimento.
Ação: Pesquisa (“Data de nascimento de Marcelo Rebelo de Sousa”)
Observação: 12 de dezembro de 1948
Resposta: 1948.
Este método simula raciocínio estruturado e tem acesso dinâmico a conhecimento atualizado.
Automatic Prompt Engineering (APE) (Engenharia Automática de Prompts) (Quando a IA escreve os melhores prompts por ti):
É uma técnica para automatizar a escrita de prompts, o que alivia a necessidade da intervenção humana e melhora o desempenho do modelo em várias tarefas.
Em vez de escreveres tu mesmo os prompts, utilizas um modelo para elaborar automaticamente mais prompts, avaliá-los e possivelmente alterá-los e repetir o processo mais vezes. Sempre com o objetivo de encontrar o mais eficaz para uma tarefa específica.
Ou seja, o modelo cria várias versões de um prompt, testa cada um com um modelo de avaliação e seleciona os melhores com base em critérios.
- Exemplo APE:
Tarefa: extrair nome e data de emails:
→ APE gera 10 variações de prompts: “Identifica nome e data neste email…”, “Extrai os campos Nome e Data do texto abaixo…”, …
→ Avalia o desempenho de cada um.
→ Escolhe os 3 melhores.
Esta técnica poupa tempo e otimiza resultados para tarefas repetitivas.
Técnicas Avançadas de Prompting
Técnica | O que faz | Quando usar | Exemplo prático |
---|---|---|---|
Step-Back | Faz uma pergunta geral antes da específica para ativar conhecimento prévio. | Exploração criativa, planeamento, escrita narrativa. |
Antes: “Escreve uma narrativa de jogo.” Step-Back: “Quais são os cenários mais interessantes?” |
Chain-of-Thought | Faz o modelo pensar passo a passo para chegar à resposta final. | Raciocínio lógico, matemática, deduções. |
“Tenho 25 anos. Quando tinha 3, o meu parceiro tinha 8x a minha idade.” → Passo a passo → Resposta final: 46 |
Self-Consistency | Cria várias respostas com variação e escolhe a mais frequente. | Classificação, decisões críticas, inputs ambíguos. |
“Este email é IMPORTANTE?” → Três respostas → Maioria: IMPORTANTE |
Tree-of-Thoughts | Explora múltiplos caminhos de raciocínio como ramos de uma árvore. | Planeamento estratégico, problemas complexos, brainstorming. |
“Como criar um assistente de IA?” → Ramo 1: agenda | Ramo 2: produtividade | Ramo 3: integração |
ReAct | Combina raciocínio lógico com ações externas (por exemplo, pesquisa e APIs). | Tarefas que exigem acesso a dados externos ou atualizados. |
“Em que ano nasceu o presidente dos EUA?” → Pensamento → Ação: pesquisa → Observação → Resposta: 1946 |
APE | Cria e testa automaticamente variações de prompts para encontrar os mais eficazes. | Automatização, otimização, testes de qualidade. |
Tarefa: extrair nome/data de emails. → Elaboração automática de 10 prompts → Avaliação → Top 3 selecionados |
Code Prompting
O Prompting para Código consiste em elaborar prompts para obter código.
- Prompts para escrever código: Os modelos de IA podem ajudar a escrever código em qualquer linguagem de programação, o que acelera o processo de desenvolvimento.
- Exemplo: Escreve uma função em Python que ordene uma lista de números em ordem decrescente.
Lembra-te que é essencial ler e testar o código.
- Prompts para explicar código: Os modelos de IA também podem ajudar a entender o código de outros programadores. Ou seja, podes pedir a um modelo para te explicar o que o código faz.
- Exemplo: Explica o que faz o seguinte código linha por linha: [bloco de código]
- Prompts para traduzir código: Os LLMs podem ajudar a traduzir código de uma linguagem para outra.
- Exemplo: Converte o seguinte script Bash para Python: [bloco de código]
- Prompts para depurar (localizar e corrigir erros ou bugs) e fazer revisão de código: Podes utilizar um prompt para pedir ao LLM para depurar o código e explicar como melhorá-lo. O output identifica o erro e corrige-o. Além disso, o modelo de IA, por regra, também identifica outros bugs (se existirem) e sugere outras melhorias no código.
- Exemplo: Este código está a dar erro. Mostra a correção: [bloco com bug]
Podes utilizar as estruturas dos exemplos e podes combiná-las com as técnicas few-shot ou CoT para obter respostas mais claras, criar fluxos automáticos de explicação e testar códigos.
Prompting Multimodal
O Prompting Multimodal é um conceito separado, que se refere à utilização de múltiplos formatos de entrada (por exemplo, texto, imagens, screenshots, diagramas, áudio, código) para guiar um LLM, em vez de depender apenas de texto.
- Exemplo de prompt multimodal:
[A imagem mostra uma interface de e-commerce]
Prompt: O que achas que poderia ser melhorado neste layout, do ponto de vista da experiência do utilizador?
- Outro exemplo de prompt multimodal:
[A imagem mostra uma aplicação de telemóvel]
Prompt: O que melhorarias nesta interface para torná-la mais intuitiva?
O prompt multimodal é muito útil para analisar interfaces gráficas, criar descrições de imagens e diagnosticar problemas em imagens técnicas. A Engenharia de Prompts nestes casos envolve a descrição clara da imagem e uma pergunta específica para o modelo responder com base nela.
Ao dominares estas estratégias todas passas de apenas dar ordenas à IA a construir raciocínio, explorar alternativas e integrar ferramentas, ou seja, como se estivesses a colaborar com um verdadeiro assistente.
Casos Práticos com Técnicas de Prompt Engineering Aplicadas
Nesta secção, reunimos uma seleção de casos práticos aplicados que mostram como utilizar técnicas de Prompt Engineering em contextos reais. Cada exemplo inclui instruções para construir bons prompts, versões antes e depois e os resultados que podes esperar ao aplicar corretamente estas estratégias.
Casos Práticos Aplicados
Área de Aplicação | Técnica(s) Aplicada(s) | Como Elaborar o Prompt | Prompt Fraco | Prompt Otimizado | Resultado Esperado |
---|---|---|---|---|---|
1. Criação de Texto (Marketing, Redes Sociais) | Role Prompting + Contextual Prompting |
• Define público-alvo, tom, formato e objetivo • Indica nome do produto, benefícios, call-to-action (CTA) • Adapta ao canal (LinkedIn, Instagram, entre outros) |
“Cria um post sobre o nosso novo software de gestão de tempo.” | “És um especialista em marketing digital. Escreve um post para o LinkedIn a anunciar o lançamento do nosso novo software de gestão de tempo chamado TimeMaster. O texto deve ter um tom profissional e entusiasmado, em 2 parágrafos curtos. Foca-te na facilidade de utilização e no aumento da produtividade. Termina com um convite à ação e usa um emoji sobre o tempo.” | Post cativante, estruturado, com o tom certo para o LinkedIn, inclui os benefícios e CTA. |
2. Comunicação Interna e RH (Recursos Humanos) | Role Prompting + System Prompting |
• Tipo de comunicação (email, anúncio, entre outros) • Público-alvo (colaboradores, chefes de departamento, entre outros) • Tom (profissional, acolhedor, entre outros) • Objetivo (informar, motivar, entre outros) • Formato (parágrafos, pontos, entre outros) |
“Escreve um email a anunciar um evento interno.” | “És especialista em comunicação interna. Escreve um email profissional para todos os colaboradores, a anunciar a Semana da Saúde no Trabalho (15 a 19 de maio). O tom deve ser acolhedor e motivador. Inclui atividades como yoga e check-ups, destaca a data e termina com um convite à inscrição com link incluído.” | Mensagem clara, acolhedora e bem organizada para enviar diretamente. |
3. Suporte Técnico e Helpdesk | Zero-Shot Prompting + Role Prompting |
• Tipo de pedido ou problema • Nível técnico do utilizador • Resolução passo a passo • Sistema operativo, software, ambiente • Tom simples e didático |
“Explica como configurar a VPN.” | “És técnico de helpdesk. Explica passo a passo como configurar a VPN da empresa num portátil com Windows 11. Utiliza linguagem simples para não técnicos e separa cada passo de forma clara.” | Guia clara, acessível e direta, sem necessidade de incluir exemplos prévios. |
4. Gestão de Tempo e Produtividade | Role Prompting + Contextual Prompting + Personalização |
• Define o perfil profissional • Determina o objetivo (foco, stress, delegação) • Escolhe formato (agenda, checklist) • Sugere ferramentas ou apps • Define restrições (reuniões fixas) |
“Ajuda-me a ser mais produtivo.” | “És um coach de produtividade. Cria um plano semanal para um gestor de projetos com múltiplas reuniões e prazos apertados. Organiza o tempo em blocos de trabalho profundo, reuniões, pausas e tarefas rápidas.” | Agenda estruturada por blocos, com recomendações práticas. |
5. Atendimento ao Cliente | Role Prompting + Few-Shot Prompting |
• Especifica o canal (email, redes sociais) • Perfil do cliente (insatisfeito, fiel) • Tom desejado (empático, cordial) • Tema do contacto (reclamação, devolução, dúvida) • Contexto (erro, prazo, compensação) |
“Responde a uma reclamação sobre um atraso.” | “És um agente de apoio ao cliente. Um cliente enviou a seguinte mensagem: “Estou muito desapontado, a minha encomenda devia ter chegado há três dias e ainda nada.” Responde de forma empática, reconhece o erro e oferece uma solução. Exemplo: Mensagem 1: “Compreendo a sua frustração. Verifiquei que houve um atraso no envio. A entrega está prevista para amanhã. Lamentamos o incómodo.” Mensagem 2: “Pedimos desculpa pelo atraso. Estamos a trabalhar com o nosso parceiro logístico para resolver o problema. Enviaremos um cupão de 10% como compensação.”” | Resposta adaptada ao tom, com empatia e solução clara. |
6. Explicações e Recursos Educativos | Chain-of-Thought + Role Prompting |
• Nível académico • Tema ou conceito • Explicação passo a passo • Tom didático e simples • Podes utilizar analogia |
“Explica a fotossíntese.” | “És um professor de Ciências Naturais do 8º ano. Explica o processo da fotossíntese passo a passo, com linguagem acessível. Utiliza analogias simples e evita termos demasiado técnicos.” | Explicação clara, segmentada e pedagógica. |
7. Comunicação com Pacientes | Role Prompting + Contextual Prompting |
• Perfil do leitor (paciente, colaborador) • Tema de saúde • Objetivo (informar, acalmar, sensibilizar) • Tom (empático, acessível, técnico) • Aviso de não substituição de aconselhamento médico |
“Fala sobre os diabetes tipo 2.” | “És um profissional de saúde a comunicar com um paciente recém-diagnosticado com diabetes tipo 2. Escreve um texto acessível, empático e informativo sobre o que é, quais os cuidados essenciais no dia a dia e como manter a qualidade de vida.” | Texto compreensível, acolhedor e informativo. |
8. Jurídico (Explicações e Minutas) | Role Prompting + System Prompting |
• Tipo de texto/análise (cláusula, minuta, termo) • Domínio jurídico (civil, penal, RGPD) • Objetivo (explicar, reformular) • Tom (formal, acessível) • Público-alvo (cliente, estagiário) |
“Explica esta cláusula.” | “O utilizador não é jurista, explica os conceitos jurídicos em linguagem acessível. És um jurista especializado em direito do trabalho. Explica de forma clara e objetiva a seguinte cláusula de um contrato de trabalho: [colar cláusula].” | Texto claro, simplificado e formal. |
9. Financeiro (Análise e Planeamento) | Chain-of-Thought + Step-Back Prompting |
• Define o contexto (empresarial) • Tema financeiro (orçamento, rentabilidade) • Nível de profundidade (técnico) • Estrutura lógica com pensamento crítico • Step-back para revisão da análise |
“Explica este orçamento.” | “És um analista financeiro numa empresa. Explica o orçamento mensal abaixo com raciocínio estruturado (passo a passo). Identifica os 2 maiores centros de custo e sugere formas de otimização. Depois, revê o teu raciocínio e sugere uma alternativa possível caso o cenário seja mais pessimista.” | Explicação com encadeamento lógico, seguida de uma revisão crítica com alternativa estratégica. |
Agora que exploraste casos reais com aplicação direta, é o momento de aprofundar ainda mais com um conjunto de dicas práticas que vão elevar a tua criação de prompts.
As Melhores Dicas Para Prompt Engineering Profissional
Nesta secção da nossa Guia, o foco é garantir que tudo o que aprendeste até agora se aplica de forma eficaz, consistente e escalável.
Encontrar o prompt certo requer experimentar e testar prompts com diferentes modelos. Pelo que, vou dar-te uma lista detalhada das melhores dicas práticas para te tornares um profissional em Engenharia de Prompts:
- Dica 1: Fornecer Exemplos Claros: A prática mais importante é fornecer exemplos (one-shot ou few-shot) dentro de um prompt, pois atuam como uma ferramenta de ensino poderosa. Ao mostrares os outputs que desejas e ao permitires que o modelo aprenda com eles, adaptas a criação em termos de precisão, estilo e tom.
- Dica 2: Desenhar com Simplicidade: Os prompts devem ser objetivos, claros e fáceis de entender, tanto por ti como pelo modelo, assim sendo, deves evitar linguagem complexa e informação desnecessária e aconselho-te a utilizares verbos que descrevam exatamente a ação que desejas.
- Exemplos: escreve, analisa, classifica, identifica, compara, cria, descreve, define, extrai, faz uma lista, organiza, escolhe, resume, traduz, entre muitos outros.
- Dica 3: Ser Específico sobre o Output: Ser específico sobre o output pretendido, pois uma instrução sucinta ou muito genérica pode não guiar corretamente o LLM. Deves fornecer detalhes específicos no prompt (como, por exemplo, persona, isto é, quem queres que o modelo seja ou contexto, por exemplo, o nível de conhecimento do público-alvo), pois isso ajuda o modelo a focar-se no que é relevante e a melhorar a precisão.
- Exemplo (antes e depois):
Prompt inicial (ineficiente): Resume este texto.
Texto base: “Nos últimos anos, os LLM evoluíram de forma impressionante…”
Problema: Resposta vaga, demasiado longa, sem foco.
Prompt otimizado (eficaz): Resume o texto a seguir em 2 frases claras e formais, para um público académico.
Resultado: Resposta mais concisa e com foco nos pontos principais do conteúdo.
- Exemplo (antes e depois):
- Dica Extra: Recomendo-te o uso de sinalizadores como hashtags, aspas ou outros para separar claramente o que é instrução e o que é texto ou listas numeradas, por exemplo. Isto evita que o modelo confunda a instrução com o conteúdo.
- Dica 4: Utilizar Instruções em vez de Restrições: As instruções fornecem orientações explícitas sobre o formato, estilo ou conteúdo que desejas da resposta, enquanto que as restrições são limitações do que o modelo não deve fazer. Aconselho-te a focares-te em instruções positivas, pois as instruções transmitem diretamente o resultado que desejas, enquanto que as restrições podem deixar o modelo a adivinhar o que pretendes. As restrições são valiosas em certas situações (como, por exemplo, necessito uma receita de uma sobremesa que não contenha lactose nem glúten), mas é melhor priorizares as instruções positivas e utilizares as restrições apenas quando for necessário.
- Dica 5: Controlar o Comprimento Máximo do Token: Para controlar o comprimento de uma resposta do LLM, podes definir um limite máximo de tokens na configuração ou solicitar explicitamente um comprimento específico no prompt.
- Dica 6: Utilizar Variáveis nos Prompts: Para tornar os prompts mais dinâmicos, utiliza variáveis que podem ser alteradas para diferentes entradas. Isto economiza tempo e esforço e evita repetições, especialmente ao integrar prompts em aplicações.
- Exemplo: Cria uma história divertida com um dragão que odeia fogo.
Preenches a tabela e analisas o comportamento do modelo.
- Exemplo: Cria uma história divertida com um dragão que odeia fogo.
Temperatura
Temperatura | Resultado Obtido | Observações |
---|---|---|
0 | [preencher] | [muito literal, sem variação?] |
0.5 | [preencher] | [equilibrado, coerente?] |
0.7 | [preencher] | [mais criativo, fluido?] |
1 | [preencher] | [muito criativo ou sem sentido?] |
- Dica 7: Experimentar com Formatos de Entrada (input) e Estilos de Escrita: Diferentes modelos, configurações, formatos de prompt, escolhas de palavras e submissões podem criar resultados diferentes, por conseguinte, é importante definires e experimentares os distintos atributos do prompt como estilo, escolha das palavras e tipo de prompt (por exemplo, zero-shot, few-shot, prompting de sistema) e comparares os resultados.
- Dica 8: Para Exemplos no Prompt com Tarefas de Classificação, Misturar os Tipos: Normalmente, a ordem dos exemplos não deve importar muito, mas em tarefas de classificação, é importante misturar os possíveis tipos de resposta nos exemplos para evitar o overfitting à ordem específica, o que garante que o modelo aprenda as características chave de cada tipo para um desempenho mais robusto em dados que nunca viu. Uma boa regra é começar com 6 exemplos e testar a precisão a partir daí.
- Dica 9: Adaptar às Atualizações do Modelo: É importante estar atualizado sobre as mudanças na arquitetura, dados adicionados e capacidades do modelo. Deves experimentar as novas versões dos modelos e ajustar os prompts para aproveitares melhor os novos recursos.
- Dica 10: Experimentar com Formatos de Output (saída): Além do formato de entrada do prompt, considera experimentar com o formato de output. Para tarefas não criativas como extrair, selecionar, analisar, ordenar ou classificar dados, tenta obter o output num formato estruturado como JSON ou XML.
- Dica 11: Experimentar com Outros Engenheiros de Prompt: Ao tentares criar um bom prompt, pode ser interessante partilhares resultados e aprendizagens com outras pessoas para veres a variação do desempenho entre as diferentes tentativas de prompt.
- Dica 12: Melhores Práticas de CoT: Para CoT Prompting, tens de colocar a resposta após o raciocínio, pois a criação do raciocínio muda os tokens que o modelo recebe ao prever a resposta final. Com CoT e Self-Consistency, tens de conseguir extrair a resposta final do prompt, separada do raciocínio. Para CoT, deves definir a temperatura como 0, pois, por norma, existe uma única resposta correta quando se utiliza o raciocínio.
- Dica 13: Documentar as Várias Tentativas de Prompt: Documentar as tentativas de prompt em detalhe é crucial para aprender o que funcionou bem e o que não funcionou ao longo do tempo. Os outputs dos prompts podem variar entre os modelos, as configurações e até mesmo as diferentes versões do mesmo modelo e pequenas diferenças na formatação e na escolha das palavras podem originar diferentes respostas. Cria um histórico para adaptar ou justificar decisões futuras.
Desta forma, recomendo-te criares uma tabela ou uma ficha com os seguintes campos: nome, objetivo, técnica, configurações (temperatura), prompt completo, output e outros detalhes úteis como a versão utilizada, resultado (OK/NÃO OK/ÀS VEZES OK) e feedback.
Deixo-te 3 modelos:
Modelo de Tabela de Documentação de Prompt
Nome do Prompt | [preencher] |
---|---|
Versão | [preencher] |
Objetivo | [preencher] |
Técnica utilizada | [preencher] |
Temperatura | [preencher] |
Resultado | [OK / NÃO OK / ÀS VEZES OK] |
Prompt completo | [preencher com o texto exato do prompt] |
Output esperado | [preencher com o formato ou conteúdo esperado] |
Observações / Feedback | [notas, limitações, sugestões de melhoria] |
Modelo de Ficha de Documentação de Prompt
Modelo de Ficha Interativa de Documentação de Prompt
E deixo-te um exemplo de preenchimento:
Tabela de Documentação de Prompt
Nome do Prompt | extrair_contactos_json_v2 |
---|---|
Versão | v2.1 |
Objetivo | Extrair email e telefone de texto livre |
Técnica utilizada | Few-Shot Prompting + output em JSON |
Temperatura | 0.2 |
Resultado | Às vezes OK |
Prompt completo |
Extrai o endereço de email e o número de telefone do texto abaixo. Responde em JSON com os campos “email” e “telefone”. Texto: Olá, o meu contacto é ana@exemplo.com e podes ligar para 123456789. |
Output esperado | {“email”: “ana@exemplo.com”, “telefone”: “123456789”} |
Observações / Feedback | Funciona melhor com exemplos realistas e linguagem informal. Pode falhar se o número estiver num formato internacional. |
- Dica 14: Uma vez que sintas que um prompt está quase perfeito, guarda-o num ficheiro separado (por exemplo, tarefa_formato_vx), para que seja mais fácil de localizar e comparar.
- Dica 15: Os teus prompts devem ser organizador numa biblioteca interna e como Engenheiro de Prompt deves utilizar scripts para automatizar testes com vários inputs e analisar os outputs para compreender o quão bem o teu prompt se generaliza para uma tarefa.
- Dica 16: Por último, cria templates reutilizáveis para padronizar estruturas de prompts eficazes, o que também facilita a criação de novos prompts com base nos já comprovados.
A Engenharia de Prompts é um processo iterativo de criação, teste, análise e melhoramento.
Um bom prompt raramente surge à primeira tentativa, por isso, não tenhas medo, elabora e testa diferentes prompts, analisa e documenta os resultados, melhora o teu prompt com base no desempenho do modelo, continua a experimentar até alcançares o resultado que pretendes e quando mudares de um modelo para outro ou mudares de versão ou a configuração, volta atrás e continua a experimentar com os prompts que utilizaste antes.
Ser Eficaz Com a IA
Dominar a Engenharia de Prompts é muito mais do que saber dar ordens a um LLM, é uma arte aliada à técnica, onde cada detalhe conta, a forma como escreves, o que pedes, como testas, como documentas e como colaboras com o modelo.
Os prompts são hoje o que o código foi para os programadores no século passado. Saber construir e otimizar boas instruções para a IA é uma competência estratégica.
Se chegaste até aqui, já tens nas mãos um verdadeiro manual prático para transformar ideias em ação, inteligência em resultado e IA em aliada.
Agora é contigo. Pronto para aplicar tudo isto?
E se gostaste deste conteúdo, subscreve a nossa Newsletter e acompanha a IA&A para mais conteúdos como este, práticos e poderosos.