Ícone de terminal Calibração de Modelos


A calibração de modelos de Large Language Models (LLMs) é um processo essencial para ajustar o comportamento da IA e garantir que as respostas sejam mais alinhadas com as necessidades do usuário. Nesta página, exploraremos como esses ajustes afetam a saída dos modelos e como podemos experimentar essas configurações no Playground do Google AI, onde podemos observar em tempo real o impacto de cada parâmetro e entender como calibrar um modelo para diferentes finalidades.

Prompt de Sistema (System Instructions)

O parâmetro System Instructions define diretrizes para o comportamento do modelo, orientando seu tom, estilo de resposta e restrições. Ele garante que a IA siga um perfil específico ao interagir.

System Instructions

Temperature

Ajusta a criatividade das respostas geradas pelo modelo. Um valor mais alto incentiva respostas mais inovadoras e menos previsíveis. Mais informações.


Exemplo: Temperatura Maior (mais criativo)

Temperature +

Exemplo: Temperatura Menor (mais direto)

Temperature -

Max Tokens

Define o limite máximo de tokens (palavras ou partes de palavras) para a resposta gerada, garantindo que o conteúdo produzido não exceda um comprimento específico.

Max Tokens

Stop Sequences

Palavras ou símbolos que indicam ao modelo quando encerrar a geração de texto, permitindo um maior controle sobre o resultado final.

Stop Sequences

Top-k e Top-p

Top-k: Limita o número de palavras (ou tokens) que o modelo considera ao gerar a próxima palavra. Números menores tornam a resposta mais precisa; números maiores deixam o modelo explorar mais. Mais informações.

Top-p: Considera palavras até que a soma das suas probabilidades atinja um certo limiar, permitindo mais variação. Mais informações.

Exemplo: Top-k (não compatível com o modelo utilizado aqui)

Top-k

Exemplo: Top-p Maior (mais palavras)

Top-p Maior

Exemplo: Top-p Menor (menos palavras)

Top-p menor

Retrieval-Augmented Generation (RAG)

A técnica aprimora os resultados de um LLM ao integrar informações específicas e atualizadas, sem a necessidade de alterar o modelo de IA subjacente.
Enriquece seus prompts com informações/documentos da sua empresa... Mais informações.

RAG

Fine-Tuning

É como dar um "treinamento especial" para que ele se torne especialista em uma tarefa específica. Isso permite que o modelo aprenda a realizar tarefas complexas com mais precisão e criatividade, como escrever textos no estilo de um autor específico ou gerar código de programação para diferentes aplicações.

Fine-Tuning

Exemplo: Dá para testar por aqui

Fine-Tuning - google

Referências

- 🎯 RAG — Retrieval-Augmented Generation

- 🔥 Como a Temperature influencia as respostas de um Modelo de Linguagem?

- 🎲 Como o Top-p influencia as respostas de um Modelo de Linguagem?

- 🔢 Como o Top-k influencia as respostas de um Modelo de Linguagem?

- 🗣️ Explicando o funcionamento dos LLMs de uma forma simples!

- 📚 Tudo o que você precisa saber sobre LLM (Large Language Model)

- ⚖️ Comparando capacidades de LLMs (Large Language Models)

- 💬 GenAI — O que é Engenharia de Prompt?

- 💻 Aplicações da IA Generativa

- 🎥 Vídeos sobre ferramentas de IA Generativa

- 📰 Notícias diárias sobre IA e IA Generativa