Configurações LLM
Modelo
@cf/meta/llama-3.2-3b-instruct
Temperature (Comportamento da IA)
Quantidade Máxima de Tokens
Mensagem do Sistema (Use a padrão ou altere)
Você é um assistente útil.
Resposta em Fluxo
Configurações Avançadas
Top P
Top K
Frequency Penalty
Presence Penalty
Repetition Penalty
Reiniciar Configurações
LM IA
Pergunte-me qualquer coisa, digite para começar