🏋️ Chatbot de Treino e Nutrição
Este modelo foi treinado para atuar como um assistente virtual especializado em educação física e nutrição, com foco em iniciantes que desejam montar planos de treino e dieta personalizados.
📚 Dataset
O modelo foi treinado com um conjunto de dados customizado contendo perguntas e respostas sobre:
- Treinos semanais para diferentes níveis
- Dietas para emagrecimento, hipertrofia e manutenção
- Restrições alimentares (vegetarianismo, intolerância à lactose)
- Recomendações de frequência, recuperação e mobilidade
Formato: JSONL com campos "input" e "output"
Repositório do dataset: wpbcpaz/fitness-chatbot-dataset
🧠 Modelo
- Base: distilgpt2
- Tipo: Causal Language Model
- Idioma: Português
- Tamanho: Leve, ideal para aplicações web e mobile
🎯 Aplicações
- Chatbots para academias ou apps de saúde
- Interfaces conversacionais em sites
- Ferramentas de onboarding para novos praticantes
- Assistentes virtuais para planos alimentares básicos
🧪 Como usar
from transformers import AutoTokenizer, AutoModelForCausalLM
model = AutoModelForCausalLM.from_pretrained("wpbcpaz/fitness-chatbot-model")
tokenizer = AutoTokenizer.from_pretrained("wpbcpaz/fitness-chatbot-model")
input_text = "Usuário: Tenho 30 anos, treino 4x por semana e quero ganhar massa muscular.\nChatbot:"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=100)
print(tokenizer.decode(outputs[0]))
Hiperparâmetros de treinamento
Os seguintes hiperparâmetros foram utilizados durante o treinamento:
- taxa_de_aprendizado: 5e-05
- tamanho_do_lote_treinamento: 4
- tamanho_do_lote_avaliacao: 8
- semente: 42
- otimizador: Use OptimizerNames.ADAMW_TORCH_FUSED com betas=(0.9,0.999) e epsilon=1e-08 e optimizer_args=Sem argumentos adicionais para o otimizador
- tipo_de_scheduler_lr: linear
- numero_de_epocas: 3
- treinamento_com_precisao_mista: AMP Nativo
Versões do framework
- Transformers 4.56.2
- Pytorch 2.8.0+cu126
- Datasets 4.0.0
- Tokenizers 0.22.1
Limitações encontradas
Limitações de Treinamento O treinamento deste modelo de inteligência artificial via CPU (unidade de processamento central) é inviável devido a limitações de hardware. A arquitetura da CPU é otimizada para tarefas sequenciais e de propósito geral, enquanto o treinamento de modelos de linguagem de grande escala exige um processamento massivo em paralelo.
O aviso de erro em plataformas que rodam códigos python, como o Google Colab: 'pin_memory' argument is set as true but no accelerator is found... sinaliza que o ambiente de treinamento não encontrou um acelerador, como uma GPU (unidade de processamento gráfico) ou TPU. Sem um acelerador, o processo:
Atinge lentidão extrema: Um treinamento que levaria horas em uma GPU pode se estender por semanas ou meses na CPU.
Gera custos elevados: O tempo de computação e o consumo de energia tornam o processo financeiramente insustentável a longo prazo.
Recomenda-se enfaticamente o uso de um ambiente com aceleração por GPU para qualquer tentativa de treinamento ou ajuste fino do modelo.
📄 Licença
Este modelo está disponível sob a licença MIT. Uso livre para fins educacionais e não comerciais. Para aplicações comerciais, recomenda-se consultar o desenvolvedor.
✒️ Autor
Desenvolvido por Wilder Paz
Projeto original em desenvolvimento: Plano de Treino Semanal com IA desenvolvido com Htmls, Vanilla JS, Tailwind CSS e Gemini IA
- Downloads last month
- 13
Dataset used to train wpbcpaz/fitness-chatbot-model
Space using wpbcpaz/fitness-chatbot-model 1
Evaluation results
- Perplexity on Fitness Chatbot Datasetself-reported12.300
