Modèle de Classification de Propreté des Poubelles

Ce modèle utilise Vision Transformer (ViT) pour classifier les images de poubelles en deux catégories:

  • Clean (Propre)
  • Dirty (Sale)

Modèle de base

  • Architecture: Vision Transformer (ViT)
  • Modèle de base: google/vit-base-patch16-224
  • Type: Classification binaire d'images
  • Taille d'entrée: 224x224 pixels

Classes

  • 0: Clean (Poubelle propre)
  • 1: Dirty (Poubelle sale)

Utilisation

from transformers import ViTImageProcessor, ViTForImageClassification
from PIL import Image
import torch

# Charger le modèle et le processeur
processor = ViTImageProcessor.from_pretrained('JeanPaulLePape/MasterCAMPDataetIAModelGoogleTrained')
model = ViTForImageClassification.from_pretrained('JeanPaulLePape/MasterCAMPDataetIAModelGoogleTrained')

# Fonction de prédiction
def predict_trash_cleanliness(image_path):
    image = Image.open(image_path).convert('RGB')
    inputs = processor(image, return_tensors="pt")
    
    with torch.no_grad():
        outputs = model(**inputs)
        predicted_class = torch.argmax(outputs.logits, dim=1).item()
        confidence = torch.softmax(outputs.logits, dim=1).max().item()
    
    label = "Clean" if predicted_class == 0 else "Dirty"
    return label, confidence

# Exemple d'utilisation
label, confidence = predict_trash_cleanliness("path/to/your/image.jpg")
print(f"Prédiction: {label} (Confiance: {confidence:.2f})")

Entraînement

  • Framework: Transformers + PyTorch
  • Optimiseur: AdamW
  • Précision: Mixed precision (FP16)
  • Métriques: Accuracy
Downloads last month
14
Safetensors
Model size
85.8M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for JeanPaulLePape/MasterCAMPDataetIAModelGoogleTrained

Finetuned
(935)
this model