Skip to main content
IA & Machine Learning

Few-Shot Learning

Un paradigme d'apprentissage automatique où les modèles apprennent à effectuer des tâches à partir de quelques exemples seulement, permettant une adaptation rapide sans réentraînement extensif.

Également appelé: Prompting few-shot, Apprentissage K-shot, Apprentissage low-shot

Définition

Le few-shot learning est une approche d’apprentissage automatique où les modèles effectuent des tâches après avoir vu seulement un petit nombre d’exemples (typiquement 1-10). Dans le contexte des grands modèles de langage, le few-shot learning est réalisé via l’apprentissage in-context: des démonstrations sont fournies dans le prompt, et le modèle infère le patron à appliquer aux nouvelles entrées. Cela contraste avec l’apprentissage traditionnel nécessitant des milliers d’exemples, permettant une adaptation rapide sans mise à jour des poids.

Pourquoi c’est important

Le few-shot learning révolutionne le déploiement IA:

  • Pas d’entraînement requisadapter modèles instantanément via prompting
  • Efficacité données — fonctionne avec exemples étiquetés minimaux
  • Prototypage rapide — tester idées sans infrastructure ML
  • Réduction coûts — éviter compute fine-tuning coûteux
  • Flexibilité — même modèle gère tâches diverses
  • Accessibilité — non-experts ML peuvent personnaliser comportement

Comment ça fonctionne

┌────────────────────────────────────────────────────────────┐
│                    FEW-SHOT LEARNING                        │
├────────────────────────────────────────────────────────────┤
│                                                            │
│  COMPARAISON PARADIGMES APPRENTISSAGE:                     │
│  ─────────────────────────────────────                     │
│                                                            │
│  ┌────────────────┬───────────────────────────────────┐  │
│  │ Paradigme      │ Exemples Nécessaires               │  │
│  ├────────────────┼───────────────────────────────────┤  │
│  │ ML Traditionnel│ 10.000 - 1.000.000+ (entraînement)│  │
│  │ Fine-tuning    │ 100 - 10.000 (entraînement)       │  │
│  │ Few-shot       │ 2 - 10 (dans prompt, pas entr.)   │  │
│  │ One-shot       │ 1 (dans prompt, pas entr.)        │  │
│  │ Zero-shot      │ 0 (juste instructions)            │  │
│  └────────────────┴───────────────────────────────────┘  │
│                                                            │
│                                                            │
│  STRUCTURE PROMPT FEW-SHOT:                                │
│  ──────────────────────────                                │
│                                                            │
│  ┌─────────────────────────────────────────────────────┐ │
│  │                                                      │ │
│  │  [Optionnel: Description tâche/instruction]         │ │
│  │                                                      │ │
│  │  ┌─────────────────────────────────────────────┐   │ │
│  │  │ Exemple 1:                                   │   │ │
│  │  │ Entrée: "Le film était absolument génial"   │   │ │
│  │  │ Sortie: Positif                             │   │ │
│  │  └─────────────────────────────────────────────┘   │ │
│  │                                                      │ │
│  │  ┌─────────────────────────────────────────────┐   │ │
│  │  │ Exemple 2:                                   │   │ │
│  │  │ Entrée: "Terrible perte de temps"           │   │ │
│  │  │ Sortie: Négatif                             │   │ │
│  │  └─────────────────────────────────────────────┘   │ │
│  │                                                      │ │
│  │  ┌─────────────────────────────────────────────┐   │ │
│  │  │ Exemple 3:                                   │   │ │
│  │  │ Entrée: "C'était correct, rien de spécial"  │   │ │
│  │  │ Sortie: Neutre                              │   │ │
│  │  └─────────────────────────────────────────────┘   │ │
│  │                                                      │ │
│  │  ┌─────────────────────────────────────────────┐   │ │
│  │  │ NOUVELLE ENTRÉE (à classifier):             │   │ │
│  │  │ Entrée: "Meilleur achat jamais fait!"      │   │ │
│  │  │ Sortie: ???                                 │   │ │
│  │  └─────────────────────────────────────────────┘   │ │
│  │                                                      │ │
│  │  Modèle complète: "Positif" ✓                       │ │
│  │                                                      │ │
│  └─────────────────────────────────────────────────────┘ │
│                                                            │
│                                                            │
│  SÉLECTION D'EXEMPLES IMPORTANTE:                          │
│  ────────────────────────────────                          │
│                                                            │
│  MAUVAIS exemples few-shot:                               │
│  ┌─────────────────────────────────────────────────────┐ │
│  │ Ex 1: "super film" → Positif                        │ │
│  │ Ex 2: "super repas" → Positif                       │ │
│  │ Ex 3: "super livre" → Positif ← Tous même classe!  │ │
│  │                                                      │ │
│  │ Problème: Modèle n'apprend pas "négatif"           │ │
│  └─────────────────────────────────────────────────────┘ │
│                                                            │
│  BONS exemples few-shot:                                  │
│  ┌─────────────────────────────────────────────────────┐ │
│  │ Ex 1: "adoré" → Positif        ← Couvre positif    │ │
│  │ Ex 2: "détesté" → Négatif      ← Couvre négatif    │ │
│  │ Ex 3: "c'est ok" → Neutre      ← Couvre neutre     │ │
│  │ Ex 4: "incroyable!" → Positif  ← Entrée courte     │ │
│  │ Ex 5: "pire jamais" → Négatif  ← Cas limite        │ │
│  │                                                      │ │
│  │ ✓ Classes équilibrées                               │ │
│  │ ✓ Longueurs entrées variées                        │ │
│  │ ✓ Cas limites inclus                               │ │
│  └─────────────────────────────────────────────────────┘ │
│                                                            │
│                                                            │
│  FEW-SHOT VS FINE-TUNING:                                  │
│  ────────────────────────                                  │
│                                                            │
│  ┌─────────────────┬─────────────┬───────────────────┐   │
│  │ Aspect          │ Few-Shot    │ Fine-Tuning       │   │
│  ├─────────────────┼─────────────┼───────────────────┤   │
│  │ Exemples        │ 2-10        │ 100-10.000        │   │
│  │ Coût compute    │ 0€ (API)    │ 10€-10.000€+      │   │
│  │ Temps setup     │ Minutes     │ Heures-Jours      │   │
│  │ Flexibilité     │ Haute       │ Tâche-spécifique  │   │
│  │ Précision max   │ Bonne       │ Meilleure         │   │
│  │ Latence         │ Plus haute  │ Plus basse        │   │
│  └─────────────────┴─────────────┴───────────────────┘   │
│                                                            │
└────────────────────────────────────────────────────────────┘

Questions fréquentes

Q: Combien d’exemples inclure dans prompts few-shot?

R: Typiquement 3-5 exemples donnent bons résultats. Plus d’exemples (jusqu’à 10-20) peuvent améliorer précision mais augmentent coûts et latence. Rendements décroissants autour 5-10 exemples.

Q: Comment sélectionner quels exemples inclure?

R: Choisir exemples divers, représentatifs couvrant toutes classes/patrons. Inclure cas limites. Pour classification, équilibrer exemples entre catégories.

Q: L’ordre des exemples compte-t-il?

R: Oui, l’ordre peut significativement impacter résultats. Recherche montre: (1) placer exemples plus pertinents proche requête, (2) biais récence signifie derniers exemples ont plus influence.

Q: Le few-shot learning peut-il échouer?

R: Oui. Échecs communs: (1) tâche trop complexe pour reconnaissance patrons, (2) exemples ne représentent pas distribution réelle, (3) exemples ambigus confondent modèle, (4) prompt trop long atteint limites contexte.

Termes associés


Références

Brown et al. (2020), “Language Models are Few-Shot Learners”, NeurIPS. [Article capacités few-shot GPT-3]

Liu et al. (2021), “What Makes Good In-Context Examples for GPT-3?”, DeeLIO Workshop. [Stratégies sélection exemples]

Min et al. (2022), “Rethinking the Role of Demonstrations”, EMNLP. [Analyse mécanique few-shot]

Lu et al. (2022), “Fantastically Ordered Prompts and Where to Find Them”, ACL. [Effets ordre exemples]

References

Brown et al. (2020), “Language Models are Few-Shot Learners”, NeurIPS. [GPT-3 few-shot capabilities paper]

Liu et al. (2021), “What Makes Good In-Context Examples for GPT-3?”, DeeLIO Workshop. [Example selection strategies]

Min et al. (2022), “Rethinking the Role of Demonstrations”, EMNLP. [Analysis of few-shot mechanics]

Lu et al. (2022), “Fantastically Ordered Prompts and Where to Find Them”, ACL. [Example ordering effects]