Skip to main content
IA & Machine Learning

Réseau Neuronal

Un modèle d'apprentissage automatique composé de couches interconnectées de neurones artificiels qui apprennent des patterns à partir de données.

Également appelé: Réseau neuronal artificiel, ANN, Réseau de neurones, Modèle connexionniste

Définition

Un réseau neuronal est un modèle computationnel vaguement inspiré du cerveau humain, composé de couches de neurones artificiels (nœuds) interconnectés. Chaque neurone reçoit des entrées, applique des poids et un biais, passe le résultat à travers une fonction d’activation, et envoie la sortie à la couche suivante. Par l’entraînement avec rétropropagation, les réseaux neuronaux apprennent à reconnaître des patterns, faire des prédictions et générer des sorties à partir de données.

Pourquoi c’est important

Les réseaux neuronaux sont le fondement de l’IA moderne :

  • Approximateurs universels — peuvent apprendre toute fonction continue avec assez de neurones
  • Apprentissage de features — découvrent automatiquement les patterns pertinents dans les données
  • Évolutivité — les performances s’améliorent avec plus de données et de calcul
  • Polyvalence — vision, langage, parole, jeux, science et plus
  • État de l’art — alimentent tous les systèmes d’IA leaders incluant les LLMs

De la reconnaissance d’images à la génération de langage, les réseaux neuronaux dominent l’IA.

Comment ça fonctionne

┌────────────────────────────────────────────────────────────┐
│                    RÉSEAU NEURONAL                         │
├────────────────────────────────────────────────────────────┤
│                                                            │
│  STRUCTURE D'UN RÉSEAU FEEDFORWARD:                        │
│  ──────────────────────────────────                        │
│                                                            │
│  Couche Entrée  Couches Cachées   Couche Sortie            │
│      │                │               │                    │
│      ○ ─────┬────► ○ ────┬────► ○ ────┬────► ○             │
│      │      │      │     │      │     │      │             │
│      ○ ─────┼────► ○ ────┼────► ○ ────┼────► ○             │
│      │      │      │     │      │     │      │             │
│      ○ ─────┴────► ○ ────┴────► ○ ────┴────► (sortie)      │
│                                                            │
│     x₁,x₂,x₃      h₁,h₂,h₃      h₄,h₅,h₆       ŷ          │
│                                                            │
│  NEURONE UNIQUE:                                           │
│  ───────────────                                           │
│                                                            │
│  ┌────────────────────────────────────────────────┐        │
│  │  Entrées       Poids     Somme+Biais  Activation│       │
│  │                                                 │        │
│  │    x₁ ──────► w₁ ──┐                           │        │
│  │                    │                           │        │
│  │    x₂ ──────► w₂ ──┼──► Σ + b ──► f(·) ──► y  │        │
│  │                    │                           │        │
│  │    x₃ ──────► w₃ ──┘                           │        │
│  │                                                 │        │
│  │  y = f(w₁x₁ + w₂x₂ + w₃x₃ + b)                │        │
│  └────────────────────────────────────────────────┘        │
│                                                            │
│  FONCTIONS D'ACTIVATION COURANTES:                         │
│  ─────────────────────────────────                         │
│                                                            │
│  ReLU:    f(x) = max(0, x)         ___/                   │
│  Sigmoid: f(x) = 1/(1+e⁻ˣ)        _/⁻⁻                    │
│  Tanh:    f(x) = (eˣ-e⁻ˣ)/(eˣ+e⁻ˣ)  _/‾                  │
│  Softmax: Distribution de probabilité (pour classif.)      │
│                                                            │
│  TYPES DE RÉSEAUX:                                         │
│  ─────────────────                                         │
│  Feedforward (MLP):    Données dans une direction         │
│  Convolutionnel (CNN): Patterns spatiaux (images)         │
│  Récurrent (RNN):      Données séquentielles (texte,temps)│
│  Transformer:          Basé sur attention (LLMs)          │
│                                                            │
└────────────────────────────────────────────────────────────┘

Comparaison des architectures:

TypeForceCas d’usage
MLPDonnées tabulaires simplesClassification, régression
CNNHiérarchies spatialesImages, vidéo, audio
RNN/LSTMPatterns séquentielsSéries temporelles, NLP ancien
TransformerDépendances longue distanceLLMs, NLP moderne, vision

Questions fréquentes

Q : Quelle doit être la profondeur d’un réseau neuronal ?

R : Cela dépend de la complexité de la tâche. Les tâches simples nécessitent peu de couches; les patterns complexes (comme le langage) en nécessitent beaucoup. Les LLMs modernes ont 32-100+ couches. Commencez simple et ajoutez de la profondeur si sous-apprentissage.

Q : Quelle différence entre neurones et paramètres ?

R : Les neurones sont les unités de calcul; les paramètres sont les poids et biais les connectant. Un réseau avec 1000 neurones peut avoir des millions de paramètres (chaque neurone se connecte à beaucoup d’autres).

Q : Pourquoi les réseaux neuronaux ont-ils besoin de fonctions d’activation ?

R : Sans activations non-linéaires, plusieurs couches s’effondreraient en une seule transformation linéaire (peu importe le nombre de couches). Les fonctions d’activation permettent aux réseaux d’apprendre des patterns complexes et non-linéaires.

Q : Comment les réseaux neuronaux sont liés au “deep learning” ?

R : L’apprentissage profond fait spécifiquement référence aux réseaux neuronaux avec beaucoup de couches (architectures profondes). Un réseau à 2 couches est un réseau neuronal mais pas “profond.” Les LLMs transformers modernes sont des réseaux neuronaux très profonds.

Termes associés


Références

LeCun et al. (2015), “Deep Learning”, Nature. [40 000+ citations]

Goodfellow et al. (2016), “Deep Learning”, MIT Press. [20 000+ citations]

Hornik et al. (1989), “Multilayer feedforward networks are universal approximators”, Neural Networks. [25 000+ citations]

Rosenblatt (1958), “The Perceptron: A Probabilistic Model for Information Storage”, Psychological Review. [Article fondateur]

References

LeCun et al. (2015), “Deep Learning”, Nature. [40,000+ citations]

Goodfellow et al. (2016), “Deep Learning”, MIT Press. [20,000+ citations]

Hornik et al. (1989), “Multilayer feedforward networks are universal approximators”, Neural Networks. [25,000+ citations]

Rosenblatt (1958), “The Perceptron: A Probabilistic Model for Information Storage”, Psychological Review. [Foundational paper]