
intelligence-artificielle
IA — Fondations : Embeddings, Tokens et Représentation du langage
Comprendre comment un texte devient une représentation numérique exploitable par un modèle d’IA : tokenisation, embeddings et encodage de position.

Comprendre comment un texte devient une représentation numérique exploitable par un modèle d’IA : tokenisation, embeddings et encodage de position.

Comprendre comment un Transformer relie les tokens entre eux grâce à l’attention, pourquoi on utilise plusieurs têtes, le rôle du Feed Forward et l’importance du masque causal.

Comprendre comment un modèle d’IA passe du laboratoire à la production : inférence, contraintes GPU, optimisations modernes et rôle de NVIDIA NIM.