Petit lexique de l’IA générative :
▪️ LLM (Large Language Model)
Un modèle capable de comprendre et de générer du texte, entraîné sur d’immenses volumes de données.
→ ChatGPT, Mistral, Claude…
▪️ Prompt
C’est l’instruction que vous donnez à l’IA.
→ « Fais-moi un résumé et une traduction de cet article en français. »
▪️ Token
L’unité de base utilisée par les IA pour lire et découper un texte. Il peut s’agir d’un mot entier ou de syllabes.
→ Le mot « intelligence » peut être interprété comme plusieurs morceaux (2 tokens).
▪️ Contexte
La mémoire immédiate de l’IA. Elle ne retient que les derniers échanges.
→ ChatGPT-4o a une fenêtre de contexte de 128 000 tokens, soit 300 pages de texte.
▪️ Latence
C’est le temps total que met le modèle à analyser votre demande et à générer une réponse. Il doit être inférieur à 200ms pour avoir une conversation audio fluide.
▪️ Vitesse de génération
C’est la rapidité avec laquelle l’IA écrit sa réponse, une fois qu’elle a commencé.
→ ChatGPT-4o peut générer jusqu’à 150 mots par seconde, ce qui lui permet de fournir des réponses complètes très rapidement.
▪️ Hallucination
Quand l’IA fournit une réponse fausse mais crédible.
→ Par exemple, quand elle affirme que « les Girondins de Bordeaux sont en Ligue 1 (ou en Ligue 2) ».
▪️ Embedding
Une technique qui permet à l’IA de traduire les mots en vecteurs numériques (des suites de nombres) pour en saisir le sens et les relations entre eux.
→ Les mots « chat », « chien » et « animal » auront des représentations numériques proches, car ils partagent un sens similaire.
▪️ RAG (Retrieval-Augmented Generation)
Une IA boostée avec vos données internes pour fournir des réponses plus précises et contextualisées.
→ Elle peut retrouver dans vos documents internes la politique de télétravail de 2025 et la résumer en quelques secondes.
💬 Envie d’aller plus loin ?
Écrivez simplement « Guide » en commentaire et recevez notre version complète avec des outils IA incontournables et des astuces pratiques à tester dès aujourd’hui !





