Un grand modèle de langage (LLM) est un réseau de neurones entraîné sur des centaines de milliards à des billions de mots de texte pour apprendre les schémas statistiques du langage. Grâce à cet entraînement, les LLMs développent la capacité de comprendre le contexte, de générer du texte cohérent, de raisonner sur des problèmes et d'écrire du code.
La conséquence pratique pour les marchés du travail est que les LLMs peuvent effectuer une large catégorie de tâches cognitives qui nécessitaient auparavant une expertise humaine.
Les LLMs sont des systèmes probabilistes — ils génèrent la réponse statistiquement la plus probable. Cela signifie qu'ils sont excellents pour les tâches où la "bonne réponse" ressemble aux schémas dans leurs données d'entraînement, mais sujets aux "hallucinations" en opérant aux limites de leur connaissance.