De ChatGPT à l'agent autonome : comprendre l'évolution des LLM appliqués au développement

En quelques années, les modèles de langage sont passés de simples générateurs de texte à des systèmes capables d'exécuter du code, naviguer sur le web et piloter des outils. Comment en est-on arrivé là ?

De ChatGPT à l'agent autonome : comprendre l'évolution des LLM appliqués au développement

Quand ChatGPT est sorti fin 2022, la réaction dans ma formation a été immédiate : on pouvait lui demander d'expliquer du code, de corriger des bugs, de générer des fonctions entières. Pour des étudiants en informatique, c'était une rupture évidente. Mais avec le recul, ce premier ChatGPT était encore un outil relativement passif : il répondait, mais ne faisait rien.

La première évolution importante, c'est l'arrivée des tools, la capacité des LLM à appeler des fonctions externes. Plutôt que de simplement décrire comment faire une recherche web, le modèle peut l'exécuter. Plutôt que d'écrire du code hypothétique, il peut le lancer dans un interpréteur et voir le résultat. Cette capacité d'action change fondamentalement la nature de l'outil.

La deuxième évolution, c'est le contexte long. Les premiers modèles avaient des fenêtres de contexte très limitées, quelques milliers de tokens. Les modèles récents peuvent ingérer des fichiers entiers, des bases de code complètes, des documents longs. Pour le développement, ça veut dire qu'un assistant peut réellement comprendre l'architecture d'un projet avant de proposer une modification.

La troisième évolution, c'est celle des agents. Un agent IA n'est pas juste un modèle avec des tools, c'est un modèle qui peut planifier, observer les résultats de ses actions, et adapter son plan. C'est ce qu'on voit dans Windsurf Cascade ou dans les modes agent de Cursor : l'outil peut enchaîner plusieurs étapes sans qu'on lui dicte chacune.

Ce qui m'intéresse dans cette trajectoire, c'est la vitesse. En trois ans, on est passé d'un outil qui explique à un outil qui fait. Et les éditeurs IA actuels comme Cursor, Windsurf ou Trae ne sont probablement qu'une étape intermédiaire, pas une destination.

Pour un étudiant qui entre dans le métier, cette évolution rapide est à la fois une opportunité et un défi. Les outils changent, mais les fondamentaux, comprendre un algorithme, raisonner sur une architecture, déboguer méthodiquement, restent le socle sur lequel tout le reste repose.