Il y a des années, Nicholas Carr affirmait que Google nous rendait stupides, que la facilité d'accès à l'information réduisait notre capacité d'attention et rendait généralement difficile la « lecture approfondie ». D’autres s’inquiètent du fait que les moteurs de recherche détournent le lectorat des journaux et collectent l’argent qui autrement financerait le journalisme.
Aujourd'hui, nous observons quelque chose de similaire dans le développement de logiciels avec des modèles de langage étendus (LLM) comme ChatGPT. Les développeurs se tournent vers les assistants de codage pilotés par LLM pour compléter le code, obtenir des réponses sur la façon de procéder, et bien plus encore. En cours de route, des inquiétudes ont été soulevées quant au fait que les LLM aspirent les données de formation provenant de sources telles que Stack Overflow et en détournent ensuite les activités, même si les développeurs cèdent leur pensée critique aux LLM. Les LLM nous rendent-ils stupides ?
Qui forme les formateurs ?
Peter Nixey, fondateur d'Intentional.io et l'un des 2 % des principaux contributeurs de Stack Overflow, soulève une question existentielle qui tourmente les LLM : « Que se passe-t-il lorsque nous arrêtons de mettre en commun nos connaissances et les versons directement dans The Machine ? Par « The Machine », il fait référence aux LLM, et par « mettre en commun nos connaissances », il fait référence à des forums comme Stack Overflow où les développeurs posent et répondent à des questions techniques. ChatGPT et d'autres LLM sont devenus « intelligents » en aspirant toutes ces informations provenant de sites comme Stack Overflow, mais cette source se tarit rapidement.


:max_bytes(150000):strip_icc():focal(749x0:751x2)/meri-brown-sister-wives-011725-678f56def8ad4573b7f58e040b19b017.jpg)
GIPHY App Key not set. Please check settings