Résumé : Cette recherche se donne comme défi de retracer les enjeux normatifs liés au développement du sous-domaine de l’intelligence artificielle appelé machine learning. Bien que celui-ci connaisse un impressionnant regain d’intérêt depuis le début du XXIe siècle, et ce à travers un nombre croissant d’activités sociales, son émergence remonte au moins à la première moitié du XXe siècle. En effet, l’idée de concevoir des machines capables de modéliser l’apprentissage organique est largement concomitante au projet cybernétique de fonder une science du contrôle et de la communication. A force de modéliser l’apprentissage, il devient progressivement possible d’envisager à partir des années 1940 et 50 que les machines elles-mêmes seraient capables d’apprendre. C’est par l’observation des comportements des machines qu’une formalisation algorithmique de l’apprentissage s’impose. A partir de cette mise en scène, nous chercherons à montrer en quoi l’apprentissage algorithmique n’est pas nécessairement une question d’automatisation de l’apprentissage et que le comportement permet, au contraire, de problématiser la normativité des algorithmes apprenants en ce qu’ils participent activement à certaines activités sociales (travail, enseignement, guerre, etc.). Il s’agira, à partir des philosophies de Georges Canguilhem et Gilbert Simondon, de montrer en quoi les effets normatifs induits par l’apprentissage algorithmique, comme mode de gouvernement au sein d’activités sociales données, peuvent se comprendre à l’aune du concept de "répertoire de comportements potentiels".