L’Homme outillé travaille-t-il « moins » ?
Avec l’IA, il travaille surtout ailleurs.
On confond souvent l’activité avec le geste. On confond le faire avec le fabriquer. On confond la charge musculaire avec l’intensité cognitive.
À mesure qu’il s’outille, l’Homme réduit sans aucun doute son engagement somatique direct. Mais cela ne signifie pas nécessairement qu’il « fait moins ». Cela signifie que son activité se déplace dans la chaîne opératoire. Avec l’IA, ce déplacement prend une forme inédite. Le geste recule. La responsabilité décisionnelle avance. Et cela de manière spectaculaire.
L’externalisation n’est pas nécessairement un dépérissement
Aujourd’hui on exécute moins qu’il y a 30 ans. On déclenche, on paramètre, on compare, on corrige, on valide. Ce que la technique retire au système sensori-moteur, elle le transfère aux fonctions exécutives.
Leroi-Gourhan l’avait déjà observé. L’hominisation procède par externalisation progressive. D’abord le geste (par l’outil). Puis la mémoire (par l’écriture et ses supports successifs). Puis les chaînes opératoires elles-mêmes (par les automates et les robots).
L’intervention technique ne supprime pas l’activité humaine. Elle la réorganise. L’instrument recompose l’activité. Une machine n’est jamais un substitut complet. Elle institue une nouvelle écologie de l’activité.
Rabardel précise combien un instrument n’est pas un objet technique isolé. C’est un artefact (matérialité technique) auquel viennent s’ajouter des schèmes d’usage (modalités d’action incorporées). L’outil n’existe donc qu’à travers une genèse instrumentale : appropriation, détournement, négociation.
Par conséquent le fait d’automatiser ne supprime jamais l’activité. Il la redistribue vers des fonctions cognitives de niveau supérieur :
- La préparation (cadrage de la tâche).
- La surveillance (détection d’écarts).
- La réparation (gestion de l’exception).
- La justification ( compte rendu des arbitrages).
Ce travail cognitif reste largement invisible. Mais il est coûteux, complexe et il devient décisif.
Avec l’IA générative, on assiste à une rupture qualitative. L’outil ne se contente plus d’augmenter la capacité de l’activité manuelle. Il prend position dans l’espace de la délibération. Il repositionne l’action humaine. Or celle ci, rappelle Suchman, est située. Elle ne se réduit jamais à l’exécution d’un plan défini à l’avance. Elle se construit dans l’interaction avec un environnement qui change, qui résiste et qui impose ses contraintes. L’imaginaire techno-solutionniste de l’IA repose sur l’inverse, sur un monde où l’action serait décomposable en séquences prévisibles, en algorithmes.
Dans l’activité réelle, on ne déroule pas un plan. On ajuste. On improvise. On compose avec l’incertitude. On bricole comme l’aurait dit Levi-Strauss. Quand une IA générative « assiste » l’Homme, elle n’opère pas dans la neutralité. Elle oriente les possibles. Elle met en avant certaines options plutôt que d’autres. Elle rend certains chemins plus visibles, plus faciles à emprunter. Elle installe, sans nécessairement l’expliciter, une politique implicite des choix, ce que Cardon appelle la sélectivité algorithmique.
« L’automatisation intelligente » : un récit qui occulte le travail vivant
Fantasme du discours gestionnaire, l’IA remplacerait l’humain de bout en bout.
Casilli déconstruit ce récit. Derrière chaque système d’IA dit « autonome », on trouve du digital labor. Annotation, modération, étiquetage, contrôle. L’IA générative fonctionne grâce à des masses de travail humain invisibilisé, externalisé, précarisé via des plateformes de micro-tâches.
Ce que Stiegler nommait la prolétarisation cognitive consiste en une dépossession des savoir-faire au profit d’une automatisation qui redistribue le travail vers des formes dégradées.
L’activité ne disparaît jamais. Elle change de géographie sociale (délocalisation, plateformisation). Elle change de visibilité (occultation du travail réel). Elle change de statut (ubérisation, salariat déguisé).
Quand l’artefact devient opaque
Avec l’IA, on assiste à un autre déplacement. Il s’agit de celui de l’intelligibilité de l’action médiée. On agit avec des dispositifs dont on ne maîtrise plus les logiques internes.
Pasquale théorise cette configuration en évoquant la black box society. Des systèmes sociotechniques décident, classent, évaluent, hiérarchisent tout en demeurant opaques au nom du secret industriel, de la propriété intellectuelle ou de la « complexité technique ».
Une action indirecte, techniquement médiée, épistémiquement opaque, produit un nouveau régime de dépendance. On ne fait plus avec l’outil (relation instrumentale classique). On fait selon l’outil (soumission aux logiques embarquées).
Cela reconfigure ce que signifie « être compétent ». Il ne s’agit plus désormais seulement de savoir-faire (exécution) mais surtout de savoir-juger. Il est désormais essentiel de questionner les recommandations, d’auditer les sorties, de résister aux suggestions quand elles ne correspondent pas au réel et de maintenir un jugement critique face aux prédictions algorithmiques.
L’IA déplace l’activité… et reconfigure le pouvoir
Ce n’est pas seulement une question technique. C’est une question de gouvernementalité, au sens où l’entendait Foucault. Poursuivant cette réflexion, Rouvroy et Berns ont conceptualisé le régime de gouvernementalité algorithmique. Il s’agit de gouverner non plus par la loi et le débat public, mais par les données. Les systèmes profilent les comportements. Ils prédisent les choix. Ils personnalisent les incitations. Tout cela se fait en contournant l’argumentation, la discussion collective, l’obligation de justifier publiquement les décisions.
L’enjeu n’est pas mince. Ces outils redistribuent le pouvoir d’agir lui-même. Qui peut vraiment décider ? Qui peut contester une décision algorithmique ? Qui peut comprendre les logiques qui orientent nos vies quand elles sont enfouies dans des systèmes opaques ?
On n’agit plus seulement dans un monde équipé d’outils. On agit dans un monde où des systèmes anticipent nos besoins, influencent nos choix, présélectionnent ce qu’on peut voir ou faire. L’opacité technique n’est plus un simple problème d’ingénierie. Elle devient un enjeu démocratique.
On comprend alors l’enjeu des tentatives de régulation. L’AI Act européen (règlement UE 2024/1689), est entré en vigueur le 1er août 2024. Il vise à limiter certains usages jugés « à risque inacceptable » et à imposer des obligations de transparence. Mais la question demeure. Le droit peut-il rattraper la vitesse de l’innovation technique ? Et surtout, qui dispose des ressources nécessaires pour auditer des systèmes aussi complexes et opaques ?
Conclusion
L’Homme outillé ne fait pas moins. Il fait moins à mains nues. Il fait plus par médiation sociotechnique.
Avec l’IA générative, l’activité humaine se déplace vers l’arbitrage, la surveillance cognitive, l’explication justificatoire, l’endossement de responsabilité — et parfois la lutte pour maintenir un pouvoir d’agir effectif.
Mais on nous demande d’assumer une responsabilité dont les contours se dérobent. L’utilisateur valide. Le concepteur paramètre. L’entreprise déploie. L’algorithme oriente. Chacun contribue à l’action sans en maîtriser l’ensemble. Chacun peut se défausser sur les autres maillons de la chaîne.
Le problème n’est donc pas « l’Homme devient-il paresseux ? » Cette question rate l’essentiel. La vraie question, celle qui engage notre rapport au pouvoir et à la responsabilité : comment penser l’imputabilité dans un régime où l’action est coproduite par des humains et des systèmes sociotechniques opaques — et devant qui répondre quand la responsabilité se fragmente entre l’utilisateur qui valide, le concepteur qui paramètre, l’entreprise qui déploie, et l’algorithme qui oriente ?
Références
Cardon, D. (2015). À quoi rêvent les algorithmes. Nos vies à l’heure des big data. Seuil.
Casilli, A. (2019). En attendant les robots. Enquête sur le travail du clic. Seuil.
Leroi-Gourhan, A. (1964-1965). Le geste et la parole. Albin Michel.
Pasquale, F. (2015). The Black Box Society: The Secret Algorithms That Control Money and Information. Harvard University Press.
Rabardel, P. (1995). Les hommes et les technologies. Approche cognitive des instruments contemporains. Armand Colin.
Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024.
Rouvroy, A. & Berns, T. (2013). « Gouvernementalité algorithmique et perspectives d’émancipation ». Réseaux, n°177, p. 163-196.
Stiegler, B. (2015). La société automatique. 1. L’avenir du travail. Fayard.
Suchman, L. (1987). Plans and Situated Actions: The Problem of Human-Machine Communication. Cambridge University Press.