Intelligence artificielle et travail social : un tiers algorithmique qui fait évoluer le métier

Un entretien avec Adrien Guionie, auteur de L’IA, un outil pour le travail social ? Manuel pratique et éthique à l’attention des professionnels, paru en février 2026 aux éditions érès.

Publié le lundi 20 avril 2026

L’intelligence artificielle est un sujet en expansion rapide, sans cesse relancé. La parution en février de L’IA, un outil pour le travail social ? a retenu l’attention de La Plateforme de l’inclusion. Voici la restitution de l’essentiel de l’entretien que son auteur a bien voulu nous accorder. Qu’il en soit profondément remercié.

Jean Vettraino : Pour commencer, pourriez-vous revenir sur votre parcours professionnel ?

Adrien Guionie : Je suis un assistant social de formation. J’ai travaillé pendant dix ans en polyvalence de secteur. Je suis actuellement évaluateur en information préoccupante dans le domaine de la protection de l'enfance ; je me concentre sur l'évaluation du danger pour les enfants au sein des familles et la proposition de solutions d'action. Je suis aussi formateur sur les écrits professionnels et l'analyse de pratiques à l'Institut régional du travail social (IRTS) Nouvelle-Aquitaine.

La troisième facette, plus récente, de mon activité concerne la relation entre l'intelligence artificielle (IA) et le travail social, visant à rapprocher ces deux mondes, qui semblent opposés. J’explore les limites et les potentialités de l'IA : comment elle peut bousculer la frontière entre la technologie et le social, notamment en permettant au terrain de créer des outils répondant à des besoins précis et correspondant à notre réalité. Mon intérêt est né d'une réflexion approfondie. Il est né de questions que je me suis posées, et non d'une simple envie de créer des outils. Mon travail sur l’IA s’articule autour de trois axes : l’écrit professionnel ; l’utilisation de l’IA par les usagers en première intention et les professionnels dans le cadre de leur accompagnement ; l’innovation sociale par la création d’outils numériques [1].

JV : Dites-nous en plus là-dessus.

AG : J’ai toujours eu un intérêt pour la technologie. Par exemple, je suis le premier de mes collègues à avoir utilisé la tablette reMarkable. Quant à l’IA, j’en ai intensifié mon usage du fait d’un contexte professionnel particulier et traumatisant. À la suite du décès d'une collègue et d'une cascade d'arrêts maladie, la charge de travail a explosé. On s'est retrouvé avec équipe réduite de moitié. On est passé de 25 mesures pour un poste à 45 voire 50 mesures [2]. La charge a donc doublé mais les délais de traitement lui devaient rester les mêmes. J’étais déterminé à ne pas réduire le temps de rencontre, déjà très restreint que ce soit avec les familles comme avec les enfants. Je devais trouver une solution ou exploser en vol… Où pouvais-je gagner du temps ? Sans doute autour des écrits professionnels. Comment pouvais-je être aidé là-dessus ? C’est là que j’ai commencé à utiliser l’IA, en tant que « shadow », vraiment dans mon coin, caché [3], avec toute la culpabilité qui était en train de d'émerger en moi, de m'envahir. Je me disais : « Oh lala, c'est pas possible… Qu'est-ce que vont penser mes collègues ? Qu'est-ce que va penser ma cheffe ? » Et avec cette subtilité du travail social, que peu de gens connaissent il me semble, qui est que l'écrit professionnel a une valeur hyper importante, pas que dans le sens de la relecture par l'usager ou par le responsable, mais aussi comme validation d’un niveau et d’une maîtrise professionnelle.

C’est là que j’ai commencé à utiliser l’IA, en tant que « shadow », vraiment dans mon coin, caché, avec toute la culpabilité qui était en train de d'émerger en moi, de m'envahir. Je me disais : « Oh lala, c'est pas possible… Qu'est-ce que vont penser mes collègues ? Qu'est-ce que va penser ma cheffe ? »

JV : Pour autant, dans votre livre, vous présentez le shadow AI comme une pratique positive, pour peu qu’elle soit conscientisée. C’est un parti pris original.

Oui. J'en vois les bénéfices. C'est-à-dire que je me suis trompé à de nombreuses reprises, mais il y a eu aussi des moments où j'ai réussi. Aujourd'hui, si j'en viens à être aussi à l'aise avec l'outil et à arriver à me l'approprier, c'est que à un moment donné je me suis lancé. Il le fallait bien : les travailleurs sociaux ne sont ni formés et ni accompagnés dans l’usage de l’intelligence artificielle. Je trouve donc qu'il y a aussi un côté positif de cet auto-apprentissage. C'est pour ça que j'en parle de façon positive, tout en donnant un cadre. J’en pointe quand même des risques et limites dans le livre. L’IA permet potentiellement tellement de choses que, si on cadre bien, on peut se l'approprier comme on le souhaite en fonction de ce dont a besoin. J’ai cette image d’un cercle délimité au sein duquel on peut naviguer.

JV : Et le livre lui-même, L’IA, un outil pour le travail social ?, comment est-il né ?

L'idée du livre est née de mon travail de formateur, notamment pour une formation sur le numérique à l'IRTS, où il j’ai été sollicité pour intervenir. Mon objectif initial était de créer un guide pratique complet sur l'IA pour les professionnels du secteur. Par la suite, un format plus étoffé m’a paru nécessaire pour poser une réflexion approfondie sur le sujet. Le livre a donc été construit à partir de cette matière issue de la formation, transformant les réflexions et les tests initiaux en un ouvrage complet.

L’essentiel des citations et exemples du livres, y compris les cas d'usage comme le « shadow AI » pour générer des scénarios d'entretien, sont tirés de ma propre pratique. Par exemple, je me suis retrouvé un jour en entretien avec une jeune fille qui venait de perdre ses parents et qui était complètement mutique. Je n’arrivais pas à rentrer en relation avec elle. Je n'avais rien, et les moyens d’investir dans des outils spécifiques pour le travail social sont très limités. Donc, je me suis dit pourquoi ne pas essayer (Ouvre une nouvelle fenêtre) Storybook avec elle ? J'ai essayé de nouer une relation humaine en passant par cet outil numérique [4], pour parler un peu des émotions. Cela n’a pas été magique – Storybook avait de vraies limites – mais cela a fonctionné. On a créé un personnage, on a donné un contexte et, du coup, ça nous a fait quelques pages à partir desquelles on a pu discuter. La rencontre s’est faite. Elle est repartie avec ces pages imprimées. Cela n’a l’air de rien, mais c’était un peu son histoire à elle, en version BD, avec laquelle elle est repartie. Donc, il y a beaucoup de choses dans ce livre qui sont issues de ce que j'ai vécu. Après, évidemment, sur 192 pages, il y a aussi ce que j'ai pu entendre au gré de mes différentes interventions et formations.

JV : Pouvez-vous revenir sur la manière dont vous avez utilisé l’IA pour l’écriture du livre lui-même ?

AG : J’ai utilisé l'IA pour l’identification d’une partie de la documentation et des sources, notamment une IA spécialisée dans la recherche (Zotero IA). L'IA m’a permis un gain de temps pour l'extraction et la classification des informations de nombreux documents (via (Ouvre une nouvelle fenêtre) NotebookLM), ainsi que pour la synthèse, notamment sous forme de tableaux. J’ai bien sûr vérifié chacun des sources. Par ailleurs, j’ai perdu du temps à cause des « (Ouvre une nouvelle fenêtre) hallucinations » de l'IA et de ses (Ouvre une nouvelle fenêtre) biais, m’obligeant parfois à tout reprendre. L'utilisation de l'IA pour l'écriture du livre a généré de l'anxiété, en particulier lors de la relecture, par crainte de laisser passer des coquilles ou des sources erronées.

JV : Au-delà, l’IA modifie-t-elle votre pratique d’écriture ?

AG : Oui, l'IA change notablement ma pratique d'écriture ainsi que ma réflexion, en particulier dans ma pratique professionnelle. D’où l’impérieuse nécessité de combattre la « surconfiance en l'outil », ou la « paresse intellectuelle » comme le dit Didier Dubasque, où l'utilisateur cesse de relire ou de réfléchir, délégant trop à l'IA. … je vais tout lui balancer puisqu'il va me le faire à ma place et puis comme il écrit sûrement mieux que moi, il fait moins de faute et ben du coup autant on ne pas réfléchir et gagner du temps là-dessus. Et ça c'est vraiment mon un de mes combats.

JV : La réflexivité est sans doute un effort constant et nécessaire dans toutes les professions. Selon vous, quelle est la spécificité de l’intelligence artificielle dans ce processus ?

AG : Je propose de considérer l’IA comme un « tiers algorithmique » capable de faciliter cette démarche. Dans notre société actuelle, où la pression de la performance rend le regard d’autrui parfois difficile à supporter, l’individu se retrouve souvent seul face à ses responsabilités. Il peut être plus aisé de prendre conscience de ses propres biais ou de ses difficultés devant un algorithme que de recevoir ces mêmes observations de la part d'un collègue. L’IA sait d'ailleurs très bien « arrondir les angles » : elle peut valider vos compétences tout en vous suggérant avec tact de revoir un point précis. À titre d'exemple, une collègue cherchait des chaussures de sport et se sentait totalement perdue dans ses choix. L’IA lui a répondu qu'après deux heures de discussion, il était préférable qu'elle rentre chez elle pour se poser avant de décider. Ce conseil lui a permis de s'extraire de l'émotionnel pour prendre une décision réfléchie. L'IA agit ici comme un régulateur qui aide à prendre du recul.

Je propose de considérer l’IA comme un « tiers algorithmique » capable de faciliter cette démarche. Dans notre société actuelle, où la pression de la performance rend le regard d’autrui parfois difficile à supporter, l’individu se retrouve souvent seul face à ses responsabilités. Il peut être plus aisé de prendre conscience de ses propres biais ou de ses difficultés devant un algorithme que de recevoir ces mêmes observations de la part d'un collègue.

JV : Ce rôle de tiers est fascinant… et cela pose une question fondamentale : le développement du pouvoir d’agir peut-il être purement individuel et individualisé ? N'est-ce pas l’échange entre pairs qui, normalement, forge la culture professionnelle ?

AG : C’est justement là que l’IA déplace les curseurs de manière positive. Prenons l’exemple d'un usager qui a utilisé ChatGPT pour rédiger un courrier complexe destiné aux impôts. Il a ensuite sollicité une assistante sociale non pas pour qu’elle rédige la lettre, mais pour qu’elle valide son travail.

Ce scénario illustre un véritable développement du pouvoir d’agir : l’usager a trouvé sa propre solution et sollicite l’expert pour une validation finale. Pour le travailleur social, cela demande d'accepter un changement de posture. On passe du rôle de « sachant » – celui qui fait à la place de l'autre car il possède le savoir – à un rôle de médiateur et d'expert consultant. Ce décalage de pratique est extrêmement intéressant : il vient interroger et bousculer notre propre ego professionnel.

JV : La discussion et le regard humain nous informent sur notre pratique et créent une communauté professionnelle qui permet de tenir dans les moments difficiles. Ne craignez-vous pas que l’usage de l’IA déplace le curseur vers une sur-individualisation, voire une sur-responsabilisation, là où les enjeux devraient rester collectifs ?

AG : C’est l’un de mes combats. Lorsque je rencontre des directeurs de service, je préconise immédiatement la mise en place d’une charte d’utilisation de l’IA[5]. A mes yeux, le premier article devrait stipuler que la direction s’engage à ne pas utiliser l’IA pour remplacer des postes ou augmenter la charge de travail. C’est une condition non négociable. Sans cet engagement, l’IA ne devrait pas être implantée, car le risque de dérive est trop important.

JV : Vous évoquez l’augmentation de la charge de travail, est-ce une réalité constatée ?

AG : Les études montrent que l’IA peut augmenter la charge de travail, même pour ceux qui l’utilisent[6]. Elle s’immisce dans les temps de pause et ramène sans cesse au travail. Pour un travailleur social, prendre cinq mesures supplémentaires ne se résume pas à une simple augmentation quantitative de l’activité : cela signifie accompagner cinq familles vulnérables de plus, soit autant de parcours de vie souvent marqués par des ruptures, des violences ou des traumatismes. Chaque situation nécessite du temps d’écoute, d’analyse et d’engagement émotionnel. Or, l’exposition répétée à des situations difficiles accroît le risque de fatigue compassionnelle [7] et de burnout. À terme, cela peut entraîner davantage d’arrêts de travail et fragiliser les équipes, ce qui ne constitue pas un investissement soutenable pour les employeurs. Je milite pour que le temps gagné soit réinvesti dans l’analyse de pratique. Actuellement, l’usage caché de l’IA (shadow AI) crée une culture où chacun travaille de son côté avec ses propres outils, parfois au risque de lever le secret professionnel en utilisant des adresses personnelles.

JV : Vous abordez là un sujet majeur : la gestion de la donnée (la data). Dans votre livre, elle apparaît en filigrane sans être présentée comme un prérequis. Comment appréhendez-vous cette question, notamment dans des secteurs où la gestion de l’information est parfois désordonnée ?

AG : J’ai évolué sur cette question. Dans le travail social, nous manipulons des données extrêmement intimes. La responsabilité est immense car une fuite de données est grave. Je milite pour la création d’outils internes via des API qui ne servent pas à entraîner les modèles et qui permettent l’anonymisation. Il y a aussi le problème des biais : si l’on entraîne une IA uniquement sur des situations de violences, elle finira par halluciner des conclusions biaisées. Mon but avec ce livre était de porter le débat auprès de travailleurs sociaux non initiées, sans les noyer immédiatement dans la technique, tout en présentant ces risques.

JV : Justement, les structures vous semblent-elles outillées pour penser la donnée, indépendamment même de la question de l’IA ?

AG : Les services sociaux de protection de l’enfance traitent des données qui ne représentent pas la société dans son ensemble. Si l’on entraîne une IA sur ces bases, les réponses seront forcément orientées. L’humain a des biais, l’IA en aura donc aussi. C’est pour cela que l’outil ne sera jamais neutre.

JV : Est-il possible, selon vous, d’estimer et d’évaluer réellement les gains de l’IA au niveau d’une organisation [8] ?

AG : Il existe un fantasme autour du gain de temps massif [9] ou du repérage des signaux faibles. Pour moi, le gain concret est l'acquisition d'une "mallette" d’outils plus importante. Personnellement, cela m’a permis de créer un espace de travail différent, comme une application de dictée vocale qui transforme mes notes en écrits professionnels directement rangés dans les dossiers. Le bénéfice le plus palpable est la diminution de la charge mentale liée aux tâches administratives.

Il existe un fantasme autour du gain de temps massif ou du repérage des signaux faibles. Pour moi, le gain concret est l'acquisition d'une "mallette" d’outils plus importante.

JV : Faut-il alors évaluer ces gains de manière rigoureuse ou est-ce un choix individuel de pratique ?

AG : L’intelligence artificielle est un outil optionnel. Si un professionnel préfère le papier et le stylo, il doit pouvoir continuer ainsi. En revanche, il faut être vigilant : celles et ceux qui gagnent du temps grâce à l’IA ne doivent pas être surchargés par rapport aux autres, afin de ne pas créer d’inéquité au sein d’un même service.

JV : Existe-t-il une crainte d’un « grand remplacement », crainte manifeste dans certains secteurs d’activité, des travailleurs sociaux par l’IA ?

AG : Ce fantasme existe. Toutefois, l’IA ne peut pas remplacer l’analyse humaine dans les situations complexes. Elle pourrait couvrir environ 45 % des tâches, essentiellement administratives. Mais ces tâches sont aussi des respirations mentales qu’on ne peut pas totalement supprimer. Quoi qu’il en soit, les travailleurs sociaux doivent s’emparer de l’IA car les usagers, eux, l’utilisent déjà massivement. C’est une évolution de société à laquelle nous devons nous adapter[10].

JV : Redoutez-vous un risque de déqualification professionnelle liée à l’usage de l’IA [11] ?

AG : Je pense que cela va accélérer une déqualification de l’écrit professionnel. Nous passons d’une génération de l’écrit à une génération de l’oral. L’IA peut lisser les situations et uniformiser les conclusions. C’est pourquoi je milite pour une évolution de la pratique : au lieu de noter le produit fini, nous devrions réfléchir au processus qui a mené à ce résultat. L’IA doit rester une base de travail pour la donnée brute, afin que l’humain se concentre sur le lien et l’expertise.

JV : Comment le monde du travail social perçoit-il globalement cette arrivée de l’IA ?

AG : En privé, les gens sont très intéressés. En public, c’est souvent perçu comme une honte. Le problème est que personne n’est formé. Utiliser l’IA sans savoir « prompter » ou sans configurer son profil n’est ni éthique, ni efficient. J’ai créé des outils gratuits, comme des générateurs de prompts et de styles, pour aider les professionnels à voir la différence de qualité. C’est une forme de psychoéducation. Il s’agit d’aider les professionnels à comprendre le fonctionnement, les limites et les enjeux éthiques de l’IA, afin de sécuriser son utilisation et lever les représentations infondées.

JV : Pour finir, comment votre livre est-il reçu ?

AG : Il est un peu tôt encore pour pouvoir répondre à cette question. Il est difficile d’avoir des retours publics car l’usage reste souvent caché ou culpabilisant. Cependant, les directions commencent à m’interpeller. Elles sont en phase de réflexion mais n’ont pas encore mis en place d’approche raisonnée, de charte ou de formation. Pour l’instant, beaucoup attendent la charte du Laboria [12], qui devrait servir de fondement institutionnel pour le développement de pratiques vertueuses à l’avenir.

Notes

[1] (Ouvre une nouvelle fenêtre) https://impulsion-social.netlify.app/synthese-demarrer-ia

[2] Dans le travail social, une « mesure » peut être définit comme « l'expression d'une commande sociale qui s'exerce dans un cadre légal et réglementaire, visant à apporter une réponse à une situation de danger ou de grande précarité. » Cf. Le Dictionnaire critique de l'action sociale (dir. de Jean-Yves Barreyre et Brigitte Bouquet). Dans la protection de l’enfance, on parle par exemple d’AEMO (Action Éducative en Milieu Ouvert) : une mesure judiciaire où le travailleur social intervient au domicile de la famille pour protéger l'enfant sans le séparer de ses parents.

[3] Cf. notamment le rapport (Ouvre une nouvelle fenêtre) L'intelligence artificielle au travail. Accompagner et sécuriser les initiatives collaborateurs, juin 2025.

[4] Sur les enjeux, tensions et possibilités de médiation via l’IA, cf. (Ouvre une nouvelle fenêtre) La revue NEC, n°6, été 2025 : « Intelligences artificielles et médiations ».

[5] Cf. notamment le « Bonus » de l’ouvrage, pp.153-154.

[6] (Ouvre une nouvelle fenêtre) https://www.radiofrance.fr/franceinfo/podcasts/l-oeil-de-julie/l-oeil-de-julie-du-dimanche-22-fevrier-2026-5488499

[7] (Ouvre une nouvelle fenêtre) https://www.ifemdr.fr/traumatisme-vicariant-fatigue-de-compassion-et-epuisement-professionnel/

[8] Cf. par exemple : Mick Levy, IA Mania. Usages, éthique, stratégie : créez une valeur durable pour l’entreprise, Vuibert, 2026. Aujourd’hui, « 88 % des entreprises déclarent faire de l’iA » et « 6 % parviennent à en dégager une valeur mesurable ».

[9] (Ouvre une nouvelle fenêtre) https://www.lesechos.fr/idees-debats/cercle/productivite-lia-fait-gagner-du-temps-mais-du-temps-gagne-nest-pas-de-la-valeur-creee-2227087

[10] Cf. par exemple Didier Dubasque, Comprendre et maîtriser les excès de la société numérique, Presses de l’École des hautes études en santé publique, 2019.

[11] (Ouvre une nouvelle fenêtre) https://theconversation.com/lia-au-travail-un-gain-de-confort-qui-pourrait-vous-couter-cher-253811

[12] (Ouvre une nouvelle fenêtre) https://www.laboria.ai/zone/travail-social/

Partager cette page