La qualification des tickets ITSM : un sujet trivial aux conséquences majeures
La qualification des tickets est le goulot d'étranglement le plus sous-estimé de la chaîne de valeur IT. Recherche académique et données de terrain.
Derrière un acte apparemment banal (cocher une catégorie dans un formulaire), se joue la capacité d’une DSI à piloter ses services, à détecter ses faiblesses et à justifier ses investissements. La recherche académique et les données de terrain convergent : la qualification des tickets est le goulot d’étranglement le plus sous-estimé de la chaîne de valeur IT.
Qualifier un ticket : le premier acte de production de données
Lorsqu’un utilisateur signale un dysfonctionnement ou formule une demande auprès du service desk, le ticket créé dans l’outil ITSM doit être qualifié. Cette qualification recouvre plusieurs dimensions : le type (incident ou demande de service, distinction structurante dans ITIL depuis sa version 2), la catégorie (domaine fonctionnel ou technique concerné), la priorité (combinaison de l’urgence et de l’impact métier) et l’assignation (groupe résoluteur destinataire).
Chacune de ces dimensions s’appuie sur un référentiel structuré. La catégorisation, le plus souvent organisée en arborescence hiérarchique (deux à quatre niveaux dans les outils courants), constitue le socle sur lequel reposent toutes les opérations en aval : routage, mesure des engagements de service (SLA), analyses de tendances, alimentation du problem management. Qualifier un ticket, c’est donc produire la donnée élémentaire à partir de laquelle la DSI rend des comptes, identifie ses faiblesses et planifie ses évolutions.
Or, cette donnée élémentaire est massivement défaillante. Paramesh et Shreedhara (2019), dans une étude portant sur 8 468 tickets réels classés en 18 catégories, constatent que les données brutes de tickets d’entreprise contiennent « d’énormes quantités de texte non pertinent, des labels incorrects et des classes fortement déséquilibrées ». Schiavinato, Gasparetto, Marcuzzo et Albarelli (2023), dans la revue de littérature la plus complète à ce jour sur l’automatisation des tickets, publiée dans Expert Systems with Applications, mesurent des F1-scores plafonnant entre 38 % et 55 % sur des données réelles de tickets IT. Les auteurs attribuent ces résultats médiocres non pas aux algorithmes de classification mais au « fossé de domaine, au jargon spécialisé et au formatage inconsistant » des données de qualification elles-mêmes (Schiavinato et al., 2023). Le problème n’est pas que les machines ne savent pas classer. C’est que les humains qualifient mal, et que les taxonomies dans lesquelles ils qualifient sont mal conçues.
Chiffres clés
38 à 55 % : F1-scores obtenus par les meilleurs algorithmes de classification sur des données réelles de tickets IT, en raison de la mauvaise qualité des données sources (Schiavinato et al., Expert Systems with Applications, 2023).
41 % : proportion d’organisations ne suivant aucune métrique ITSM, selon une enquête internationale auprès de 203 responsables (Gacenga, Cater-Steel, Toleman & Tan, 2011).
Les erreurs de conception qui sabotent la qualification
La recherche en ontologies ITSM permet de comprendre pourquoi tant de taxonomies de tickets échouent. Valiente, García-Barriocanal et Sicilia (2012), dans un article publié dans Knowledge-Based Systems (plus de 60 citations), proposent l’ontologie Onto-ITIL, une formalisation en OWL des processus ITIL assortie de règles SWRL. Leur travail révèle que les spécifications ITIL, rédigées en langage naturel, souffrent d’ambiguïtés sémantiques qui se propagent directement dans la conception des arborescences de tickets. Lorsqu’un même concept (par exemple « service ») peut désigner à la fois une offre du catalogue, un composant technique et un groupe organisationnel, les catégories de tickets héritent de cette polysémie et deviennent incohérentes. Freitas, Correia et Brito e Abreu (2008) identifient des limitations sérieuses dans six dimensions de maturité des ontologies ITSM existantes, confirmant que le problème est structurel.
La confusion entre dimensions indépendantes
L’erreur la plus fondamentale consiste à mélanger dans un même arbre des dimensions qui devraient être orthogonales. Le service concerné (messagerie, ERP, réseau), le composant technique impacté (serveur Exchange, routeur, poste de travail) et le symptôme observé (lenteur, indisponibilité, erreur) sont trois axes d’analyse indépendants. Les croiser dans une seule arborescence produit une explosion combinatoire ingérable. L’article de 2025 publié dans le Data Science Journal sur l’intégration des ontologies DOLCE et ITSMO démontre formellement que les concepts ITIL de type événement (Incident, Problem, Change) relèvent d’une catégorie ontologique distincte (le Perdurant, c’est-à-dire ce qui se déroule dans le temps) des objets qu’ils affectent (les Endurants, c’est-à-dire les éléments de configuration). Mélanger ces deux registres dans une même arborescence de qualification revient à confondre le verbe et le nom dans une grammaire.
La catégorie fourre-tout et la prolifération incontrôlée
Ces deux anti-patterns, en apparence opposés, procèdent du même défaut de gouvernance. Des données d’Iseo Blue montrent que les organisations configurent en moyenne 205 types de tickets dans leur service desk mais n’en utilisent effectivement que 34, soit un ratio de 6 pour 1. Ce ratio traduit une accumulation historique jamais révisée : chaque besoin ponctuel a engendré une nouvelle catégorie sans que les catégories obsolètes ne soient jamais désactivées. Face à cette complexité, les agents se réfugient dans la catégorie « Autre », qui devient le réceptacle de tout ce que la taxonomie ne sait pas décrire. Markus (2001), dans un article fondamental du Journal of Management Information Systems (plus de 490 citations), identifie un problème structurel directement applicable : les producteurs de connaissances (ici, les agents de support) ont rarement les ressources et les incitations pour reformater correctement l’information qu’ils produisent. La qualification rigoureuse d’un ticket exige un effort cognitif (choisir la bonne catégorie parmi des dizaines de possibilités) qui n’est ni valorisé, ni mesuré, ni récompensé dans la plupart des organisations.
L’arbre conçu par des techniciens pour des techniciens
Valiente et al. (2012) soulignent que les processus ITSM « restent, dans l’état de l’art, spécifiés uniquement en langage naturel », sans formalisation computationnelle. En pratique, la traduction de ces spécifications en arborescences de tickets est confiée à des administrateurs techniques qui construisent des catégories calquées sur l’organigramme IT. Or, l’utilisateur qui signale un problème raisonne en termes de service rendu (« la messagerie ne fonctionne pas »), pas en termes d’infrastructure (« le serveur Exchange est tombé »). Cette dissonance entre le référentiel de l’utilisateur et celui du technicien engendre des erreurs de qualification systématiques. Müller et de Lichtenberg (2018), dans Information Systems Management, analysent comment la culture organisationnelle impacte l’implémentation ITIL et confirment que les pratiques culturelles déterminent l’adhérence des agents aux processus de catégorisation, bien au-delà des choix d’outillage.
Ce que coûte concrètement une mauvaise qualification
Les conséquences d’une qualification défaillante se déploient sur trois registres : le coût opérationnel direct (routage, escalades), la corruption des indicateurs de pilotage (SLA, reporting), et l’érosion de la capacité d’apprentissage organisationnel (problem management, détection de tendances).
Le ticket bouncing : des coûts mesurés et documentés
Lorsqu’un ticket est mal catégorisé, il est dirigé vers le mauvais groupe résoluteur, qui le réassigne, générant un phénomène de « ticket bouncing » aux conséquences financières précisément documentées.
Le benchmark MetricNet établit une échelle de coûts cumulative par niveau de support : 22 dollars au niveau 1, 84 dollars cumulés au niveau 2, 169 dollars au niveau 3, et 471 dollars lorsque le ticket atteint le support fournisseur. Un ticket mal routé qui traverse toute la chaîne coûte donc plus de vingt fois son prix de résolution optimal.
Agarwal, Sindhgatta et Sengupta (IBM Research), dans un article fondateur présenté à la conférence ACM SIGKDD (2012), formalisent ce problème : « un routage incorrect par un dispatcher humain entraîne des retards significatifs dégradant la satisfaction client, avec des implications financières adverses ». Le système SmartDispatch qu’ils proposent automatise le dispatch pour une large part des tickets et propose une shortlist de 3 à 5 groupes résoluteurs pour le reste. L’impact industriel de ces travaux est considérable : Mandal et al. (2019), dans un article présenté à AAAI, rapportent qu’un système de dispatch automatisé déployé en production chez IBM traite plus de 700 000 tickets avec environ 90 % d’accuracy, économisant plus de 50 000 heures-homme par an. Tamhane et al. (2015), toujours dans le cadre des travaux IBM présentés à KDD, démontrent par clustering multi-vues une réduction du temps de service de 35 à 44 % sur des données réelles de plusieurs Service Delivery Units.
Les données du rapport HappySignals (2025), construit sur 2,27 millions de réponses d’utilisateurs dans plus de 130 pays, complètent le tableau côté utilisateur : chaque réassignation fait perdre en moyenne 1 heure et 46 minutes de productivité perçue à l’utilisateur final. Au bout de quatre réassignations, ce sont plus de 8 heures de temps productif évaporées pour un seul ticket. À 60 dollars de l’heure, un ticket réassigné deux fois coûte environ 130 dollars en productivité perdue avant même d’avoir été résolu.
Des SLA vidés de leur sens
Baresi, Quattrocchi, Tamburri et Van Den Heuvel (2020), dans un article présenté à ICSOC (Springer LNCS), démontrent par machine learning que la qualité de la description d’un ticket conditionne directement la vitesse de résolution. Leur système ACQUA (Automated Quality Assessment) identifie les tickets dont la description est insuffisante, révélant que ces tickets génèrent « de multiples interactions longues et coûteuses » avant d’aboutir à une résolution. Le même mécanisme s’applique à la catégorisation : un ticket d’incident critique (P1) mal classé en P3 se voit appliquer un SLA de 72 heures au lieu de 4. Il « respecte » formellement son engagement de service alors que l’impact métier a été catastrophique. Les tableaux de bord affichent des taux de conformité SLA satisfaisants pendant que les utilisateurs subissent une dégradation réelle du service. Ce trompe-l’œil peut durer des mois.
Sharifi, Ayat, Sahibudin et Ibrahim (2008), dans une étude combinant ITIL, COBIT et ISO/IEC 20000 pour identifier les KPIs à forte valeur perçue du processus Incident Management, confirment que la qualité des données alimentant ces indicateurs (accuracy de catégorisation, logging de résolution, tracking SLA) constitue le fondement de toute mesure fiable. Sans données de qualification propres, les KPIs sont des artefacts sans signification.
Le problem management rendu structurellement impossible
C’est la conséquence la plus dommageable à long terme. Le problem management, discipline ITIL visant à identifier les causes racines des incidents récurrents, repose entièrement sur la capacité à agréger les données d’incidents par catégorie pour détecter des patterns. Si un même problème (par exemple une saturation mémoire sur un serveur applicatif) est qualifié tantôt comme « Application > ERP > Lenteur », tantôt comme « Serveur > Performance > Mémoire », tantôt comme « Autre », le signal se dilue dans le bruit et la récurrence devient invisible.
Pereira et Mira da Silva (IEEE, 2010, 2011), dans deux articles proposant un modèle de maturité pour l’implémentation d’ITIL v3, produisent un constat empirique éclairant. En évaluant la maturité de 13 assessments auprès de 5 organisations portugaises, ils observent que l’Incident Management présente typiquement le niveau de maturité le plus élevé, tandis que le Problem Management est systématiquement le processus le plus défaillant. Cette asymétrie n’est pas un hasard : elle révèle que la transition des données d’incidents vers l’identification de problèmes constitue le maillon faible de la chaîne ITSM. Or, cette transition dépend intégralement de la qualité et de la cohérence de la catégorisation des incidents en amont.
Lepmets, Cater-Steel, Gacenga et Ras (2012), dans une revue systématique de 134 articles publiée dans le Journal of Service Science Research, parviennent à la même conclusion par un autre chemin : la consistance de mesure et l’accuracy de catégorisation sont des « prérequis fondamentaux » de toute démarche de pilotage de la qualité de service IT. Sans ces prérequis, les indicateurs existent formellement mais ne décrivent pas la réalité.
Construire une qualification robuste : les principes issus de la recherche
La littérature académique et les retours d’expérience convergent vers un ensemble de principes de conception dont la cohérence mérite d’être soulignée.
Orthogonalité des axes de classification
L’enseignement principal des travaux en ontologies ITSM est que chaque axe de qualification doit mesurer une dimension indépendante. Valiente et al. (2012) formalisent cette exigence en structurant les relations entre services, incidents, problèmes et éléments de configuration de manière rigoureusement orthogonale dans leur ontologie OWL. En pratique, cela signifie que le service concerné, le composant technique et le symptôme doivent être des champs distincts dans l’outil, pas des niveaux successifs d’une même arborescence. BMC Helix applique ce principe avec quatre types de catégories distinctes (opérationnelle, produit, résolution, produit de résolution). Le modèle CSDM de ServiceNow découple Service et Composant selon la même logique.
Exhaustivité contrôlée et profondeur limitée
Le principe MECE (Mutuellement Exclusif, Collectivement Exhaustif) s’applique directement : chaque ticket doit pouvoir être classé dans une seule catégorie et l’ensemble des catégories doit couvrir tous les cas possibles. Le consensus professionnel converge vers un maximum de deux à trois niveaux hiérarchiques et moins de dix catégories au premier niveau. L’objectif réaliste est de couvrir 95 % des cas avec des catégories explicites, les 5 % restants étant gérés par un « Autre » instrumenté dont le taux d’utilisation est monitoré comme un indicateur de santé de la taxonomie.
Construction data-driven de la taxonomie
L’arbre de qualification doit être construit à partir de l’analyse des tickets réels existants, pas à partir de la théorie. Les travaux de Wahba, Madhavji et Steinbacher (IBM Canada Lab / University of Western Ontario, 2023) sont éclairants à cet égard. En comparant BERT, RoBERTa, DistilBERT et XLM avec un simple SVM linéaire sur des tickets IT réels, ils démontrent que SVM + TF-IDF atteint 92 % d’accuracy, rivalisant avec les modèles de langue pré-entraînés. L’explication est linguistique : le vocabulaire IT est largement monosémique (un terme technique a rarement plusieurs sens), réduisant l’avantage des embeddings contextualisés. Ce résultat valide doublement l’approche data-driven : d’une part, les tickets existants contiennent suffisamment de signal pour construire des catégories pertinentes par analyse statistique. D’autre part, des méthodes simples et interprétables suffisent à exploiter ce signal, rendant l’exercice accessible à des organisations de toutes tailles.
Revina, Buza et Meister (2020), dans IEEE Access, confirment ce point par un autre angle : des features linguistiques simples surpassent significativement TF-IDF tout en étant plus explicables, et des algorithmes élémentaires avec des features appropriées rivalisent avec le deep learning pour la classification de tickets ITIL de Change Management.
Alignement avec le catalogue de services
ITIL 4 positionne le Service Catalog comme le pivot de toutes les pratiques. Les noms de services proviennent du Portfolio Management et forment la base de la catégorisation. Cette cohérence catalogue-ticket-CMDB crée un circuit vertueux où chaque ticket enrichit la base de connaissances et alimente le problem management. El Yamami, Mansouri, Qbadou et Illoussamen (2019), dans une publication Springer sur la représentation ontologique du processus Service Level Management d’ITIL, soulignent que ce processus est paradoxalement le plus critique et le moins étudié dans la littérature. Leur métamodèle ontologique comble une lacune en formalisant les liens entre services, SLA et catégorisation des tickets.
La gouvernance comme condition de survie de la taxonomie
Une arborescence sans processus de maintenance se dégrade inévitablement. Kankanhalli, Lee et Lim (2011), dans Information & Management, apportent une perspective socio-technique sur la question : la réutilisation efficace des connaissances (dont fait partie la qualification rigoureuse) exige à la fois une bonne technologie (design du référentiel, ergonomie de saisie) et des facteurs de motivation individuelle. Le seul déploiement d’un outil ne suffit pas.
La gouvernance de l’arborescence suppose un propriétaire identifié (responsable du processus Incident Management ou responsable qualité), une fréquence de revue (trimestrielle est la norme recommandée), un changelog documenté et des métriques de surveillance : taux d’utilisation par catégorie, taux de re-catégorisation en cours de traitement, distribution des volumes, taux de tickets classés « Autre ». Ce dernier indicateur est le plus précieux : une hausse du taux de « Autre » signale que la taxonomie ne couvre plus le périmètre réel et doit être révisée.
Le coût d’une refonte complète (re-conception, re-formation des agents, perte de continuité dans le reporting) est considérablement supérieur à celui d’une maintenance régulière et incrémentale. MacLean et al. (2023), dans une méta-analyse de 126 études ITSM publiée dans Information & Management, catégorisent les pratiques de contrôle ITSM en cinq types et positionnent l’ITSM comme un Management Control System à part entière. Ce cadrage théorique est important : la maintenance de la taxonomie n’est pas une tâche d’administration technique mais un acte de contrôle de gestion, au même titre que la maintenance du plan comptable est une responsabilité de la direction financière.
La qualification comme fondation du pilotage stratégique
Ce que démontre la recherche sur la maturité ITSM
Marrone et Kolbe (2011), dans une enquête internationale publiée dans Business & Information Systems Engineering auprès de 491 entreprises, démontrent que la maturité ITIL croissante augmente les bénéfices réalisés et diminue la perception des défis. Cependant, les rendements sont décroissants aux niveaux les plus élevés, indiquant que les quick wins (dont la structuration de la qualification fait partie) constituent un facteur critique de succès. Marrone, Gacenga, Cater-Steel et Kolbe (2014), dans une étude cross-nationale publiée dans Communications of the AIS portant sur 623 réponses, confirment que la journalisation systématique des incidents et la qualité des données figurent parmi les bénéfices clés des implémentations matures. Potgieter, Botha et Lew (2005), dans une étude pionnière utilisant SERVQUAL, établissent que l’incident management, le problem management et le Service Desk « décident ultimement de la qualité des services IT délivrés ».
L’étude Forrester TEI (Total Economic Impact) commanditée par ServiceNow quantifie les gains atteignables : 229 % de ROI sur trois ans pour une organisation composite de 17 500 employés, avec 66 % de réduction d’effort sur la résolution des demandes et 50 % de réduction du temps de résolution des incidents critiques (Forrester, 2019). Ces gains reposent en grande partie sur un meilleur routage initial des tickets, rendu possible par une qualification structurée.
Parler le langage de la direction générale
Gacenga et al. (2011) révèlent que 41 % des organisations ne suivent aucune métrique ITSM. Pour celles qui en suivent, l’étude montre une forte corrélation entre l’usage d’un framework de performance corporate (type Balanced Scorecard) et la clarté des métriques ITSM. Ce résultat est structurant : la qualification des tickets n’est pas un sujet technique à traiter entre techniciens. C’est le point d’ancrage qui permet de rattacher les données opérationnelles de la DSI aux indicateurs stratégiques de l’organisation.
Des données bien qualifiées permettent de répondre aux questions que pose la direction générale : quels services concentrent les incidents les plus coûteux ? Quelle est l’évolution de la charge par domaine fonctionnel ? Où investir en automatisation, en formation ou en renforcement d’effectif ? Sans qualification fiable, ces questions restent sans réponse et la DSI se retrouve en position de faiblesse dans les arbitrages budgétaires.
L’IA : un accélérateur puissant, pas un substitut
L’intelligence artificielle appliquée à la classification automatique des tickets fait l’objet d’une littérature académique abondante. Les résultats sont parfois contre-intuitifs.
Wahba et al. (2023) démontrent que les modèles de langue pré-entraînés (BERT, RoBERTa) n’apportent pas de gain significatif par rapport à SVM + TF-IDF sur du texte IT spécialisé. Mohanna et Ait-Bachir (EasyVista Global AI Lab, 2025), sur 8 968 tickets répartis en 123 catégories, mesurent que les LLMs sont 590 fois plus lents que les méthodes traditionnelles en production, et que la Logistic Regression simple rivalise avec les architectures profondes sur des datasets inférieurs à 10 000 instances. Silva, Pereira et Ribeiro (2018), dans un article IEEE, observent un résultat surprenant : une description courte d’incident performe mieux qu’une description complète pour la classification automatique, le vocabulaire ITSM spécifique rendant le pré-traitement superflu.
L’apport des modèles Transformer existe mais se situe ailleurs. Zeng et al. (2017), dans IEEE Transactions on Network and Service Management, montrent que l’incorporation de connaissance experte du domaine dans un algorithme de classification hiérarchique multi-labels (GLabel) améliore significativement la performance par rapport aux approches purement data-driven. Le Ticket-BERT de Microsoft Research (2023) démontre l’intérêt de l’active learning pour l’adaptation continue au domaine.
Le constat converge : l’IA de classification amplifie la qualité de la taxonomie sous-jacente. Un modèle entraîné sur des données historiquement mal catégorisées reproduira et amplifiera les erreurs. Le déséquilibre de classes, identifié comme défi universel par Revina et al. (2020), Wahba et al. (2023) et Zicari et al. (2022), crée des biais systématiques que seule une taxonomie bien conçue peut atténuer.
Le contexte français
L’écosystème ITSM français présente des spécificités documentées. GLPI, solution open source née en France et éditée par Teclib’ depuis 2015, reste très répandue dans le secteur public et les PME francophones. iTop (Combodo) adopte une approche centrée sur le catalogue de services. Les retours d’expérience des JRES (Journées Réseaux de l’Enseignement et de la Recherche) documentent des déploiements ITIL dans la recherche publique : Séméria et al. (2015) décrivent la mise en place du centre de services d’Inria pour 4 400 personnes sur 8 centres de recherche (HAL : hal-04805431), tandis que Libes et Blanpain (2013) tirent un bilan de deux ans d’ITIL à l’OSU Institut Pythéas d’Aix-Marseille Université pour 1 200 utilisateurs sur 9 sites (HAL : hal-04805101). Les deux retours d’expérience convergent : la difficulté principale ne réside pas dans l’outil mais dans la structuration des processus et la qualité de la catégorisation. À noter que des modèles de langue français (CamemBERT, FlauBERT) atteignent des performances de classification comparables à l’anglais (PFIA 2021, HAL : hal-03276129), rendant les approches d’auto-classification transposables au contexte francophone.
Conclusion : piloter à l’aveugle ou investir dans ses fondations
La qualification des tickets n’est pas une contrainte administrative. C’est l’infrastructure de la donnée IT. La négliger, c’est accepter de piloter à l’aveugle : des SLA formellement respectés mais opérationnellement creux, un problem management réduit à l’impuissance, des arbitrages budgétaires fondés sur des impressions plutôt que sur des données, et une crédibilité de la DSI qui s’érode inexorablement auprès des métiers.
La bonne nouvelle est que la correction de ce défaut ne relève pas de la technologie. Structurer une arborescence orthogonale, limiter la profondeur à deux ou trois niveaux, construire les catégories à partir des données réelles, instaurer une gouvernance trimestrielle : tout cela ne demande pas un budget technologique. C’est un travail de conception intellectuelle, de gouvernance organisationnelle et de discipline quotidienne.
Comme le montrent les travaux de Marrone et Kolbe (2011), les quick wins ITIL sont le facteur critique de succès. La qualification des tickets en est probablement le plus accessible et le plus rentable.
Sources
Publications académiques (revues à comité de lecture et conférences)
Agarwal, S., Sindhgatta, R. & Sengupta, B. (2012). SmartDispatch: Enabling Efficient Ticket Dispatch in an IT Service Environment. Proceedings of the 18th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, pp. 1393-1401. DOI : 10.1145/2339530.2339744
Baresi, L., Quattrocchi, G., Tamburri, D.A. & Van Den Heuvel, W.J. (2020). Automated Quality Assessment of Incident Tickets for Smart Service Continuity. ICSOC 2020, Springer LNCS 12571, pp. 492-499. DOI : 10.1007/978-3-030-65310-1_35
El Yamami, A., Mansouri, K., Qbadou, M. & Illoussamen, E. (2019). An Ontological Representation of ITIL Framework Service Level Management Process. Smart Data and Computational Intelligence (AIT2S 2018), Springer LNNS Vol. 66. DOI : 10.1007/978-3-030-11914-0_9
Freitas, J.M., Correia, A. & Brito e Abreu, F. (2008). An Ontology for IT Services. XIII JISBD, Gijón, Spain, pp. 367-372.
Gacenga, F., Cater-Steel, A., Toleman, M. & Tan, W.G. (2011). Measuring the Performance of Service Orientated IT Management. Sprouts: Working Papers on Information Systems, Vol. 11(162).
Kankanhalli, A., Lee, O.K. & Lim, K.H. (2011). Knowledge reuse through electronic repositories: A study in the context of customer service support. Information & Management (Elsevier). DOI : 10.1016/j.im.2011.02.002
Lepmets, M., Cater-Steel, A., Gacenga, F. & Ras, E. (2012). Extending the IT Service Quality Measurement Framework through a Systematic Literature Review. Journal of Service Science Research (Springer), Vol. 4(1), pp. 7-47. DOI : 10.1007/s12927-012-0001-6
MacLean, D. et al. (2023). Implementation and Impacts of IT Service Management in the IT Function. Information & Management (Elsevier). DOI : 10.1016/j.im.2023.103762
Mandal, A., Malhotra, N., Agarwal, S., Ray, A. & Sridhara, G. (2019). Automated Dispatch of Helpdesk Email Tickets: Pushing the Limits with AI. AAAI-19, pp. 9381-9388. DOI : 10.1609/aaai.v33i01.33019381
Markus, M.L. (2001). Toward a Theory of Knowledge Reuse: Types of Knowledge Reuse Situations and Factors in Reuse Success. Journal of Management Information Systems, Vol. 18(1), pp. 57-93. DOI : 10.1080/07421222.2001.11045671
Marrone, M. & Kolbe, L.M. (2011). Impact of IT Service Management Frameworks on the IT Organization. Business & Information Systems Engineering, Vol. 3(1), pp. 5-18. DOI : 10.1007/s12599-010-0141-5
Marrone, M., Gacenga, F., Cater-Steel, A. & Kolbe, L. (2014). IT Service Management: A Cross-national Study of ITIL Adoption. Communications of the AIS, Vol. 34(1), pp. 865-892. DOI : 10.17705/1cais.03449
Mohanna, H. & Ait-Bachir, A. (2025). A Centroid Based Framework for Text Classification in ITSM Environments. arXiv:2511.20667. EasyVista Global AI Lab.
Müller, S.D. & de Lichtenberg, C.G. (2018). The Culture of ITIL: Values and Implementation Challenges. Information Systems Management, Vol. 35(1), pp. 49-61. DOI : 10.1080/10580530.2017.1416946
Paramesh, S.P. & Shreedhara, K.S. (2019). IT Help Desk Incident Classification Using Classifier Ensembles. ICTACT Journal on Soft Computing, Vol. 9(4), pp. 1980-1987.
Pereira, R. & Mira da Silva, M. (2010). A Maturity Model for Implementing ITIL v3. 6th World Congress on Services, IEEE, pp. 399-406. DOI : 10.1109/SERVICES.2010.80
Pereira, R. & Mira da Silva, M. (2011). A Maturity Model for Implementing ITIL V3 in Practice. IEEE 15th EDOCW, pp. 259-268.
Potgieter, B.C., Botha, J.H. & Lew, C. (2005). Evidence that Use of the ITIL Framework is Effective. 18th Annual Conference of the National Advisory Committee on Computing Qualifications, Tauranga, NZ.
Revina, A., Buza, K. & Meister, V.G. (2020). IT Ticket Classification: The Simpler, the Better. IEEE Access, Vol. 8, pp. 193380-193395. DOI : 10.1109/ACCESS.2020.3032840
Schiavinato, M., Gasparetto, A., Marcuzzo, M. & Albarelli, A. (2023). Ticket Automation: An Insight into Current Research with Applications to Multi-Level Classification Scenarios. Expert Systems with Applications (Elsevier), Vol. 225. DOI : 10.1016/j.eswa.2023.119984
Sharifi, M., Ayat, M., Sahibudin, S. & Ibrahim, S. (2008). An Empirical Study Identifying High Perceived Value KPIs of Incident Management Process. International Journal of Simulation: Systems, Science and Technology, Vol. 9(4), pp. 16-24.
Silva, S., Pereira, R. & Ribeiro, R. (2018). Machine Learning in Incident Categorization Automation. 13th Iberian Conference on Information Systems and Technologies (CISTI), IEEE. DOI : 10.23919/CISTI.2018.8399244
Tamhane, A. et al. (2015). Multi-View Incident Ticket Clustering for Optimal Ticket Dispatching. Proceedings of the 21st ACM SIGKDD, pp. 1197-1206. DOI : 10.1145/2783258.2788607
Valiente, M.C., García-Barriocanal, E. & Sicilia, M.A. (2012). Applying an Ontology Approach to IT Service Management for Business-IT Integration. Knowledge-Based Systems, Vol. 28, pp. 76-87. DOI : 10.1016/j.knosys.2011.12.003
Wahba, Y., Madhavji, N.H. & Steinbacher, J. (2023). Attention is Not Always What You Need: Towards Efficient Classification of Domain-Specific Text. IBM Canada Lab / University of Western Ontario.
Zeng, C., Zhou, W., Li, T., Shwartz, L. & Grabarnik, G.Y. (2017). Knowledge Guided Hierarchical Multi-Label Classification over Ticket Data. IEEE Transactions on Network and Service Management, Vol. 14(2), pp. 246-260. DOI : 10.1109/TNSM.2017.2668482
Zicari, P., Folino, F., Guarascio, M. & Pontieri, L. (2022). Combining Deep Ensemble Learning and Explanation for Intelligent Ticket Management. Expert Systems with Applications (Elsevier).
Data Science Journal (CODATA) (2025). Automating Ontology Mapping in IT Service Management: A DOLCE and ITSMO Integration. DOI : 10.5334/dsj-2025-023
Publications francophones
Libes, M. & Blanpain, C. (2013). ITIL dans un OSU multi-sites : un bilan après deux ans de mise en œuvre. JRES 2013. HAL : hal-04805101.
Séméria, J.D., Buffenoir, D., Verplanken, E. et al. (2015). Le Centre de Services d’Inria et ses outils. JRES 2015. HAL : hal-04805431.
Sources professionnelles et benchmarks
Forrester Research (2019). The Total Economic Impact of ServiceNow IT Service Management. Étude TEI.
HappySignals (2025). Global IT Experience Benchmark Report. 2,27 millions de réponses, 130+ pays.
MetricNet. Service Desk Benchmarking Data. Coût par niveau de support.