KNOWLEDGE MANAGEMENT

Infobésité à l’ère de l’IA : le nouveau défi de la gestion des connaissances

L’explosion du numérique nous a plongés dans une surabondance d’informations sans précédent. Chaque jour, nous sommes bombardés de données : actualités en continu, flux de réseaux sociaux, rapports professionnels, e-mails par dizaines… Ce phénomène d’infobésité, ou surcharge informationnelle, désigne la situation où le volume d’informations accessible excède largement notre capacité humaine de traitement. À l’ère de l’intelligence artificielle (IA), cette infobésité atteint de nouveaux sommets : les IA génératives peuvent produire du contenu en masse, amplifiant le flot informationnel tout en promettant paradoxalement de nous aider à y voir plus clair. Quels sont les enjeux et les risques liés à cette infobésité alimentée par l’IA, notamment en matière de Knowledge Management (gestion des connaissances) ? Et surtout, quelles solutions émergent, techniques, humaines ou hybrides, pour ne pas sombrer sous le tsunami informationnel ?

Un monde submergé par l’information

Le sentiment d’être submergé par l’information au travail devient courant à l’ère du tout-numérique.
Il ne s’agit pas d’une illusion : nous produisons et consommons aujourd’hui des quantités d’information inimaginables il y a encore quelques décennies. En 2020, on estimait par exemple que plus de 100 milliards de messages étaient échangés chaque jour sur WhatsApp, et près de 350 milliards d’e-mails étaient envoyés quotidiennement. Les salariés, eux, gèrent en moyenne 144 e-mails par semaine (plus de 300 pour les cadres dirigeants), d’après l’Observatoire de l’infobésité en 2024. Résultat, plus d’un Français sur deux (53 %) déclare souffrir de « fatigue informationnelle ». Cette surcharge cognitive se manifeste par du stress, une difficulté accrue à discerner l’information pertinente, et même un risque de paralysie décisionnelle face à la trop grande quantité de choix ou de données.

Les organisations ne sont pas épargnées. Le knowledge management en entreprise est mis à rude épreuve par cette inflation informationnelle. De nombreuses études convergent pour montrer que les employés perdent un temps précieux à chercher l’information dont ils ont besoin. Une enquête de 2025 révèle ainsi que les travailleurs du savoir gaspillent 25 % de leur semaine de travail rien qu’à rechercher des informations disséminées dans leurs systèmes. Ce “cache-cache numérique” pèse sur la productivité et la collaboration : 64 % des employés jugent leur charge informationnelle plus écrasante que jamais. De même, une autre étude estime qu’un employé passe en moyenne 4 à 6 heures par semaine à fouiller dans divers outils pour retrouver des documents ou données, soit l’équivalent de six semaines perdues par an. L’infobésité freine ainsi la réactivité, alourdit la prise de décision et peut conduire à des doublons de travail ou des erreurs, faute d’avoir trouvé la bonne information à temps.

L’IA, facteur aggravant… et remède potentiel ?

L’intelligence artificielle joue un rôle ambivalent face à l’infobésité. D’un côté, les IA, notamment les modèles génératifs récents, ont démultiplié les capacités de production de connaissances et de contenus. Des textes, images, vidéos ou rapports peuvent désormais être générés en quelques secondes là où un humain aurait mis des heures, voire des jours. Cette automatisation de la production informationnelle a engendré une véritable explosion quantitative. Des experts alertent que les LLM (modèles de langage comme ChatGPT) sont en train de flooder Internet de contenus en apparence humains, souvent redondants ou peu pertinents. Il existe déjà plus de 1 200 sites web dans le monde qui publient quasi exclusivement des articles rédigés par des IA, avec peu ou pas de relecture humaine. La quête du volume et du référencement mène certaines plateformes à publier à un rythme industriel : l’une d’elles a diffusé en moyenne 1 200 articles par jour générés par IA. Cette prolifération exponentielle pose un énorme défi de qualité : lorsqu’une large part du contenu en ligne est produite par des machines, comment distinguer le vrai du faux, l’utile du superflu ? D’autant que ces textes générés, s’ils sont peu supervisés, peuvent véhiculer des informations inexactes voire de fausses nouvelles, diluant encore un peu plus la fiabilité globale des connaissances disponibles.

Face à cet afflux, on pourrait craindre un effet de submersion : noyés dans un océan de données, les individus risquent de se raccrocher aux premières informations venues, au risque d’être manipulés. Des analystes soulignent par exemple qu’en contexte démocratique, l’usage massif des IA pour inonder l’espace public d’informations (exactes ou non) peut être exploité pour noyer les faits avérés dans un bruit cacophonique, compliquant la capacité du public à se forger une opinion éclairée. Paradoxalement, l’IA pourrait ainsi faciliter des manœuvres de désinformation plus subtiles, profitant de la surcharge pour cacher des contre-vérités au vu et au su de tous.

Cependant, l’IA n’est pas qu’un fauteur de troubles dans ce tableau. Elle fait aussi partie de la boîte à outils pour gérer l’infobésité, à condition d’être utilisée de manière réfléchie. Les mêmes modèles capables de produire des textes à la chaîne peuvent aussi servir à analyser, filtrer et résumer l’information. Par exemple, les grands modèles de langage excellent dans la synthèse de documents : on peut leur faire digérer un rapport de 50 pages et demander un résumé des points clés, ce qui fait gagner un temps fou aux lecteurs. Mieux, de nouveaux systèmes cherchent à utiliser l’IA pour agréger des informations provenant de multiples sources en une réponse unifiée et cohérente. Les géants du web intègrent ainsi des IA conversationnelles à leurs moteurs de recherche : l’objectif est qu’en tapant une requête, l’usager obtienne non plus des dizaines de liens à éplucher, mais une réponse de synthèse qui compile le contenu pertinent de différents documents. Fini le zapping entre onglets : l’IA ferait le tri et la mise en forme initiale de l’information à notre place, épargnant à l’utilisateur une part de l’effort de filtrage.

Cette promesse est alléchante, mais mérite d’être nuancée. D’une part, la fiabilité des résumés générés dépend de la qualité et de la véracité des sources ingérées par l’IA. Si le corpus de base contient des erreurs ou des biais, la synthèse produite les reflétera inévitablement. Or le web d’aujourd’hui pullule d’informations de qualité inégale. D’autre part, déléguer aux IA le soin de sélectionner l’essentiel peut nous rendre trop passifs. Pourquoi passer du temps à croiser les sources et analyser soi-même, si un agent intelligent peut tout mâcher ? Certains experts mettent en garde contre un excès de confiance aveugle dans ces outils : à force de consommer des réponses toutes faites, on risque d’aplatir notre esprit critique et de laisser passer des erreurs grossières qui auraient été évidentes en consultant directement les documents sources. Il y a aussi un enjeu de conservation du savoir tacite : dans l’entreprise par exemple, si les employés se fient systématiquement aux solutions fournies par l’IA, qu’advient-il des connaissances informelles, de l’expertise métier non écrite ? Des chercheurs en gestion des connaissances soulèvent la nécessité de maintenir un équilibre entre le savoir humain tacite et la connaissance explicite produite ou délivrée par l’IA.

En somme, l’IA agit comme un accélérateur de l’infobésité autant qu’un potentiel amortisseur. Tout l’enjeu est de réussir à canaliser sa puissance pour qu’elle nous aide à mieux gérer l’information, sans pour autant aggraver le problème par des effets pervers. Cela passe par une combinaison de solutions technologiques, de pratiques humaines et de gouvernance appropriée. Tour d’horizon des approches émergentes pour combattre l’infobésité.

Filtrage algorithmique : tri automatique de l’information

Depuis des années déjà, nous nous appuyons sur des algorithmes pour tamiser l’avalanche d’information et n’en retenir que les pépites pertinentes. Moteurs de recherche, fils d’actualité des réseaux sociaux, systèmes de recommandation… Tous appliquent du filtrage algorithmique pour sélectionner les contenus susceptibles d’intéresser l’utilisateur. Sans ces outils, impossible de naviguer l’immense toile du web ou la masse de publications quotidiennes : l’algorithme de Google, par exemple, évalue et classe des milliards de pages pour ne vous en présenter qu’une dizaine jugées pertinentes pour votre requête. De même, sur Facebook ou Twitter, un tri s’opère pour faire remonter dans votre fil les posts « susceptibles de vous plaire » parmi des milliers. Ce filtrage automatique est un remède nécessaire à l’infobésité : il permet de réduire le bruit et d’éviter à l’utilisateur de se noyer dans des informations non souhaitées.

Néanmoins, cette solution n’est pas sans créer d’autres problèmes. D’abord, l’algorithme peut se tromper ou être biaisé : les critères de pertinence ou de popularité ne coïncident pas toujours avec la qualité objective de l’information. Ensuite, en personnalisant à outrance les flux pour chacun, on tombe dans le phénomène bien connu des bulles de filtres. À force de ne voir que des contenus alignés avec nos habitudes ou nos opinions, on s’expose au risque d’enfermement informationnel. Comme l’explique Eli Pariser (auteur du concept de filter bubble), la personnalisation algorithmique peut finir par isoler intellectuellement les internautes et rétrécir la diversité des informations auxquelles ils sont exposés. Par exemple, un utilisateur passionné par un sujet verra surtout passer des nouvelles liées à ce sujet, aux dépens d’autres thématiques ; s’il a des préférences politiques marquées, les algorithmes pourront lui présenter principalement des contenus confortant ses vues, accentuant la polarisation des opinions. Enfin, les plateformes calibrent souvent leurs algorithmes pour maximiser l’engagement (clics, vues, partages), ce qui peut favoriser les contenus sensationnalistes ou polémiques au détriment des analyses de fond. Le filtrage algorithmique, s’il atténue l’infobésité quantitativement, peut donc dégrader la qualité informationnelle du régime médiatique de chacun.

La clé réside dans l’ajustement de ces algorithmes et dans la transparence de leur fonctionnement. Des initiatives réglementaires et techniques tentent d’atténuer les biais et de redonner à l’utilisateur du contrôle (par exemple en permettant de choisir un fil non personnalisé, ou en diversifiant les sources mises en avant). Quoi qu’il en soit, le filtrage algorithmique restera un pilier de la gestion de l’information à grande échelle : impossible de revenir en arrière sur l’utilité des moteurs de recherche ou des filtres antispam dans nos boîtes mail. L’enjeu est d’en faire des alliés fiables, en combinant leur puissance de traitement à d’autres garde-fous.

Curation humaine : l’expertise au secours de la qualité

Face à l’infobésité, une autre tendance forte est le retour de la curation humaine. Cela peut sembler paradoxal de vanter l’intervention humaine à l’époque des algorithmes tout-puissants, mais de plus en plus de voix prônent une sélection manuelle et experte des informations pour retrouver de la valeur ajoutée qualitative. Concrètement, la curation humaine se manifeste de multiples façons : des journalistes qui proposent des newsletters triant l’actualité essentielle du jour, des blogueurs ou experts qui compilent les meilleures ressources sur un sujet, des documentalistes ou knowledge managers en entreprise qui organisent et mettent à jour une base de connaissances interne filtrée, etc. L’idée centrale : réintroduire du discernement humain pour opposer au quantitatif du web un choix éditorial qualitatif.

La force de la curation humaine, c’est justement l’intelligence contextuelle, le regard critique que l’on ne retrouve pas (encore) dans les machines. Un être humain peut évaluer la fiabilité d’une source, la pertinence d’une information dans un contexte donné, la nouveauté d’une donnée par rapport à l’existant, ou encore apporter une analyse nuancée là où un algorithme se contenterait d’une popularité brute. Par exemple, un responsable veille stratégique en entreprise pourra extraire chaque semaine trois rapports ou articles vraiment marquants pour son secteur et les résumer à la direction, plutôt que de laisser un agrégateur automatique inonder de dizaines de liens non hiérarchisés. De même, dans le milieu éducatif, face à la profusion de contenus en ligne, les enseignants jouent un rôle de curateurs en orientant les étudiants vers des sources fiables et en leur apprenant à questionner la qualité de l’information.

Cependant, la curation manuelle a ses limites évidentes : elle ne passe pas à l’échelle du volume global de données disponibles. Un humain, fût-il très érudit, ne peut traiter qu’une fraction infime du flux mondial d’informations. De plus, cette approche peut être chronophage et subjective. Elle doit donc être ciblée là où elle apporte le plus de valeur (par exemple pour sélectionner les informations critiques dans un domaine pointu, ou pour valider des contenus à fort enjeu). On voit aussi ses limites lorsque le volume devient vraiment ingérable : les modérateurs bénévoles d’une plateforme comme Stack Overflow ont, par exemple, été débordés par l’afflux de réponses générées automatiquement par ChatGPT, au point que le site a dû purement et simplement interdire les contributions issues d’IA pour préserver la qualité des échanges. Cette anecdote illustre que face à un raz-de-marée quantitatif, la seule intervention humaine peut se retrouver submergée. Pour autant, loin de disparaître, la curation humaine pourrait retrouver une place centrale : dans un monde saturé de data, le branding personnel des experts ou des curateurs de confiance devient un repère. On apprend à suivre tel journaliste pour son filtre sur l’actualité, tel influenceur pour ses recommandations triées, ou tel collègue pour son expertise. En somme, l’humain redonne du sens là où la machine ne voit que des données.

Approches hybrides : combiner intelligence humaine et artificielle

Plutôt que d’opposer algorithmes et experts humains, de plus en plus de solutions misent sur leur complémentarité pour vaincre l’infobésité. Ces approches hybrides reconnaissent que l’automatisation est indispensable pour traiter le volume, mais que l’humain reste indispensable pour garantir la pertinence fine et l’éthique du tri. Concrètement, cela peut prendre la forme de workflow mixtes : une IA filtre en première passe les informations selon certains critères, puis un humain contrôle ou affine le résultat. Cette synergie homme-machine commence d’ailleurs à s’implanter dans des communs numériques majeurs.

Un exemple parlant est celui de Wikipédia. L’encyclopédie en ligne repose historiquement sur ses contributeurs et modérateurs bénévoles pour contrôler la qualité des articles. Mais le volume de modifications et de nouvelles pages à surveiller devient colossal. La Wikimedia Foundation a donc récemment annoncé l’intégration de l’IA pour assister ses troupes. L’idée n’est pas de laisser un robot rédiger des articles à la place des humains, mais de déléguer à l’IA les tâches fastidieuses (par exemple la correction de format, la détection de vandalismes évidents, la suggestion de sources) afin de réduire la charge de travail des bénévoles et de les laisser se concentrer sur le contrôle de qualité de fond. En adoptant ce type d’outil, Wikipédia cherche à rester un commun de la connaissance de référence à l’ère de l’IA : conserver l’agence humaine sur le contenu, tout en étant capable d’absorber la croissance du volume grâce à l’automatisation. D’autres communautés ou services en ligne empruntent une voie similaire, en déployant par exemple des systèmes d’IA modératrice couplés à des équipes humaines. Les réseaux sociaux comme Facebook ou YouTube utilisent déjà depuis des années des algorithmes de détection (de spams, de propos haineux, de désinformation) puis confient aux modérateurs humains les cas litigieux ou complexes. Ce duo permet d’aller plus vite tout en limitant les erreurs : l’IA repère en une fraction de seconde ce qu’un humain mettrait trop de temps à éplucher, et l’humain apporte un jugement éclairé là où la machine a un doute. Même si aucun filtrage n’est parfait, il est illusoire d’espérer une modération « zéro défaut » sur des volumes massifs de données, l’approche hybride est sans doute la plus réaliste pour endiguer le flot sans renoncer à l’exigence qualitative.

En entreprise, cette collaboration homme-IA se décline aussi. Par exemple, certaines plateformes de veille stratégique ou d’intelligence économique combinent des algorithmes de crawling (qui agrègent automatiquement des milliers de sources) et une curation experte derrière (des analystes humains validant et commentant une sélection de ces informations pour la direction). De même, dans le support client ou les bases de connaissances internes, on voit émerger des assistants virtuels qui proposent des réponses en s’appuyant sur la documentation, mais avec un système de relecture ou de confirmation par un humain pour les cas sensibles. L’hybride permet de scaler le traitement de l’information tout en maintenant une certaine gouvernance humaine sur les contenus critiques.

Organisation et structuration des connaissances : taxonomies et co

Une autre arme, plus discrète mais redoutablement efficace contre l’infobésité, est l’organisation structurée des connaissances. Derrière ce terme se cachent des pratiques comme la création de taxonomies, de thésaurus, d’ontologies, bref de systèmes de classement et de catégorisation maîtrisés de l’information. L’idée est simple : au lieu de laisser des masses de documents ou de données en vrac, on les organise selon une structure logique (thèmes, tags, arborescences) pour en faciliter la recherche et le filtrage. Cela peut sembler évident, mais à l’heure où l’information coule à flots, investir dans une bonne architecture de l’information est un moyen puissant de lutter contre le chaos.

Les taxonomies d’entreprise, par exemple, reviennent en force. Longtemps cantonnées aux bibliothèques et centres de documentation, elles se généralisent dans tous les secteurs pour maîtriser le contenu numérique. Il s’agit d’élaborer un vocabulaire contrôlé : des mots-clés normalisés, des catégories et sous-catégories définies, qui seront associées systématiquement aux ressources (documents, pages web, fichiers, etc.). Bien utilisée, une taxonomie permet à n’importe quel employé de retrouver facilement une information dans l’intranet ou la base de connaissances : on navigue par thèmes, on filtre par type de contenu, on bénéficie de liens entre synonymes ou sujets connexes… Un contenu bien tagué et classé, c’est un contenu qui ressort au bon moment plutôt que de se perdre dans la masse. Les experts du domaine soulignent que cela accroît fortement la findability (facilité à trouver l’info) et donc l’efficacité de l’organisation.

À l’ère de l’IA, la structuration des connaissances prend une dimension supplémentaire avec les knowledge graphs et autres bases de connaissances sémantiques. Ces systèmes relient les informations entre elles via des relations logiques (qui est auteur de quoi, tel client appartient à quelle entreprise, etc.), ce qui permet à des algorithmes d’inférence de trouver plus pertinent. Par exemple, un agent intelligent pourra parcourir un graphe de connaissances d’entreprise pour répondre à une question précise en suivant les liens sémantiques plutôt qu’en cherchant de simples mots-clés. On voit donc que la structuration (taxonomies, métadonnées, graphes) et l’IA se renforcent mutuellement : une base bien organisée sert de terrain de jeu propre à l’IA, et l’IA peut en retour aider à enrichir ou à naviguer dans cette structure.

En pratique, investir dans un bon schéma de classement, dans la formation des utilisateurs à taguer correctement les contenus, et dans des outils de recherche avancée, est une stratégie payante contre l’infobésité. Cela évite le syndrome du “on l’a quelque part mais on ne sait plus où”. Bien sûr, cela demande un effort initial et une gouvernance (tenir la taxonomie à jour, ne pas laisser proliférer des contenus non classés). Mais comparé aux heures gaspillées à chercher l’info ou à réinventer la roue, le jeu en vaut la chandelle. Dans un monde où l’information double à un rythme effréné, structurer, catégoriser, contextualiser sont des maîtres-mots pour transformer une jungle en jardin exploitable.

Tri et priorisation : vers une hygiène informationnelle

Au-delà des outils et méthodes spécifiques, lutter contre l’infobésité implique aussi d’adopter une culture du tri et de la priorisation, tant au niveau individuel que collectif. On parle parfois d’hygiène informationnelle par analogie à l’hygiène de vie : il s’agit de développer de bonnes pratiques pour consommer l’information de façon équilibrée. Par exemple, au niveau individuel, apprendre à débrancher les flux non essentiels, à configurer finement ses notifications, à hiérarchiser ses sources (privilégier quelques sources fiables triées sur le volet plutôt que de scroller sans fin des fils sans discernement). Des techniques issues du time management peuvent aider, comme réserver des plages dédiées à la consultation des mails plutôt que d’être interrompu en continu, ou comme pratiquer la lecture en diagonale et la curation personnelle (sauvegarder les articles importants pour plus tard au lieu de tout lire immédiatement). Autant de manières de ne pas subir passivement l’infobésité ambiante.

Au niveau organisationnel, instaurer un cadre de knowledge management clair est crucial. Cela passe par exemple par la nomination de responsables de la veille et de la gestion de l’information, la mise en place de politiques de conservation (et de suppression) des informations obsolètes, la formation des salariés à l’usage des outils de recherche et de curation interne, ou encore la promotion d’une culture du partage structuré (favoriser les synthèses concises, les comptes rendus standardisés, etc., plutôt que des flots de données brutes). Certaines entreprises misent aussi sur le concept de “digital detox” collectif : réunions sans laptops, créneaux sans emails, etc., pour lutter contre la surcharge.

Enfin, la littératie numérique reste l’un des meilleurs remèdes de fond. Savoir évaluer la qualité d’une information, recouper les sources, identifier un contenu sponsorisé ou manipulé, maîtriser les outils de filtrage… Ces compétences deviennent indispensables dès l’école pour former des esprits capables de naviguer dans l’océan d’informations sans s’y noyer. Former les citoyens (jeunes et moins jeunes) à être sélectifs, critiques, et outillés face à l’infobésité est une mission d’éducation majeure à l’ère de l’IA. Car si la technologie nous apporte chaque jour de nouveaux leviers pour filtrer l’information, rien ne remplacera la sagesse humaine dans l’art d’en faire bon usage.

En conclusion, l’infobésité à l’ère de l’intelligence artificielle est un défi de taille, mais pas une fatalité. En combinant le meilleur des algorithmes et de l’intelligence humaine, en repensant nos outils de gestion des connaissances et en adoptant des pratiques d’information plus saines, il est possible de reprendre le contrôle. La connaissance est un pouvoir, à condition de savoir l’extraire du déluge informationnel. À nous de bâtir les digues, technologiques, organisationnelles et culturelles, pour que l’essor de l’IA rime avec une information mieux maîtrisée, au service de la décision éclairée et du bien commun, plutôt qu’avec un brouhaha stérile.

Sources

  • Archimag – « Infobésité : définition, actualité et enjeux » – Définition de l’infobésité et chiffres sur la surcharge informationnelle (2024)
  • ITPro (étude Atlassian) – “Workers are wasting hundreds of hours a year sourcing the information they need” – Temps perdu à chercher l’info et sentiment de surcharge (mars 2025)
  • Reworked – “Digital Literacy Is the Antidote to Poor Information Quality” – Étude HBR sur le nombre de changements d’applications par jour et impact sur l’overload (2022)
  • Diplomatic Courier – “Engineering Generative AI to Ease Information Overload” – LLM et risque de flood du contenu en ligne (janv. 2024)
  • NewsGuard – “Tracking AI-generated Misinformation” – Nombre de sites d’info générés par IA identifiés à ce jour (mai 2025)
  • El País – “AI fuels rise of content farms and fake news outlets” – Exemple d’un site web publiant 1200 articles par jour via IA (juil. 2023)
  • Diplomatic Courier – Impact d’une surcharge d’info exploitée pour manipuler l’opinion (2024)
  • Reworked – Intégration d’IA type ChatGPT dans la recherche (Bing, Bard) pour une réponse de synthèse (2023)
  • Reworked – Risque de réponses inexactes données par l’IA en raison des données fausses du web (2023)
  • Reworked – Avertissement sur la tendance à la paresse intellectuelle encouragée par les réponses d’IA toutes faites (2023)
  • Alavi & Leidner (Journal of AIS) – “A Knowledge Management Perspective of Generative AI” – Question du juste équilibre entre savoir tacite humain et connaissance explicite générée par IA (2024)
  • Fondation Descartes – “Filter bubbles and echo chambers” – Effet des bulles de filtres qui peuvent isoler l’internaute et réduire la diversité informationnelle (2020)
  • Stack Overflow (Meta) – “Why posting ChatGPT answers is banned” – Volume de réponses générées par IA submergeant la modération humaine sur la plateforme (déc. 2022)
  • The Verge – “Wikipedia is using (some) generative AI now” – Intégration d’une IA par Wikipédia pour assister les bénévoles et alléger leur charge, sans remplacer l’édition humaine (mai 2025)
  • Reworked – Mention de l’association modération IA + curation humaine sur les réseaux sociaux et impossibilité d’une solution parfaite, bien qu’on combine les deux (2023)
  • Reworked – “How Your Taxonomy Can Support Your Knowledge Management” – Croissance du contenu numérique en entreprise et besoin accru de taxonomies pour retrouver l’info (2021)
  • Reworked – Lien entre taxonomie et gestion des connaissances (KM) : taxonomies comme sous-domaine du KM et soutien à la recherche d’information (2021)

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *