IA & Data
Google mise sur l’IA omniprésente : Lors de la conférence Google I/O 2025, l’intelligence artificielle a dominé les annonces du géant du web. Google a dévoilé des mises à jour majeures de ses modèles IA (Gemini 2.5, Veo 3, Imagen 4) et introduit un “mode AI” intégré à son moteur de recherche. En parallèle, l’assistant vocal Google Assistant est progressivement supplanté par Gemini, le nouvel assistant IA déployé sur tous les appareils, du smartphone à l’auto en passant par les montres connectées. Ces améliorations visent à offrir des réponses plus complexes grâce à un mode de raisonnement approfondi pour Gemini 2.5, et à doter le moteur de recherche de capacités conversationnelles avancées. L’objectif pour Google est clair : placer l’IA au cœur de ses produits pour ne pas se laisser distancer par Microsoft et OpenAI dans la course à l’innovation. La stratégie s’accompagne d’initiatives de monétisation encore floues, mais témoigne d’une accélération de la concurrence sur le marché de l’IA grand public.
OpenAI : restructuration et alliance sous tension avec Microsoft : Le leader de l’IA OpenAI a opéré un important ajustement de cap en ce début mai. Sam Altman, son cofondateur et CEO, a annoncé renoncer à un projet controversé visant à transformer OpenAI en société commerciale à but lucratif, réaffirmant ainsi la mission initiale non lucrative de l’organisation. Dans le même temps, des informations ont révélé que OpenAI et Microsoft renégocient les termes de leur partenariat historique de 2019, dans le but de permettre une éventuelle introduction en Bourse d’OpenAI tout en préservant l’accès privilégié de Microsoft aux technologies de pointe de l’entreprise. Ce “bras de fer” illustre l’équilibre délicat entre l’indépendance d’OpenAI et le soutien financier colossal de Microsoft (qui a déjà investi plus de 13 milliards de dollars). Microsoft serait disposé à céder une partie de sa participation en échange de garanties sur l’accès aux futurs modèles au-delà de 2030. Ces tractations, confirmées par le Financial Times, montrent comment l’essor fulgurant de ChatGPT a rebattu les cartes de l’industrie, poussant OpenAI à chercher davantage de fonds et d’autonomie sans aliéner son principal partenaire. Elles auront des implications directes sur la gouvernance de l’IA et l’innovation, en déterminant qui, des laboratoires indépendants ou des géants du cloud, contrôlera la prochaine génération d’IA.
RGPD : Meta rappelé à l’ordre sur l’entraînement de ses IA : En Europe, la société Meta (Facebook, Instagram) fait face à une offensive juridique concernant l’utilisation des données personnelles pour entraîner ses modèles d’IA. L’ONG autrichienne Noyb (dirigée par Max Schrems) a envoyé le 14 mai une lettre de mise en demeure à Meta pour exiger l’arrêt de l’exploitation des données de ses utilisateurs européens dans le training de chatbots sans consentement explicite. Meta avait annoncé qu’à partir du 27 mai, tous les contenus publics publiés sur ses plateformes (sauf WhatsApp) pourraient servir à entraîner ses IA génératives, à moins d’une opposition de l’utilisateur. Pour justifier cette collecte massive, Meta invoque un flou juridique : le fameux “intérêt légitime” au sens du RGPD. Noyb dénonce une interprétation “absurde et risible”, estimant que Meta « prétend devoir voler les données personnelles de tout le monde pour l’entraînement de l’IA ». L’association, déjà victorieuse par le passé contre Facebook, menace d’une action collective européenne si Meta persiste. Au-delà du bras de fer judiciaire, l’affaire met en lumière les tensions entre innovation et vie privée : peut-on entraîner des IA sur nos données sans notre accord ? Les autorités de protection des données, déjà mobilisées sur le futur AI Act européen, suivent de près ce dossier qui pourrait faire jurisprudence. Plusieurs experts soulignent qu’un échec de Meta face à Noyb renforcerait le principe du consentement préalable, obligeant les géants du numérique à repenser leurs pratiques d’entraînement des IA sur des données d’utilisateurs.
Innovation : l’IA débarque en local et diversifie ses usages. Deux annonces illustrent la rapidité des avancées en IA générative pendant cette quinzaine. D’une part, la start-up britannique Stability AI a lancé un nouveau modèle de génération audio, baptisé Stable Audio Open Small, si compact et optimisé qu’il peut fonctionner directement sur un smartphone dépourvu de connexion cloud. Fruit d’une collaboration avec le concepteur de puces Arm, ce modèle de 341 millions de paramètres génère des extraits sonores stéréo en quelques secondes, ouvrant la voie à des applications musicales ou ludiques embarquées sur mobile. Cette démarche d’IA embarquée, fonctionnant offline, répond à une tendance de fond : démocratiser l’IA en l’intégrant dans nos objets quotidiens, tout en répondant aux enjeux de confidentialité (puisque le traitement se fait en local). D’autre part, OpenAI a enrichi les capacités de son agent ChatGPT pour les développeurs : un connecteur GitHub en version bêta permet désormais à ChatGPT d’analyser des dépôts de code et documentations techniques hébergés en ligne. Concrètement, un programmeur peut poser des questions en langage naturel sur un projet logiciel, et l’agent ira lire le code source pertinent pour formuler une réponse précise. Réservée pour l’instant aux utilisateurs payants (ChatGPT Plus/Pro), cette fonctionnalité préfigure des assistants de programmation toujours plus intégrés aux outils de développement. Elle s’inscrit dans une course aux outils d’IA pour développeurs, concurrente de GitHub Copilot de Microsoft, et pourrait transformer les méthodes de travail en automatisant une partie de la lecture et de la compréhension du code. Ces deux avancées (IA embarquée sur mobile et IA assistante de code) illustrent bien comment l’écosystème IA de mai 2025 ne se limite plus aux chatbots web grand public, mais se déploie sur de nouveaux terrains, avec des impacts attendus sur la créativité numérique et la productivité des équipes techniques.
Infrastructure IT
Concurrence dans les processeurs d’IA : La frénésie autour de l’IA génère des besoins colossaux en calcul, ouvrant des opportunités pour de nouveaux acteurs de l’infrastructure. Le 14 mai, la jeune pousse TensorWave a levé 100 millions de dollars en série A afin de bâtir des centres de données spécialisés en IA utilisant massivement des GPU AMD, un choix à contre-courant de la domination de Nvidia sur ce marché. À peine âgée de deux ans, TensorWave prévoit de déployer un cluster géant de 8 192 processeurs graphiques AMD Instinct MI325X refroidis par liquide, ce qui constituerait la plus grande infrastructure cloud au monde fondée sur des GPU non-Nvidia. Ce financement, co-dirigé par le fonds Magnetar et AMD Ventures, illustre la volonté des investisseurs de diversifier l’écosystème matériel de l’IA. L’enjeu est double : réduire la dépendance à Nvidia (dont les GPU haut de gamme H100 sont en pénurie et très onéreux) et offrir aux entreprises des capacités de calcul à moindre coût. TensorWave affiche d’ailleurs l’ambition de “démocratiser l’accès à une puissance de calcul IA de pointe” grâce à cette approche alternative. Cette initiative rejoint d’autres projets visant à contourner le goulet d’étranglement des composants IA : on a vu récemment des acteurs chinois développer leurs propres puces, ou encore des startups proposer des ASIC spécialisés. Si TensorWave réussit son pari, cela pourrait intensifier la concurrence sur le marché des data centers d’IA, faire baisser les coûts d’entraînement des modèles, et stimuler l’innovation en évitant un monopole de fait de Nvidia sur l’« essence » de l’IA qu’est la puissance de calcul.
Capacité de calcul : l’Europe muscle ses supercalculateurs. La France a franchi un cap important le 13 mai en inaugurant la nouvelle extension du supercalculateur Jean Zay, dédiée aux applications IA. Cette quatrième extension multiplie par 4 la puissance de calcul du système, qui atteint désormais 125,9 millions de milliards d’opérations par seconde (125,9 pétaflops). Hébergé au CNRS (IDRIS), Jean Zay devient ainsi l’un des superordinateurs les plus puissants d’Europe et va offrir aux chercheurs, start-up et industriels des capacités accrues pour l’entraînement de modèles d’IA et le calcul scientifique intensif. Signe de l’importance stratégique de l’événement, cette montée en puissance avait été annoncée par le président Emmanuel Macron lui-même l’an dernier, et vise autant à soutenir l’excellence scientifique nationale qu’à renforcer la souveraineté numérique face aux géants américains du cloud. Dans la foulée, l’Europe consolide son avance : la toute première machine exascale européenne, nommée Jupiter, est en cours d’assemblage à Jülich en Allemagne. Fournie par Eviden (filiale d’Atos), elle devrait devenir le supercalculateur le plus puissant d’Europe, franchissant le seuil symbolique de l’exaflop (10^18 opérations par seconde). Ces investissements massifs dans l’infrastructure HPC montrent la volonté européenne de rivaliser avec les capacités américaines et chinoises, tant pour la recherche en IA que pour des applications industrielles (climat, santé, défense…). À terme, la disponibilité de ces ressources de calcul locales profitera aux porteurs de projets IA en Europe en leur permettant de traiter des volumes de données gigantesques sans dépendre exclusivement des clouds étrangers, tout en ouvrant de nouvelles perspectives d’innovation (modèles de langue multilingues, simulations scientifiques complexes, etc.).
Rebondissement dans la politique américaine des semi-conducteurs : Le contexte géopolitique a directement influencé l’infrastructure IT en mai 2025. Aux États-Unis, la nouvelle administration Trump a décidé de faire marche arrière sur d’importantes restrictions d’exportation de puces IA instaurées en fin de mandat Biden. Ces règles, issues du “AI Diffusion Rule”, devaient entrer en vigueur le 15 mai et imposer un système de quotas très strict sur les ventes de processeurs d’IA aux pays étrangers – même alliés – afin de préserver l’avance technologique américaine tout en freinant la Chine. Or, le 14 mai, le Département du Commerce a annoncé le retrait pur et simple de cette réglementation, jugée « trop complexe, bureaucratique et néfaste pour l’innovation américaine » par les nouveaux responsables. Cette décision a été accueillie avec soulagement par l’industrie des semi-conducteurs et par les partenaires des États-Unis. En Europe notamment, la Commission européenne s’est réjouie de la levée de ces plafonds qui menaçaient de limiter l’accès de certains pays de l’UE aux puces d’IA de pointe. Les mesures de Biden prévoyaient de classer les pays en trois groupes avec des quotas, plaçant par exemple la Pologne dans un groupe restreint, ce qui suscitait des tensions transatlantiques. En annulant ces curbs, Washington évite de pénaliser ses alliés et rassure des acteurs comme Nvidia qui redoutaient une perte de revenus conséquente sur les marchés hors Chine. Le PDG de Nvidia, Jensen Huang, a publiquement salué ce revirement, qualifiant les précédentes restrictions d’« échec » coûteux pour l’industrie américaine. Cette évolution politique montre comment la course globale aux composants d’IA s’accompagne de tractations diplomatiques : préserver l’avantage sur la Chine sans pour autant fragiliser ses propres entreprises ni ses alliances. Pour les entreprises européennes et asiatiques (hors Chine), c’est une garantie de continuer à innover avec les meilleurs composants disponibles, dans un contexte où les capacités de calcul sont plus que jamais un facteur clé de compétitivité.
Communs numériques
Victoire du libre : Redis redevient open source. Une actualité majeure a marqué la sphère open source le 5 mai. Redis, l’éditeur de la célèbre base de données en mémoire, a annoncé que la nouvelle version Redis 8 serait à nouveau diffusée sous licence Open Source (AGPLv3). C’est un revirement stratégique : quelques années plus tôt, Redis Labs avait adopté une licence propriétaire (SSPL) pour certaines fonctionnalités avancées, suscitant la création d’un fork communautaire (projet Valkey) et des critiques de la part de développeurs attachés au libre. Face à l’adoption mitigée de cette licence non reconnue par l’OSI, Redis a finalement fait marche arrière pour renouer avec la communauté open source. « Ce que nous espérions, faire accepter la SSPL comme une bonne licence, ne s’est pas produit », a admis le CEO Rowan Trollope, soulignant que le manque de confiance de l’écosystème a motivé ce retour à une licence approuvée par l’Open Source Initiative. Cette décision est saluée par de nombreux développeurs et entreprises qui misaient sur Redis : elle garantit la pérennité et la transparence d’un composant essentiel employé dans d’innombrables infrastructures web. Elle illustre aussi la force du modèle des communs numériques : face au tollé de sa communauté, un éditeur a dû s’aligner sur les standards ouverts sous peine de voir ses utilisateurs migrer vers des alternatives libres. À plus large échelle, ce cas Redis s’inscrit dans une tendance où plusieurs éditeurs (Elastic, MongoDB…) ont tâtonné avec des licences intermédiaires pour se protéger des clouds tout en essayant de conserver l’étiquette “open source”. Le fait que Redis revienne dans le giron libre renforce l’idée qu’une véritable innovation partagée passe par le respect des libertés logicielles, et que les “communs” numériques (logiciels, protocoles) demeurent cruciaux pour un écosystème équilibré et collaboratif.
Contenus des utilisateurs : SoundCloud recule sur l’utilisation par l’IA. La question de l’entraînement des IA sur les données publiques a aussi fait grand bruit dans le domaine de la musique. La plateforme de streaming SoundCloud a suscité une levée de boucliers après la découverte d’une clause dans ses conditions d’utilisation autorisant l’exploitation des morceaux uploadés pour entraîner des modèles d’intelligence artificielle. Bien que présente discrètement depuis février 2024, cette mention n’a été remarquée par les artistes qu’en mai, déclenchant une vague d’indignation : plusieurs musiciens ont annoncé supprimer leurs titres et fermer leur compte en guise de protestation. Face au bad buzz, SoundCloud a publié le 8 mai une lettre ouverte signée de son PDG Eliah Seton pour clarifier la situation. Le dirigeant reconnaît que le texte des CGU « était trop large et pas assez clair » quant à l’usage de l’IA. SoundCloud affirme n’avoir jamais utilisé le contenu de ses utilisateurs pour entraîner des IA génératives mimant leur voix ou leur style musical, et s’engage à ne pas le faire sans consentement explicite. La clause incriminée visait, selon la plateforme, uniquement des usages internes de l’IA (amélioration des recommandations, détection de fraudes, etc.), mais a été interprétée, à juste titre, comme une porte ouverte à des utilisations bien plus larges. SoundCloud a donc mis à jour ses conditions pour dissiper toute ambiguïté, assurant que toute utilisation d’IA se fera sur la base du consentement, de la transparence et du contrôle par les artistes. Cette affaire, au-delà de son dénouement, souligne la vigilance accrue des créateurs quant à leurs droits à l’ère de l’IA. Elle fait écho aux débats sur les IA génératives entraînées sur des œuvres d’art ou des écrits sans l’autorisation des auteurs. Le fait qu’une entreprise comme SoundCloud doive faire marche arrière montre que les utilisateurs-contributeurs, en tant que partie prenante de ces “communs” numériques (musique, images, textes partagés en ligne), entendent bien exiger leur mot à dire. À plus long terme, on peut y voir la nécessité pour les plateformes de bâtir une relation de confiance : celles qui respecteront la propriété intellectuelle et la volonté de leurs communautés auront un atout, alors que celles qui tenteront de s’arroger les contenus au profit de leurs IA risquent de se heurter à des rejets massifs et à l’intervention du régulateur.
Développement & Langages de programmation
IA et développement : ChatGPT s’invite dans le workflow des codeurs. La frontière entre IA et programmation s’est encore amincie durant cette période, avec des nouveautés facilitant le travail des développeurs. Le 9 mai, OpenAI a déployé une intégration de GitHub dans ChatGPT qui permet à l’agent conversationnel d’analyser du code source provenant de dépôts GitHub. Concrètement, un développeur peut connecter un repository à ChatGPT et poser des questions en langage naturel sur le code ; le modèle ira lire les fichiers concernés (fonctions, documentation) pour fournir une explication ou aider à déboguer. Cette fonctionnalité, d’abord lancée en bêta pour les abonnés ChatGPT Plus/Pro, est présentée comme le premier connecteur d’une série visant à arrimer ChatGPT à des sources externes (après le web). Elle transforme le chatbot en véritable assistant de programmation, capable de fouiller une base de code entière en quelques instants – là où un humain passerait de longues heures. Pour la communauté des développeurs, l’arrivée de cet outil est un gain de productivité potentiel mais aussi un changement culturel : certaines tâches de relecture ou de recherche d’erreurs peuvent être déléguées à l’IA, libérant du temps pour la conception. Bien sûr, cela nécessite de valider les réponses de ChatGPT (qui ne sont pas infaillibles), mais les premiers retours soulignent l’intérêt pour naviguer dans des projets complexes ou reprendre un code hérité. Cette annonce illustre aussi la vive concurrence dans le secteur des outils d’IA pour développeurs. Microsoft, qui possède GitHub, propose déjà Copilot (basé sur GPT-4) directement dans Visual Studio Code pour assister à l’écriture de code. L’ajout d’un connecteur GitHub côté OpenAI pourrait présager de futures collaborations ou rivalités accrues entre ces acteurs imbriqués (Microsoft étant à la fois investisseur principal d’OpenAI et propriétaire de GitHub). À plus long terme, l’intégration transparente de l’IA dans les environnements de développement semble inéluctable : on peut imaginer que la documentation, les tests unitaires, voire certaines parties du codage, seront de plus en plus automatisés par des agents intelligents, modifiant les compétences attendues des développeurs (davantage concentrés sur l’architecture, la revue critique, la créativité logicielle). Cette transition est déjà à l’œuvre en 2025 et s’accélérera avec l’amélioration des modèles. Les équipes IT doivent dès maintenant adapter leurs méthodologies pour tirer parti de ces outils tout en évitant leurs écueils (dépendance, sécurité du code). En somme, l’IA s’affirme comme un collègue virtuel du programmeur, capable d’apprendre un codebase en un instant, et la collaboration homme-machine devient une composante clé des projets logiciels modernes.
Projet IA et réalité du terrain : le virage de Klarna. Le développement d’applications basées sur l’IA ne consiste pas qu’à coder des modèles : encore faut-il assurer leur intégration efficace dans les processus métier. L’exemple de Klarna, fintech suédoise spécialisée dans le paiement fractionné, offre un retour d’expérience instructif. En 2024, Klarna avait fait sensation en annonçant avoir remplacé la quasi-totalité de son service client par une IA issue de ChatGPT, entraînée pour répondre aux demandes des utilisateurs. Forte de 2,3 millions de conversations traitées par mois par ce chatbot maison (l’équivalent du travail de 700 agents à temps plein), la firme clamait économiser 40 millions de dollars par an et voyait dans cette automatisation un argument de poids avant son entrée en Bourse. Entre 2022 et fin 2024, Klarna a ainsi réduit ses effectifs de 5527 à 3422 employés en misant sur l’IA pour les tâches de support. Cependant, au cours du premier semestre 2025, la réalité a rattrapé l’optimisme technosolutionniste de son PDG Sebastian Siemiatkowski. Les retours clients ont été massivement négatifs : réponses automatiques à côté de la plaque, incapacité du bot à faire preuve d’empathie ou à gérer les cas non prévus, et surtout frustration de ne plus pouvoir contacter un humain. « Nous avions sous-estimé ce que nous avions à perdre… » a reconnu le dirigeant dans un mea culpa médiatisé sur BFM, admettant que l’humain reste indispensable dans la relation client. Résultat : Klarna fait marche arrière. Dès à présent, un tiers des interactions clients seront redirigées vers du personnel humain (et les clients auront toujours la possibilité de demander un agent réel), là où l’IA gérait auparavant presque 100% des requêtes. La société a même dû recommencer à embaucher des conseillers pour redonner de la « chaleur » et de la nuance à son service client. Ce pivot intervient au moment où Klarna finalise son dossier d’IPO, preuve que l’entreprise a pris conscience du risque d’image et de la perte de qualité engendrés par un enthousiasme excessif pour l’automatisation. Pour les chefs de projet IT, cet épisode est riche d’enseignements. D’abord, il rappelle qu’un projet innovant (ici, un chatbot support) doit être mesuré non seulement en coûts économisés mais aussi en qualité perçue et en satisfaction utilisateur, des indicateurs trop souvent négligés. Ensuite, il met en garde contre le piège du tout-AI : même performante, une IA générique ne sait pas gérer l’imprévu ni créer du lien émotionnel, ce qui peut entamer la confiance des clients envers la marque. Enfin, l’expérience Klarna souligne l’importance de l’accompagnement humain dans les projets IA en production : plutôt que de chercher à éliminer totalement l’humain, les déploiements réussis combinent le meilleur des deux (IA pour la vitesse et la disponibilité, humain pour l’empathie et la résolution des cas complexes). D’autres entreprises, comme Air Canada ou McDonald’s, ont connu récemment des échecs similaires avec des IA déployées trop vite en front-office. La gestion de projet IT agile impose donc de savoir itérer prudemment, recueillir le feedback terrain et adapter la stratégie, y compris si cela signifie revenir en arrière sur un choix technologique, afin de garantir que l’innovation serve réellement l’expérience client et la performance globale.
Sécurité et formation : les entreprises encore mal préparées face à l’IA. Un rapport publié par Cisco mi-mai dresse un constat alarmant sur l’état de préparation des organisations en matière d’IA et cybersécurité. Sur les 12 derniers mois, 80% des entreprises françaises interrogées ont connu au moins un incident de sécurité lié à l’utilisation de l’intelligence artificielle. Ces incidents englobent aussi bien des fuites de données involontaires (par exemple, un employé qui copierait du code confidentiel dans un outil d’IA en ligne) que des attaques facilitées par l’IA (hameçonnage sophistiqué, deepfakes, etc.). Malgré une légère progression du niveau de maturité global, le rapport indique que les failles proviennent en grande partie de lacunes dans la formation et la sensibilisation du personnel. Seuls 4 dirigeants français sur 10 estiment aujourd’hui que leurs employés comprennent correctement les risques spécifiques liés à l’IA. Par ailleurs, de nombreuses DSI pointent un manque de ressources : budgets insuffisants et pénurie d’experts en sécurité IA pour mettre en place des garde-fous techniques (outils de détection, audit des modèles). Ce bilan met en lumière un aspect souvent négligé des projets d’IA : l’accompagnement organisationnel. Intégrer un chatbot, un outil d’automatisation ou un modèle prédictif dans les processus IT ne s’improvise pas. Il faut former les utilisateurs aux bonnes pratiques (par ex. ne pas soumettre d’informations sensibles à une IA publique), adapter les politiques internes (où sont stockées les données utilisées par l’IA ? qui y a accès ?), et anticiper les scénarios d’usage malveillant ou détourné. Le fait que 4 entreprises sur 5 aient subi un incident en un an montre que beaucoup de projets IA ont été déployés sans analyse de risques suffisante ni plan de réponse adapté. À l’heure où l’IA générative est adoptée à grande échelle, les chefs de projet IT doivent donc collaborer étroitement avec les responsables sécurité et RH pour combler ce retard de sensibilisation. Cela passe par des sessions de formation dédiées, l’élaboration de chartes d’usage de l’IA en interne, et l’intégration de contrôles de sécurité dans le cycle de développement (évaluation des biais, protection des données d’entraînement, etc.). En somme, la gouvernance de l’IA en entreprise est le nouveau défi : ce n’est plus seulement une affaire de data scientists, mais un effort transversal impliquant direction, équipes métiers et experts sécurité, afin de récolter les bénéfices de l’IA (gain de productivité, meilleure analyse des données…) sans ouvrir de brèches béantes dans le SI. Les résultats de Cisco agissent comme un électrochoc pour accélérer cette prise de conscience dans la gestion de projets IT à composante IA.
Carrière & Emploi IT
Microsoft réorganise ses effectifs dans l’IA : Le 14 mai, Microsoft a annoncé une suppression de 6 000 postes environ, soit près de 3% de ses effectifs mondiaux. Fait notable, ces licenciements, les plus importants pour l’entreprise depuis la vague de 10 000 départs en début 2023, interviennent malgré des résultats financiers récents excellents. Ils s’inscrivent dans une stratégie où Microsoft cherche à redéployer ses ressources vers l’intelligence artificielle et le cloud. Satya Nadella, le PDG, a expliqué en substance qu’il fallait « prendre les décisions organisationnelles nécessaires pour positionner au mieux l’entreprise sur un marché dynamique ». Concrètement, les coupes visent principalement les niveaux managériaux intermédiaires et certaines divisions moins prioritaires, afin d’« écrémer » la hiérarchie et de libérer du budget pour recruter des talents en IA et accélérer les projets stratégiques. Cette annonce s’inscrit dans une tendance plus large en 2025 : après les vagues de licenciements massifs de 2022-2023 dans la tech, nombre de géants du secteur continuent d’ajuster leurs effectifs, non plus tant pour réduire les coûts de crise que pour réorienter les compétences vers les domaines porteurs (IA générative, agents autonomes, cybersécurité, etc.). Dans le cas de Microsoft, l’entreprise avait déjà investi lourdement dans OpenAI et intègre désormais ChatGPT dans ses produits ; le recentrage passe donc par l’embauche de développeurs et chercheurs en IA, parfois au détriment d’autres segments plus matures (bureautique traditionnelle, support). Cette restructuration souligne que, paradoxalement, la création d’emplois dans l’IA s’accompagne d’une destruction d’emplois ailleurs dans l’entreprise. Pour les professionnels de l’IT, cela signifie qu’il est crucial de monter en compétence sur les nouvelles technologies convoitées (IA, cloud distribué) afin d’éviter d’être du côté des postes “legacy” en diminution. À l’échelle de l’industrie, les 6 000 suppressions chez Microsoft – ajoutées aux plans en cours chez d’autres (Meta, Amazon, etc.) – confirment que le secteur reste en transformation permanente, même après la phase aiguë de compression de 2023. La promesse implicite est que ces économies de postes administratifs ou redondants serviront à financer l’embauche de profils plus techniques. Le marché de l’emploi IT voit donc coexister une contraction globale et un déplacement des opportunités vers les métiers de pointe, ce qui impose aux candidats d’orienter leurs parcours en conséquence.
Le jeu des chaises musicales : une Française à la tête des applications d’OpenAI. Dans un mouvement inverse, certains postes hautement stratégiques se créent pour piloter la croissance des champions de l’IA. Le 8 mai, OpenAI a officialisé l’arrivée de Fidji Simo (ex-directrice de Facebook App et PDG d’Instacart) en tant que CEO des applications au sein d’OpenAI. Française d’origine et figure montante de la tech aux États-Unis, Fidji Simo sera chargée de développer l’usage des modèles d’OpenAI dans des produits concrets, sous la supervision directe de Sam Altman qui conserve la direction générale de l’organisation. Son recrutement, qui fait suite à des rumeurs fin avril, s’accompagne d’une restructuration interne : OpenAI a en effet décidé, deux jours auparavant, de conserver son modèle hybride original (une fondation à but non lucratif chapeautant une entité commerciale), renonçant à une refonte qui aurait accru le pouvoir d’Altman. La nomination de Simo est doublement symbolique. D’une part, elle illustre la féminisation progressive des postes de direction dans l’IA, un domaine encore très masculin ; son profil international (39 ans, formée à HEC, ayant fait carrière dans la Silicon Valley) envoie un signal positif en termes de diversité au sommet d’une entreprise aussi en vue qu’OpenAI. D’autre part, la création d’un poste dédié aux “applications” traduit la volonté d’OpenAI de monétiser et déployer à grande échelle ses technologies (ChatGPT, DALL-E, etc.) dans des services grand public et professionnels. Simo aura pour mission de bâtir des produits autour de ces modèles. On pense à des assistants personnels, des outils de productivité boostés à l’IA, ou encore des plateformes verticales (santé, éducation…) exploitant GPT. Son expérience chez Instacart (qu’elle a mené à la rentabilité et à l’introduction en Bourse) sera précieuse pour naviguer entre croissance et modèle économique. Pour les talents de l’IT, ce genre de nomination montre qu’une expertise en IA couplée à une expérience produit est très recherchée. Les géants de la tech n’hésitent pas à attirer des profils exécutifs capables de faire le lien entre l’innovation algorithmique et les usages concrets, preuve que l’ère de l’industrialisation de l’IA est en marche. À noter qu’en France, cette nouvelle a fait du bruit et nourri un certain brain drain narratif, rappelant que de nombreux dirigeants ou chercheurs français brillent à l’étranger dans l’IA faute d’opportunités équivalentes localement.
Nouveaux équilibres géographiques post-pandémie : La dynamique de l’emploi IT n’est pas qu’une question de qui est embauché ou licencié, c’est aussi où ces emplois se situent. Un article marquant du San Francisco Chronicle, repris par Courrier International, révèle que la ville de San Francisco continue de perdre des travailleurs de la tech au profit de New York. En 2023, environ 5 800 employés du secteur ont quitté SF pour un poste à NYC, inversant la tendance historique d’avant 2020 où la Californie attirait les talents de la côte Est. Malgré l’essor de l’IA qui dope l’activité de nombreuses start-up et géants du numérique, San Francisco n’a toujours pas retrouvé son niveau d’emploi pré-pandémique. Google et Meta, par exemple, ont réduit la voilure dans la Bay Area en sous-louant une partie de leurs bureaux, tout en étendant leurs implantations à New York et environs. Plusieurs facteurs expliquent cette migration continue : la généralisation du télétravail hybride, le coût de la vie exorbitant et les problèmes de qualité de vie à San Francisco ont incité nombre d’employés (et d’entreprises) à se relocaliser vers d’autres pôles tech émergents (Austin, Miami, Seattle – et surtout New York qui dispose d’un vivier important). New York bénéficie en outre d’un effet d’agglomération sur l’IA : la ville accueille de plus en plus de laboratoires de recherche et de sièges d’équipes IA de grands groupes, créant un cercle vertueux d’opportunités. Pour les professionnels de la tech, cette évolution signifie que les carrières IT sont moins centrées sur la Silicon Valley qu’auparavant. De nouvelles options géographiques crédibles s’ouvrent, notamment sur la côte Est des États-Unis mais aussi dans quelques capitales européennes qui développent leur écosystème (Londres, Paris, Berlin attirant des talents post-Brexit ou post-pandémie). Il n’en demeure pas moins que la Californie reste un épicentre de l’innovation, en témoigne la concentration de laboratoires d’IA à San Francisco même, mais l’exode vers New York témoigne d’un rééquilibrage. Celui-ci est sans doute sain pour les salariés (plus de choix de lieux de vie) et pour les villes bénéficiaires, tout en posant des défis aux zones en déclin qui doivent se réinventer pour retenir ou attirer à nouveau les travailleurs qualifiés. Plus globalement, combiné au télétravail, ce mouvement redéfinit la notion même de Tech Hubs : le talent peut maintenant s’épanouir en dehors des campus historiques, ce qui pousse les employeurs à adapter leurs politiques (salaires géographiquement modulés, ouverture de bureaux satellites, etc.). Pour les candidats et employés, cela ouvre la porte à de meilleures négociations en termes de conditions de travail et d’emplacement, l’entreprise étant moins le seul centre de gravité. La “Tech” de 2025 sera-t-elle plus distribuée géographiquement ? Les chiffres de SF vs NYC suggèrent que oui, et les prochaines années confirmeront si cette décentralisation s’installe durablement.
Sources
- Marie-Claude Benoit, “Google I/O 2025 : L’IA au cœur de l’écosystème technologique”, ActuIA, 22 mai 2025.
- Célia Séramour, “Dites au revoir à Google Assistant, Gemini débarque dans tous vos appareils”, Usine Digitale, 14 mai 2025.
- “OpenAI negotiates with Microsoft for new funding and future IPO, FT reports”, Reuters, 12 mai 2025.
- “OpenAI renonce à devenir une société à but lucratif”, Usine Digitale, 6 mai 2025.
- “Données personnelles et IA : Meta visé par une mise en demeure”, dépêche AFP, CB News, 14 mai 2025.
- Martin Clavey, “Entrainement des IA sur les données des Européens : noyb menace Meta de class action”, Next INpact, 15 mai 2025.
- Kyle Wiggers, “Stability AI releases an audio-generating model that can run on smartphones”, TechCrunch, 14 mai 2025.
- “Stability AI lance un modèle text-to-audio capable de tourner sur smartphone”, Usine Digitale (rubr. Start-up), 16 mai 2025.
- Matt Asay, “Redis revient à une licence plus conforme à l’open source”, Le Monde Informatique, 5 mai 2025.
- Lindsay Clark, “Redis ‘returns’ to open source with AGPL license”, The Register, 1 mai 2025.
- Kyle Wiggers, “SoundCloud backtracks on AI-related terms-of-use updates”, TechCrunch, 14 mai 2025.
- Jessica Bursztynsky, “SoundCloud faces backlash after adding an AI training clause in its user terms”, Fast Company, 9 mai 2025.
- Célia Séramour, “TensorWave lève 100 millions de dollars pour s’attaquer au monopole de Nvidia”, Usine Digitale, 14 mai 2025.
- “AI infrastructure firm TensorWave raises $100 million in latest funding”, Reuters, 14 mai 2025.
- “Supercalculateur Jean Zay : la France multiplie par 4 les ressources scientifiques en IA”, communiqué CNRS, 13 mai 2025.
- Pieter Haeck, “EU gets a win as US revokes AI chips caps”, Politico Europe, 14 mai 2025.
- “Les États-Unis abrogent une règle de diffusion de l’IA datée de l’ère Biden”, Usine Digitale (rubr. Semi-conducteurs), 15 mai 2025.
- Antoine Lheureux, “L’IA pour assurer le service client : pourquoi Klarna opère un grand rétropédalage”, BFM TV, 12 mai 2025.
- Célia Séramour, “L’IA comme solution miracle ? Klarna déchante”, Usine Digitale, 13 mai 2025.
- Yoann Bourgin, “Sur un an, 80% des entreprises françaises ont connu un incident de sécurité lié à l’IA”, Usine Digitale, 13 mai 2025.
- Associated Press, “Microsoft to lay off 6,000 workers despite streak of profitable quarters”, The Guardian, 14 mai 2025.
- “Instacart CEO Fidji Simo to join OpenAI as head of applications”, Reuters, 8 mai 2025.
- San Francisco Chronicle (via Courrier International), “Emplois dans la tech : San Francisco continue à perdre du terrain face à New York”, 15 mai 2025.