Dr Hyacinthe KOFFI : «Même face aux géants de la Tech, le DSI dispose d’un pouvoir de négociation, la clé réside dans la donnée»

Le DSI en Afrique face aux géants de la Tech : a-t-il encore un pouvoir de négociation ? Comment arbitre-t-il au quotidien entre les intérêts immédiats de l'entreprise et l'objectif de souveraineté numérique de son pays ? L'un doit-il forcément être sacrifié à l'autre ? DSI accompli cumulant plus de 20 ans d’expérience professionnelle dans le secteur privé, Dr Hyacinthe KOFFI analyse les stratégies pour reprendre la main sur sa feuille de route technologique et stabiliser les coûts logiciels.

Impact Numérique : Le marché de l’IT subit des hausses de licences parfois déconnectées de la valeur ajoutée. Comment cette pression financière impacte-t-elle concrètement le budget de fonctionnement d’une entreprise et sa capacité d’innovation ?

Dr Hyacinthe KOFFI : L’augmentation continue des coûts de licences constitue aujourd’hui un véritable mécanisme de rigidification budgétaire. Les charges récurrentes — abonnements SaaS, maintenance, support, indexations automatiques — mobilisent une part croissante des ressources IT et réduisent progressivement la capacité d’arbitrage stratégique des organisations. Comme l’indique Gartner, les dépenses logicielles mondiales devraient dépasser 1,4 trillion de dollars en 2026, avec une croissance de +14,7 %, supérieure à celle de l’ensemble du marché IT (+10,8 %) (Gartner, 2026). Cette dynamique illustre le poids croissant des licences et abonnements dans les budgets de fonctionnement. Lorsque ces hausses tarifaires sont déconnectées de la valeur réellement créée, elles rigidifient l’OPEX, réduisent les marges d’arbitrage et limitent la capacité d’investissement dans des projets réellement innovants. La dépense logicielle devient ainsi récurrente, inflationniste et de plus en plus difficile à comprimer.

Cependant, cette pression doit être analysée à l’aune du modèle économique de l’organisation. Une entreprise technologique, dont le numérique constitue le cœur de métier et la source directe de revenus, peut justifier un niveau élevé d’investissement logiciel s’il génère un avantage compétitif mesurable. À l’inverse, une entreprise de services traditionnelle ou une organisation publique, où l’IT demeure principalement une fonction support, subira plus fortement cette inflation, car elle réduit les marges disponibles pour d’autres priorités stratégiques.

L’impact est alors triple : les budgets d’innovation — data, IA, automatisation, cybersécurité avancée — deviennent la variable d’ajustement ; les arbitrages privilégient le maintien en condition opérationnelle au détriment de la transformation, le budget RUN prenant progressivement le pas sur le budget CHANGE ; enfin, la pression financière peut fragiliser les investissements essentiels en protection des données personnelles, en gouvernance des accès et en conformité réglementaire, pourtant critiques dans un contexte de risques cyber accrus.

Dans ce contexte, la DSI ne peut naviguer au gré des ajouts de licences. Elle doit évaluer en permanence la contribution réelle de chaque composante — licences, infrastructures, services — à l’atteinte des objectifs stratégiques de l’entreprise.

Les décisions doivent être fondées sur l’analyse du risque, des indicateurs fiables et une valeur ajoutée démontrée, et non supposée. À défaut, la DSI risque de passer d’un rôle de levier stratégique à celui de centre de maintien. Or le coût réel dépasse la dimension financière : il se traduit par une érosion de l’agilité, de la capacité d’anticipation, de la maîtrise des risques et, in fine, par un impact direct sur la compétitivité et la souveraineté numérique de l’entreprise.

Face à la domination des géants de la tech, le DSI a-t-il encore un pouvoir de négociation ? Comment gère-t-il l’imprévisibilité de leurs changements de modèles tarifaires ?

Même face aux géants technologiques, le DSI dispose d’un pouvoir de négociation. Le rapport de force est certes asymétrique, mais il n’est pas inexistant — à condition d’être préparé et structuré. Ce pouvoir repose sur trois leviers complémentaires : une architecture modulaire et réversible qui limite la dépendance, une maîtrise fine des usages et des consommations, et une ingénierie contractuelle solide (plafonnement d’indexation, droits de révision ou de downgrade, clauses de sortie encadrées). Sans alternative crédible, il n’y a pas de négociation réelle.

La clé réside dans la donnée : suivi précis des consommations, identification des licences dormantes, segmentation des profils premium, gouvernance FinOps rigoureuse. Cette objectivation permet de transformer la discussion commerciale en échange factuel. À cela s’ajoute une maturité contractuelle renforcée et un portage au niveau de la Direction Générale, car ces sujets touchent directement à la compétitivité, à la protection des données personnelles et à la dépendance technologique.

Dans un groupe de plusieurs milliers de collaborateurs, un éditeur stratégique a modifié son modèle tarifaire en imposant un bundle incluant des fonctionnalités avancées, avec une hausse projetée de +20 % sur trois ans. Un audit des usages a révélé que moins de 60 % des utilisateurs exploitaient réellement ces fonctionnalités. La segmentation des profils, l’optimisation des licences et la préparation d’un scénario alternatif crédible ont permis de limiter la hausse à moins de 8 %, d’obtenir un gel tarifaire de deux ans et des droits de révision annuels. Le levier n’était pas le rapport de force, mais la maîtrise des données d’usage et la crédibilité de l’alternative.

L’imprévisibilité des modèles tarifaires est désormais structurelle. Pour y faire face, le DSI doit anticiper les cycles de renégociation, industrialiser le pilotage contractuel et intégrer une élasticité budgétaire.

Le pouvoir de négociation existe encore — mais il se construit en amont, dans l’architecture, la gouvernance financière et la capacité à démontrer, chiffres à l’appui, que l’entreprise maîtrise réellement ses choix technologiques.

Comment arbitrez-vous entre l’urgence opérationnelle immédiate et l’objectif de souveraineté technologique à long terme ? L’un doit-il forcément être sacrifié à l’autre ?

Opposer urgence opérationnelle et souveraineté technologique est, selon moi, une fausse dichotomie. L’enjeu n’est pas de sacrifier l’une à l’autre, mais d’organiser leur coexistence dans le temps. L’urgence répond à un impératif business immédiat — continuité d’activité, performance, sécurité — et peut nécessiter des choix rapides, parfois auprès d’acteurs dominants.

La souveraineté, elle, relève d’une vision stratégique : maîtrise des données (notamment personnelles), limitation de la dépendance fournisseur, réversibilité, contrôle des trajectoires financières et technologiques. La négliger crée une dette stratégique qui se paie plus tard. L’arbitrage consiste donc à découpler la décision court terme de l’architecture long terme : on peut déployer vite tout en imposant des standards ouverts, des API interopérables et des clauses de réversibilité.

Il s’agit aussi de raisonner en trajectoire : certaines briques peuvent être externalisées pour répondre à l’urgence, tandis que les actifs critiques — données sensibles, identités, référentiels stratégiques — doivent rester sous contrôle renforcé. Enfin, la souveraineté doit être intégrée à la gouvernance des risques, au même titre que la cybersécurité ou la conformité réglementaire.

L’objectif n’est pas de choisir entre efficacité immédiate et autonomie stratégique, mais d’éviter que l’urgence devienne structurelle. La souveraineté n’est pas un frein à l’agilité ; elle en est la condition durable.

Au-delà de l’aspect financier, quels sont les principaux verrous qui maintiennent les entreprises africaines dans des solutions propriétaires « par défaut » ?

Au-delà de l’aspect financier, les solutions propriétaires s’imposent souvent en Afrique moins par véritable choix stratégique que par effet d’écosystème. Le premier verrou est celui des compétences : formations, certifications, intégrateurs et partenaires locaux sont majoritairement alignés sur les grands éditeurs internationaux. Cette structuration du marché crée une dépendance presque mécanique, où les alternatives — qu’elles soient open source ou régionales — sont perçues comme plus risquées en matière de support, de continuité et de disponibilité des talents.

Ce phénomène n’est d’ailleurs pas propre à l’Afrique ; il est observable en Europe et en Asie, où la concentration autour de quelques acteurs globaux est également forte. La différence tient à la capacité à développer, en parallèle, des compétences locales différenciantes et des segments technologiques à forte valeur ajoutée.

L’enjeu pour l’Afrique n’est donc pas de rompre brutalement avec ces écosystèmes dominants, mais de structurer progressivement ses propres pôles d’expertise afin de réduire la dépendance et de peser davantage dans la chaîne de valeur technologique.

Vient ensuite le verrou de la perception : les grandes marques rassurent les directions générales et les régulateurs, notamment dans les secteurs sensibles, en offrant une image de conformité et de solidité.

S’ajoute le verrou contractuel et réglementaire, où les exigences d’audit, de certification ou les accords cadres de groupes internationaux renforcent l’inertie. Le verrou est également architectural : des années d’intégration autour d’ERP et de bases propriétaires créent une dépendance technique difficile à déconstruire.

Enfin, l’écosystème des intégrateurs et des ESN locales demeure largement structuré autour des technologies dominantes, ce qui freine l’émergence et la maturité d’alternatives crédibles. L’enjeu est donc systémique : compétences, gouvernance, régulation et dynamique de marché évoluent de manière interdépendante. Sortir du “propriétaire par défaut” ne signifie pas l’abandonner, mais diversifier progressivement les options, hybrider les architectures, renforcer les mécanismes de réversibilité et intégrer la souveraineté numérique — notamment la maîtrise des données personnelles — comme un pilier stratégique de gouvernance.

Cela suppose également une réinvention de l’écosystème local. À l’image de l’Inde, devenue incontournable dans les services numériques et le développement applicatif à l’échelle mondiale, l’Afrique doit identifier et investir des niches à forte valeur ajoutée : cybersécurité adaptée aux contextes émergents, IA contextualisée, fintech, cloud régional, conformité et gouvernance des données. C’est en développant ces expertises différenciantes que le continent pourra peser davantage dans la chaîne de valeur technologique mondiale et passer d’une posture de consommateur à une posture d’acteur d’influence.

L’open source est-il le levier ultime pour reprendre la main sur votre feuille de route technologique et stabiliser vos coûts de maintenance ?

L’open source n’est pas un levier « ultime », mais un levier stratégique puissant pour maîtriser sa trajectoire technologique — à condition d’être structuré, piloté et aligné sur les objectifs de l’organisation.

Son premier apport est la réduction du lock-in : accès au code, standards ouverts, interopérabilité et possibilité de changer d’intégrateur sans changer de solution. Le second est la maîtrise de la feuille de route : l’entreprise ne dépend plus exclusivement des arbitrages d’un éditeur unique. Le troisième est une meilleure visibilité budgétaire, en limitant l’inflation liée aux licences récurrentes.

Mais l’open source n’est pas synonyme de gratuité. Les coûts se déplacent vers l’expertise interne, l’intégration, le support, la cybersécurité et la gouvernance des mises à jour. Sans compétences solides ni pilotage clair, on peut simplement remplacer une dépendance éditeur par une dépendance intégrateur.

La véritable question n’est donc pas « open source ou propriétaire ? », mais quel niveau de contrôle stratégique souhaite-t-on exercer sur son système d’information ?

Pour une entreprise technologique, l’open source peut être un accélérateur d’innovation et de différenciation. Pour une entreprise de services ou une administration, l’enjeu porte davantage sur la maîtrise des risques, la souveraineté des données et la stabilité à long terme.

Dans la pratique, les modèles hybrides sont souvent les plus pertinents : open source sur les couches d’infrastructure, de data ou de middleware pour renforcer l’autonomie ; solutions propriétaires là où la valeur métier ou la conformité l’exigent.

L’open source n’est pas un remède miracle, mais un instrument d’autonomie, de négociation et de souveraineté, notamment pour la maîtrise des données sensibles. Sa réussite dépend moins de la technologie elle-même que de la maturité de la gouvernance qui l’accompagne.

Quelles étapes préconisez-vous pour réintroduire une concurrence saine dans un SI historiquement verrouillé par un seul éditeur ?

Réintroduire une concurrence saine dans un SI historiquement verrouillé par un éditeur unique ne se décrète pas et ne se fait pas par rupture brutale. C’est une démarche progressive, structurée et pilotée dans la durée, fondée sur des leviers complémentaires.

D’abord, identifier et objectiver toutes les dépendances : cartographie précise des licences, usages réels, intégrations techniques, flux de données et clauses contractuelles. Sans transparence factuelle, aucun levier crédible ne peut être activé. Ensuite, segmenter les périmètres par criticité afin de distinguer les briques cœur métier et sensibles — notamment celles traitant des données stratégiques ou personnelles — des fonctions plus standard pouvant être mises en concurrence.

Troisièmement, introduire des standards ouverts dans les nouveaux projets comme dans l’existant : API normalisées, interopérabilité, architectures découplées, mécanismes de réversibilité. Sans capacité de sortie techniquement réaliste, la concurrence reste théorique.

Quatrièmement, reprendre le contrôle des données en garantissant leur portabilité, leur gouvernance et la maîtrise des flux — condition indispensable à toute stratégie de souveraineté et de négociation. Enfin, investir dans la montée en compétences internes (architecture, FinOps, gestion d’actifs logiciels, cybersécurité) afin d’éviter que la dépendance ne se déplace simplement vers un autre acteur.

Une organisation dépendait depuis plus de 15 ans d’un ERP unique : 80 % des projets passaient par le même éditeur et les coûts d’évolution augmentaient de +12 % par an, réduisant fortement le pouvoir de négociation. Plutôt qu’un remplacement risqué, la DSI a ouvert l’architecture via APIs, externalisé la BI vers une solution indépendante et introduit des outils spécialisés avec clauses de réversibilité.

En trois ans, 40 % des nouveaux projets ont échappé au fournisseur historique, les coûts d’évolution ont baissé de 15 % et les délais ont été réduits de 25 %.

La concurrence ne revient pas par confrontation, mais par préparation : données, architecture ouverte et alternatives crédibles. L’objectif n’est pas de sortir d’un éditeur à tout prix, mais de ne plus dépendre de lui par défaut.

Enfin, en quoi le choix de solutions souveraines peut-il stimuler l’émergence d’un réseau de partenaires et d’experts technologiques locaux en Afrique ?

Chaque décision technologique est aussi une décision économique et stratégique : elle oriente les investissements, façonne les compétences et structure un écosystème. Dans le contexte africain, cet enjeu est particulièrement déterminant.

Selon le rapport Africa’s Digital Leap: Cloud, Connectivity & AI in the Next Decade (Heirs Technologies, 2025), alors que l’Afrique représente près de 19 % de la population mondiale, elle détient moins de 1 % de la capacité mondiale des centres de données et environ 0,5 % du marché international du cloud. Ce décalage met en évidence un déficit d’infrastructures numériques et une dépendance significative vis-à-vis de solutions externes.

Mais la lecture ne peut être uniquement défensive. Dans une économie numérique marquée par une forte interdépendance, l’enjeu n’est pas seulement de réduire la dépendance de l’Afrique, mais aussi de créer des domaines où d’autres dépendront de son expertise. Autrement dit, passer d’une position de consommateur à celle de partenaire stratégique.

Dans ce contexte, privilégier des solutions souveraines ou régionales devient un levier structurant, non pour concurrencer frontalement des géants sur des technologies déjà matures, mais pour bâtir des positions différenciantes. La localisation de l’hébergement des données et le développement d’infrastructures sur le continent — câbles sous-marins, réseaux terrestres, points d’échange Internet, équipements — créent un marché pour des intégrateurs, opérateurs, ingénieurs réseaux et experts en cybersécurité. Cette dynamique génère des emplois qualifiés et consolide une chaîne de valeur numérique.

Parallèlement, le renforcement de la gouvernance des données et de la conformité réglementaire développe des expertises en protection des données personnelles et en gestion des risques. Le développement de capacités locales en IA, en data et en connectivité stimule l’innovation, soutient la croissance des start-ups et favorise les partenariats avec les universités et centres de recherche.

En renforçant ses infrastructures et en structurant des solutions maîtrisées régionalement, l’Afrique favorise la circulation de la valeur sur son territoire, accroît sa résilience numérique et construit des niches d’excellence exportables. La souveraineté numérique dépasse ainsi le cadre technique : elle devient un instrument de politique industrielle et diplomatique, contribuant à l’autonomie stratégique tout en positionnant le continent comme un partenaire technologique crédible et influent dans l’économie numérique mondiale.

contact@impact-numerique.com

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *