Analyse | Souveraineté numérique & modèles ouverts
L’open source chinois domine les déploiements
Qwen d’Alibaba cumule plus d’un milliard de téléchargements sur Hugging Face, dépassant Llama de Meta. Sept des dix modèles les plus téléchargés fin 2025 étaient chinois. Jusqu’à 80 % des startups américaines d’IA tourneraient sur des modèles open source chinois, selon la commission de sécurité économique américaine.
Et ce ne sont pas que les startups. Toute organisation qui fait tourner un LLM en local aujourd’hui utilise très probablement un modèle chinois. Qwen, DeepSeek, Yi : ils dominent les déploiements on-premise parce qu’ils sont les meilleurs modèles ouverts disponibles à cette échelle. Mistral existe, mais l’écosystème reste largement sino-américain.
Le paradoxe est brutal. Héberger en local pour échapper à une API américaine, et se retrouver à faire tourner un modèle développé sous la supervision de Pékin.
Combien de temps la gratuité va-t-elle durer ?
Reuters vient de poser la question qui rend ce paradoxe encore plus inconfortable : combien de temps cette gratuité va-t-elle durer ?
Alibaba a annoncé 53 milliards de dollars d’investissements dans l’IA et le cloud sur trois ans. Les actionnaires veulent voir un retour. Et Pékin a déjà montré qu’il savait fermer le robinet quand un secteur devenait stratégique. Terres rares, batteries, le précédent est clair. L’open source chinois reste avant tout une politique industrielle. Et les politiques industrielles, ça se réoriente.
Côté américain, même trajectoire. OpenAI projette 14 milliards de dollars de pertes en 2026, après en avoir brûlé 8 en 2025, et reconnaît que ses tarifs actuels sont « accidentels ». Comprenez : subventionnés. Anthropic, Google, même logique, aucun n’a trouvé l’équilibre.
Des équilibres temporaires
Les deux voies d’accès à l’IA — » modèles chinois gratuits d’un côté, API américaines subventionnées de l’autre — reposent sur des équilibres temporaires.
Le vrai sujet est stratégique. Quand les modèles ouverts arrêteront de progresser parce que ceux qui les finançaient auront changé de stratégie, la performance sera chez les éditeurs. OpenAI, Anthropic, DeepSeek. Et ils le savent.
Quand vous êtes le seul à proposer un modèle qui fonctionne vraiment, vous fixez le prix que vous voulez. Le ROI calculé aujourd’hui sur des API quasi gratuites ne survivra pas à une multiplication par trois du coût du token.
Que faire ?
- Simuler un coût d’inférence multiplié par trois, et voir ce qui tient encore.
- Construire des architectures capables de basculer entre modèles en jours.
- Regarder sérieusement ce que permet l’hébergement local aujourd’hui.
La fenêtre actuelle est le bon moment pour bâtir cette capacité. Elle ne restera pas ouverte indéfiniment.
Image : Ai Weiwei, Dropping a Han Dynasty Urn, 1995. © Ai Weiwei Studio
