DeepSeek et OpenAI révolutionnent les modèles de raisonnement

Deux innovations majeures sont en train de redéfinir l’avenir de l’intelligence artificielle en entreprise : le modèle R1 de DeepSeek et le produit Deep Research d’OpenAI. Ces avancées bouleversent à la fois le coût et l’accessibilité des modèles de raisonnement complexes. Mais ce qui est parfois moins détaillé, ce sont les implications techniques : l’adoption croissante de méthodes comme la distillation, le fine-tuning supervisé (SFT), l’apprentissage par renforcement (RL) et la génération augmentée par récupération (RAG). C’est ici que sont à mon avis les véritables avancées. Regardons ces éléments.
1. La distillation
Le modèle DeepSeek-R1 offre des performances de pointe en matière de raisonnement, tout en réduisant drastiquement les coûts : il serait ainsi 30 fois moins cher à utiliser que certains modèles fermés comme ceux d’OpenAI. Ce modèle est également transparent, affichant les étapes de son raisonnement, ce qui permet aux développeurs d’exploiter plus facilement ses capacités.
La distillation est un élément clé de cette innovation. DeepSeek utilise son modèle R1 pour enseigner à des modèles plus petits, adaptés à des tâches spécifiques. Ces modèles réduits, optimisés pour des besoins précis, deviennent essentiels pour les entreprises. En effet, le modèle complet peut se révéler excessivement complexe, rendant nécessaire l’utilisation de versions plus ciblées. Autres exemples au de la de DeepSeek : les modèles comme Gemini Flash, GPT-4o Mini, Mistral Small 3 ou Phi 4 de Microsoft remplissent aujourd’hui désormais 80 % des cas d’usage à moindre coût.
2. Le Fine-Tuning Supervisé (SFT)
Pour les entreprises évoluant dans des domaines spécialisés, où les données sont rares ou peu accessibles sur le web, le SFT permet d’enrichir le modèle avec des données spécifiques. Cela est particulièrement utile dans des industries techniques comme la construction de navires, où les réglementations et spécifications sont rarement documentées publiquement. Là encore DeepSeek a démontré l’efficacité du SFT avec seulement quelques milliers de données d’entraînement. Par exemple, un ingénieur d’IBM a prouvé qu’un modèle finement ajusté pouvait surpasser un modèle généraliste sur des tâches mathématiques spécifiques.
3. L’ Apprentissage par renforcement (RL)
Les entreprises souhaitant affiner la personnalité ou les préférences de leur IA peuvent recourir à l’apprentissage par renforcement (RL). Cette méthode permet de créer des chatbots capables d’adapter leur ton en fonction des interactions utilisateur. Cette personnalisation jouera un rôle croissant dans l’adoption des IA d’entreprise. Cependant, ces ajustements peuvent rendre les modèles moins efficaces hors de leur domaine d’application, nécessitant alors un équilibre entre spécialisation et polyvalence. Ill n’y a pas de solution « généraliste idéale »…
4. La génération augmentée par récupération (RAG)
Pour la majorité des entreprises, la génération augmentée par récupération (RAG) représente la méthode la plus efficace et accessible. Cette technique permet de renforcer les modèles avec des données internes, stockées dans des bases de données vectorielles ou graphiques. Le modèle interroge ces bases pour récupérer des informations pertinentes, réduisant ainsi les risques d’hallucinations. Il a été ainsi démontré que même si DeepSeek-R1 hallucine deux fois plus en moyenne que le modèle OpenAI o3, la combinaison de distillation et de RAG offre une fiabilité suffisante pour la plupart des applications au prix de quelques vérifications supplémentaires.
Le produit Deep Research d’OpenAI pousse la RAG à un nouveau niveau en automatisant la recherche sur le web. L’IA peut générer des rapports de recherche approfondis en collectant des données depuis de multiples sources en ligne, avant de les intégrer dans les bases internes de l’entreprise.
5. En guide de conclusion…
DeepSeek et OpenAI redéfinissent les règles du jeu, en rendant les modèles d’IA accessibles, abordables et personnalisables. Pour les entreprises, il est crucial de capitaliser sur ces outils tout en investissant dans la gestion de leurs données. Les techniques comme la RAG et la distillation offrent des solutions pratiques, mais le succès dépendra avant tout de l’innovation post-formation.
Nous reviendrons sur tout cela lors d’une session dédiée lors du prochain Briefing Calipia.