Sommaire
Une solution cloud serverless à la portée de tous
OVHcloud frappe fort avec le lancement d’AI Endpoints, un portefeuille de services d’intelligence artificielle générative. Cette solution cloud serverless permet l’intégration fluide de modèles d’IA dans des applications métiers. Bien plus qu’une simple innovation, c’est une réponse aux besoins croissants des développeurs cherchant à exploiter l’intelligence artificielle au sein de leurs projets.
Une palette de modèles pour tous les usages
Dès son lancement, AI Endpoints propose une quarantaine de modèles (langage, code, image…) parmi les plus populaires de l’écosystème open source et open weight. Parmi eux, on retrouve :
- Llama 3.3 70B
- Mixtral 8x7B
- Mistral Nemo
- Llama 3.1 8B
- Codestral Mamba
- Qwen 2.5 Coder 32B
- Qwen 2.5 VL 72B
- Stable Diffusion XL
En outre, AI Endpoints inclut des modèles spécialisés pour la transcription (ASR), la synthèse vocale (TTS) et le raisonnement (DeepSeek-R1). Cette liste n’est pas figée et sera régulièrement mise à jour pour répondre aux avancées de l’intelligence artificielle.
Une approche souveraine
La stratégie d’OVHcloud repose sur une approche souveraine, offrant une alternative aux solutions proposées par les grands éditeurs américains comme AWS et Google. Tous les services d’AI Endpoints sont hébergés dans les centres de données d’OVHcloud, avec une mention particulière pour le site de Gravelines en France. Cela permet aux entreprises de bénéficier d’une infrastructure sécurisée tout en gardant un contrôle total sur leurs données.
Faciliter l’intégration des modèles open weight
L’un des principaux objectifs d’AI Endpoints est de rendre les modèles open weight immédiatement utilisables dans des environnements de production. Cette solution innovante permet d’alimenter divers outils tels que chatbots, assistants vocaux, transcription automatique, agents de codage, ou encore des applications analytiques. Comme l’explique Yaniv Fdida, Chief Product and Technology Officer d’OVHcloud, « AI Endpoints permet aux développeurs d’intégrer facilement les modèles […] en toute confiance dans l’infrastructure souveraine d’OVHcloud. »
Un modèle de tarification attractif
La tarification est basée sur le nombre de jetons consommés par minute et par modèle, suivant un système pay-as-you-go. Avant de déployer leurs solutions, les utilisateurs ont la possibilité de tester les fonctionnalités d’IA dans une sandbox, leur permettant d’évaluer les performances et la pertinence des modèles choisis au préalable.
Un pas vers la durabilité
OVHcloud met également un point d’honneur à la durabilité de son infrastructure. En effet, ses serveurs sont « refroidis à l’eau dans des datacenters respectueux de l’environnement » selon ses propres dires, cette approche visant à minimiser l’impact environnemental de l’IA tout en garantissant des performances optimales. Dans un contexte où les applications d’IA sont souvent critiquées pour leur excessive consommation d’énergie, cette initiative mérite d’être soulignée.
OVHcloud entre dans la cour des grands
Avec le lancement de Data Platform il y a quelques semaines, OVHcloud s’affirme face aux géants américains de la PaaS tels que Google Big Table, Microsoft Fabric, et Snowflake. Avec AI Endpoints, OVHcloud complète son offre et se positionne en concurrent direct dans le domaine des services d’IA, faisant face aux acteurs établis comme AWS Bedrock, Google Vertex AI, et Azure AI Foundry.
Avec cette nouvelle solution, OVHcloud démontre son engagement envers l’innovation, la souveraineté numérique et le développement durable. Un tournant décisif pour les entreprises souhaitant tirer parti de l’IA tout en gardant le contrôle sur leurs données et leur impact environnemental.