En marge de la conférence .Next 2024 à Barcelone, Nutanix a annoncé des évolutions majeures pour sa plateforme GPT-in-a-Box. Déjà connu pour son expertise dans l’hyperconvergence et les environnements multicloud, Nutanix cherche désormais à révolutionner le déploiement des applications d’intelligence artificielle générative en entreprise. Des partenariats avec Hugging Face et Nvidia, ainsi qu’une interface utilisateur remaniée, témoignent de leur volonté de simplifier et démocratiser l’accès à ces technologies de pointe.
Une interface unifiée pour une gestion simplifiée
La nouvelle version 2.0 de GPT-in-a-Box s’articule autour d’une interface utilisateur centralisée. Elle permet de gérer les modèles de base et de créer des points de terminaison API de manière uniforme. Cette approche vise à simplifier la mise en production des solutions d’IA générative à l’échelle.
Gestion des clés d’accès et solutions de stockage sont également intégrées, consolidant ainsi la facilité d’utilisation pour les entreprises. Nutanix confirme son intention de rendre l’intelligence artificielle aussi accessible que possible, en reprenant les recettes qui ont fait son succès dans l’infrastructure.
Partenariats stratégiques avec Hugging Face et Nvidia
Pour les grands modèles de langage (LLM), Nutanix s’est associé à Hugging Face pour une intégration personnalisée de la bibliothèque open source Text Generation Inference. L’objectif est de permettre un déploiement automatisé des LLMs sur les infrastructures Nutanix via GPT in a Box.
Nutanix, en partenariat avec Nvidia, propose aussi une interface simplifiée pour configurer les micros-services du catalogue NIM de Nvidia. Cette collaboration renforce la capacité de Nutanix à offrir une solution complète et optimisée pour les charges de travail IA.
Optimisations pour l’infrastructure et le machine learning
GPT-in-a-Box s’appuie sur les dernières avancées de la plateforme de gestion des environnements Kubernetes de Nutanix, NKP. Cette dernière permet une allocation automatique des clusters dédiés aux charges de travail GenAI, en local ou dans le cloud. En intégrant GPU Direct Storage de Nvidia, Nutanix promeut l’accélération des tâches d’IA et de machine learning.
Nutanix amélioré également sa plateforme de données non structurées pour répondre aux exigences de l’IA et du machine learning. Nutanix Unified Storage (NUS) peut désormais gérer jusqu’à 550 téraoctets avec des vitesses de lecture séquentielle atteignant 10 gigaoctets/seconde.
📘 | Résumé |
---|---|
💡 | Interface unifiée |
🛠️ | Partenariats stratégiques |
🔧 | Optimisations infrastructure |
Applications concrètes et défis à venir
Sammy Zoghlami, SVP Sales de Nutanix pour la région EMEA, explique que plusieurs cas d’usage, notamment en matière de lutte contre la fraude, sont déjà en cours de déploiement en Europe. Les entreprises pourront ainsi gérer efficacement leurs charges de travail d’IA et de machine learning avec une plus grande flexibilité.
La solution de Nutanix s’adresse principalement aux phases de mise en production, d’entraînement et de fine tuning des modèles. Thomas Cornely, Senior Vice President of Product Management de Nutanix, souligne que l’inférence, en revanche, serait plus judicieuse à réaliser dans le cloud.
- Interface utilisateur centralisée
- Partenariats avec Hugging Face et Nvidia
- Optimisations de l’infrastructure
- Applications concrètes dans la lutte contre la fraude
Nutanix mise gros sur GPT-in-a-Box pour faire de l’intelligence artificielle une partie intégrante des environnements de travail. À mesure que les entreprises continuent d’explorer cette nouvelle solution, la question demeure : jusqu’où pousseront-elles les frontières de l’innovation avec cette prometteuse plateforme ?
Ça vous a plu ? 4.4/5 (23)