Snowflake (NYSE: SNOW), l’entreprise du Data Cloud, et Mistral AI, l’un des principaux fournisseurs européens de solutions d’IA, ont annoncé un accord mondial pour apporter les modèles linguistiques les plus puissants de Mistral AI directement aux clients de Snowflake dans le Data Cloud. Grâce à ce partenariat, qui s’étend sur plusieurs années et inclut un investissement parallèle dans la Série A de Mistral par Snowflake Ventures, Mistral AI et Snowflake offriront les capacités nécessaires aux entreprises pour exploiter sans effort la puissance des principaux large language models (LLM), tout en maintenant la sécurité, la confidentialité et la gouvernance de leur actif le plus précieux : leurs données.
Grâce à cette nouvelle collaboration avec Mistral AI, les clients de Snowflake ont accès à Mistral Large, le LLM le plus récent et le plus puissant de Mistral AI, avec des résultats dans les benchmarks qui en font l’un des modèles les plus performants au monde. Au-delà des résultats des benchmarks, le nouveau modèle phare de Mistral AI a des capacités de raisonnement uniques, maîtrise le codage et les mathématiques, et parle couramment cinq langues – français, anglais, allemand, espagnol et italien – conformément à l’engagement de Mistral AI de promouvoir les particularités culturelles et linguistiques de la technologie d’IA générationnelle. Il peut également traiter des centaines de pages de documents en une seule requête. De plus, les clients de Snowflake ont accès à Mixtral 8x7B, le modèle open source de Mistral AI qui surpasse GPT3.5 d’OpenAI en vitesse et en qualité dans la plupart des benchmarks, ainsi que Mistral 7B, le premier modèle fondateur de Mistral AI optimisé pour une faible latence avec une faible exigence de mémoire et des performances élevées pour sa taille. Les modèles de Mistral AI sont maintenant disponibles en public preview dans le cadre de Snowflake Cortex, le service géré de recherche vectorielle et de LLM de Snowflake qui permet aux organisations d’accélérer l’analyse et de développer rapidement des applications d’IA en toute sécurité avec leurs données d’entreprise.
« En s’associant avec Mistral AI, Snowflake met l’un des LLM les plus puissants du marché entre les mains de nos clients, permettant à chaque utilisateur de construire des applications d’IA de pointe de manière simple et à grande échelle », déclare Sridhar Ramaswamy, PDG de Snowflake. « Avec Snowflake comme pilier pour des données fiables, nous transformons la façon dont les entreprises exploitent la puissance des LLM via Snowflake Cortex pour aborder de manière rentable de nouveaux cas d’utilisation de l’IA dans les limites de sécurité et de confidentialité du Data Cloud », ajoute-t-il.
« L’engagement de Snowflake envers la sécurité, la confidentialité et la gouvernance s’accorde avec l’ambition de Mistral AI de mettre l’IA de pointe entre les mains de tous et d’être accessible partout. Mistral AI partage les valeurs de Snowflake pour développer des modèles d’IA efficaces, utiles et fiables qui stimulent la façon dont les organisations du monde entier exploitent l’IA générationnelle », indique Arthur Mensch, PDG et cofondateur de Mistral AI. « Avec nos modèles disponibles dans Snowflake Data Cloud, nous sommes en mesure de démocratiser encore plus l’IA pour que les utilisateurs puissent créer des applications d’IA plus sophistiquées qui stimulent la valeur à l’échelle mondiale », précise-t-il.
Au Snowday 2023, Snowflake Cortex a annoncé pour la première fois la compatibilité avec les principaux LLM du secteur pour des tâches spécialisées comme l’analyse des sentiments, la traduction et le résumé, ainsi que les LLM fondateurs – à commencer par le modèle Llama 2 de Meta AI – pour des cas d’utilisation comme la génération augmentée par récupération (RAG). Snowflake continue d’investir dans ses efforts d’IA générationnelle en s’associant avec Mistral AI et en faisant progresser l’ensemble des LLM fondateurs dans Snowflake Cortex, fournissant aux organisations un moyen aisé d’intégrer l’IA générationnelle de pointe dans chaque aspect de leur entreprise. Pour offrir une expérience sans serveur qui rend l’IA accessible à un large éventail d’utilisateurs, Snowflake Cortex élimine les longs cycles d’acquisition et la gestion complexe de l’infrastructure GPU en s’associant avec NVIDIA pour offrir une plateforme de calcul accéléré dans l’ensemble de la pile qui tire parti du NVIDIA Triton Inference Server, entre autres outils.
Avec les fonctions LLM de Snowflake Cortex en public preview, les utilisateurs de Snowflake peuvent exploiter l’IA avec leurs données d’entreprise pour prendre en charge une large gamme de cas d’utilisation. En utilisant des fonctions spécialisées, tout utilisateur ayant des connaissances en SQL peut exploiter des LLM plus petits pour aborder de manière rentable des tâches spécifiques comme l’analyse des sentiments, la traduction et le résumé en quelques secondes. Pour des cas d’utilisation plus complexes, les développeurs Python peuvent passer en quelques minutes du concept aux applications d’IA complètes, comme les chatbots, en combinant la puissance des LLM fondateurs – y compris les LLM de Mistral AI dans Snowflake Cortex – avec des éléments de chat, en public preview prochainement, dans Streamlit sur Snowflake. Cette expérience simplifiée est également valable pour le RAG avec les fonctions vectorielles intégrées et les types de données vectorielles de Snowflake, tous deux en public preview prochainement, tout en garantissant que les données ne quittent jamais le périmètre de sécurité et de gouvernance de Snowflake.
Snowflake s’engage à stimuler l’innovation en IA non seulement pour ses clients et l’écosystème Data Cloud, mais aussi pour la communauté technologique en général. À cette fin, Snowflake a récemment rejoint l’AI Alliance, une communauté internationale de développeurs, de chercheurs et d’organisations dédiée à la promotion d’une IA ouverte, sûre et responsable. Par le biais de l’AI Alliance, Snowflake continuera à aborder de manière globale et ouverte aussi bien les défis que les opportunités de l’IA générationnelle afin de démocratiser encore plus ses avantages.
Comment scanner de grands volumes de stockage à la recherche de malware sans affecter les performances