Confluent Présente de Nouvelles Fonctionnalités pour Apache Flink® sur Confluent Cloud
Confluent a dévoilé de nouvelles fonctionnalités dans Confluent Cloud pour Apache Flink®, visant à simplifier et accélérer le développement d’applications d’intelligence artificielle (IA) en temps réel. Parmi ces nouveautés figure l’Inference Native Flink, qui élimine la nécessité de flux de travail complexes, permettant ainsi aux équipes d’exécuter directement sur Confluent Cloud n’importe quel modèle d’IA open source.
Une autre amélioration notable est la Recherche Unifiée dans Flink, qui centralise l’accès aux données provenant de différentes bases de données vectorielles, facilitant ainsi la découverte et la récupération d’informations depuis une interface unique.
De plus, Confluent a intégré de nouvelles capacités de machine learning (ML) dans Flink SQL, ce qui permet l’application de cas d’utilisation avancés propulsés par l’IA, tels que la prévision et la détection d’anomalies, de manière intuitive et directe.
Avec ces innovations, Confluent redéfinit la façon dont les entreprises peuvent exploiter l’intelligence artificielle pour améliorer l’acquisition de clients et la prise de décisions en temps réel.
"Développer des applications d’IA en temps réel a été trop complexe pendant trop longtemps, nécessitant un labyrinthe d’outils et des connaissances approfondies juste pour commencer", déclare Shaun Clowes, Responsable Produit de Confluent. "Avec les récents avancées sur Confluent Cloud pour Apache Flink, nous levons ces barrières, rendant l’intelligence de streaming de données propulsée par l’IA accessible à toutes les équipes. Ce qui nécessitait auparavant un ensemble complexe de technologies peut désormais être fait de manière fluide sur notre plateforme native, avec une sécurité de niveau entreprise et des économies de coûts intégrées."
L’engouement pour l’IA est déjà palpable. Selon McKinsey, 92 % des entreprises prévoient d’augmenter leurs investissements en IA au cours des trois prochaines années. Les organisations cherchent à tirer parti de cette opportunité pour capitaliser sur les promesses de l’IA. Cependant, la création d’applications d’IA en temps réel reste un défi. Les développeurs jonglent avec de nombreux outils, langages et interfaces pour intégrer des modèles ML et extraire des contextes précieux des multiples sources de données. Ce flux de travail fragmenté entraîne des inefficacités coûteuses, des ralentissements opérationnels et des hallucinations de l’IA susceptibles de nuire à leur réputation.
Simplifiez le Chemin vers le Succès de l’IA
"Confluent nous aide à accélérer l’adoption du copilote pour nos clients, en donnant aux équipes accès à des connaissances organisationnelles précieuses en temps réel", affirme Steffen Hoellinger, Co-fondateur et CEO d’Airy. "La plateforme de streaming de données de Confluent avec Flink AI Model Inference a simplifié notre base technologique nous permettant de travailler directement avec de grands modèles linguistiques (LLM) et des bases de données vectorielles pour la génération de récupération augmentée (RAG) et l’intelligence des schémas, fournissant un contexte en temps réel pour des agents d’IA plus intelligents. En conséquence, nos clients ont atteint une productivité accrue et des flux de travail optimisés dans toutes leurs opérations."
En tant que seule solution serverless de traitement de streaming de données sur le marché, qui unifie le traitement en temps réel et par lots, Confluent Cloud pour Apache Flink permet aux équipes de gérer facilement à la fois des flux de données continus et des charges de travail par lots sur une seule plateforme. Cela élimine la complexité et la surcharge opérationnelle liées à la gestion de solutions de traitement indépendantes. Avec ces nouvelles fonctions d’IA, de ML et d’analyse, les entreprises peuvent optimiser leurs workflows et réaliser des gains d’efficacité. Ces fonctionnalités sont disponibles dans le cadre d’un programme d’accès anticipé, ouvert à l’inscription des clients de Confluent Cloud.
- Inference Native Flink : exécutez des modèles d’IA open source sur Confluent Cloud sans gestion d’infrastructure supplémentaire.
Lorsqu’ils travaillent avec des modèles ML et des pipelines de données, les développeurs utilisent souvent des outils et des langages indépendants, entraînant des flux de travail complexes et fragmentés avec des données obsolètes. L’Inference Native Flink simplifie cela en permettant aux équipes d’exécuter directement des modèles d’IA open source ou ajustés sur Confluent Cloud. Cette approche offre plus de flexibilité et d’économies. De plus, les données ne sortent jamais de la plateforme pour leur inférence, ce qui ajoute un niveau de sécurité supplémentaire.
- Recherche dans Flink : utilisez une seule interface pour accéder aux données de plusieurs bases de données vectorielles.
Les recherches vectorielles fournissent à de vastes modèles de langage (LLM) le contexte nécessaire pour éviter les hallucinations et garantir des résultats fiables. La recherche dans Flink simplifie l’accès aux données en temps réel depuis des bases de données vectorielles comme MongoDB, Elasticsearch et Pinecone. Cela élimine le besoin de processus ETL complexes ou de consolidation manuelle des données, ce qui fait gagner du temps et des ressources tout en garantissant que les données soient contextuelles et toujours à jour.
- Fonctions ML intégrées : rendez les compétences en science des données accessibles à plus d’équipes.
De nombreuses solutions de science des données exigent un savoir-faire hautement spécialisé, ce qui crée des goulets d’étranglement dans les cycles de développement. Les fonctions ML intégrées simplifient des tâches complexes telles que la prévision, la détection des anomalies et la visualisation en temps réel, directement dans Flink SQL. Ces fonctions rendent l’IA en temps réel accessible à davantage de développeurs, permettant ainsi aux équipes d’obtenir des informations exploitables plus rapidement et donnant aux entreprises la capacité de prendre des décisions plus judicieuses avec une plus grande vitesse et agilité.
"La capacité d’intégrer des données en temps réel, contextualisées et fiables dans des modèles d’IA et de ML donnera aux entreprises un avantage concurrentiel avec l’IA", déclare Stewart Bond, Vice-Président de l’Intelligence des Données et du Logiciel d’Intégration chez IDC. "Les organisations doivent unifier le traitement des données et les flux de travail de l’IA pour obtenir des prévisions précises et des réponses LLM. Flink fournit une interface unique pour orchestrer l’inférence et la recherche vectorielle pour RAG, et sa disponibilité dans une mise en œuvre native dans le cloud et entièrement gérée rendra l’analyse en temps réel et l’IA plus accessibles et applicables à l’avenir de l’IA générative et agentique."