Étiquette :

Nuvacore startup processeur CPU intelligence artificielle silicium nouvelle génération

Nuvacore entre en la course du silicium pour l’IA avec d’anciens responsables d’Intel et AMD

Alors que le débat sur l’infrastructure de l’intelligence artificielle tourne quasi exclusivement autour des GPU, une nouvelle startup débarque avec une thèse radicalement différente : le CPU reste le maillon faible de la chaîne, et personne ne l’a encore vraiment conçu pour l’ère de l’IA agentique. Nuvacore, fondée par Gerard Williams, John Bruno et Ram Srinivasan — des vétérans de l’industrie semiconducteur venus de Nuvia, Apple et Qualcomm — ambitionne de réécrire les règles du silicium avec le soutien de Sequoia Capital. Dans un secteur où Intel et AMD dominent depuis des décennies, l’irruption d’une telle équipe représente un signal que l’industrie ne peut ignorer. La promesse est ambitieuse : développer un cœur CPU généraliste conçu depuis zéro, optimisé non

OpenAI et Cerebras : infrastructure d'inférence IA wafer-scale pour réduire la dépendance à NVIDIA

OpenAI mise sur Cerebras pour l’inférence rapide et réduire sa dépendance à NVIDIA

Vingt milliards de dollars sur trois ans : c’est l’ampleur de l’investissement qu’OpenAI envisagerait de consacrer à des serveurs équipés de puces Cerebras, selon des informations publiées par The Information et reprises par plusieurs médias financiers anglo-saxons. Si ces chiffres ne sont pas encore officiellement confirmés, ce qui l’est sans équivoque, c’est la direction stratégique qu’OpenAI a choisie : diversifier son infrastructure matérielle pour s’affranchir d’une dépendance excessive à un seul fournisseur de GPU, et conquérir le marché de l’inférence à faible latence. En janvier 2026, OpenAI et Cerebras ont officiellement annoncé un partenariat pluriannuel pour déployer 750 MW de puissance de calcul d’inférence à très faible latence, grâce aux systèmes wafer-scale de Cerebras. La montée en charge débutera progressivement

Celonis et Oracle renforcent leur partenariat pour l'intelligence des processus et l'IA d'entreprise

Celonis et Oracle renforcent leur partenariat pour stimuler l’intelligence des processus

Quand Celonis, le spécialiste mondial de la process intelligence, renforce son alliance avec Oracle, c’est l’ensemble de la chaîne de valeur des entreprises qui en bénéficie. L’annonce faite en avril 2026 n’est pas un simple communiqué de partenariat : elle marque un tournant stratégique dans la façon dont les grandes organisations vont déployer l’intelligence artificielle dans leurs opérations métier. Avec Oracle Cloud Infrastructure (OCI) comme socle et la plateforme Celonis comme couche intelligente, l’objectif est clair — transformer les systèmes ERP en moteurs d’automatisation autonome. Dans un contexte où les investissements en IA d’entreprise atteignent des niveaux record en 2026, la question n’est plus de savoir si les entreprises vont adopter l’IA, mais comment elles vont l’ancrer dans leurs processus

Oracle région cloud Casablanca - Première infrastructure hyperscaler en Afrique du Nord

Oracle à Casablanca : la première région cloud publique d’un hyperscaler en Afrique du Nord

Le 7 avril 2026, Oracle a officiellement inauguré sa région cloud publique à Casablanca, marquant une première dans l’histoire du cloud africain : aucun hyperscaler mondial n’avait encore déployé une infrastructure publique en Afrique du Nord. Derrière l’annonce se cache une stratégie bien plus large — un pari de 140 millions de dollars sur le Maroc comme plateforme numérique régionale, à la croisée de l’Europe, du Maghreb et de l’Afrique de l’Ouest. Dans un marché où la souveraineté des données n’est plus une option mais une exigence réglementaire, Oracle s’est positionné avant AWS, Azure ou Google Cloud sur ce territoire à fort potentiel. La région porte l’identifiant technique af-casablanca-1 (code LEJ), s’appuie sur un seul domaine de disponibilité, et est

Dette technique de Wise : migration d'entier 32 bits vers BIGINT dans une base de données fintech

Dette technique Wise : quand un entier 32 bits révèle 16 ans de croissance

Un tweet humoristique de Kristo Käärmann, cofondateur et PDG de Wise, a mis en lumière l’une des réalités les plus instructives de l’ingénierie logicielle à grande échelle : en 2010, lors de l’écriture des premières lignes de code de la fintech, un simple choix de type de donnée — int plutôt que long — est aujourd’hui sur le point d’atteindre sa limite physique. Après 16 ans et 145,2 milliards de livres sterling de volumes transfrontaliers traités, Wise approche du plafond de 2 147 483 647 valeurs positives d’un entier signé de 32 bits. Ce n’est pas une catastrophe opérationnelle. C’est, paradoxalement, la preuve d’une réussite exceptionnelle — et une leçon d’architecture que tout ingénieur devrait connaître. La dette technique de Wise n’est pas

Virtualisation vs conteneurs : architecture d'infrastructure cloud moderne en 2026

Virtualisation vs conteneurs : quel choix pour votre infrastructure en 2026 ?

En 2026, le débat virtualisation versus conteneurs n’est toujours pas tranché — et c’est précisément parce qu’il n’a pas à l’être. Les deux technologies coexistent dans la grande majorité des architectures cloud modernes, chacune répondant à des contraintes spécifiques que l’autre ne peut pas satisfaire. Pourtant, les équipes IT continuent de se heurter à la même question : quand choisir l’une plutôt que l’autre, et comment des services comme exe.dev s’inscrivent-ils dans ce paysage ? La réponse ne tient pas en une formule simple. Elle dépend du type de charge, du niveau d’isolement requis, de la maturité opérationnelle de l’équipe et des contraintes économiques du projet. Ce qui a changé en 2026, c’est l’émergence d’un troisième vecteur : les environnements

Nuvacore startup processeur CPU intelligence artificielle silicium nouvelle génération

Nuvacore entre en la course du silicium pour l’IA avec d’anciens responsables d’Intel et AMD

Alors que le débat sur l’infrastructure de l’intelligence artificielle tourne quasi exclusivement autour des GPU, une nouvelle startup débarque avec une thèse radicalement différente : le CPU reste le maillon faible de la chaîne, et personne ne l’a encore vraiment conçu pour l’ère de l’IA agentique. Nuvacore, fondée par Gerard Williams, John Bruno et Ram Srinivasan — des vétérans de l’industrie semiconducteur venus de Nuvia, Apple et Qualcomm — ambitionne de réécrire les règles du silicium avec le soutien de Sequoia Capital. Dans un secteur où Intel et AMD dominent depuis des décennies, l’irruption d’une telle équipe représente un signal que l’industrie ne peut ignorer. La promesse est ambitieuse : développer un cœur CPU généraliste conçu depuis zéro, optimisé non

OpenAI et Cerebras : infrastructure d'inférence IA wafer-scale pour réduire la dépendance à NVIDIA

OpenAI mise sur Cerebras pour l’inférence rapide et réduire sa dépendance à NVIDIA

Vingt milliards de dollars sur trois ans : c’est l’ampleur de l’investissement qu’OpenAI envisagerait de consacrer à des serveurs équipés de puces Cerebras, selon des informations publiées par The Information et reprises par plusieurs médias financiers anglo-saxons. Si ces chiffres ne sont pas encore officiellement confirmés, ce qui l’est sans équivoque, c’est la direction stratégique qu’OpenAI a choisie : diversifier son infrastructure matérielle pour s’affranchir d’une dépendance excessive à un seul fournisseur de GPU, et conquérir le marché de l’inférence à faible latence. En janvier 2026, OpenAI et Cerebras ont officiellement annoncé un partenariat pluriannuel pour déployer 750 MW de puissance de calcul d’inférence à très faible latence, grâce aux systèmes wafer-scale de Cerebras. La montée en charge débutera progressivement

Celonis et Oracle renforcent leur partenariat pour l'intelligence des processus et l'IA d'entreprise

Celonis et Oracle renforcent leur partenariat pour stimuler l’intelligence des processus

Quand Celonis, le spécialiste mondial de la process intelligence, renforce son alliance avec Oracle, c’est l’ensemble de la chaîne de valeur des entreprises qui en bénéficie. L’annonce faite en avril 2026 n’est pas un simple communiqué de partenariat : elle marque un tournant stratégique dans la façon dont les grandes organisations vont déployer l’intelligence artificielle dans leurs opérations métier. Avec Oracle Cloud Infrastructure (OCI) comme socle et la plateforme Celonis comme couche intelligente, l’objectif est clair — transformer les systèmes ERP en moteurs d’automatisation autonome. Dans un contexte où les investissements en IA d’entreprise atteignent des niveaux record en 2026, la question n’est plus de savoir si les entreprises vont adopter l’IA, mais comment elles vont l’ancrer dans leurs processus

Oracle région cloud Casablanca - Première infrastructure hyperscaler en Afrique du Nord

Oracle à Casablanca : la première région cloud publique d’un hyperscaler en Afrique du Nord

Le 7 avril 2026, Oracle a officiellement inauguré sa région cloud publique à Casablanca, marquant une première dans l’histoire du cloud africain : aucun hyperscaler mondial n’avait encore déployé une infrastructure publique en Afrique du Nord. Derrière l’annonce se cache une stratégie bien plus large — un pari de 140 millions de dollars sur le Maroc comme plateforme numérique régionale, à la croisée de l’Europe, du Maghreb et de l’Afrique de l’Ouest. Dans un marché où la souveraineté des données n’est plus une option mais une exigence réglementaire, Oracle s’est positionné avant AWS, Azure ou Google Cloud sur ce territoire à fort potentiel. La région porte l’identifiant technique af-casablanca-1 (code LEJ), s’appuie sur un seul domaine de disponibilité, et est

Dette technique de Wise : migration d'entier 32 bits vers BIGINT dans une base de données fintech

Dette technique Wise : quand un entier 32 bits révèle 16 ans de croissance

Un tweet humoristique de Kristo Käärmann, cofondateur et PDG de Wise, a mis en lumière l’une des réalités les plus instructives de l’ingénierie logicielle à grande échelle : en 2010, lors de l’écriture des premières lignes de code de la fintech, un simple choix de type de donnée — int plutôt que long — est aujourd’hui sur le point d’atteindre sa limite physique. Après 16 ans et 145,2 milliards de livres sterling de volumes transfrontaliers traités, Wise approche du plafond de 2 147 483 647 valeurs positives d’un entier signé de 32 bits. Ce n’est pas une catastrophe opérationnelle. C’est, paradoxalement, la preuve d’une réussite exceptionnelle — et une leçon d’architecture que tout ingénieur devrait connaître. La dette technique de Wise n’est pas

Virtualisation vs conteneurs : architecture d'infrastructure cloud moderne en 2026

Virtualisation vs conteneurs : quel choix pour votre infrastructure en 2026 ?

En 2026, le débat virtualisation versus conteneurs n’est toujours pas tranché — et c’est précisément parce qu’il n’a pas à l’être. Les deux technologies coexistent dans la grande majorité des architectures cloud modernes, chacune répondant à des contraintes spécifiques que l’autre ne peut pas satisfaire. Pourtant, les équipes IT continuent de se heurter à la même question : quand choisir l’une plutôt que l’autre, et comment des services comme exe.dev s’inscrivent-ils dans ce paysage ? La réponse ne tient pas en une formule simple. Elle dépend du type de charge, du niveau d’isolement requis, de la maturité opérationnelle de l’équipe et des contraintes économiques du projet. Ce qui a changé en 2026, c’est l’émergence d’un troisième vecteur : les environnements