Auteur : Info Cloud

La mémoire LPDDR devient plus chère et Apple fait pression sur Android Ultra

LPDDR : Apple resserre l’étau sur les Android Ultra

Les contrats DRAM grimpent de 58 à 63 % et la NAND Flash de 70 à 75 % au deuxième trimestre 2026, d’après les prévisions de TrendForce. Cette flambée touche tout le secteur mobile, mais elle ne pèse pas de la même manière sur tous les fabricants. Apple a reconnu que la mémoire affectera ses marges du trimestre de juin, sans pour autant donner de signe de panique. Tim Cook a même précisé que sa principale contrainte d’approvisionnement vient des nœuds de fabrication avancés pour ses puces, pas de la LPDDR. Pour les concurrents Android, la lecture est moins sereine. L’échelle d’Apple, son arme cachée Plusieurs sources de la chaîne d’approvisionnement répètent depuis quelques mois la même chose : Cupertino

Jensen Huang revendique le rôle d'Elon Musk dans la création d'OpenAI et le pari précoce sur NVIDIA

L’IA et le défi caché : avoir des GPU ne signifie pas savoir comment les utiliser

La carrera en inteligencia artificial se ha explicado con frecuencia como una competencia por la adquisición masiva de GPUs. Cuantos más chips NVIDIA, mayor será la capacidad para entrenar modelos y mayores las opciones de competir con gigantes como OpenAI, Google, Anthropic o Meta. Sin embargo, una información reciente sobre xAI, la empresa de Elon Musk responsable de Grok, nos recuerda que el verdadero cuello de botella no siempre radica en comprar hardware, sino en hacer que ese hardware funcione de manera eficiente. Según The Information, xAI estaría utilizando aproximadamente solo el 11 % de su flota de GPUs NVIDIA, una cifra muy baja en comparación con los niveles reportados por otros grandes actores como Meta y Google, que estarían

La DDR6 commence à prendre forme : plus de bande passante, de nouveaux modules et arrivée prévue pour 2028

DDR6 : 17 600 MT/s, nouveaux modules et arrivée fin 2028

Samsung, SK hynix et Micron ont commencé à briefer leurs fournisseurs de substrats sur la prochaine norme de mémoire vive. Objectif affiché : avoir des modules DDR6 prêts pour 2028-2029, avec des vitesses qui démarreraient autour de 8 800 MT/s pour grimper jusqu’à 17 600 MT/s. La spécification finale reste entre les mains du JEDEC, mais les fabricants n’attendent pas le feu vert pour valider épaisseur, empilement et câblage. Ce coup d’accélérateur tombe dans un marché mémoire sous tension : la demande IA absorbe la HBM, les prix de la DRAM et de la NAND grimpent, et fabricants de PC, smartphones et centres de données encaissent. Aligner les designs sur la future norme tôt, c’est la condition pour ne pas

Amazon transforme Connect en une famille de solutions d'IA agnostiques pour les entreprises

Amazon transforme Connect en une famille de solutions d’IA agnostiques pour les entreprises

Amazon Web Services élargit considérablement Amazon Connect, le faisant sortir du seul cadre du centre de contact. Ce qui était à l’origine une technologie conçue pour la gestion du service client d’Amazon, puis devenue un service cloud pour les entreprises, évolue désormais en une famille de solutions d’intelligence artificielle orientées vers des processus métier spécifiques : la chaîne d’approvisionnement, le recrutement, l’expérience client et la santé. La société a restructuré sa marque en quatre produits : Amazon Connect Decisions, dédié à la planification et à la prise de décision dans la chaîne d’approvisionnement ; Amazon Connect Talent, pour le recrutement à grande échelle ; Amazon Connect Customer, qui reprend le nom du produit original centré sur le service client ;

Eurecat anticipe de nouveaux systèmes cyber-physiques et applications robotiques qui représentent une avancée technologique dans la fabrication industrielle

Eurecat présente sa robotique IA à Advanced Factories

Le centre technologique catalan Eurecat débarque ce 5 mai à Advanced Factories, le rendez-vous industriel qui se tient à la Fira de Barcelone, avec une série d’outils qui dessinent assez bien à quoi ressemblera l’usine espagnole des cinq prochaines années : robots quadrupèdes autonomes, jumeaux numériques pilotés par intelligence artificielle, vision photonique pour la fabrication zéro défaut et un passeport numérique du produit pensé pour répondre aux exigences européennes en matière d’économie circulaire. Derrière la démonstration commerciale, l’enjeu est réel. Les systèmes cyber-physiques présentés par Eurecat ont été développés avec des industriels qui produisent au quotidien : Codorníu pour la manipulation de bouteilles de cava, Metalogenia pour le suivi de pelles mécaniques, Carpel pour l’aéronautique, Rotimpress et Pröll. Pas des prototypes académiques : des

Micron augmente la mise avec GDDR7 de 24 Gbit et 36 Gb/s : plus de VRAM et plus de bande passante pour la prochaine vague de GPU

Micron : la pénurie mémoire IA n’en est qu’au début

Au sommet de la chaîne IA, on parle volontiers de GPU, de centres de données et de mégawatts. La pièce que peu de gens regardaient jusqu’ici, la mémoire, vient pourtant de prendre la première place dans les résultats trimestriels de Micron. Et ce que le fabricant américain annonce ne ressemble pas à un pic conjoncturel : la demande de DRAM, de NAND et de HBM pour l’IA en serait, selon son CEO Sanjay Mehrotra, « aux premiers innings ». Autrement dit, le marché de la mémoire n’est pas en haut de cycle. Il est en train d’en changer la définition. Avec un chiffre d’affaires presque triplé sur un an et une marge brute hors GAAP qui passe de 37,9 %

La mémoire LPDDR devient plus chère et Apple fait pression sur Android Ultra

LPDDR : Apple resserre l’étau sur les Android Ultra

Les contrats DRAM grimpent de 58 à 63 % et la NAND Flash de 70 à 75 % au deuxième trimestre 2026, d’après les prévisions de TrendForce. Cette flambée touche tout le secteur mobile, mais elle ne pèse pas de la même manière sur tous les fabricants. Apple a reconnu que la mémoire affectera ses marges du trimestre de juin, sans pour autant donner de signe de panique. Tim Cook a même précisé que sa principale contrainte d’approvisionnement vient des nœuds de fabrication avancés pour ses puces, pas de la LPDDR. Pour les concurrents Android, la lecture est moins sereine. L’échelle d’Apple, son arme cachée Plusieurs sources de la chaîne d’approvisionnement répètent depuis quelques mois la même chose : Cupertino

Jensen Huang revendique le rôle d'Elon Musk dans la création d'OpenAI et le pari précoce sur NVIDIA

L’IA et le défi caché : avoir des GPU ne signifie pas savoir comment les utiliser

La carrera en inteligencia artificial se ha explicado con frecuencia como una competencia por la adquisición masiva de GPUs. Cuantos más chips NVIDIA, mayor será la capacidad para entrenar modelos y mayores las opciones de competir con gigantes como OpenAI, Google, Anthropic o Meta. Sin embargo, una información reciente sobre xAI, la empresa de Elon Musk responsable de Grok, nos recuerda que el verdadero cuello de botella no siempre radica en comprar hardware, sino en hacer que ese hardware funcione de manera eficiente. Según The Information, xAI estaría utilizando aproximadamente solo el 11 % de su flota de GPUs NVIDIA, una cifra muy baja en comparación con los niveles reportados por otros grandes actores como Meta y Google, que estarían

La DDR6 commence à prendre forme : plus de bande passante, de nouveaux modules et arrivée prévue pour 2028

DDR6 : 17 600 MT/s, nouveaux modules et arrivée fin 2028

Samsung, SK hynix et Micron ont commencé à briefer leurs fournisseurs de substrats sur la prochaine norme de mémoire vive. Objectif affiché : avoir des modules DDR6 prêts pour 2028-2029, avec des vitesses qui démarreraient autour de 8 800 MT/s pour grimper jusqu’à 17 600 MT/s. La spécification finale reste entre les mains du JEDEC, mais les fabricants n’attendent pas le feu vert pour valider épaisseur, empilement et câblage. Ce coup d’accélérateur tombe dans un marché mémoire sous tension : la demande IA absorbe la HBM, les prix de la DRAM et de la NAND grimpent, et fabricants de PC, smartphones et centres de données encaissent. Aligner les designs sur la future norme tôt, c’est la condition pour ne pas

Amazon transforme Connect en une famille de solutions d'IA agnostiques pour les entreprises

Amazon transforme Connect en une famille de solutions d’IA agnostiques pour les entreprises

Amazon Web Services élargit considérablement Amazon Connect, le faisant sortir du seul cadre du centre de contact. Ce qui était à l’origine une technologie conçue pour la gestion du service client d’Amazon, puis devenue un service cloud pour les entreprises, évolue désormais en une famille de solutions d’intelligence artificielle orientées vers des processus métier spécifiques : la chaîne d’approvisionnement, le recrutement, l’expérience client et la santé. La société a restructuré sa marque en quatre produits : Amazon Connect Decisions, dédié à la planification et à la prise de décision dans la chaîne d’approvisionnement ; Amazon Connect Talent, pour le recrutement à grande échelle ; Amazon Connect Customer, qui reprend le nom du produit original centré sur le service client ;

Eurecat anticipe de nouveaux systèmes cyber-physiques et applications robotiques qui représentent une avancée technologique dans la fabrication industrielle

Eurecat présente sa robotique IA à Advanced Factories

Le centre technologique catalan Eurecat débarque ce 5 mai à Advanced Factories, le rendez-vous industriel qui se tient à la Fira de Barcelone, avec une série d’outils qui dessinent assez bien à quoi ressemblera l’usine espagnole des cinq prochaines années : robots quadrupèdes autonomes, jumeaux numériques pilotés par intelligence artificielle, vision photonique pour la fabrication zéro défaut et un passeport numérique du produit pensé pour répondre aux exigences européennes en matière d’économie circulaire. Derrière la démonstration commerciale, l’enjeu est réel. Les systèmes cyber-physiques présentés par Eurecat ont été développés avec des industriels qui produisent au quotidien : Codorníu pour la manipulation de bouteilles de cava, Metalogenia pour le suivi de pelles mécaniques, Carpel pour l’aéronautique, Rotimpress et Pröll. Pas des prototypes académiques : des

Micron augmente la mise avec GDDR7 de 24 Gbit et 36 Gb/s : plus de VRAM et plus de bande passante pour la prochaine vague de GPU

Micron : la pénurie mémoire IA n’en est qu’au début

Au sommet de la chaîne IA, on parle volontiers de GPU, de centres de données et de mégawatts. La pièce que peu de gens regardaient jusqu’ici, la mémoire, vient pourtant de prendre la première place dans les résultats trimestriels de Micron. Et ce que le fabricant américain annonce ne ressemble pas à un pic conjoncturel : la demande de DRAM, de NAND et de HBM pour l’IA en serait, selon son CEO Sanjay Mehrotra, « aux premiers innings ». Autrement dit, le marché de la mémoire n’est pas en haut de cycle. Il est en train d’en changer la définition. Avec un chiffre d’affaires presque triplé sur un an et une marge brute hors GAAP qui passe de 37,9 %