Lateo.net - Flux RSS en pagaille (pour en ajouter : @ moi)

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierMiniMachines.net

Ô surprise, l’AI Pin n’est pas une expérience formidable

Minimachines.net en partenariat avec TopAchat.com

Je ne vous ai pas parlé de l’AI Pin de Humane par le passé, plus par manque de temps qu’autre chose. Il faut dire que la commercialisation réservée aux Amériques ne faisait pas de ce produit une de mes priorité.

Aujourd’hui cependant je ne résiste pas à l’envie de vous faire un petit retour sur ce gadget car il met en lumière deux aspects intéressants du marché actuel. La communication autour de l’IA et les usages de cette technologie au détriment de toute logique.

Commençons rapidement par une présentation sommaire de l’objet. L’AI Pin est un assistant portable qui exploite à 100% une « Intelligence Artificielle » pour fonctionner. Il doit son nom à cette « AI » et au mot « Pin » qui désigne son côté broche. Le petit objet est en effet fixé à la poitrine à la manière d’un gros pins. Il est accroché soit par un système magnétique soit par une pince. Placé de façon a écouter vos ordres et avoir le même « point de vue » que vous. Sa caméra embarquée a le même regard que le porteur sur le monde. L’AI Pin contient une batterie, un SoC sommaire et une connexion à internet via une ligne mobile ou Wi-Fi. Il ne fait pas grand chose de lui même, toutes les données collectées et toutes les informations transmises proviennent d’un serveur dans les nuages. Ce qui implique un abonnement mensuel pour exploiter ces serveurs propriétaires. Un abonnement qui coute tout de même 24$ HT par mois est qui est totalement nécessaire pour l’utiliser. Avec un prix d’achat de 699$ HT, l’ensemble revient donc à un coup d’exploitation sur la première année de quelque chose comme 990$ HT soit 1 115€ TTC. Ce n’est pas donné, c’est le prix d’un excellent smartphone « classique » avec un abonnement très correct auprès d’un opérateur. Sans oublier que si vous ne voulez pas payer pour cet abonnement à 24 $ HT pièce vous transformez votre AI Pin en un mauvais presse-papier.

En échange de ces sommes conséquentes, Humane explique que vous aurez un assistant virtuel intelligent toujours et partout avec vous. Son principal argument est que l’objet vous permettre de vous passer de sortir votre smartphone de votre poche. Si « sur le papier » cela semble très prometteur, en pratique c’est totalement catastrophique. Les équipes de Humane ont surtout travaillé l’objet en tant qu’objet mais son IA est largement perfectible.

Les sites US ont reçu les appareils qu’ils avaient commandé pour test et dire que l’AI Pin souffre en ce moment d’un sévère retour de bâton est un doux euphémisme. L’appareil est médiocre dans la majorité de ses usages. Les fonctions de base comme demander des informations classiques sont peu pratiques. La météo ou le trafic sont mal compris quand ils sont questionnés et on se retrouve avec des informations concernant le mauvais lieu au mauvais moment en retour. Des éléments de guidage sont mal interprétées, la caméra embarquée ne sait littéralement pas lire de manière systématique l’image qui lui est présentée. Les usages les plus simples comme demander de jouer une musique sont totalement aléatoires.

Tant et si bien que la plupart des retours montrent un agacement très rapide à l’usage de l’objet. On passe très vite du côté assistant virtuel à dresseur d’une IA en Beta. Les testeurs essayent de corriger l’objet en lui répétant la question, en articulant mieux leurs phrases, en détachant les mots… Avant de sortir leur smartphone pour un résultat plus convaincant. Le petit appareil propose un petit projecteur laser 720p monochrome qui permet en théorie de pousser une information sur le creux de votre main, afin de pouvoir la lire. Ce projecteur est faiblard et l’image produite est souvent difficile à déchiffrer. L’autonomie globale est risible avec des batteries qui ne tiennent que 2 à 3 heures et un appareil qu’il conviendra de penser a recharger en permanence grâce à l’étui livré. Pire encore, la position accrochée à un vêtement laisse un sentiment de chaleur à l’utilisateur qui sent à son contact que la batterie le réchauffe. Et parfois assez fort, probablement à cause de la gestion de la recharge sans fil proposée.

Deux vidéos très critiques sur les usages de l’appareil a contraster avec la promesse faite par la marque.

Pire que tout, les interrogations que l’on formule à son appareil vous laissent en suspend. Quand on arrive à se faire comprendre, quand l’engin entend bien votre question et la traite correctement, le temps de la réponse varie entre 5 et 10 secondes. Cela n’a pas l’air très long comme cela mais c’est absolument énorme au quotidien. Attendre ne serait-ce que 5 vraies secondes ce que votre smartphone affiche en un instant c’est le jour et la nuit quand c’est multiplié encore et encore tout au long de la journée. Et pour peu que AI Pin comprenne mal votre question, que vous soyez obligé de la reformuler comme cela semble arriver souvent, les 5 secondes se transforment en une demie minute voir pire.

AI Pin n’emploie pas d’applications, cela vous rappellera sans doute le Rabbit R1

Les réponses aux questions sont régulièrement totalement fausses et cela de manière très grossière. L’IA en place ne comprenant pas forcément bien votre interrogation. Il arrive également qu’il réponde à côté ou… pas du tout. L’objet perdant la question dans les méandres du réseau sans jamais vous le signaler. Un élément qui est d’autant plus agaçant que le délai de réponse variant régulièrement, l’utilisateur reste dans l’attente sans aucun signe d’avancée ou de traitement. Il arrive qu’un smartphone mette du temps a traiter une information, souvent à cause d’un problème de connexion. Mais les outils sont pensés pour vous faire patienter en donnant un signe de vie, une icône qui tourne en rond ou autre élément qui montre qu’il y a un travail effectué en cours. Sur l’AI Pin, rien mis à part des LEDs qui clignotent assez confusément avant d’arrêter. Et cela semble nerveusement épuisant.

L’appareil dans son boitier de recharge

Il arrive également que l’ensemble des opérations soit fluide et que vous posiez une question et obteniez une réponse dans un délai assez court. Rendant l’AI Pin plus pratique que de sortir un smartphone. Mais ces interactions réussies sont loin d’être la norme. Si il est possible de faire traduire une simple phrase d’une langue vers une autres assez efficacement, certains usages pourtant des plus logiques pour ce type d’appareil ne sont tout simplement pas pris en charge. On ne peut pas demander à son assistant de lancer un minuteur par exemple. Il ne sait pas le faire. Impossible de lui demander de jouer une musique sur Spotify, Deezer, Amazon Music ou autre, il ne connait que Tidal qu’il gère… très mal. Demander à votre appareil de créer une liste de course est possible mais cela ne fonctionne pas vraiment de manière régulière. La caméra embarquée permet de « piloter » l’appareil via des gestes mais qui ne sont pas forcément faciles a retenir et parfois mal interprétés. Pourquoi cela ? Parce que tout est géré par une IA, rien n’est piloté par des voies pré-écrites à l’avance comme avec une application. L’IA peut mal comprendre, mal interpréter ou se comporter très bêtement…

Pour finir, la batterie semble au mieux médiocre en terme de durée de vie malgré la possibilité d’ajouter plus d’autonomie via un système de remplacement assez malin. La partie intérieure qui vient accrocher magnétiquement l’AI Pin à votre vêtement est également une batterie qui fonctionne sans fil pour alimenter l’appareil. Une autre batterie est intégrée dans l’objet lui même ce qui permet de remplacer l’unité secondaire « à chaud », sans rien éteindre.

L’AI Pin pour quoi faire ?

La grande question est là. A quoi sert réellement cet AI Pin qui « raisonne » mal, coute fort cher et ne parvient pas a être suffisamment efficace pour qu’on ne lui préfère pas son smartphone au bout de quelques essais ? A rien. Enfin, à rien de plus que ce que permet déjà de manière plus intéressante, intime et efficace, un smartphone. Poser une question à une IA est déjà possible oralement avec une oreillette Bluetooth depuis des années. Prendre une photo également avec l’avantage de pouvoir la… cadrer ? Le point de vue d’une photo prise d’une poche de chemise un peu au hasard n’étant pas forcément le meilleur pour documenter les choses ou faire de la reconnaissance d’objet assistée par une IA. Sans compter la qualité moyenne de la prise de vue liée à une lentille poussant assez fort les déformations périphériques.

Et pour tout le reste, rien ne semble plus efficace avec l’AI Pin qu’avec un smartphone. Objet que l’utilisateur conservera de toutes façons dans sa poche quoi qu’il advienne. Personne avec un AI Pin fera une croix sur son téléphone. Même si le gadget était parfaitement efficace, il ne remplacera pas d’autres appareils et ne fera au mieux qu’ajouter du confort en libérant vos mains. Il est de toutes façons nécessaire d’employer un périphérique avec un écran pour surfer sur le site de Humane et lire le résultat de vos demandes : photos, petits films de 15 secondes max et listes y sont affichés. C’est donc un achat gadget par excellence qui ne sera jamais aussi indispensable qu’un smartphone aujourd’hui. Jamais un assistant de ce type ne vous permettra de remplacer les produits existants, ce n’est qu’une voie détournée pour arriver à une expérience déjà possible.

Que retenir de cet AI Pin ?

L’AI Pin est à mon avis plus une expérience sociale qu’un véritable objet intelligent. Tout l’objectif de Humane étant de vendre ce premier lot d’appareils avant de disparaitre dans les limbes des sociétés oubliées. Je ne sais pas réellement quel sera leur avenir mais le fait d’avoir oser livrer cet engin dans ces conditions est suicidaire pour une société. Personne ne va avoir envie d’acheter cet appareil hors de prix. Le coût de l’infrastructure ne sera pas viable et je ne donne pas beaucoup de temps  avant que ces joujoux à 700$ soient inexploitables parce que Humane aura mis la clé sous la porte.

Comme d’habitude le marketing a ici joué avec un mot clé à la mode. La promesse d’une « Intelligence Artificielle » a semble t-il fait des merveilles et de nombreux internautes en Amérique du Nord se sont laissés séduire par un discours plus proche de la science-fiction que du réel. Et en se penchant sur le projet d’un peu plus près on comprend que les motivations de nombreux internautes n’étaient pas vraiment d’acheter un assistant virtuel pratique mais plutôt d’acquérir un nouveau marqueur social. Le gadget à la mode du moment.

Pouvoir exhiber son AI Pin sur sa veste était sans doute vu comme un « must have » par certains utilisateurs. Un moyen de se démarquer tout en faisant l’étalage de ses richesses. En toute logique cet appareil n’apporte rien à qu’on ne puisse pas retrouver sur un smartphone déjà dans notre poche. Smartphone qui dispose d’outils fiables pilotés par des sociétés indépendantes. Smartphone qui, malgré son côté parfois gadget, est totalement admis socialement.  

Ce qui me fascine surtout c’est de voir a quel point ce produit a été pensé avant tout pour son exubérance. Il est là pour s’étaler, se montrer, faire voir à tout le monde que vous le possédez. Qui veut vraiment poser une question à l’oral à sa poche de veste ? Qui va prendre un rendez-vous avec cet objet en lui parlant ? Avec ce niveau d’intimité ? Qui va accepter de se former à un nouvel usage, a séparer calmement les syllabes de ses phrases, a dompter un langage des signes pour un résultat aléatoire et couteux ? Qui veut avoir un truc accroché sur soi en permanence, chromé en option (à 100$) et peu discret. Surtout quand il coute aussi cher ? Avec le risque de le décrocher et de le faire tomber, de l’écrabouiller dans un endroit un peu bondé ? La réponse a cette question est simple : Deux catégories de personnes sont susceptibles de céder à cette promesse. D’abord les gens qui ont y trouver un intérêt économique a l’exhiber. Des « influenceurs » ravis d’avoir un nouveau joujou a adorer ou à haïr, peu importe du moment que cela leur permettre de construire une « story » autour. Ensuite des gens qui sont en attente d’un retour permanent des autres, totalement insécures dans leurs choix de vie et qui vont avoir envie qu’on les voie au travers de ce nouveau prisme social. 

L’important de la promesse de Humane n’était pas tant de fournir un service mais de promettre aux possesseurs de cet objet d’avoir en leurs mains un artefact du futur. Un objet a exhiber à leur poche de veste exactement comme une médaille technologique. La preuve de leur technologisme en quelque sorte. Du même acabit que les pseudos robots d’intérieur aux compétences promises absolument folles mais qui n’ont jamais pu faire mieux que doucher les plus enthousiastes. Les « wearables » inexploitables et autres produits du genre.

Le problème pour Humane n’est pas très grave. La marque a réussi a vendre un tas de ces gadgets peu aboutis à une floppée de gens qui seront ravis de pouvoir s’en plaindre. Je suppose qu’il n’y aura pas d’AI Pin 2.0 et que la douche a été suffisamment froide pour tout le monde. La boite a déjà commencé a licencier en janvier dernier et ses dirigeants « anciens d’Apple » sauront se recaser ailleurs sans prendre en compte la casse humaine et écologique de leur entreprise. C’est le problème de ces appareils qui surfent sur une mode ou un terme technique. La frontière qui sépare l’objet à la mode de l’objet ridicule est bien mince. Il ne faut parfois qu’un instant pour que l’on passe de la fierté d’arborer un appareil à l’envie irrépressible de le faire disparaitre par peur de passer pour un imbécile. Il fût une époque où tout le monde avait un smartphone Blackberry et ou les plus tendance arboraient des Google Glass. Et, du jour ou lendemain, ces appareils sont devenus synonymes de ringardise. Porter un AI Pin est déjà le meilleur moyen de passer pour quelqu’un qui cède un peu trop facilement aux sirènes du marketing. Et il sera dur de prouver le contraire en faisant une démonstration technologique à son interlocuteur.

Comme d’habitude avec ces objets « magiques » présentés au détour d’une nouvelle technologie. Ils sont là pour faire gagner de l’argent à ceux qui vont raconter leur histoire, pas spécialement pour que les gens puissent s’en servir un jour.

 

Le Rabbit R1 est un presse papier en puissance

Ô surprise, l’AI Pin n’est pas une expérience formidable © MiniMachines.net. 2024.

La menace XZ ou comment le ciel a failli tomber sur nos têtes

Minimachines.net en partenariat avec TopAchat.com

Asseyez vous confortablement, prenez une boisson chaude et fermez vos réseaux sociaux. Il y a quelques jours, dans l’indifférence générale du grand public, un internaute découvre qu’une des brique logicielle de la sécurisation des données du web mondial est infectée : XZ. La grande majorité des sites web auraient pu être gravement menacés par une backdoor, une porte d’entrée cachée, qui aurait pu servir à injecter des logiciels espions, bloquer les sites, lire le données transférées ou détruire purement et simplement ces données.

L’histoire de cette infection XZ n’est pas forcément très complexe mais elle demande de saisir quelques éléments importants pour en mesurer la gravité. C’est une excellente parabole au passage sur la manière dont est gérée la plateforme internet aujourd’hui.

Pour bien comprendre ce qu’il s’est passé avec XZ, il faut commencer par le comprendre ce qu’est XZ. Il s’agit d’un composant logiciel utilisé par OpenSSH sur certains systèmes Linux. OpenSSH qui n’est rien d’autre qu’un des outils les plus massivement employés dans la sécurisation des connexion internet. C’est avec OpenSSH que de nombreux gestionnaires de serveurs pilotent leurs machines à distance. Vous savez que les serveurs, les ordinateurs qui gèrent les données des sites web que vous utilisez au quotidien, sont regroupés dans des endroits spécialisés. Des bien nommées « salles serveur » maintenues par des hébergeurs qui louent leurs machines. On utilise donc OpenSSH comme une passerelle de communication pour prendre la main sur une de ces machines à distance. Comme si on était devant en utilisant son clavier et son écran et un « tunnel » sécurisé et chiffré pour  ses données et éviter toute intrusion. OpenSSH est également intégré par défaut dans une grande majorité de distributions Linux.

XZ est une petite brique de OpenSSH, un élément qui sert à gérer la compression des données de manière sécurisée. OpenSSH ayant été construit en assemblant divers éléments regroupés ensemble dans une suite logicielle. En installant OpenSSH (ou en utilisant un système Linux intégrant OpenSSH), on dispose d’un ensemble d’outils pour communiquer de manière sécurisée avec un autre réseau distant. XZ a été infecté par une Backdoor mettant en péril la très très grande majorité des liaisons sécurisées de la planète web. Voilà, c’est fini pour les présentations, passons à l’histoire.

 

XZ, un développement amateur sur… 22 ans

Le « coupable » est donc XZ. Ou plutôt un programmeur derrière XZ. Et c’est là que cela commence à devenir intéressant. OpenSSH c’est une tour de Jenga, vous savez ces petits blocs de bois empilés les uns sur les autres qui forment un ensemble cohérent et structuré. Et le jeu consiste à en retirer des morceaux tout en faisant en sorte que la tour tienne toujours debout. XZ est un des blocs de bois de la tour, un de ceux qui tient bon malgré un parcours assez chaotique.

Parce que XZ a été développé et maintenu par une seule personne. Lasse Collin, un développeur qui lance ce projet de compression de données sécurisé en 2000, tout seul et de manière totalement désintéressée. Il travaille dessus en le mettant à jour, l’améliorant, le faisant évoluer tout aussi bénévolement pendant deux décennies. Vous avez bien lu, une partie de la sécurité du web mondial, le truc qui permet de piloter des ordinateurs à distance de manière fiable, tient en partie au travail d’un unique et obscur bénévole sur son temps libre. Si il doit y avoir un côté grisant à se sentir partie d’un morceau du pilier qu’est OpenSSH mais aussi de milliers d’autres projets qui utilisent cette ressource de compression. De tenir à bout de bras une telle responsabilité. Je ne doute pas une seule seconde qu’il doit y avoir un côté usant également. Et, en juin 2022, Lasse Collin craque. Il annonce dans l’email ci-dessus qu’il a besoin d’aide pour continuer à s’occuper de XZ. Il est usé. Il annonce ne plus avoir l’énergie pour gérer cette brique d’OpenSSH. Vous imaginez vos Week-Ends, vacances, soirées et tout moment de la journée avec une sorte d’astreinte permanente en cas de pépin pendant des dizaines d’années ? De manière bénévole ? Dans l’ombre et en gérant sa vie personnelle et professionnelle en parallèle ? Lasse Collin est exténué et il le fait savoir avec cet email. 

La communauté Open-Source est grande et pleine de talents. Son appel ne reste pas lettre morte et un volontaire se présente alors pour venir reprendre le flambeau. Son pseudo/nom est Jia Tan et si on peut s’interroger sur la motivation d’une personne à s’intéresser bénévolement à une telle « galère » il ne faut pas oublier les défis qu’elle représente. Outre le côté très motivant de reprendre un tel élément de la tour Jenga qu’est OpenSSH pour améliorer un éventuel CV. Il y a un énorme défi intellectuel à se mesurer avec ce genre de projet.

Jia Tan semble être la personne de la situation. Il n’est pas un « vieux » programmeur avec un long CV public mais semble motivé. Son compte GitHub1 a été ouvert en 2021 seulement et rien n’a été publié dessus. Mais il dialogue avec Lasse et en juin 2022, il publie sa première participation au projet XZ sous le pseudo JiaT75. Début 2023, il prend du galon et teste des nouveautés qu’il apporte lui même au code de XZ. Relâchant la pression sur son mainteneur principal. Peu à peu, il fait « ce qu’il veut » de XZ pendant que Lasse Collin s’efface et prend du repos. Plus personne ne vérifie le code en amont avant que cela soit implémenté dans XZ en général. Et donc personne ne contrôle ce qui a, petit à petit, basculé dans la « suite » OpenSSH.

En mars 2023, un changement important est fait, l’ancien email de contact du projet passe de Lasse à Jia. Désormais les requêtes, bugs et autres questions seront remontés directement vers lui. Le flambeau est passé. Plus tard dans l’année les choses avancent dans l’ombre. Des éléments sont modifiés dans le code de manière à rendre opaques de futures manipulations, des fichiers dont la vocation n’a plus rien à voir avec l’objectif de XZ sont ajoutés. Ils servent à préparer quelque chose mais cela reste totalement sous le radar. 

XZ infection

Cliquez pour agrandir : image de @fr0gger

En février 2024, avec des stratagèmes techniques élaborés2, Jia Tan implante dans le code de XZ une porte dérobée permettant de trouer la sécurité d’OpenSSH. Les fichiers sont cachés et chiffrés. Ils sont très difficiles à débusquer car ils fonctionnent comme un poison dont on obtiendrait les effets qu’en mélangeant deux éléments à la préparation. A l’état natif, dans le code source de XZ, ils sont inoffensifs. Ils ont été ajoutés petit à petit au code dans la durée de mise à jour en mise à jour.

Pour que personne ne se rende compte du changement, puisque le code est open source et publié sur Github, la méthode employée se doit d’être d’une discrétion absolue. Ce n’est pas tous les matins qu’un programmeur émérite se lève en se disant « Tiens si j’allais auditer du code OpenSource !? » mais il suffirait qu’un curieux se penche sur le code pour que tout le plan tombe à l’eau. Autant utiliser des subtilités techniques. Le code de XZ est donc totalement propre. Il ne s’infecte que lorsqu’il est mis en place sur un serveur. XZ va alors piocher dans des fichiers annexes et se modifier pour devenir dangereux une fois en place. Vous pouvez analyser XZ de fond en comble sans rien trouver mais une fois intégré sur une machine dans OpenSSH, XZ devient la porte d’entrée du pirate. Mieux encore, le code malicieux est prévu pour être éventuellement mis à jour. Le ver est alors dans le fruit.

Si on regarde en arrière, on a donc un internaute sous le pseudo de Jia Tan qui reprend le travail de bénévole d’un autre programmeur au bout du rouleau pour maintenir un engrenage d’un des éléments de sécurité les plus importants du web mondial. Cela sans aucun autre contrôle puisque tout le monde travaille de manière décentralisée et de son propre chef. Pendant des mois, voir des années, Jia ne fait rien d’autre que ce qu’il s’était plus ou moins engagé à faire. Maintenir XZ. Il ne gagne pas d’argent, il travaille gratuitement et prépare son coup. Il semble peu probable que Jia soit un vrai nom et une vraie personne. Et c’est encore pire.

Le nom Jia Tan semble correspondre à un internaute d’origine Asiatique. Mais plusieurs experts ont noté que les fuseaux horaires de ses interventions sur le code ne collaient pas avec ceux de cette région du globe. Ils semblent plutôt viser des pays d’Europe de l’Est. On aurait voulu forger un pseudo à consonnance asiatique pour cacher un travail effectué par un groupe mafieux des pays de l’Est que l’on n’aurait pas fait autrement. Car il faut des ressources pour préparer une opération dormante sur plusieurs années. Si les intentions d’un Jia Tan étaient de simplement « faire un coup » rapide pour se faire de l’argent, il y a bien plus simple que cette opération XZ. Deux ans et demi de travail pour capter l’attention du programmeur en chef avec un compte dormant, reprendre le flambeau et intégrer un code malicieux, ce n’est pas un projet de « pirate du dimanche ». C’est une opération commanditée par un structure beaucoup plus vaste. Soit un groupe mafieux, soit un état, soit l’un employé par l’autre.

La découverte du problème XZ

Comment cette faille a-t-elle été découverte est un miracle. OpenSSH est utilisé en permanence à travers le globe, les banques, sites de eCommerce, organismes publics, armées et autres utilisateurs privés comme public emploient ce système en permanence. Et malgré cela, la faille  a été découverte par « hasard » via un développeur. Si le web est gigantesque et utilisé par des milliards d’individus, le nombre d’internautes capables de trouver cette faille XZ est évidemment beaucoup plus restreint. Et, sur le total d’utilisateurs du web, un seul a su la déceler : Andres Freund.

Andres est un salarié de Microsoft, il est développeur évidemment, et c’est quelqu’un de vraisemblablement très attentif. Il travaille à l’amélioration d’un logiciel et effectue des tests variés pour cela. En faisant une mise à jour de OpenSSH – elles sont régulières – il note que sa connexion sécurisée est plus lente qu’avant. Alors pas vraiment beaucoup plus lente mais Andres est quelqu’un d’attentif et il a les outils pour le remarquer. Avant la mise à jour, la connexion sécurisée était 500 millisecondes plus rapide. Cette évolution vers la lenteur le surprend et il cherche à savoir ce qu’il se passe.

En analysant méticuleusement OpenSSH, il découvre que XZ a été modifié et qu’il contient désormais la fameuse porte dérobée mis en place par « Jia »3. Devant l’ampleur du problème, il rédige d’abord un message d’alerte à la communauté sur OpenWall qui sert à alerter les divers responsables réseau et webmestres du monde entier. Ce type de message d’alerte critique fait vite le tour du monde et des mesures de sécurité sont immédiatement prises.

Deux versions de XZ sont concernées, la 5.6.0 et la 5.6.1. Et elles ne sont pas déployées en masse. Les responsables réseaux prenant en général le temps de vérifier le bon fonctionnement des mises à jour avant de basculer les machines de production. Cette mise à jour de février n’a pas été énormément installée.  « Jia » comptait probablement sur une dissémination plus ample avant de passer à l’attaque. Andres publie également sa découverte sur Mastodon. Github qui héberge le code de XZ le désactive très rapidement pour éviter qu’il ne soit exploité ou installé inopinément.

Le résultat de cette découverte évite donc le pire, les serveurs qui avaient basculé vers les dernières versions de XZ rétropédalent. Les particuliers sous une distribution Linux infectée font un retour en arrière et tout rentre dans l’ordre… On l’espère tout du moins.

Les leçons à retenir de cette histoire XZ

La première leçon est plutôt un constat. Celui d’un web mondial qui tient sur les épaules de particuliers. Quand je parle de web mondial, je ne plaisante pas. En installant une porte dérobée dans OpenSSH, les personnes derrière « Jia » avaient une arme logicielle terrifiante. Outre la possibilité de récupérer des données évidemment , il y a le risque de faire tomber des serveurs en cascade. Imaginez si plus aucun système bancaire, ferroviaire ou de santé ne fonctionnaient en même temps. Si des machines protégeant des intérêt nationaux comme de la production d’Energie ou l’armée étaient inopérantes. Si tous les hopitaux de France étaient sous le  coup d’un Ransomware4.

Ce scénario est catastrophique et il est totalement plausible si l’objectif du groupe derrière « Jia » n’est pas l’argent mais plutôt à visée politique. La déstabilisation d’un pays est très facile avec une faille de cette ampleur.

Ce qui est ahurissant, c’est de se dire que la responsabilité de OpenSSH est portée par de simples particuliers. Des personnes comme Lasse Collin qui porte pendant 22 ans XZ, tout seul et sans y gagner un centime, alors que son code sert à des millions d’entreprises, établissement financiers, états et autres. Je ne pense pas que Lasse ait jamais demandé un salaire pour son travail mais cela semblerait logique qu’il soit en partie rétribué. Que les organismes qui utilisent des outils Linux mettent en pace un système de fondation permettant de maintenir les projets ne serait-ce que pour les sécuriser. Si Andres Freund n’avait pas perçu cette différence d’une demie seconde et fait le rapprochement de la mise à jour d’OpenSSH, cela aurait été un massacre. Et pourtant XZ a passé la main de son développement d’un internaute à un l’autre sans même connaitre son identité.

Andres Freund explique avoir eu énormément de chance de trouver cette Backdoor sur Mastodon.

Je ne suis pas sûr que les développeurs d’OpenSSH ou les programmeurs du monde des logiciels libres en général aient envie de devenir salariés d’une ONG globale travaillant au maintien de leur code. Je pense que beaucoup sont bien dans la situation actuelle que représente leur statut de développeurs libres. Mais il serait peut être prudent de constituer un moyen de pouvoir venir en aide ponctuellement à certains d’entre eux. Pour éviter qu’ils ne craquent comme Lasse Collin, qu’ils ne passent la main à un compte qui n’a eu à présenter aucune pièce d’identité pour devenir le rouage principal d’un élément aussi critique. Pour que l’audit des codes employés par tous les services d’assurance ou d’analyse médicale du monde soit fait régulièrement par des experts et non pas au petit bonheur en comptant sur la chance d’un programmeur attentif.

Avoir été à deux doigts d’infecter le web mondial, de récupérer toutes les données et même d’attaquer les smartphones, objets connectés et autres machines du genre, devrait faire réfléchir le monde entier sur le fonctionnement actuel du web. Le célèbre dessin de XKCD ci-dessus n’est pas neuf mais il illustre bien la situation. Toute l’infrastructure moderne du web ne tient en équilibre uniquement parce qu’un internaute le maintient seul, gratuitement et sans même un seul coup de projecteur, son bout de code dans son coin sur son temps libre. Le « gag » de cette image parle d’un internaute lambda qui ferait cela depuis 2003… La réalité c’est que Lasse Collin l’a fait pour XZ de 2000 à 2022… La réalité est plus crue que la plaisanterie et pourtant rien n’a jamais bougé.

Si cela ne vous fait pas peur, imaginez votre travail et votre vie demain si le web était par terre. Et maintenant imaginez combien d’autres pièces de ce Jenga moderne sont dans la même situation de précarité que XZ. Saisissez bien qu’une nouvelle tentative de ce genre passera par la case optimisation du code afin que ces 500 millisecondes soient ramenées au minimum également. Rendant l’acuité d’un analyste curieux inopérante. Imagines tout cela et faites de beaux rêves.

On me signale cet article de ArsTechnica qui entre dans les détails techniques de l’opération si cela vous intéresse.

Sources : 


La menace XZ ou comment le ciel a failli tomber sur nos têtes © MiniMachines.net. 2024.

Intel définit en détail ce qu’est un « AI PC » (pour eux)

Minimachines.net en partenariat avec TopAchat.com

La première phase du plan d’Intel pour les AI PC a été lancée en octobre auprès des développeurs puis présentée au grand public en décembre avec le lancement des puces Meteor Lake d’un côté et les  ambitions du fondeur de l’autre. De son côté Microsoft a dès le mois de janvier établi les éléments de son développement de l’Intelligence Artificielle au sein de Windows avec Copilot.

Mais tout cela reste assez flou, assez vague dans son approche comme de ses définitions. Savoir que son processeur est capable de piloter une IA c’est une chose, mais connaitre quel usage aura cette IA et donc quel curseur on aura besoin de surveiller pour savoir le niveau de performances correspondant à ses besoins en est une autre. Aujourd’hui, on sait à peu prêt de combien de mémoire vive ou de stockage on a besoin selon que l’ont veuille faire du traitement de texte ou de la conception 3D. Mais de combien de TOPS – l’unité de capacité de calcul en IA – aura t-on véritablement besoin dans quelques années pour faire tourner des IA sur son PC ? Qui le sait vraiment ? Qui sait même à quoi tout cela pourra t-il lui servir ?

Intel a donc annoncé le lancement d’un nouveau programme de développement pour attirer de nouveaux acteurs dans la course à l’IA. Des petites structures comme des indépendants tentés par l’exploitation de ces nouveautés pour élaborer de nouveaux logiciels. Le fondeur annonce en parallèle un programme pensé pour les fabricants de matériel souhaitant tirer, eux aussi, parti de ces fonctionnalités avec leurs produits.

Pour définir une base de travail afin d’estimer les compétences réelles des machines, un élément sur lequel bâtir une IA locale, il faut un étalon. Les AI PC sont là pour proposer cette unité de mesure chez Intel. Si un développeur veut se pencher sur une IA spécifique il peut prendre comme échelle les machines estampillées AI PC afin de déterminer la capacité de calcul qui lui sera nécessaire pour faire fonctionner ces algorithmes. Il ne sert à rien de proposer un outil local inexploitable, qui exigerait un matériel hors de prix, cela ne génèrerait aucune vente1

De la même manière si vous voulez proposer des outils matériels s’appuyant sur des IA, il faut pouvoir contrôler la demande en ressources disponibles. Une webcam qui rajoute des effets en temps réel ou fait de la reconnaissance d’objets. Un micro qui profite du NPU pour assourdir votre environnement sonore. Un dispositif USB capable de reconnaitre des odeurs ou autres. Tout cela a besoin d’une échelle pour se lancer sur un marché large non réservé à des machines spécialisées. Il  ne sert à rien de lancer un outil génial qui vous place automatiquement dans les meilleures conditions possibles pour télétravailler en vidéo si la machine nécessaire pour son usage n’existe pas sur le marché.

Le hard examinant le soft ou… l’inverse.

Ce que propose Intel avec ces AI PC c’est donc de définir cette mesure en se basant sur… ses propres puces. Il s’agit bien entendu d’une proposition commerciale qui, en tant que poule, tente d’inventer l’œuf dont elle à besoin. Les produits sont là, sur les étagères d’Intel avec les puces Meteor Lake et leur NPU intégré. Ce qu’il manque ce sont les outils logiciels et matériels capables d’en tirer parti. Cela ne veut pas dire qu’un engin sous processeur AMD ne pourra pas faire aussi bien pour autant. Ce que tente de faire Intel c’est de proposer une norme comme avec Centrino, Thunderbolt ou Ultrabook. Quelque chose d’assez puissant pour que les industriels et développeurs réagissent en sortant des produits dépendants des processeurs Core.

Intel prévoit de livrer environ 100 millions de PC avec un NPU d’ici la fin de 2025. Rien d’extraordinaire devant ce chiffre, cela correspond à peu près aux expéditions globales de machines avec des puces de dernières générations chez Intel sur 2 ans. Pour cela, le fondeur peut compter sur ses nombreux partenaires et sur un panel d’environ 300 applications prenant en charge les IA anticipé d’ici la fin de l’année 2024. Un bouillon de culture sur lequel il compte donc beaucoup.

La marque qui s’identifiera comme celle la plus capable de répondre à la problématique IA sera la grande gagnante de des années a venir.

Peu importe que vous ayez besoin ou non d’un NPU, que vous comptiez utiliser l’IA ou non, l’étau marketing pour mettre en avant le principe de son usage se resserre de jour en jour. Les particuliers sont confrontés à l’apparition de nouveaux termes. Les PME sont interrogées sur leur rapport à ces nouvelles technologies et l’ensemble du marché n’a plus que ce mot clé à la bouche. Il est urgent pour chaque constructeur de créer un signe fort autour d’un concept d’Intelligence Artificielle pour attirer les regards. Pour Intel, qui dispose d’une force médiatique conséquente, cela passe par la définition de ces « AI PC ».

Il n’ y a aucune raison qu’une machine Intel soit plus dédiée à l’IA qu’une machine exploitant un processeur AMD, Apple, ou même une puce Qualcomm. Toutes ces entreprises ont ou préparent une solution en ce sens. Mais là où Intel mène la danse c’est en inventant un terme générique et en le présentant au monde. Pour cela, le fondeur s’appuie sur son partenaire de toujours qu’est Microsoft. Le fameux couple « Wintel » qui a déjà remporté tant de batailles aussi bien marketing que technologiques.

Avec Copilot, Microsoft s’offre une touche de publicité

Dans sa logique, Intel indique qu’un AI PC est une machine sous Windows, qu’elle doit proposer un processeur, un circuit graphique et bien entendu un NPU dédié aux calculs d’IA. Cet ensemble doit prendre en charge Copilot, l’IA connectée de Microsoft. Ce tapis rouge déployé sous les pieds de l’éditeur de Windows oblige ce dernier à un retour diplomatique. Pour obtenir l’agrément Copilot de Microsoft et la touche dédiée sur les claviers des machines certifiées, on pourra évidemment employer toute la gamme de puces Meteor Lake d’Intel. 

Cette alliance a du bon pour les marques. Le grand jeu de toutes ces normes « AI PC » et Copilot » étant de flécher un parcours lisible pour le grand public. L’idée est de voir des logiciels estampillés « AI PC » ou des applications « Copilot compatibles » et de pouvoir retrouver ces logos sur des machines en rayon de supermarché ou sur des listings en ligne. L’acheteur lambda verra que la mise à jour de son logiciel de montage vidéo ou de son jeu préféré héritera d’une compatibilité de ce type et cherchera le jour de son nouvel achat un engin avec ces références. Ce fléchage assurera à Intel et Microsoft des ventes de machines plus aisées.

Imaginez un logiciel de retouche photo capable de répondre à vos questions comme « Comment améliorer les contrastes ? » avec une interface Copilot intégrée qui pourrait non seulement vous expliquer la procédure à suivre mais également vous proposer des exemples ou modifier votre image à votre place. C’est en quelque sorte le pari d’un support des IA en local que de fournir de plus en plus d’applications entrainées et adaptées à leur usage.  Si le Copilot de Windows est un système de Chat toujours dépendant d’une connexion au réseau internet, rien n’empêche un éditeur de logiciel de proposer une IA locale déjà entrainée pour répondre à ses sujets via son interface. Mâcher consciencieusement et précisément le travail que représente la fameuse lecture du manuel en le traduisant dans une interface plus digeste.

Cette définition d’un AI PC se fait donc de manière assez simple. Ces machines disposent de trois solutions de calcul (processeur, circuit graphique et NPU) proposant chacune une accélération des IA  sur un champ spécifique. Pour Intel, la capacité de jongler entre ces diverses unités pour maximiser la performance est un point important. Le NPU excellera dans son approche basse consommation pour des usages très courants comme les travaux de gestion d’image, de son ou de vidéo. Sans besoin d’être connectée en permanence au réseau, une puce de ce type pourra reconnaitre, par exemple, toutes les photos contenant tel ou tel  type d’objet et vous les présenter. Cela évitera de décharger la batterie en se connectant à un serveur dans le cloud pour effectuer la même opération après y avoir chargé vos précieux clichés…

Cette fonction de base assurée par le NPU permettra également au processeur et au circuit graphique de ne pas prendre en charge ce type de calcul sur lequel il sont moins pertinents. Les tâches les plus gourmandes en IA pourront s’appuyer sur ces derniers éléments à plein régime. Et, au besoin, le NPU et le GPU pourront travailler de concert pour accélérer certains calculs.

Autre point clé pour l’attribution d’un petit label « AI PC », la disponibilité minimum de 16 Go de mémoire vive. Une porte déjà largement ouverte par le marché mais, on l’a vu récemment, celle des engins en 8 Go par défaut n’est pas encore tout à fait refermée. Dernier coupable en date ? Bizarrement il s’agit de Microsoft qui a présenté des produits Surface qui débutaient avec 8 Go de RAM seulement. Il faut dire que de son côté Microsoft n’a pas encore défini ce poste précis. Le risque étant d’impacter le prix des machines de manière trop importante. Imposer un minimum de 16 Go pour être Copilot compatible aurait un impact probablement trop important. Notamment pour le monde des entreprises, premiers acteurs visés par ces campagnes. Mais, si le manque de mémoire se révèle être un véritable handicap pour l’exploitation de son IA sous Windows, il est possible que Microsoft se décide de véritablement tirer enfin un trait sur les engins avec 8 Go de mémoire vive seulement.

Cette dissension d’avis entre Intel et Microsoft sur les minimums requis pour être une vrai PC compatible Intelligence Artificielle n’est pas la seule étrangeté de cette annonce. Copilot est déjà distribué sur les dernières mises à jour  de Windows 11 et cela même sur des machines n’ayant aucun NPU à bord. Des engins équipés de puces Intel ou AMD, de « vieilles » machines qui ont téléchargé le fameux Chatbot de Microsoft sont donc des PC Copilot mais pas forcément des AI PC selon les critères d’Intel. Et on comprend bien qu’il s’agit avant tout d’un souci de calendrier et que le discours devrait rejoindre les faits… dans le futur.

Il reste énormément à faire pour que la sauce à l’IA prenne.

Si les AI PC sont une évidence pour Microsoft et Intel, ainsi que pour d’autres acteurs de ce marché, le chemin sera encore très long pour que ces usages entrent dans les mœurs. Le problème vient bien des usages puisque pour le moment, mis à part tailler le bout de gras avec Copilot via un serveur dans les nuages, l’usage sous Windows n’est pas  évident. Tout le monde n’a pas les capacités techniques nécessaires pour installer une IA générative d’images. Les outils restent encore mystérieux et flous dans leur intérêt et surtout le marché n’a pas développé des programmes aussi pratiques que ce que proposent les services en ligne. Autant donc passer par un ChatGPT ou un Midjourney pour ce type d’exploitation.

Si les premières réponses seront probablement des solutions textuelles pour aider l’utilisateur à rédiger des documents ou à mâcher le travail de réponse à un email. Le grand public comme les professionnels balbutient encore beaucoup quand on leur demande leur avis sur leurs éventuels usages. On sait que le monde du jeu va s’emparer des IA pour générer des dialogues plus touffus et des personnalités plus consistantes. Nvidia a présenté des solutions dans ce sens et on peut imaginer des jeux s’appuyant sur des modèles de langages pilotés par NPU avec de la synthèse vocale assez facilement. D’autres éléments comme de l’aide à la programmation, de la correction syntaxique en plus des habituelles surveillances orthographiques et grammaticales sont également évidents.

Mais d’autres fonctions pourront débarquer avec des conséquences plus directes sur les performances des machines : une gestion de la spatialisation du son, une amélioration des rendus de vidéo conférence, la  gestion plus fine des relevés biométriques pour des raisons de sécurité. La détection de la lecture de vos documents par un tiers au dessus de votre épaule ou une demande d’identification supplémentaire si le système ne reconnait pas vos comportements habituels. Des éléments encore plus techniques comme l’adaptation de l’affichage en gérant très finement les rafraichissements d’écran en temps réel pour améliorer l’autonomie. En équilibrant ces types de calculs et surtout en les déportant vers le NPU – comme la gestion de la vidéo conférence par exemple – la consommation pourrait largement baisser nous dit Intel. La prise de notes avec reconnaissance vocale comme la transcription automatique d’enregistrements,  la reconnaissance d’écriture ou l’OCR vont bénéficier de ces évolutions tout en ne consommant plus que quelques watts en sourdine, sous les radars, via une exploitation des fonctions du NPU. Mais pour que le public s’intéresse vraiment à ces nouveaux usages il faut qu’il soit possible de les essayer, de les tester et de les… trouver.

C’est là que le rapprochement « Wintel » prend tout son sens. Microsoft va servir de passerelle diplomatique entre l’utilisateur, les outils et le matériel. Les éditeurs vont s’appuyer sur ce que propose l’éditeur avec Windows pour dialoguer avec les différents éléments technioques. Cela va faciliter leur travail et, peut être, apporter rapidement des outils aux utilisateurs.

C’est la dernière facette de ce rapprochement hard et soft. Intel va proposer aux éditeurs de logiciels intéressés par son programme des Kits de développement matériel et logiciel. Il s’agit au passage d’une suite logique dans l’approche du fondeur puisque les machines proposées avec ce kits ne seront rien d’autres que des MiniPC NUC. Cet AI PC Development Kit sera constitué d’un ASUS NUC 14 Pro sous Core Ultra sous Windows et blindé des applications nécessaires à la programmation des différents éléments de l’équation Intel : CPU, GPU et NPU. Avec ces engins qui délivreront au total jusqu’à 65 TOPs de puissance de calcul, dont 11 rien que pour le NPU, les éditeurs pourront développer leurs outils et tester des scénarios d’usages cohérents avec ce qui sera présent dans les futures machines de 2024 et 2025.

Une norme AI PC en évolution

Comme pour la norme Ultrabook par le passé, poussée par Intel, celle-ci n’est pas figée. Et si pour le moment le fondeur estime que son NPU intégré dans les puces Meteor Lake est suffisant pour satisfaire la norme, celui-ci devra évoluer dans le futur. La « Next-Gen » de ces machines devra ainsi être capable de développer 40 TOPS uniquement grâce au NPU. Vous aurez immédiatement compris l’astuce présentée ici. Ce chiffre doit correspondre exactement à ce que proposeront les futurs processeurs d’Intel. La marque s’assurant ainsi de faire correspondre les « besoins » du marché à son offre en définissant aussi bien l’un que l’autre.

 

AiPC : le futur du monde PC passera par l’Intelligence Artificielle

Intel définit en détail ce qu’est un « AI PC » (pour eux) © MiniMachines.net. 2024.

Playtron, un systeme Linux pour les machines de jeu

Minimachines.net en partenariat avec TopAchat.com

La vidéo ci-dessus montre la Lenovo Legion Go sous PlaytronOS

Playtron est le nom d’une startup qui ambitionne de développer PlaytronOS, un système Linux totalement axé autour du jeu vidéo. L’objectif affiché est d’être léger, disponible pour chacun et largement compatible. 

Un mockup de console Playtron et un engin parmi les plus laid et peu pratique que j’ai pu admirer.

Playtron vise tous les formats de machines. Les PC classiques, les portables mais également le format ConsolePC ou officie Valve avec SteamOS aujourd’hui. L’idée est d’offrir à ces plateformes la possibilité de jouer à des jeux sous Linux. Si aucune information n’est donnée sur le moyen de parvenir à cette compatibilité, je ne serai pas surpris que le système utilise la solution de Valve à savoir Proton. L’idée cependant est de rester détaché de Steam et donc du magasin d’application afférent. PlaytronOS pourrait tout à fait lancer des jeux de chez Epic, GoG ou n’importe où ailleurs. 

Cette solution serait en outre totalement transparente pour l’utilisateur qui n’aurait pas a changer de mode pour effectuer ces actions. Le système étant totalement tourné autour  du jeu, il n’offrirait aucune fonctionnalité secondaire et n’aurait pas de possibilité de gestion des tâches habituelles d’un PC. Un engin sous PlaytronOS ne proposerait par exemple aucun « bureau » et probablement aucun des logiciels classiques du monde PC.

Une idée qui permettrait donc de transformer n’importe quelle machine en solution de jeu mais uniquement en solution de jeu. Il ne sera probablement pas possible de lancer autre chose en même temps, cela aurait des avantages pour certains usages mais condamnerait un éventuel portable a n’offrir qu’une petite part de son potentiel. L’idée de transformer un PC en une console pure et dure est probablement séduisante pour un engin placé sous un téléviseur ou une ConsolePC mais c’est tout de même un détail qu’il faudra prendre en compte pour un MiniPC, une tour ou un portable classique.

Playtron OS ne sera pas gratuit, la startup qui lance le produit compte demander 10$ par installation. Ce qui est bien moins cher qu’un Windows mais offre évidemment bien moins d’usages. Tout en étant bien plus cher qu’un Linux gratuit comme HoloISO, Bazzite ou ChimeraOS qui offriront le même usage. On peut se demander quel particulier pourrait véritablement être intéressé par ce type de proposition mais je suppose que l’objectif de Playtron est de viser les assembleurs qui proposent aujourd’hui des machines comme les ConsolesPC sous Windows. Pour des marques comme GPD, OneNetbook, AYANEO, Asus, MSI, ou Lenovo qui proposent des consoles sous Windows 10 ou 11, cette idée peut avoir du sens. Ne serait-ce que parce que ces constructeurs pourraient bénéficier d’un développement sur mesures. Quitte a promettre un engin fonctionnel sous Playtron et a laisser l’utilisateur s’en dépatouiller ensuite.

Pour un particulier le recours autonome à ChimeraOS, une version libre de SteamOS, semble avoir plus de sens. Elle bénéficie des évolutions du code du travail de Valve en terme de compatibilité de jeu, est totalement gratuite et propose une interface parfaite pour être pilotée à la manette.

La startup a déjà reçu environ 10 millions de dollars d’investissements et dit avoir embauché des développeurs ayant travaillé sur différents projets comme Box86, Heroic Game Launcher et même le fameux ChimeraOS. Des outils permettant de piloter des jeux Windows sous différentes plateformes Linux. Et notamment de lancer des jeux de diverses plateformes sur le Steam Deck pour Heroic Game Launcher. L’idée est probablement de livrer un système permettant de faire des choses déjà fonctionnelles de manière éparpillées avec une approche très grand public qui ne nécessitera pas de connaissance particulières.

AYANEO semble être sur les rangs avec un engin sous PlaytronOS prévu pour la fin de l’année. Le patron enthousiaste de cette marque n’en est pas à sa première déclaration du genre. En janvier dernier il annonçait avoir l’intention de sortir la première console « non Valve » sous SteamOS avant de se rétracter juste après en annonçant employer la solution Linux alternative HoloISO. Puis, quelques semaines plus tard, de finir par choisir un bon vieux Windows… On sait donc qu’il ne faut pas prendre les annonces enthousiastes trop au sérieux. Le développeur vise plutôt 2025 comme calendrier de déploiement avec des machines sortant nativement sous ce système.

Si les étoiles semblent bien alignées pour ce projet avec des financements conséquents, des partenaires et un segment en pleine croissance, il est probable que cela ne soit pas une partie de plaisir pour autant. Plusieurs acteurs sont dans la course a commencer par Microsoft qui ne verra sans doute pas d’un très bon oeil le catalogue de jeux Windows lui glisser aussi facilement et aussi vite entre les doigts. On s’en est rendu compte assez vite avec les concurrents de Valve. Les pourparlers entre les fabricants et Microsoft ont eu bon train. Je ne serais pas étonnée que le gros dragon qu’est Microsoft regarde d’un oeil torve les quelques piécettes s’échapper de son trésor. Mais si le  filet de tintements de l’or se mettait a devenir trop turbulent, je ne doute pas une seule seconde qu’une version de Windows adaptée à ces nouveaux usages voit le jour. Officieusement ou officiellement, une version de Windows allégée des fonctions inutiles et orientée vers le jeu pourrait probablement être proposée pour les fabricants de ConsolesPC. Pour le moment le marché de ces engins doit paraitre aussi insignifiant que le dard d’un moustique sur l’écaille d’un dragon.

Autre acteur majeur qui ne voudra surement pas travailler pour des services concurrents ? Valve bien sûr. L’éditeur peut tout a fait ouvrir son SteamOS à des fabricants tiers. Si les ventes de SteamDeck sont excellentes, elles ne sont pas le métier de base de l’éditeur pour qui la  distribution de jeux est le véritable trésor. Si pour faire briller ce diamant elle doit sacrifier son OS, on peut supposer qu’il le fera. Après tout c’était exactement l’objectif des SteamBox : fournir un OS Linux pour lancer des jeux Steam Windows pour tous les fabricants de PC.

Kirt McMaster en 20161

Enfin petit détail qui dressera quelques poils sur quelques nuques. Le Patron de Playtron, est un dénommé Kirt McMaster. Quelqu’un d’assez connu dans le monde Android pour avoir transformé la suite d’outils gratuite CyanogenMod en un système comemrcial CyanogenOS. Une saga qui s’est terminée en un fiasco légendaire pour la marque mais aussi surtout pour les différents utilisateurs de ces outils. Les développeurs d’origine ayant démissionné tout en indiquant publiquement leur dégout pour la gestion de l’entreprise et le reste des employés se retrouvant rapidement éjectés de la boite pour pointer au chômage. Un scénario qui semble se reproduire ici avec l’embauche de divers développeurs issus de différents systèmes concurrents… Et surtout une approche sans complexe de McMaster qui en nie pas la ressemblance de méthode mais précise à The Verge la différence de calendrier. Pour lui, l’aventure Cyanogen a été un échec car le système était gratuit sur Android depuis longtemps. Avec PlaytronOS, tout sera commercial dès le début. Ce qui devrait changer le regard des utilisateurs. Pas sur que cela soit aussi limpide pour les utilisateurs de ChimeraOS, Box86 ou Heroic Game Launcher si les développeurs les plus talentueux se font embaucher ailleurs.

Derniers points qui électrisent mes sens d’araignée, McMaster a indiqué que le logiciel serait OpenSource mais n’a pas décidé sous quel format d’OpenSource cela serait distribué… Enfin, l’ajout d’une exploitation d’une IA pour aider les utilisateurs a finir les jeux les plus difficiles. Eviter qu’un joueur face à un problème trop dur n’abandonne tout le jeu. Une idée brillante qui risque de transformer l’expérience du joueur en séance vidéo plus qu’autre chose. Pour couronner le tout, le partenaire en charge de la gestion de cette IA serait… Perplexity. Le système choisi par les Rabbit R1 pour fonctionner. Vous vous souvenez du Rabbit R1 ?

Enfin, le papier de TheVerge me rappelle les pratiques classiques de ceux qui veulent impressionner la galerie. Le boss de Playtron aurait présenté à TheVerge la vidéo ci-dessus comme le travail de ses équipes. Il s’agit d’une émulation qui fait tourner le jeu The Witcher 3 Windows classique sur une plateforme ARM. Contacté par la rédaction du site web, le McMaster a finalement bien décrit la vidéo comme n’étant pas le fruit de son travail. Il s’agissait d’une « incompréhension » entre lui même et le journaliste Sean Hollister, un vétéran du monde PC. 

La promesse d’un fort retour sur investissement grâce aux nombres de joueurs potentiels

Si comme moi vous avez l’impression que ce premier tour de table de 10 millions de dollars sonne comme une réponse classique à un emballement de gens chez qui les mots IA, Steam, Gaming et nouveaux marchés résonnent plus que de raison, vous saurez ne pas vous enflammer à cette annonce. Attendons et observons, comme disent les américains.

Playtron, un systeme Linux pour les machines de jeu © MiniMachines.net. 2024.

Steam Deck : une console de parents ?

Minimachines.net en partenariat avec TopAchat.com

Quelques témoignages de première main, des commentaires de billets et autres remarques faites sur divers forums, tout cela m’a intrigué. La console Steam Deck ne rentre pas dans les cases habituelles des produits pour « Gamers ». Elle n’est pas sous Windows mais exécute un Linux sur-mesure. Elle ne cherche pas à briller avec des caractéristiques délirantes mais fait plutôt des compromis techniques. Des éléments qui ne collent pas avec l’image « haut de gamme » du matériel destiné au jeu habituel. Pourtant, ces éléments n’ont pas empêché son succès. 

Ce constat m’a orienté vers un aspect de la console que je n’avais pas saisi jusqu’alors. Le Steam Deck est plébiscité par un public assez classique, des joueurs PC souvent déjà bien équipés en matériel.  Mais la raison pour laquelle ils ont choisi d’investir dans un Steam Deck est un peu inattendue.

« Je n’avais pas réellement joué autant depuis des années. » C’est en substance ce que disent de nombreux messages butinés sur la toile sur des forums généralistes ou spécialisés. On y retrouve des acheteurs ravis de leur console pour la simple et bonne raison qu’ils sortent d’un tunnel parfois très long d’abstinence vidéoludique. Avec des catalogues de jeux jamais lancés, savamment accumulés sur leurs divers comptes depuis des années. Des tonnes de « j’y jouerais plus tard » contrecarrés par une vie professionnelle devenue plus exigeante, ou une simple vie d’adulte. De nombreux utilisateurs redécouvrent le plaisir de jouer sur PC grâce à leur console portable.

Quand je regarde mon propre catalogue de jeux sous Steam, GoG ou Epic, je croise des titres étranges. Des noms qui m’évoquent des choses, d’autres sans aucune consistance dans ma mémoire. Et puis, de loin en loin je vois des jeux qui sonnent comme des regrets. Des titres que j’aimerais finir, d’autres que j’aimerais lancer. Un Disco Elysium par exemple. Un « piège à temps » qui me hante à moitié car je sais que je ne pourrais pas le terminer. Faute d’avoir la place dans un emploi du temps déjà trop chargé. Et je louche sur ces consoles PC à mon tour car si elles ne proposeront pas un niveau de performances suffisant pour lancer les titres du futur, elles seront à même de rattraper le passé.

En plus de la détente et du plaisir que le jeu propose, il y a ce sentiment de retrouver un peu de temps à soi. Du temps libre. Des minutes gagnées au détriment d’autre chose et en particulier du trou noir des réseaux sociaux. Comme si on avait trouvé une formule magique, un artefact assez puissant pour faire bifurquer des minutes à nouveau pour soi au lieu de les perdre chez les autres. Un flux de temps perdu jusqu’alors dans des labyrinthes aux couleurs d’Instagram, de Youtube ou de leurs complices. Assez de temps pour finir des jeux. Chose qui, pour certains, n’avait pas été possible depuis des lustres. Un internaute me concède qu’il avait pu jouer « un peu pendant le confinement ». Tout simplement parce que les heures de transport s’étaient transformées en temps de jeu. « Mais depuis je n’avais pas lancé une seule partie ». D’autres indiquent avoir du tirer un trait sur leurs loisirs PC et console pour des raisons classiques de parentalité. « Difficile de trouver le temps de jouer tout seul quand on se retrouve avec un petit ». Et retrouver un peu de ce loisir avec ce format ultramobile qui occupe des interstices dans la parentalité.

Le bureau de Goston

L’arrivée du Steam Deck – et probablement des formats équivalents chez les concurrents – a changé la donne. Non pas que ces parents ou adultes n’aient pas déjà une console mobile comme la Switch de Nintendo, un ordinateur portable capable de lancer des jeux gourmands ou une machine de bureau encore plus performante. Simplement les éléments nécessaires au jeu ne s’alignaient plus forcément ensemble. Le catalogue de la Switch ne correspond pas à tous les moments, les formats classiques du monde PC ne sont pas forcément pratiques au quotidien tout comme le côté « Windows » peut avoir quelque chose de rébarbatif. Et, plus simplement, certains titres de jeux PC ne peuvent pas être joués dans toutes les conditions.

Un nouveau possesseur de Steam Deck

« En ce moment c’est pas mal de rendez-vous  en salle d’attente avec mon fils » me confie un Steamdeckeur. « Et j’apprécie ma console en salle d’attente, j’ai pu avancer dans des titres qui me faisaient vraiment envie depuis des années. » Ce fond de catalogue de jeux à nouveau accessibles est un des attraits les plus puissants de ces consoles PC. Ces titres amassés au fil des ans, au gré des promotions, est devenu un sujet de plaisanterie en ligne. Beaucoup d’utilisateurs des plateformes Steam, GoG ou Epic ont fini par accumuler des dizaines et des dizaines de jeux. Des catalogues qui représentent des mois et des mois de loisir intensif pour juste finir les quêtes principales… Et énormément de ces titres, payés au gré d’un rabais ou de soldes, ne sont finalement jamais lancés. Certains me confient qu’ils ont l’impression d’un excellent retour sur investissement avec ce nouveau format de machine à cause de cet accès à ces archives. 

Death Stranding est un bon exemple, ce jeu particulier est revenu plusieurs fois pendant que j’interrogeais des joueurs. Avec une phase d’introduction assez longue et parfois rebutante, le jeu était abandonné assez vite à cause d’une vie de famille. Le côté répétitif de certains passages, l’ambiance assez monotone… « Quand on joue en tant que parent c’est avant tout pour se divertir rapidement » me confie en substance un internaute. On veut se plonger dans une ambiance et avoir un retour immédiat en tant que joueur. Les titres qui réclament un investissement trop long et parfois trop complexe posent alors problème. On aimerait s’y plonger mais on n’a pas le temps de le faire. Le format console arrive alors comme une alternative, un moyen de se plonger petit à petit dans le scénario. Au final, le cap de ce début très particulier de Death Stranding a été surmonté grâce au Steam Deck. 

A propos du Steam Deck

L’autre élément intéressant dans cette redécouverte des titres déjà en la possession des joueurs et liée au fait que l’engin n’est pas taillé pour les titres les plus récents. Cela pousse à lancer des jeux anciens, à redécouvrir des pépites. A comprendre pourquoi tel ou tel titre est toujours vu comme un phénomène ou une œuvre majeure. Faute des entrailles nécessaires à hacher des kilos de pixels chaque seconde, le format surprend à offrir autre chose. Retrouver une petite dose de nostalgie qui plane sur des titres mythiques. Des jeux que l’on retrouve alors dans une très agréable jouabilité. Tout cela mélangé avec un sentiment rédempteur. Celui de rentabiliser des achats précédents honteusement accumulés sans y avoir touché. Un internaute me confie n’avoir jamais pu finir certains de ces jeux mais n’avoir jamais pu en commencer d’autres ajoutés dans son panier sur un coup de tête. Des titres ayant pris la poussière par la très pardonnable faute d’un bébé arrivé entre deux sauvegardes.

Et voilà que la console permet de retrouver ces univers au gré d’un petit break, d’une pose aux toilettes ou d’une soirée canapé. On m’explique que cette capacité de sortir sa console pour une petite demie heure chronométrée, de pouvoir la mettre en pause à tout moment sans se poser de question mais aussi de ne pas être interrompu par l’objet lui même, change la donne. C’est un tout autre exercice qu’une séance devant un PC où la nécessité de s’attabler devant sa machine impose un autre rythme. Quand ce n’est pas une énième mise à jour ou les alertes en provenance de votre boite mail, de réseaux sociaux ou autres qui vous sortent de votre envie de jouer.

Et ce genre de témoignage est fait spontanément en ligne. Dans des commentaires variés et déclinés à l’envi. Sur le ton de l’humour la console est mise en avant comme une manière de dédramatiser les heures de veille de la parentalité. Un passage de cap qui est bien identifié comme un abandon du loisir qu’est le jeu vidéo. Tout cela est à prendre au second degré bien entendu, mais l’objet permet tout de même de ne pas sombrer dans une certaine déprime. Des jeunes parents qui n’ont pas à faire une croix sur une partie importante de leur vie. Certains se sont rencontrés sur des jeux en ligne. Ils ont emménagés avec leurs consoles ou leur PC en continuant de jouer ensemble en ligne et se retrouvent privés de ce loisir. La console PC devient alors une solution de repli. Elle permet de faire un break en tant que parent. Une petite partie de 10 minutes avant de laisser l’engin sur la table avec un petit mot pour que son conjoint puisse la retrouver pendant une sieste du nouveau né. « Histoire de se vider la tête. » Et le couple d’avancer sur un Rogue-lite joué en duo. Des cap franchis à deux, des decks accumulés, des runs partagés… Autant d’expérience passées en commun dans un canapé qu’en solo à tour de rôle quand le moment s’y prête. « Je me suis vue jouer à Celeste avec la cuillère dans la bouche » me confie une jeune maman qui finissait des petits pots de bébé entamés comme goûter. Son partenaire de jeu et jeune papa étant occupé à changer l’enfant après lui avoir dit qu’il n’arrivait pas à passer ce niveau. Des travaux de couple partagés en somme.

Minimachines-03-2024

Je vois également le bouche à oreille fonctionner à plein sur ce thème. Un acheteur redécouvre les joies du jeu en postant un commentaire pour expliquer qu’il a lancé une petite partie de tel ou tel titre sur sa console, assis à une table avec un café pendant que son bambin s’éclate sur les tremplins d’une salle de jeu urbaine. « Autant de temps récupéré sur des heures de scroll débile sur des réseaux sociaux » m’explique t-il. Le smartphone rangé dans la poche c’est la console qui est privilégiée dans ces nouveaux moments de liberté. Ce type de commentaire fait mouche, d’autres témoignages sont lus et des joueurs ne jurant d’habitude que par les mégahertz et leur sainte carte graphique ouvrent les yeux sur le potentiel de l’objet dans leur propre quotidien. L’effet boule de neige se fait alors largement sentir.

Steam Deck

Je ne sais pas si les décisionnaires qui ont appuyé sur le bouton Go pour lancer les opérations du Steam Deck chez Valve ont eu conscience de ce potentiel pour leur appareil. Ou si, inconsciemment, le format est simplement né d’un fantasme de réponse à un manque qu’ils ressentaient eux même comme joueurs. Mais le pari est réussi. La console a  créé un marché en comblant ce vide que les appareils classiques ne savaient pas gérer. Lire le témoignage de trois trentenaires qui bossent ensemble dans la même boite et qui se covoiturent à tour de rôle chaque matin est assez édifiant. Pendant que le premier conduit, les deux autres jouent. Le conducteur change chaque matin, les joueurs aussi. Un rite mis en place assez vite et qui a poussé les différents protagonistes à investir dans des solutions pour recharger les consoles sur l’allume cigare. Le jeu est devenu un rituel pour eux, faisant passer ce moment auparavant déplaisant du « auto-boulot-dodo » en un « ludo-boulot-dodo » bien plus agréable. Et l’un de m’expliquer qu’il retrouvait là ses années passées, quand, plus jeune il jouait avec ses copains de lycée ou de FAC. Que la console créait de l’émulation et de la camaraderie au lieu d’isoler les joueurs. De grands éclats de rire et une arrivée au boulot de bonne humeur.

Canapé + Steam Deck par Rob Allen

Un détail qui n’a pas échappé à d’autres parents qui, au lieu de voir leur enfant s’enfermer pour jouer dans une chambre, ont préféré l’orienter dans cette autre voie. Le Steam Deck devenant alors un objet partagé en famille. Avec, parfois, quelques disputes mais également là encore des moments d’émulation. Et la possibilité plus facile de mettre l’accent sur certains jeux ou de limiter les heures d’usage. Certains me confiant même y prendre du plaisir alors que le jeu vidéo ne leur a jamais vraiment parlé. D’autres parents de trouver un modèle intéressant par rapport à leur propre pratique du jeu. Difficile de reprocher à un ado de jouer très longtemps si on passe soi même des heures devant son écran. Les nouveaux parents sont dans des dilemmes complexes vis à vis de leurs loisirs. Le format console ne résout pas tout mais il permet une approche plus familiale du jeu, moins enfermée qu’une tribu éclatée devant autant d’écrans.

J’ai toujours vu le Steam Deck comme un bon alignement de planètes pour Valve. Une console qui est née au bon moment avec d’excellents choix techniques. Des choix différents de la concurrence qui a toujours voulu soigner son image avec des arguments techniques sonnant comme des superlatifs inutiles. Grosses définition, gros processeurs, plus de ceci ou de cela. Valve a vu simple et juste, ce n’est pas la puissance de cet objet qui en fait le succès. C’est son approche. La marque a capté un besoin qui était dans l’air du temps et en a fait un outil véritablement pertinent. C’est là la clé de son succès.

Un grand merci à Thomas pour son aide pour ce billet.

Steam Deck : l’avenir rafraichissant proposé par Valve

Steam Deck : la solution de jeu mobile de Valve

 

Steam Deck : une console de parents ? © MiniMachines.net. 2024.

Intel Foundry : une renaissance complète du service

Minimachines.net en partenariat avec TopAchat.com

Intel Foundry, c’est le nouveau nom de l’IFS, l’Intel Foundry Service. L’offre de gravure de microprocesseurs de la marque. Derrière cette entité se cache un jeu de domino enclenché depuis 2021, date à laquelle Intel a retrouvé un véritable stratège.

L’arrivé de Gelsinger a été un tournant pour Intel. Parce que au moment de son retour la majorité des analystes spécialisés dans le secteur des semi conducteurs encourageaient Intel a revendre son activité de fabrication de puces1 pour se concentrer sur leur développement. Un modèle qu’avait choisi AMD des années auparavant, en 2009, en revendant ce qui allait devenir GlobalFoundries. Le N°2 mondial de la gravure de processeurs derrière TSMC.

Intel n’a pas choisi cette voie et a décidé au contraire de mettre l’accent sur le développement de ses usines en changeant son approche. De fondeur exclusif des processeurs maison, l’idée a été de s’ouvrir à d’autres fabricants. Ainsi est né l’Intel Foudry Services avec la volonté de fabriquer des puces pour des tiers. Ce premier choix, ce premier domino devait en enclencher beaucoup d’autres. A commencer par des investissements colossaux dans de nouvelles technologies de gravure.

On se souvient d’un Intel faisant du sur-place dans les années 2010, la marque avait abandonné son rythme « tick-tock » en 2016 en expliquant vouloir travailler plus longtemps l’optimisation de ses processeurs plutôt que de changer d’architecture régulièrement. Un choix qui lui sera reproché par le grand public qui redécouvrira au passages l’existence d’un AMD volontaire et agressif avec des gammes Ryzen faisant largement oublier les mauvaises années Athlon. Pour revitaliser son offre Intel a du mettre les bouchées doubles. Ressusciter son processus Tick-Tock par exemple et, au lieu de revendre son activité de gravure, a donc décidé d’investir en masse dans ce segment.

La promesse d’Intel ? Le 5N4Y.

5 Nœuds en 4 Ans. Il faut comprendre ce code pour ce qu’il est réellement. Ces « noeuds » sont des avancées en terme de gravure. Des évolutions de finesse mais également des bouleversements techniques importants. En 2021 Intel accusait un retard important en terme de finesse de gravure et promettait donc de le rattraper avec un plan ambitieux de développement. Plan qui est aujourd’hui sur les rails et assez impressionnant avec des promesses tenues. En 2024 le fondeur devrait offrir son Intel 20A et annonce que son 18A est également sur de bons rails pour prendre la suite. Cette avancée rapide n’est pas illogique ou surprenante, elle rattrape le retard accumulé auparavant quand Intel piétinait sur des finesses de plus en plus éloignée de ce que proposait un graveur concurrent comme TSMC. Les 14 et 10 nanomètres notamment ont été largement exploités sur les processeurs Core.

Au delà de cette finesse, de nombreuses évolutions techniques sont en marche. Si l’Intel 4 est déjà disponible sur le marché et si l’Intel 3 semble mûr, le plus impressionnant vient des fonctions annoncées autour de ces finesses.

Pour séduire, l’Intel Foundry propose un calendrier encore plus ambitieux et surtout une ouverture de tout son savoir faire aux autres marques. La promesse d’une innovation qui va se poursuivre avec la mise en place de technologies avancées avec, pour certaines d’entre elles, de l’avance sur les concurrents.

Mais surtout, Intel Foundry change radicalement de philosophie en proposant un service complet autour de ses nombreux savoir faire. L’ensemble de ses services sera ouvert aux autres marques, même concurrentes. Besoin de tester un processeur ? De réaliser des samples ? De fabriquer des puces avec les dernières technologies d’Intel ? Tout sera possible. L’idée n’est plus de seulement fabriquer des puces grâce  à des machines et un savoir faire mais d’accompagner les marques dans toutes les étapes de la conception à la production de celles-ci. Des partenariats avec plusieurs universités américaines en Californie et au Michigan permettra aux étudiants de comprendre et de piloter la technologie Intel 18A. De futurs ingénieurs quitteront donc l’université diplôme en poche avec une maitrise des outils de l’IFS.

L’écosystème complet sera à la disposition des autres concepteurs de puces qui n’ont pas d’usines de production en propre. L’assemblage des produits finis sera également possible et non plus juste la gravure des wafers. Ces galettes de silicium qui nécessitent ensuite l’imbrication des circuits sur un support. En d’autres termes on pourra demander à Intel Foundry de produire des puces de A à Z qu’on n’aura plus qu’à mettre en boite ou à souder sur un circuit imprimé. Tout comme on pourra uniquement demander l’assemblage de composants tiers ou la gravure d’un élément.

Et cette offre est ouverte à tous : Microsoft et ARM ont déjà indiqué vouloir faire fabriquer des SoC chez Intel Foundry mais les portes sont ouvertes pour Qualcomm, Nvidia et même… AMD. En se positionnant ainsi, l’offre vient concurrencer directement ce que proposent des acteurs comme TSMC, GlobalFoundries ou encore Samsung.

 

Les premières architectures Intel 18A en approche

Pour marquer le coup, Intel annonce sa première production sous sa technologie 18A avec Clearwater Forest. Une puce pas vraiment grand public puisqu’il s’agit d’un processeur Xeon. Mais un processus de fabrication qui démontre l’efficacité des capacités des usines d’Intel. La puce rassemble en effet de nombreux éléments novateurs. Elle emploie l’Intel 3 pour son DIE, l’EMIB et la technologie Foveros Direct. C’est la marque de la bonne voie du premier processeur grand public en Intel 18A que sera Panther Lake en 2025.

C’est l’objectif du 18A de permettre au fondeur de redevenir le leader en terme d’avancées techniques. Pour le moment on reste sur une production de masse en Meteor Lake et donc en Intel 4. L’Intel 3 qui sert à la fabrication du DIE de base de Clearwater Forest n’est pas employé dans un processeur grand public même si il serait déployable dans des volumes plus importants selon le fondeur. Reste à savoir si la feuille de route de la marque pourra être réellement tenue comme annoncée. Si Intel a toujours spécifié que son objectif 5N4Y ne concernait que des étapes internes de production et non pas la fourniture de produits finis en masse, il y a toujours des risques d’une distance diplomatique entre les annonces et la réalité.

Comprenez qu’il serait du plus mauvais effet pour la stratégie actuelle de Geslinger d’annoncer un retard sur ses nœuds de production. Promettre que tout va bien et que le calendrier de développement interne est parfait reste plus confortable que de sortir des produits. Même si pour l’année 2023 pas moins de deux générations de processeurs ont été proposées. Le fait que Microsoft ait signé un partenariat avec Intel pour développer une puce 18A est un bon indice du développement de la technologie. On se doute que Microsoft n’aurait pas signé – et engagé des fonds – sur une simple promesse. Idem pour ARM qui a annoncé et suivi les efforts de la marque depuis avril 2023.

Intel EMIB

Aure point clé, la signature de partenariat avec de nombreux architectes du silicium. On retrouve des noms prestigieux associés aux services de l’Intel Foundry. Des marques comme Ansys, Siemens, Synopsys, Cadence ou Keysight qui vont travailler avec des outils mis en place par Intel pour profiter de ses nouvelles technologies comme l’EMIB. Cette solution qui permet de construire des puces plus efficacement à partir de différents éléments. Pour ces marques, l’EMIB est la promesse d’un développement plus rapide et plus souple que les technologies classiques.

On retrouve également une myriade de marques spécialisées qui pourront profiter des services de l’Intel Foundry pour proposer des éléments techniques très spécifiques. On peut considérer cela comme un assemblage de plusieurs composants différents, comme un microscopique puzzle. Si une marque développe un élément de sécurité qu’un client final veut absolument obtenir pour ses matériels, Intel ne sera pas en mesure de le remplacer par un composant maison mais pourra tout à fait l’implémenter sur une puce dans ses usines. Beaucoup de ces éléments sont des points clés pour pouvoir répondre à des appels d’offres précis et le fait de les intégrer à son catalogue de partenaires est un énorme avantage pour le service. Intel pourra même proposer ses propres puces comme des éléments a intégrer dans d’autres productions. Un autre point capital de cette offre à mon sens car un industriel qui aurait besoin d’un processeur hyper spécifique pourrait choisir d’assembler un élément de sécurité X avec une mémoire Y, un microcontrôleur Z et un cœur Intel dans un seul et même « SoC » final.

Qu’est-ce que ça change pour le grand public ?

C’est la question que l’on me pose en général en commentaire ou dans la vraie vie. Intel Foundry c’est super mais ça change quoi pour nous ? La réponse est assez évidente. Plus Intel trouvera de partenaires pour  son service de fondeur, moins le coût de développement – un coût totalement astronomique qui se chiffre en dizaines de milliards de dollars – sera reporté sur la seule production d’Intel. Et donc sur les processeurs vendus à tout le monde. Le prix de la course à l’innovation voulue par Intel sera également épongée en partie par ces clients professionnels. Si Microsoft signe une production de masse de puces Intel 18A, il paye de son côté une part des frais de développement de celle-ci. 

La qualité globale des puces et la possibilité de voir la feuille de route d’Intel être tenue est également clairement impactée par le développement de ce service. Plus il sera populaire auprès de différents acteurs, plus les investissements seront rapides et massifs. Plus la rentabilité de ceux-ci sera grande et le prix des technologies baissera. 

Le fait d’avoir également un concurrent à TSMC sur les puces haut de gamme a également un intérêt concurrentiel et, beaucoup plus prosaïquement, de calendrier. Les prévisions de production de TSMC sont telles qu’il faut parfois attendre plusieurs trimestres pour bénéficier de certaines de ses technologies… Ou alors s’engager au prix fort sur des volumes très importants. L’arrivée d’un acteur concurrent pourrait avoir des effets positifs sur ce calendrier mais aussi sur le coût de ces gravures spécifiques.

*C’est une Private Joke.

Intel Foundry : une renaissance complète du service © MiniMachines.net. 2024.

Des logiciels espions dans les MiniPC Chinois : que faire ?

Minimachines.net en partenariat avec TopAchat.com

Un Youtubeur US a découvert dans son MiniPC la présence de logiciels espions. Des Spywares assez classiques directement préinstallés sous Windows. Certains de ces logiciels permettant de récupérer des données utilisateurs, il s’agit de failles assez critiques. 

Deux familles de logiciels espions ont été identifiées : Bladabindi et Redline. Ces fichiers permettent des choses inquiétantes comme récupérer des mots de passe directement issus de navigateurs en ligne. Mais ils ciblent également certaines applications et en particulier les gestionnaires de monnaies virtuelles. Certains peuvent enregistrer tout ce que vous pianotez sur votre clavier et vont permettre d’identifier des suites de chiffres correspondant à un numéro de carte bleue par exemple. Ce sont des logiciels très dangereux qui peuvent aussi bien servir à récupérer vos accès à un service de streaming que copier votre identité, voler un compte de réseau social ou… vider votre compte en banque.

Le fait qu’ils soient intégrés par défaut à Windows lorsque l’on reçoit la machine est donc très inquiétant. Ce genre de problématique n’est cependant pas nouvelle. Cela est déjà arrivé par le passé, et pas forcément uniquement sur des machines noname. De nombreux constructeurs ont eu a faire face à ces problématiques qui sont en général assez vite repérées. Dans le cas présent, le lot infecté serait déjà identifié et l’image système employée aurait été rapidement remplacée par une nouvelle, libre de toute « infection » de ce type.

Un fabricant spécialisé dans le MiniPC fanless

Pour comprendre comment cela est possible, comment des MiniPC peuvent être infectés ainsi, il faut comprendre comment ce marché fonctionne. Je vous le répète souvent mais les machines livrées en provenance de marques noname sont issues de fournisseurs uniques. Avec des designs identiques, des équipements copiés collés d’une marque à l’autre, il n’est pas difficile de deviner que les constructeurs de certains MiniPC sont les mêmes. Ici il s’agit d’un gros poisson : « Shenzhen Shanminheng Technology Co., Ltd. » qui fabrique – entre autres – pour les marques AceMagic, AceMagician, Kamrui, NiPoGi, Ouvis, NiPoGi, T-Bao et bien d’autres marques que je qualifie souvent de « Noname« . 

Ces différentes marques font appel à ce constructeur pour fabriquer leurs machines de A à Z. Elles ne sont en rien responsables de la fabrication du produit et se contentent souvent de n’envoyer qu’un logo à l’usine en charge du marquage des différents éléments. Logo qui sera collé sur la machine, ajouté à l’étiquette, imprimé sur la « documentation » et éventuellement sur le carton du MiniPC. Parfois ce logo sera poussé sur la carte mère pour apparaitre au démarrage de l’engin mais ce n’est pas forcément le cas. 

Une fois la machine produite, le constructeur la charge dans un camion mandaté par la marque qui l’expédie sur les marchés de son choix. Chez des exportateurs, par exemple, mais également sur des places de marché comme Amazon en France. Là, les MiniPC sont distribués aux clients. Pour certaines de ces marques, le travail consiste donc à choisir sur catalogue les machines à vendre, à envoyer le logo de sa marque, à attendre que la commande soit construite, à gérer le transport du produit vers le revendeur et à assumer le SAV sur les produits. Ils ne vont jamais sur le terrain, ne conçoivent pas les produits, ne gèrent pas la partie logicielle et ne voient jamais un client. L’essentiel de leur activité consiste à répondre à des mails et à passer des coups de fil. Ils sont donc dépendants des usines qui fabriquent leurs produits. 

La force de ce système vient du nombre de machines produites. Si l’ensemble de ces marques se font évidemment concurrence, elles permettent également à l’usine qui les assemble d’amortir plus facilement sa production. En proposant un design unique pour de nombreuses marques « noname », le moule du MiniPC est plus facilement remboursé. Le design et la fabrication des cartes mères le sont tout autant. Et la capacité d’achat du véritable fabricant, avec un nombre important de produits, permet d’obtenir de meilleurs tarifs auprès des constructeurs de composants comme auprès  des revendeurs de mémoire vive, stockage, module Wi-Fi et processeurs. Bien meilleur que si chaque marque devait acheter ses propres puces, concevoir ses carte mères et usiner ses propre moules. C’est donc une sorte de symbiose qui est établie entre tous ces acteurs. Avec parfois de petits dramas et quelques anecdotes rigolotes comme des marques X dans des boites Y…

Le défaut de ce système c’est que tout repose sur un unique constructeur, ici Shenzhen Shanminheng Technology donc. Et que si un truc arrive à ce gros poisson, toute la chaine est affectée. Une série de SSD défectueux ? Des centaines de machines et plusieurs marques peuvent en pâtir. Un problème avec l’alimentation ? idem. Et pour le cas qui nous préoccupe, un Windows vérolé  et ce sont plusieurs marques et modèles qui sont livrés avec des logiciels espions. Un jeu de domino très classique.

Un duplicateur de SSD M.2 industriel

Un détail intéressant nous apprend que ces spywares sont présents sur le Windows installé mais également sur la partition de récupération du système. De telle sorte que si vous faites une réinstallation d’usine de votre Windows, il aura exactement le même souci. Il réinstallera les mêmes logiciels espions. Cela nous montre une chose. Qu’il ne s’agit pas d’une infection due au hasard du système maitre mais bien d’une volonté de propager ces outils dangereux. Volonté à accorder au crédit plus que probable d’une mafia locale. A l’usine, les machines ne sont pas allumées une par une pour préinstaller le système d’exploitation. Les unités de stockage sont préparées en amont et une image du système comme des partitions de récupération sont clonées d’une source maitre vers plusieurs SSD à la fois via un matériel spécialisé. Ainsi lorsque le SSD est installé sur le MiniPC, il est déjà prêt à l’emploi. Il « suffit » donc de modifier l’image présente dans la machine de clonage pour infecter rapidement des centaines ou des milliers de SSD.

En général les engins qui assurent le clonage des systèmes sont surveillés, c’est un point crucial de la sécurité de l’installation. Mais avec une belle somme à la clé, une mafia locale peut motiver un employé à changer cette image de base pour une autre, contenant les logiciels espions. Avec une simple clé USB, il est possible d’effectuer cette opération simplement et rapidement. Et c’est probablement ce qu’il s’est passé ici. Une personne a modifié l’image de base et des machines sont ainsi sorties de l’usine avec les logiciels vérolés.

C’est en tout cas le scénario qui a été identifié à chaque fois lors des infections de ce genre dans le monde informatique. Qu’il s’agisse de portables de marque ou d’autres engins contenant un système, le maillon faible vient toujours de cette opération de clonage. Shenzhen Shanminheng Technology a annoncé avoir repéré les logiciels espions rapidement et remis de l’ordre dans son image Windows. Il faut dire que ces spywares ne sont pas  discrets puisqu’ils sont détectés par Windows Defender lui même, ce qui fait que la première analyse de Windows au démarrage de la machine signale le problème. Les remontées client ont donc du être assez rapides.

Aujourd’hui tout serait rentré dans l’ordre et les machines produites ne seraient plus infectées. Il faut bien comprendre que l’ensemble des marques comme le constructeur original n’ont rien à gagner à livrer des engins infectés. Ils ont plutôt tout à perdre en terme d’image sur ce secteur aussi concurrentiel.

 

J’ai un MiniPC d’une de ces marques, que faire ?

Il est plus que probable que votre système soit sain. Dans le doute vous pouvez toujours lancer une analyse complète de Windows Defender et passer les fichiers détectés à la moulinette de Virus Total pour analyse. C’est le plus simple pour être rassuré.

Il n’empêche que, ce n’est pas forcément très prudent d’utiliser une image de Windows livrée avec ce type de PC. On pourrait d’ailleurs généraliser ce commentaire à l’ensemble des PC commercialisés avec un système. Avec une nuance toutefois, les portables de grandes marques bénéficient d’un contrôle qualité logiciel plus poussé lié au fait que leurs engins sont en général plus complexes à mettre en œuvre à cause de leurs pilotes. Mais dans le cas des MiniPC noname, le système est en général brut de décoffrage, ce qui est une excellente nouvelle car cela veut dire qu’il seront plus simple a remplacer.

Pour éviter toute infection par des logiciels espions, le plus simple est donc de ne pas employer l’installation de base mais d’effectuer une installation propre. Vous pouvez partir sur un système Linux de votre choix en suivant les instructions fournies par les différentes distributions : Debian, Mint, Ubuntu ou autre. Si vous voulez rester sous Windows, il faudra partir d’une image Windows livrée directement par Microsoft. Cela ne demande que peu de compétences et vous assure un système sans virus ou même aucun logiciel publicitaire. Rares sont les MiniPC à nécessiter des outils logiciels spécifiques. Il y ‘en a quelques uns qui proposent des fonctions supplémentaires comme un écran intégré ou des réglages RGB. Mais on peut en général trouver et copier ces éléments logiciels facilement.

La licence de Windows nécessaire à la réinstallation du système est en règle générale « tatouée » sur le BIOS du système. Et lorsque vous installerez votre nouveau Windows ce dernier identifiera automatiquement votre machine comme détentrice d’une licence OEM. Mais si vous voulez récupérer votre clé Windows avant la réinstallation, la méthode est assez simple.

Lancez votre MiniPC sur le système reçu et appuyez sur la touche Windows de votre clavier. Pianotez ensuite les trois lettres CMD et la touche entrée pour lancer l’invite de commande. Vous obtiendrez l’interface très sobre de l’invite de commande.

Pianotez alors (ou copiez collez) la commande suivante : wmic path SoftwareLicensingService get OA3xOriginalProductKey

Cela vous indiquera l’ensemble de cinq groupes de cinq chiffres et lettres qui constituent la clé de votre machine. Notez la soigneusement ou prenez la en photo (Mais pensez à ne pas la partager ou à l’effacer ensuite…). C’est cette clé qui servira lors d’une éventuelle réinstallation.

Il ne vous reste plus qu’à préparer une clé USB avec l’image de Windows installée dessus. Pour Windows 10, il faut aller sur cette page et pour Windows 11 sur celle-ci. Vous choisirez « Création d’un support d’installation de Windows » et cliquerez sur « télécharger ».  Un outil de préparation de clé est alors téléchargé, il pèse moins de 10 Mo.

Il vous faut ensuite une clé USB vierge1 de 8 Go ou plus pour pouvoir commencer l’opération. Attention, il sera nécessaire d’avoir un PC connecté pour préparer la clé. Insérez la clé USB dans votre port USB et lancez l’utilitaire tout juste téléchargé. Il vous demandera au préalable d’accepter le contrat de licence.

Il vous demandera ensuite de choisir votre langue et votre édition. Pensez à décocher la case « utilisez les options recommandées pour ce PC » si vous n’effectuez pas la préparation de la clé depuis le MiniPC noname que vous suspectez d’être infecté. Ce qui n’est évidemment pas conseillé. Cliquez ensuite sur suivant.

Sélectionnez « Disque mémoire flash USB » pour utiliser votre clé USB. Cliquez sur Suivant.

Choisissez la clé USB sur votre machine (vérifiez bien d’avoir sélectionné le bon lecteur pour éviter tout accident, vous pouvez utiliser l’explorateur de fichier pour cela.). Cliquez sur Suivant.

L’opération débute et l’outil télécharge l’image du système sur votre clé tout en préparant celle-ci pour accepter un démarrage direct. Pendant ce temps là, vous pouvez chercher comment ouvrir le BIOS de la machine que vous voulez réinstaller. En général une recherche avec la référence de votre machine et les mots « bios key » donnent de bons résultats. Une fois cette touche identifiée (F1, F2, F10, F11, F12 ou Echap sont communément employés mais également encore parfois la touche « Suppr ») vous pouvez essayer celle-ci sur votre PC à réinstaller en la pressant frénétiquement au démarrage.

Une fois dans le BIOS – qui est parfois très touffu – rendez vous dans l’onglet « Boot » et cherchez « Device order » pour sélectionner comme premier élément de démarrage le périphérique USB. Si votre clé est insérée  depuis le démarrage de l’engin, son nom devrait apparaitre dans la liste. Sauvegardez vos réglages et redémarrez la machine avec la clé USB en place. Il ne reste plus qu’a suivre les instructions à l’écran pour installer Windows. Si cette installation réclame votre N° de série, vous, pourrez indiquer celui récupéré. Il y a cependant de grandes chances que celui-ci ne soit pas nécessaire.

A la fin de l’opération, vous aurez un système parfaitement « propre ». Cela peu paraitre long et fastidieux mais cela reste la solution la plus sure pour profiter d’un Windows sans logiciels espion, virus ou autre bloatwares…

Des logiciels espions dans les MiniPC Chinois : que faire ? © MiniMachines.net. 2024.

Raspberry Pi cède – encore – aux sirènes de la bourse

Minimachines.net en partenariat avec TopAchat.com

Raspberry Pi veut entrer en bourse, à Londres, et ainsi devenir une entreprise cotée comme une autre. Une nouvelle qui va faire grincer des dents toute une communauté. Même si les choses ne sont pas forcément aussi tranchées qu’on le croit.

Raspberry Pi est quasiment composée depuis ses débuts de deux entités distinctes, la Fondation d’un côté qui est une organisation à but non lucratif qui a pour objectif l’apprentissage de l’informatique au plus grand nombre. Et une entreprise commerciale de l’autre qui propose des produits informatiques et autres composants. Il s’avère que leur approche commerciale est aussi orientée vers des produits Linux, Open Source – à la différence du matériel vendu – et des cartes abordables. Mais cela reste une entreprise commerciale. Et c’est cette seconde entité qui cherche aujourd’hui à entrer en bourse. Pourquoi ? Il ne faut pas se voiler la face, si Sony (qui fabrique les Raspberry Pi) et ARM (qui développe l’architecture des SoC intégrés aux cartes) sont déjà actionnaires minoritaires de la société, la majorité des parts appartient au personnel de la société. Ce personnel, et en particulier ses figures emblématiques, possèdent des parts d’une entreprise difficile à valoriser en l’état. Le fait de dire « j’ai 10% de Raspberry Pi » ne vous ouvrira aucune porte et ne paiera aucun crédit. En entrant en bourse, ces parts vont se transformer en actions et ces actions pourront à leur tour se transformer en argent. La raison de cette entrée en bourse est donc assez simple : le pognon.

Raspberry Pi Pico

Le RP2040

D’autres points peuvent se comprendre et en particulier la recherche de nouveaux investisseurs capables de permettre à la société d’évoluer, de changer de braquet et de proposer des nouveautés plus aventureuses. Des produits innovants et pourquoi pas des solutions plus complexes que ses différentes cartes. On a vu le succès des RP2040 et on sait que la marque est capable de choses brillantes.

On peut tout de même se demander si le fait de laisser la société intégrer un marché boursier ne va pas transformer sa mentalité, ses objectifs. Pour le CEO de Raspberry Pi, cela ne sera pas le cas tant qu’il sera « à son poste ». Ce qui n’est en rien une garantie. Cela revient juste à dire que si un jour un fond spéculatif veut gagner plus d’argent avec la société, ou changer sa manière de faire, elle devra virer Eben Upton au préalable. Chose que peu de fonds de pension ou de sociétés de gestion hésitent vraiment à faire. Quitte à donner un joli parachute doré au précédent PDG pour en placer un plus complaisant avec leurs ambitions.

Eben Upton comprend les inquiétudes des clients de Raspberry Pi et estime que c’est un « bon signe » car cela veut dire que la société bénéficie d’une certaine loyauté de son public d’utilisateurs. On peut effectivement prendre cette nouvelle comme cela et penser que le fait que ceux qui emploient les cartes pour des projets persos soient concernés est un signe qu’ils apprécient vraiment cette marque. Pour ce qu’elle a fait par le passé, pour son rôle éducatif et même, éventuellement, pour les déboires qu’elle a connu ces dernières années avec la crise du COVID. Mais croire que parce qu’on s’inquiète de cette entrée en bourse par souci du passé cela gommera la vigilance pour le futur serait une grave erreur.

Raspberry Pi n’est plus vraiment en odeur de sainteté et si votre serviteur veut bien croire que la marque veut se remettre sur pied, trouver des fonds, développer des nouveautés et, pourquoi pas, récompenser son personnel en lui offrant une somme liée aux parts de chacun. Il serait hasardeux de parier sur un passe droit technique ou commercial. Après les mésaventures des stocks, les augmentations de tarifs, le patinage évolutif par rapport à une concurrence toujours plus exacerbée… Raspberry Pi continue de séduire parce que la marque a gardé son côté pro dans sa production. Le fait de tenir à jour sa partie logicielle, de ne pas faire de concessions sur le matériel et de livrer des produits testés est un énorme avantage. Mais le jour où un de ces élément faiblira, et il serait dans l’intérêt évident d’une meilleure rentabilité immédiate que cela soit le cas, tout le château de cartes bâti par la marque s’effondrerait rapidement.

Aujourd’hui, la société Raspberry Pi est évaluée à un demi milliard de dollars, une coquette somme qui pourrait mettre un peu d’épinards au centre d’une marmite de beurre pour certains membres de l’entreprise. Mais si demain les actions en bourse sont portées par des actions de terrain peu favorables aux utilisateurs, il y a de grande chance que le public s’en détourne pour s’orienter vers d’autres produits. Et c’est déjà le cas. Le paquebot RPI à ouvert la voie dans son sillage une foule de cartes en tous genres sur le même principe. Des clones plus ou moins complets au départ et, depuis quelques années, des solutions qui tracent leur propre chemin. Toutes avec des défauts de jeunesse ou de communauté mais, justement, des défauts qui ne demandent qu’à être réglés si les membres de la communauté de Raspberry Pi se sentent un peu trop orphelins.

Des millions de Pi sont utilisées à travers le monde…

L’autre grande peur vient du fait que les Pi sont désormais les colonnes vertébrales de nombreux produits de petites et moyennes entreprises. Des composants vitaux qui leur ont permis de proposer des services fiables et de qualité. Ne pas avoir à développer une carte de ce type, compter sur des composants précis et choisis pour leur robustesse, avoir la possibilité d’acheter ces cartes facilement en petite quantité et n’importe où a changé la donne pour des milliers d’entreprises. Avant les Pi, il était nécessaire soit de payer pour faire fabriquer des centaines ou des milliers de cartes conçues en interne puis de les stocker. Des investissements lourds et couteux qu’il était difficile et long d’amortir. Soit de se contenter des cartes existantes avec des prix élevés, des prestations médiocres et souvent un suivi logiciel hasardeux. Avec les Pi, les frais de conception et de fabrication ont d’un coup été dilués à l’infini par des millions de pièces vendues. Leur approche ouverte, capable de s’adapter à des milliers de formules différentes, à créé un écosystème très complexe, plein de possibilités et de réalisations.

Mais cette vision d’une foule de partenaires que l’on fournit de quelques dizaines à quelques centaines de cartes régulièrement est tout à fait contraire à la vision de rentabilité d’une société cotée. Elle préfèrera livrer quelques grossistes qui prendront en charge la distribution des cartes en ajoutant leurs marges au passage. Avec tous les déboires que cela suppose : préférer les gros clients plutôt que les petits, ne pas livrer les plus petites commandes pour pouvoir assurer les partenaires plus aisés, commencer à créer des grilles d’achat qui avantageraient celui qui va prendre 10 000 cartes plutôt que celui qui en veut 100. Bref la fin de cette idée d’un produit à la conception partagée, ouvert à tous et dont tout le monde profite, pourrait être plus rapide que prévu.

La Raspberry Pi 5

Autre inquiétude, que les utilisateurs particuliers pâtissent également de cette évolution. On a bien vu pendant la pandémie et la période suivante que la fondation n’avait pas livré les cartes en priorité aux revendeurs grand public. Les Raspberry Pi 4 ont d’abord été livrées aux entreprises avec lesquelles la marque avait des contrats. Et cela peut se comprendre, si elle n’honorait pas ses engagements avec eux, elle aurait pu tout simplement disparaitre. A fortiori, il faut bien reconnaitre que Raspberry Pi n’a pas pris d’engagements avec les professionnels pour le Pi 5. 100% de la production actuelle de ces cartes part chez des grossistes à destination des particuliers depuis sont lancement. Ce choix de privilégier le grand public est à mettre au crédit de ses équipes… mais encore une fois, combien de temps les dirigeants actuels auront leur mot à dire quand des propriétaires actionnaires auront pris les rênes de l’entreprise ?

Idem pour les vœux de Eben Upton, ce dernier déclare que cette introduction en bourse offrira plus de moyens à la fondation pour de multiples choses : Former des gens, faire tourner des clubs, améliorer et agrandir les programmes existants. Il estime que les moyens alloués à la fondation pourraient doubler après cette évolution boursière. Avec toujours cette idée en tête que cela ne sera le cas que quand il sera là… Sans aucune garantie derrière.

Upton demande à la communauté de leur faire confiance et de continuer à surveiller la marque. Qu’elle ne devrait pas faire évoluer ses prix, ses marges ou baisser la qualité ou les capacités de ses produits. Qu’il faudra juger sur pièces dans 15 ou 20 ans… Je ne demande qu’à le croire mais je reste dubitatif. Pour moi, la partie éducative et hobbyiste est un élément central de l’équation de la marque mais elle n’a logiquement rien à faire dans les mathématiques d’un investisseur. Paradoxalement, sans ces éléments il ne resterait plus à Raspberry que sa gloire passée et ses contrats avec une foule de pros. Mais entre 2012, date de sortie de la première carte, et aujourd’hui, le marché a considérablement évolué. Il n’est plus impossible pour une PME de trouver des SBC d’autres marques proposant des services équivalents. Reste la communauté et les développeurs mais là encore, ce mouvement pourrait pousser à un exode des meilleures volontés.

Sources : The Register et Ars Technica

Raspberry Pi cède – encore – aux sirènes de la bourse © MiniMachines.net. 2024.

Le Rabbit R1 est un presse papier en puissance

Minimachines.net en partenariat avec TopAchat.com

Décrire le Rabbit R1 n’est pas forcément chose facile, l’objet se positionne comme un appareil sortant des sentiers battus. Il s’agit d’un accessoire annoncé à 199$ HT aux US dont l’objectif est de se comporter comme un assistant personnel mobile. Il est, évidemment, piloté par une IA.

Le Rabbit R1 en détail

L’objet est assez joli, il est dessiné par la fameuse équipe de design de Teenage Engineering1. Le Rabbit R1 se présente comme un appareil totalement autonome. Il propose un écran de 2.88″ tactile accompagné d’une webcam rotative d’avant en arrière. Un dispositif qui permettra de se filmer ou de prendre des photos. Il propose également une molette de navigation, des microphones et un bouton qu’il suffira de presser pour parler à l’objet. Le Rabbit R1 fonctionne sur batterie et offrira une journée d’autonomie environ. Il se rechargera avec un port USB Type-C et proposera une connexion de base en Wi-Fi et Bluetooth. Egalement équipé d’un modem 4G et d’un lecteur de cartes SIM pour « naviguer » en ligne où que vous soyez, il dépendra exclusivement des serveurs de la marque. Son système d’exploitation, dérivé d’une solution Linux s’appelle Rabbit OS, et a été pensé pour faire le pont vers ces serveurs où seront pilotées les IA de l’ensemble. La start-up lance donc ici tout un écosystème : serveurs, modèle IA, système d’exploitation et l’appareil pour piloter le tout.

L’objet embarque un matériel assez basique. Un processeur Mediatek MT6765  avec 8 cœurs ont 4 sont cadencés à 2.3 GHz et sans NPU, c’est à dire sans puce capable d’accélérer localement le calcul d’une IA. Ce qui revient à dire que tous les calculs mais également toutes vos recherches seront effectuées sur un serveur externe, chez Rabbit. Cette puce a été choisie car elle propose un modem 4G plus que pour ses capacités de calcul ou graphiques. Elle est accompagnée par 4 Go de mémoire vive et 128 Go de stockage. L’ensemble est donc bien moins compétent qu’un smartphone moderne qui propose les mêmes fonctions avec de meilleurs processeurs, des écrans plus grands, des capteurs photos plus précis et la même capacité de connexion aux réseaux.

Rabbit OS, l’ingrédient secret de l’équation

Le principe de base de Rabbit OS, c’est d’utiliser une IA qui effectue toute seule les actions qu’un humain ferait en ligne. Cette IA fonctionne an tant que LAM pour « Large Action Models ». Un algorithme qui apprend à se comporter exactement comme un utilisateur classique en enchainant les actions sur des sites web. Rabbit OS sait reconnaitre les champs à compléter, cocher des éléments, ajouter des éléments dans un panier, valider des commandes et autres. Elle ne fait pas que lire les données, elle actionne les éléments qu’elle croise pour mener à bien des tâches.

Le Rabbit R1 qui l’abrite ressemble un petit peu à une enceinte connectée dans son fonctionnement mais se veut donc plus active que ces dernières. On parle à l’objet et il exécute des ordres de manière classique tout en ayant la capacité de prendre des « décisions » basiques. On peut lui demander une musique sur le service de streaming de son choix comme de lancer un minuteur ou de faire une recherche sur un service type ChatGPT. Mais on peut également lui ordonner de commander des produits en ligne ou de réserver des services. Le point qui différencie son système d’IA de celui d’un smartphone ou d’une enceinte connectée vient du fait que l’on n’a pas besoin de télécharger une application pour chaque usage. Il sera évidemment nécessaire d’identifier l’utilisateur abonné aux différentes fonctionnalités choisies, comme un service de streaming musical par exemple. Mais pour beaucoup de choses, l’assistant personnel vous proposera de prendre en charge tout seul les différentes options. Il naviguera de manière autonome.

Le Rabbit R1 fonctionne en effet en singeant l’usage que ferait un humain d’un service en ligne. Le modèle est censé être entrainé pour savoir comment se comporter devant ces éléments et donc de pouvoir être capable de le prendre en charge tout seul pour vous fournir un résultat. L’idée de Rabbit est de contourner une des problématiques majeures des systèmes d’exploitation. Au lieu de demander à des compagnies et des développeurs de construire un écosystème d’applications pour un nouveau produit, chose très difficile parce que coûteuse et pas forcément rentable pour ces développeurs, le LAM s’appuie sur des services existants déjà en apprenant à les manipuler. Pas besoin de télécharger l’application d’un loueur de voitures si vous pouvez utiliser son site directement via une IA. Après tout, de nombreuses applications ne sont que des interfaces qui manipulent des données en ligne.

La camera permet également d’interroger des moteurs de recherche par image. Si vous avez un réfrigérateur muni d’une lumière intégrale à l’arrière de celui-ci et que vous utilisez les 5 premiers centimètres de ses étages pour séparer bien régulièrement votre nourriture afin que le capteur photo puisse l’analyser, alors vous aurez une recette de cuisine suggérée par l’appareil. Plus simplement vous pouvez faire comme les smartphones depuis un paquet d’années. Prendre une photo d’un objet et laisser un moteur de recherche par image vous indiquer de quoi il s’agit.  On peut également demander à l’objet de poser des questions à une IA plus classique ou de traduire de textes en temps réel. Voir de générer du contenu à partir d’une autre IA via un ordre vocal, au cas où cela servirait à quelque chose.

Sur le papier c’est très joli mais dans la réalité…

Ce service de conciergerie dans la poche est un vieux fantasme humain. On retrouve ce genre d’idée dans beaucoup de thèmes de science fiction. Un appareil qu’on peut piloter à la voix et qu’on dégaine pour lui dicter des ordres. L’engin s’active alors « magiquement » pour répondre aux problèmes posés, identifier une espèce autochtone ou commander à un vaisseau de venir vous chercher. J’écris magiquement parce que jusqu’à il y a peu, ce genre de technologie n’existait pas et imaginer qu’un appareil puisse résoudre ce genre de problématique apparaissait comme totalement illusoire.

Rabbit OS a t-il vu que d’autres pizza étaient disponibles en promo ? Non.

Sur le Rabbit R1, on promet pourtant cet usage avec une grande autonomie. On lui dicte de commander un repas, de réserver un voyage ou un service et l’appareil va butiner les sites disponibles pour s’exécuter. Il ne vous reste donc plus qu’à valider le paiement pour votre pizza, votre voiture ou votre tour du monde. Le premier élément à mettre en perspective ici est évident mais il est bon de le rappeler. L’appareil n’offre aucun financement des services qu’il propose. Il ne fait que les « fluidifier ». Quelqu’un qui ne pourrait pas s’offrir ce tour du monde financièrement parlant ne pourra pas plus se l’offrir avec ce Rabbit R1. Autrement dit, si il fait miroiter des usages, il ne s’adresse qu’à une catégorie d’utilisateurs aisés.

Qui rêve de voir ses vacances planifiées par une IA ?

Et on pourrait même aller un peu plus loin, l’objet s’adresse à une catégorie d’utilisateurs assez riches pour ne pas prendre soin de son argent. Qui va demander ce type de service sur un coup de tête tellement instantané qu’il ne voudra pas prendre la peine de se servir d’un smartphone pour comparer plusieurs offres ? Voir de simplement profiter d’une promotion sur son service habituel ? Une chose qu’Internet a rendu possible facilement c’est la comparaison des tarifs et des services. Acheter un voyage ou un repas, totalement à l’aveugle, en utilisant l’IA de Rabbit OS à la place de son cerveau signifie n’avoir aucune prise sur les choix effectués. Aucun élément de comparaison sur les différentes options. S’en remettre totalement à un algorithme  qui ne précise jamais son mode de fonctionnement.

Si je réserve un aller retour de train pour partir en vacances en famille, je n’ai personnellement pas les moyens de ne pas vérifier les détails qui accompagnent ce voyage. Le prix des places à quelques heures d’intervalle, les villes de départ, les différentes options de bagage ou d’assurance. Et cela marche dans les deux sens. Parfois un voyage en seconde est 3 fois moins cher qu’un voyage en première. Ou alors une voiture légèrement surclassée sera proposée pour une dizaine d’euros de plus pour une location. Accepter qu’un algorithme fasse vos choix à votre place, c’est tout simplement accepter qu’on me serve la formule de base voulue par le voyagiste. Et donc pas forcément la plus avantageuse pour moi. Le service Rabbit R1 s’adresse aux plus riches. Et aux plus riches seulement.

L’IA de Rabbit promet de surfer et comprendre des millions de sites en se comportant comme un humain

Un algorithme vraiment autonome ?

ll faut ensuite essayer de comprendre comment sera formée et entrainée cette IA. Comment va t-elle se comporter sur des interfaces en constante évolution ? Suivre des schémas de navigation peut s’avérer plus ardu que prévu. Entre les pages qui se modifient en permanence, les popups vantant des fonctions supplémentaires qui peuvent gripper la navigation habituelle, des promotions temporaires qui viennent s’intercaler dans un tunnel d’achat classique ou des changements complets d’ergonomie qui adviennent du jour au lendemain, le travail de navigation ne sera pas de tout repos pour ces LAM. A moins de les former en continu pour chaque service. Un effort très couteux en temps et en ressources pour Rabbit. On imagine assez mal le système être totalement fonctionnel en permanence, il suffit qu’un service en ligne évolue pour que l’IA demande à être entrainée à nouveau afin de pouvoir le gérer correctement.

Pire, un site web pourrait tout à fait détecter que l’appareil qui navigue sur son site emploie une IA et décider en conséquence de lui barrer le chemin. Il pourrait également facilement prendre en compte l’utilisation de Rabbit OS et, par exemple, adapter son offre en conséquence. Ne pas faire apparaitre certains choix mais, sachant que la navigation n’est pas faite par un humain, ne proposer que les options les plus chères ou les plus rentables. Voir refuser totalement l’affichage des données pour les sites web vivant en partie de la publicité. A quoi bon servir un client si on ne peut pas gagner de l’argent en lui présentant des produits publicitaires ? Les annonceurs vont probablement refuser de compatibiliser ces IA qui absorberaient de la publicité inutile.

L’usage de Rabbit OS nécessitera l’enregistrement préalable de services tiers comme Spotify ou Youtube Music

Enfin l’avantage concurrentiel promis par Rabbit OS consiste à rendre autonomes certains éléments décisionnels importants. La sélection de produits et leur mise dans le panier, la réservation de services ou la validation de choix réalisés à la place de l’humain. Ces éléments demandent très souvent de valider des Conditions Générales d’Utilisation ou des Conditions Générales de Vente ainsi que de remplir des formulaires contenant des informations personnelles. Le fondateur de la société indique très clairement ne pas stocker de données personnelles sur ses appareils. Ce qui veut dire qu’à chaque changement de CGU, à chaque première connexion ou pour chaque nouvelle adresse à valider, il faudra remplir à nouveau des fiches d’identification ou cocher des cases de validation sur le petit écran de 2.88″ tactile. Ce qui pose un petit problème par rapport au scénario de fluidité proposé. Encore une fois, Rabbit OS est censé faire mieux qu’une application de smartphone mais il sera toujours plus efficace d’utiliser son smartphone et ses applications spécialisées ou une navigation Internet dès que votre scénario de commande va un tout petit peu se compliquer.

Ne comptez pas trop sur la bonne volonté des marques pour laisser Rabbit OS butiner leurs services à l’aveugle. Personne n’a envie de voir les clients partir vers un appareil qui ne leur livrerait pas les merveilles de promotions, de suggestions d’achats complémentaires et de tunnels de vente savamment travaillés leur échapper. Les applications dégagent des bénéfices en affichant des suggestions ciblées sur vos centres d’intérêt. Les faire disparaitre au profit d’une commande « robotisée » leur ferait perdre de l’argent. La réservation d’un service de transport cherchera à vous vendre une assurance ou à rajouter la location d’une voiture à l’arrivée parce que c’est rémunérateur. Rendre tout cela invisible sera contre productif pour eux. Il y a donc de grandes chances qu’ils barrent la route à Rabbit OS dès que possible. Plus ou moins subtilement. Soit en exigeant de passer par leur site ou leur application, soit en ne servant tout simplement pas leurs données au service.

Pendant la keynote le CEO de Rabbit jongle entre ordinateur et Rabbit R1 en permanence…

Un usage fixé sur l’homme du XXe siècle

Mais enfin et surtout, l’usage décrit fait totalement abstraction d’une évidence. L’utilisateur moyen susceptible d’acheter cet appareil aujourd’hui n’a pas les mains libres. Qui a encore les deux mains libres autour de vous ? Le greffon smartphone est quasiment partout. Tout le monde a déjà un téléphone en main. Je ne vois pas bien qui va ranger son smartphone dans sa poche pour sortir un second appareil afin de lui dicter de lancer un album sur Spotify ? Il a déjà de quoi passer cet ordre dans la main, il lui suffit de deux clics pour lancer un album… Pire encore, cela veut dire multiplier les abonnements mobiles par deux pour conserver son téléphone et ajouter cette fonction doublon.

Tout le blabla de la présentation sur le manque de praticité du smartphone est assez ridicule. Le reproche des centaines d’applications rendant leur usage peu pratique est servi avec beaucoup de mauvaise foi. La Keynote semble s’adresser à quelqu’un qui n’aurait pas vraiment vu comment fonctionne un smartphone depuis 10 ans. Si un utilisateur a 200 applications sur son appareil, cela ne veut pas dire qu’il a un annuaire d’applications dans la main, rangées par ordre alphabétique ou via un classement décroissant d’installation. Les propriétaires de smartphones ont un ensemble d’applis qu’ils utilisent au quotidien et qui sont évidemment placées par degré d’utilisation sur les premières pages de leurs appareils. Il est parfaitement ridicule de considérer que le nombre d’applications est un handicap sur un smartphone alors que l’on peut depuis des années déjà lancer n’importe quel jeu ou utilitaire en faisant exactement ce que propose le Rabbit R1. A savoir demander oralement à son smartphone de lancer ce que l’on veut. Cet argument ne tient qu’avec une bonne dose de mauvaise fois.

En parlant d’usage d’ailleurs, le côté « dictée » de l’appareil est encore un contrepoint. Personne n’a envie d’utiliser un engin qui va exiger de signaler aux autres ce que l’on veut ou ce que l’on cherche. Je n’ai pas envie que mon voisin de transport sache ce que j’écoute ni qu’il connaisse mes goûts en matière de Podcast. Je ne veut pas devoir commander un service à haute voix. Je n’ai aucune envie de devoir le crier ou m’y reprendre à plusieurs fois parce que je suis dans un environnement bruyant. Je vois autour de moi pas mal d’utilisateurs qui ont parfaitement désappris a téléphoner et n’utilisent leur smartphone qu’avec leur clavier. Pour eux, l’usage du micro est un problème et le recours à ce type de technologie est bien moins efficace que le clavier virtuel. Comment joindre une image à son message ? Comment suivre plusieurs conversations ? Il faut secouer le bidule pour faire apparaitre un petit clavier sur l’écran tactile mais alors on perd tout l’intérêt du dispositif en plus de passer pour un maniaque.

Le problème du multitâche est également évident. Les utilisateurs de smartphones jonglent désormais avec plusieurs outils en parallèle, tiennent une conversation, surfent et écoutent de la musique sans soucis. Le Rabbit R1 est un objet mono tâche. Il propose un fonctionnement en « question-réponse » qui ne permet pas de faire plusieurs recherches à la fois. Pire, il ne semble pas prendre en compte la gestion des hyperliens dans ses réponses. Mettons que sur un coup de tête j’ai envie de réserver une soirée au cinéma. Je peux demander au Rabbit,R1 de me présenter les films disponibles. Si je ne connais pas certains d’entre eux, je vais devoir poser la question à l’appareil pour chaque film qui m’est inconnu… Une opération qui durera de longues minutes. Une simple recherche sur ma salle habituelle depuis un site internet me donnera en un seul coup d’oeil l’ensemble des séances et un synopsis de chaque film proposé en un clic. Je n’aurais pas besoin d’enchainer 5 ou 6 questions les unes à la suite des autres pour arriver au même résultat. Le cours de l’action Coca cola prendra toutes les possibilités d’affichage de l’appareil sur R1 lorsqu’il pourrait apparaitre en bandeau en permanence sur un smartphone…

Et, plus trivialement, si je commande mon billet de cinéma sur le Rabbit R1. Est-ce que je ne serais pas tenté de vérifier que la réservation que j’ai fait est exacte ? Que j’ai le bon nombre de billets, à la bonne heure pour la version Originale ? Que tout cela est correctement enregistré. Dûment payé ? Qu’il s’agit du bon cinéma et pas de la salle d’à côté ? Et ainsi de suite ? Autrement dit, mis à part des personnes vraiment absolument confiantes dans leur achat « aveugle » effectué par le dispositif, qui ne sortira pas au final son smartphone pour voir si tout est correct ? Et si cela ne l’est pas, pour une raison ou une autre, si votre voyage n’est pas le bon ou si le Rabbit R1 ne vous a pas précisé un détail comme le départ depuis un aéroport un peu plus excentré que prévu. Est-ce que vous aurez un moyen d’annuler le tout parce que c’est une IA qui l’a réservé ? Ne va t-il pas être nécessaire de jongler en permanence entre le Rabbit R1 et son smartphone ? 

Jesse Lyu, le CEO de Rabbit

Quelle valeur ajoutée face à un smartphone et une application ?

C’est bien là le problème du Rabbit R1. Et c’est d’ailleurs la première question qui a été posée en masse suite à la présentation de l’objet et de ses usages. Pourquoi ne pas avoir fait une application plutôt qu’un appareil ? Après tout, Rabbit OS dépend d’un serveur en ligne et on pourrait l’interroger exactement de la même manière avec une application. La réponse est assez simple. Parce que Google et Apple, ainsi que probablement Amazon et Microsoft, sont déjà sur les rangs pour développer leurs propres applications de ce type. On se doute que les assistants déjà en place et liés à leurs appareils respectifs vont débarquer un jour ou l’autre sur ce segment du service. C’est probablement l’affaire de quelques trimestres tout au plus avant que l’on puisse demander à son PC ou son smartphone exactement ce que propose Rabbit OS.

Et le problème pour la startup Rabbit est alors assez simple, en tant qu’application, leur visibilité serait nulle. Apple, Google et compagnie n’auront aucun scrupule à faire disparaitre une Rabbit App dans les méandres de leurs catalogues si elle fait de l’ombre à leur propre offre. La seule manière d’exister pour Rabbit est donc de proposer un terrain de jeu qui ne soit pas sous le contrôle des autres. Un objet indépendant sur lequel les différents acteurs de ce marché n’auront pas de prise.

Cela ne me déplait pas d’imaginer un indépendant cherchant à se battre contre les GAFAM. Mais encore faut-il que cela ait du sens pour l’utilisateur. Si demain Spotify, Netflix, Shazam ou votre application favorite se faisait la même réflexion que Rabbit, vous auriez les poches pleines d’appareils indépendants pour pouvoir répondre à toutes ces problématiques. Le walkman Spotify, le lecteur vidéo Netflix, le micro Shazam et ainsi de suite…

Le patron de Rabbit, Jesse Lyu,  a répondu sur Twitter à la question du « pourquoi pas une app » et a donné de multiples pistes… Mais la majorité de celles-ci ne concernent pas l’utilisateur final. Plutôt le businessman qu’il est. Son premier point est que construire une application et la maintenir est quelque chose de très difficile pour respecter les standards imposés par Apple et Google. C’est peut être vrai mais en quoi c’est le problème de l’utilisateur final ? Il explique également qu’il est difficile de conserver la loyauté des utilisateurs. Une autre manière de dire qu’il craint la concurrence. Le grand public va aller là où ce sera le plus efficace et n’aura jamais de scrupule à basculer de Rabbit OS à Siri ou Google Assistant le jour où ceux-ci proposeront le même produit. La construction de l’appareil physique est donc ici une manière de prévenir de la disparition de la clientèle en empêchant la concurrence d’exister.

Son deuxième argument est plus audacieux, il explique que la startup est « largement devant » Google et Apple sur le segment de l’IA et que leur modèle les surpasse. Je n’ai pas les éléments pour savoir si cela est vrai, je sais juste qu’il s’agit d’une course que les GAFAM vont avoir bien du mal à perdre au vu des ressources disponibles. Cela prendra peut être quelques temps, peu à mon avis, mais cela arrivera tôt ou tard. La fenêtre de tir de Rabbit est forcément très courte et on imagine déjà que la marque n’aura plus de visibilité dans quelques trimestres ou années.  C’est peut être malheureux mais parfaitement réaliste. Jamais une entité aussi petite que Rabbit ne pourra faire le poids face aux mastodontes du marché.

Dernier argument de Jesse Lyu, son appareil fera les choses mieux et plus vite que la concurrence sur smartphone. Mieux que les applications donc. C’est un pari audacieux à mon avis. Car si cela fonctionne très bien pour le moment, c’est parce qu’il n’y a pas de demande. Quand quelques utilisateurs commandent des courses, se font livrer des repas ou jouent avec les API de test des agences de voyage. Tout se passe forcément très très bien. Mais quand la clientèle évolue et que l’utilisateur lambda commence à demander des choses un peu plus exotiques… c’est une autre paire de manches. Que va t-on pouvoir dire à un utilisateur qui voudra réserver un bateau de pèche depuis son lieu de vacances alors que le site qui est censé gérer la chose a été référencé avec les pieds dans les moteurs de recherche ? Au bout de combien d’essais de commande d’une pizza dans un petit restaurant Italien, l’utilisateur va en avoir marre de parler à son appareil et sortir son smartphone pour surfer directement sur le site ?

Un détail important souligné comme un avantage de la solution Rabbit OS c’est sa capacité d’apprentissage autonome. Mais je suppose que cette capacité va de pair avec un surf sur des sites codés en respectant l’état de l’art en matière de code et d’accessibilité. Une IA pourra sans doute identifier un bouton de commande qui aura la forme d’un panier ou lire le texte « ajouter au panier » associé au bouton. Mais que fera cette IA si le webmaster à eu la merveilleuse idée de remplacer le bouton par une petite image de pizza avec un gros « +1 »  dessus sans commenter celle-ci ? Elle sera sans doute perdue. Autrement dit, Rabbit OS saura parfaitement piloter de gros sites internationaux qui disposent d’applications et d’interfaces bien optimisées mais sera beaucoup moins à l’aise avec des sites plus exotiques.

Rabbit OS met également en avant son système d’apprentissage pour contourner ces limitations mais c’est ce qui me semble être une fausse bonne idée. C’est parfait pour des choses simples et répétitives comme demander à son système domotique d’effectuer des scénarios précis ou surfer sur un site peu connu mais que vous fréquentez assidument. Réserver des tickets pour une exposition dans un musée National ? Cela sera un jeu d’enfant de suivre le cheminement pensé par des professionnels de la programmation et sera probablement pris en charge par l’IA. Mais pour tout le reste ? Pour ce site local qui permet de louer une salle de jeu pour un gouter d’enfant ? Il faudrait apprendre à Rabbit OS comment se débrouiller sur un site presque « amateur » ? Dans quel but ? Pour que l’on puisse éventuellement effectuer l’opération une nouvelle fois dans un an ? Il est plus probable que tout le monde sorte son smartphone et utilise son propre cerveau pour faire cette réservation « à l’ancienne ». En quelques minutes seulement. Jamais Rabbit n’aura la taille nécessaire pour surfer sur le net et apprendre le fonctionnement des millions de sites différents. Même en imaginant que chaque utilisateur partage son expérience, le nombre de Rabbit R1 en circulation aura bien du mal fasse aux centaines de millions de sites existants et changeant en permanence.

L’argument de la vitesse de traitement est identique, tant qu’il n’y a personne sur leur réseau, tout va bien. Mais combien de temps avant que leur système demande plus de ressources. La marque annonce avoir reçu plus de 20 000 précommandes mais n’espérait livrer que 500 appareils au lancement. Cela fait déjà un gouffre technique incroyable a combler. Et les 199$ HT demandé par appareil ne doivent pas dégager une marge folle a investir dans des serveurs adaptés.

Et c’est le dernier point de ma problématique avec ce Rabbit R1, quel est son modèle économique ?

Le Rabbit R1 est annoncé à 199$ HT. L’objet en lui même ne doit pas couter une fortune mais il s’agit de relativement petites séries. On parle quelques dizaines de milliers d’appareils. Je ne sais pas combien va gagner l’entreprise sur chaque vente mais cela n’est pas vraiment une part importante de l’équation.

Le Nabaztag

Le Rabbit R1 me fait irrémédiablement penser à un autre lapin, le Nabaztag. Un objet qui permettait de lire des emails, des flux RSS et d’autres sites d’info. Il pouvait envoyer des signaux lumineux ou bouger ses oreilles… C’était un précurseur des objets connectés puisqu’il est sorti en 2006, à une époque ou ce type de produit n’existait tout simplement pas pour le grand public. L’objet fonctionnait en passant par un serveur hébergé par la société Violet qui distribuait ces lapins. Le Nabaztag et les autres produits qui ont dérivé de cette idée de base fonctionnaient sur un modèle économique identique à celui du Rabbit R1. Un prix à l’achat du produit mais pas de frais d’abonnement.

Vous voyez le problème ?

Lorsque l’on vend un produit, on dégage une marge. Mais cette marge sera irrémédiablement rattrapée par les coûts du service si il n’est pas proposé avec un abonnement. Cela peut prendre 1 an, 2 ans ou plus mais mécaniquement, les salaires du personnel et les frais de gestion des serveurs continueront de couter de l’argent alors que la marge liée à la vente de l’objet restera fixe. Alors on peut toujours continuer a faire rentrer de l’argent dans les caisses en vendant de nouveaux produits mais il arrive toujours un moment où, fatalement, le marché se sature. Des milliers d’appareils se connectent chaque heure aux serveurs mais il n’ y a plus ou pas assez de nouveaux client pour payer la note. C’est ce qui est arrivé au Nabaztag et c’est ce qui arrivera tôt ou tard au Rabbit R1.

En imaginant un produit au prix de revient de 1$ pour chaque Rabbit R1 vendu (Ce qui est évidemment extrêmement généreux), les 20 000 réservations génèrent alors 3 980 000 $ de marge. Une somme importante mais fixe. Une somme qui ne pourra pas permettre de payer les ingénieurs en charge du développement des IA indéfiniment dans la durée. Si on ajoute à cette équation les serveurs nécessaires au fonctionnement du dispositif on a une société qui va irrémédiablement dans le mur. Même en imaginant la marge la plus élevée possible pour son produit.

Sans abonnement mais avec des frais fixes, le service ne peut pas continuer a exister indéfiniment. Le système économique de Rabbit ne tient pas debout une seule seconde dans la durée et  j’ai même peur que la fenêtre de commercialisation et d’existence du produit soit bien plus courte que cela. Si demain Apple, Google, Amazon ou Microsoft proposent des services identiques au modèle de Rabbit OS, les ventes du produit s’arrêteront d’un seul coup. Et sans un apport constant de liquidités, la société fermera alors ses portes très rapidement. D’ailleurs la garantie du Rabbit R1 exclu expressément le logiciel et les fonctionnalités de l’appareil. Aucun recours ne pourra être envisagé lorsque le Rabbit R1 se transformera en presse papier, du moment que ce presse papier à un écran et une camera qui fonctionnent encore.

Il existerait bien une solution pour se sortir de cette ornière qui passerait par de la publicité par exemple, mais je ne suis pas sûr que le client final serait ravi d’avoir de la publicité ciblée sur son appareil. Ni que beaucoup de marques aient envie de cibler 20 000 personnes spécifiquement. L’autre solution serait de s’entendre avec des services pour que l’IA oriente ses recherches pour de l’affiliation. Passer par telle offre de location de voiture, telle agence de voyage ou tel marque de pizza… Une idée qui pourrait fonctionner économiquement mais qui enlèverait a peu prêt tout l’intérêt du dispositif. Payer 200$ un objet dont l’objectif serait de mal chercher à votre place et de vous faire payer un produit différent que si vous utilisiez votre smartphone ne me parait pas être une solution miracle pour le client final.

Pourquoi lancer le Rabbit R1 et Rabbit OS si la société va dans le mur ?

La réponse à cette question est très simple et se rapproche de ce que proposent aujourd’hui les plateformes de financement participatif. Pour la visibilité que l’objet propose.

Quelle possibilité a un acteur comme Rabbit sur le marché de l’IA face aux mastodontes de la tech ? Aucune. Annoncer son Intelligence Artificielle et son mode de fonctionnement spécifique dans un article scientifique attirerait certes une attention de la part des GAFAM mais guère plus. Aller sonner aux portes des différents acteurs pour présenter son savoir faire serait sans doute une autre méthode. Mais le mieux qui puisse arriver serait alors d’être embauché comme un développeur lambda sur un Campus de Google ou Apple.  Le pire étant que les développeurs de Rabbit OS soient gentiment raccompagnés à la porte pendant que leurs idées, précieusement notées, seraient peu à peu intégrées dans les futures IA des grands groupes.

Quelle alternative ? Indiegogo ? C’est bien pour aller plumer des pigeons et se faire connaitre mais cela ne résout pas le problème d’un modèle économique qui finirait par s’essouffler tôt ou tard. Par contre, lancer une campagne bien ficelée, pendant le salon High Tech grand public le plus suivi au monde qu’est le CES parait être une très bonne idée. Pas forcément pour les clients qui précommanderont un Rabbit R1 mais pour les équipes en charge du développement du produit. En réussissant le tour de force d’être présenté par toute la presse High Tech de la planète et en annonçant 20 000 précommandes, Rabbit prouve qu’elle vaut quelque chose. Que son idée fait sens. En d’autres terme, qu’elle est peut être « bankable » pour un GAFAM. Et là les choses prennent une autre tournure. Toute la première partie de la  conférence décrit le fonctionnement spécifique du système et s’adresse non pas au client final mais à des investisseurs. Est-ce qu’il vaut mieux reprendre les idées de Rabbit pour son compte et ainsi gagner du temps et de la visibilité ou tenter de les copier tout simplement en faisant semblant de ne pas les avoir vu avant ?

Qu’est-ce qui est le plus séduisant en matière de communication grand public aujourd’hui. « Nous intégrons à notre IA le savoir faire de Rabbit OS et ses modèles LAM » ou « Cette IA se comporte comme les LAM de Rabbit OS mais ce ne sont pas les même. » ? 

Pour le grand public cela ne fait pas de différence. Les Rabbit R1 sont condamnés a se transformer tôt ou tard en presse papier. Mais pour les ingénieurs de Rabbit cela change vraiment la donne. La conférence donnée au CES n’avait pas pour cible le grand public et ceux qui ont commandé l’objet l’on sans doute fait sur un coup de tête. Non Rabbit s’adressait directement aux GAFAM, les seuls a pouvoir leur assurer un véritable avenir. 

Le Rabbit R1 est un presse papier en puissance © MiniMachines.net. 2024.

Avec Copilot, Microsoft s’offre une touche de publicité

Minimachines.net en partenariat avec TopAchat.com

C’est passé comme une lettre à la poste, la petite communication de Microsoft au sujet de Copilot a été accueillie avec joie par l’ensemble de la presse en ligne. Pourtant cette histoire de « modification de clavier » n’a absolument aucun sens, si ce n’est de maquiller une belle opération publicitaire.

Cette semaine de convalescence m’a provoqué des sueurs bizarres. Je n’étais pas du tout fiévreux et pourtant j’ai cru halluciner à lire certains articles concernant cette « révolution » d’une nouvelle touche sur le clavier Windows. Cette « première modification du clavier de Microsoft depuis 30 ans » a été jugée comme « révolutionnaire » et le narratif de Microsoft  a été servi sans aucun recul.

La proposition de l’ajout d’une touche « Copilot » sur les claviers peut se résumer de manière assez simple. Pour Microsoft, l’arrivée de son Intelligence Artificielle au sein de Windows est un évènement tellement important qu’il est nécessaire de lui dédier une touche spécifique sur les claviers des futures machines. C’est un évènement parce que la dernière modification d’un clavier date d’il y a presque 30 ans. Lorsque apparu la fameuse touche Windows.

Quel rôle jouera cette touche ? C’est évident ! En appuyant dessus, Windows ouvrira l’interface de Copilot, l’Intelligence Artificielle maison de Microsoft. Cela améliorera l’interaction entre l’utilisateur et l’IA. On appuie, on pianote sa question et on profite du résultat. Magique ! Microsoft explique que cette touche est le meilleur moyen de fluidifier les interactions entre l’utilisateur et l’IA. Un moyen d’ôter toute friction entre l’assistant et l’assisté.

Aujourd’hui Copilot est simplement accessible d’un simple clic via la barre des tâches…

Un Copilot a t-il vraiment besoin d’une touche ?

Non. Et c’est même contraire à toute la mécanique de Windows depuis 30 ans justement. Toute la philosophie de Microsoft a été bâtie autour de la touche Windows, touche signalée par une icône sur votre écran qui réagit comme le centre névralgique des interactions du système d’exploitation. Cette touche Windows appelle les autres applications et usages, c’est elle la véritable colonne vertébrale du système qui est censé ne servir que d’interface aux autre outils qu’il accueille. En proposant une touche Copilot différente, pour ne pas pas dire concurrente, à la touche Windows, Microsoft brouille cette piste d’usage. Cela n’a rien de « super accessible » mais rime plutôt avec un double emploi teinté de diverses problématiques.

Si la solution d’un bouton pour un usage était vraiment pratique et accessible, nos claviers feraient 400 touches. Une touche pour l’éditeur de photo, une autre pour lancer le traitement de texte, une troisième pour votre navigateur. C’était d’ailleurs la proposition des bureaux des premiers Windows. Des espaces logiciels où s’entassaient des dizaines d’icônes pour lancer chaque programme. L’arrivée de machines capables de lancer plusieurs logiciels en même temps a rendu cette proposition de bureau caduque. Réduire son traitement de texte pour voir son bureau afin de lancer son tableur n’avait pas de sens. Microsoft a donc trouvé la parade avec cette solution d’arborescence et fait disparaitre les bureaux. Certains claviers proposent des raccourcis ou autres touches programmables. C’est en général lié à des métiers ou des fonctions très particulières comme l’appel incessant d’une calculatrice, d’un lecteur audio ou autres gadgets venant poser leur fenêtre par dessus les autres. Si l’ajout de touches spécialisées pour ouvrir des programmes n’a jamais été retenue par les fabricants comme la norme, c’est parce que cela va à l’encontre de la solution plus généraliste définie par Windows.

Personne ne veut de touche supplémentaire sur son clavier parce que cela n’a absolument aucun sens d’en rajouter. Le choix le plus intelligent fait par Microsoft il y a des années a bien été de proposer cette touche Windows et d’imaginer l’utilisateur l’activer pour lancer facilement ses applications. Windows fait pousser une arborescence unique et facile à suivre. Chaque pression sur cette touche se répercute ensuite simplement dans différentes branches hiérarchiques. Les différents programmes sont accessibles directement via la combinaison de touches TAB et de flèches si on ne veut pas quitter son clavier. Et un système d’icônes et de tuiles est disposé de telle sorte que les programmes les plus fréquemment utilisés soient facilement cliquables pour prendre le relais à la souris. C’est simple, c’est fluide et c’est compréhensible après quelques essais seulement. Cette combinaison d’une touche dévoilant un menu d’icônes ainsi qu’un champ de recherche est une tellement bonne idée qu’elle a été reprise par énormément de systèmes d’exploitation différents.

Pourquoi ne pas simplement continuer d’utiliser Copilot avec ce même système ? Il suffit de continuer à l’utiliser via un raccourci, une tuile ou de le conserver dans la barre des tâches ?  Ou de proposer en haut de l’arborescence un second champ de recherche dédié à cette IA ? Ou alors de laisser l’utilisateur basculer le champ de recherche de base initié par la pression de la touche vers Copilot ? Ou de l’imposer, après tout Microsoft n’a jamais trop hésité à imposer des changements dans ses moteurs de recherches ou sa barre de tâches. D’ailleurs, sans compte Microsoft dûment identifié sur la machine, la pression sur la touche Copilot lancera le moteur de recherche de Microsoft. On aurait donc pu imaginer le scénario inverse, une pression sur la touche Windows qui lance Copilot à la place de Windows Search… 

Le problème posé par cette touche, c’est que l’outil va perdre énormément en contexte. La touche ouvrira un menu générique au contraire d’un outil intégré aux programme qui s’adaptera à ceux-ci. Dans la capture ci-dessus, on voit que le clic sur l’icône Copilot dans la barre de tâche propose des fonctions contextuelles par rapport à un texte sélectionné. Un appui sur la touche ouvrira sans doute un menu identique mais qui aurait l’idée de quitter sa souris pour appuyer sur la touche avant de revenir à la souris pour sélectionner l’action à effectuer ? Tout le monde continuera à manipuler le bouton directement présent dans la barre des tâches parce que c’est simplement plus pratique.

Rajouter une touche Copilot a t-il du sens ?

Proposer une nouvelle touche sur le clavier n’a aucun sens. Cela va à l’encontre de toute ergonomie classique et surtout de la philosophie même du système Windows. Demander à l’utilisateur de s’adapter à de nouvelles habitudes en ne fournissant aucun véritable raccourci plus pratique que ce que propose déjà aujourd’hui l’ensemble des systèmes existants n’est ni productif ni élégant. Changer de touche pour aller pianoter à droite du clavier ne change pas vraiment énormément notre façon de travailler mais c’est totalement insensé de proposer cette solution physique pour interagir avec une Intelligence Artificielle censée nous aider à travailler.

Mais si cette modification de clavier n’a pas d’intérêt d’un point de vue utilisateur, elle en a pourtant énormément pour Microsoft.

On ne peut pas dire que l’éditeur ait été dans les wagons de tête de l’IA. Avec Chat-GPT en locomotive en début d’année 2023, la plupart des systèmes concurrents ont juste eu le temps d’accrocher leurs wagons à l’énorme réussite technique et surtout médiatique de cette IA émergente. Et que peut rêver de mieux Copilot pour se faire connaitre que d’apparaitre « magiquement » sur tous les claviers d’ordinateurs sous Windows à l’avenir ?
Avoir sous les yeux, sur des millions de nouveaux claviers le petit logo Copilot et un chemin tout tracé pour le lancer est le placement produit rêvé de tout logiciel. Il s’offre ainsi à la fois la meilleure visibilité possible mais également le meilleur chemin pour modifier les habitudes des utilisateurs. Les humains sont paresseux, si on leur fournit un raccourci pour effectuer une tâche, ils le prendront. C’est ici à mon avis toute la raison d’être de cette touche. Cela va à l’encontre de la philosophie de Windows mais cela permet de court-circuiter très efficacement les autres IA du marché. Et qui ne fera pas de temps en temps une petite entorse à sa philosophie pour rendre invisible ses concurrents ?

Cela d’autant plus que les constructeurs sont très demandeurs d’un marqueur spécifique de cette « nouvelle génération » de machines spécialisées dans l’IA que nous promettent AMD, Qualcomm et Intel avec l’ajout de moteurs de calculs dédiés à leurs processeurs. Ils vont tous suivre cette nouvelle proposition de Microsoft et ajouter la fameuse touche Copilot à leurs claviers de portables sans se poser de question.

Un espace d’affichage de quelques millimètres carrés qui va se répéter des millions et des millions de fois cette année.

Echec et Mat

Que conclure si ce n’est que le  coup marketing est génial de la part de Microsoft. Avec cette touche Copilot, l’éditeur réussi un pari assez incroyable. D’abord, en agitant le chiffon rouge de cette modification « historique » du clavier aux yeux de la presse, l’éditeur a réussi à faire gober l’information de ce changement sans jamais la laisser réfléchir aux véritables enjeux situés derrière cette annonce aux allures de gadgets.

Ensuite, en se positionnant à la meilleure place du monde pour venir supplanter ses concurrents dans l’offre IA, Microsoft offre une campagne publicitaire mondiale gratuite à Copilot. Une campagne qui durera non pas quinze jours ou trois semaines mais des années. Avec une place de choix, en se positionnant directement sur les claviers des utilisateurs. Microsoft nous a habitué à ce genre de pratiques et a d’ailleurs subit les foudres des organismes chargés de rétablir une juste concurrence par le passé sur pas mal d’autres de ses produits logiciels. Quand l’éditeur proposait par défaut son navigateur en laissant un choix secondaire pour les outils concurrents. Quand des liens vers ses outils bureautiques sont déposés sur les systèmes en étant présentés comme quasiment installés par défaut. Ne laissant que peu de choix aux concurrents. Cela a créé par le passé des batailles juridiques complexes pour ses concurrents pour simplement avoir le droit d’apparaitre comme alternative aux solutions imposées par défaut par l’éditeur.

Mais ici le coup de maitre est sans doute de proposer son clavier aux fabricants avec le « libre choix » de l’implanter ou non. Microsoft n’impose pas de rajouter cette touche Copilot. Mais on comprend bien que la marque va faire un gros effort marketing dessus et que si une marque ne le suit pas, alors elle ne pourra pas rajouter le petit logo Copilot sur la boite du PC. Chaque constructeur a le droit de ne pas modifier son clavier… mais ce sera sûrement contre productif en terme d’image. Après tout, tout le monde parle d’IA ! 

Et que va répondre Microsoft si un outil IA concurrent se plaint de la visibilité de la touche Copilot sur tous les claviers de portable rendant leur produit moins visible ? Qu’ils ne font que proposer cette touche optionnelle aux fabricants et que rien ne leur est imposé. Au contraire des solutions logicielles classiques de l’éditeur qui mettaient en scène son Windows avec son navigateur en premier plan ou ses outils Office, ici il s’agit d’une touche matérielle sur laquelle Microsoft n’a pas de prise. Même si on sait que les machines disposant d’une touche Copilot auront droit à un marketing plus appuyé, la défense de Microsoft sera toute trouvée auprès d’une autorité de la concurrence : ils ne sont pas responsables des choix matériels faits par les fabricants. Et si d’ici quelques années une plainte donne lieu à des modifications de cette touche ou à laisser le choix à l’utilisateur de modifier son raccourci, l’habitude sera déjà peut être prise de passer par Copilot pour activer une IA. Et le pari de Microsoft sera gagné.

Petite touche, grands effets.

Avec Copilot, Microsoft s’offre une touche de publicité © MiniMachines.net. 2024.

AiPC : le futur du monde PC passera par l’Intelligence Artificielle

Minimachines.net en partenariat avec TopAchat.com

L’AiPC c’est tout simplement un ordinateur ayant des capacités de calcul d’Intelligence Artificielle. Pas une nouveauté au sens strict puisque la machine que vous utilisez pour me lire propose plus que probablement des capacités de calculs dans ce sens. Mais plutôt dans un sens quasi prophétique. Car pour Intel cela veut dire en plus autre chose, que l’engin dispose de fonctions véritablement spécialisées dans cet usage. Qu’il supporte également un outil de dialogue commun entre les différents programmes d’IA et les éléments nécessaires à leur calcul. Pour Intel, en somme, l’AiPC débute véritablement avec Meteor Lake même si votre machine sait déjà prendre certains calculs en charge.

Après AMD qui a lancé début décembre ses processeurs Hawk Point en proposant un NPU pour les calculs d’IA à leur bord, Intel lance les processeurs Core de 14e Génération « Meteor Lake » dont un des principaux atouts est également la présence d’un NPU dédié à ces calculs.

Meteor Lake, une puce pour l’IA et son futur avec l’AiPC

La mode1 est à l’Intelligence Artificielle et Meteor Lake n’échappe pas à cette mode. Intel y participe en préparant les fondations d’un usage solide de ces outils dans le monde PC. Intel ne parle plus de PC d’ailleurs mais Pat Gelsinger, son patron, martèle qu’il s’agit désormais d’AiPC. Des machines construites autour de ces nouveaux outils. Il y voit un moment « Centrino » pour le marché. Pour rappel, pour les plus jeunes, il y a eu un monde informatique avant la démocratisation du Wi-Fi sur les ordinateurs portables. On ne se connectait alors qu’au moyen d’un câble Ethernet à une prise réseau. 

Et on peut clairement marquer la fin de ce monde filaire et le début du monde connecté en Wi-Fi à l’apparition de la norme Centrino chez Intel. Ce format créait un substrat fertile sur lequel les constructeurs pouvaient compter pour intégrer du sans fil. Intel a poussé le marché à proposer systématiquement du Wi-Fi dans leurs machines. Sous peine de ne plus pouvoir en vendre. Ceux qui ont suivi en ont reçu les bénéfices, ceux qui ne l’on pas cru ont bu le bouillon amer d’une collection de machines quasiment invendables. Pour bien comprendre l’effet Centrino sur le segment, imaginez une petite boule de neige en haut d’une montagne qui roulerait toute seule en agglomérant toujours plus de neige en la dévalant. Entre 2003 au lancement de Centrino et quelques petites années plus tard, tout le secteur avait basculé vers des machines proposant une connexion sans fil. La grosse boule de neige du Wi-Fi occupait 90% du marché.

Pour Intel donc, d’ici quelques années, il n’existera plus de PC ne proposant pas une fonction ou un usage autour de l’IA en local. En 2028, Intel estime que 80% des machines auront un élément prenant en charge ce type d’usage en interne. Et si cette vision parait un peu optimiste, elle reflète simplement une constatation du marché actuel. Tant au niveau matériel que logiciel. Les machines que vous possédez aujourd’hui sont probablement capables de piloter des outils exploitant l’IA en local, elles le font d’ailleurs peut être déjà. Ce que perçoit Intel pour demain, c’est surtout une spécialisation de ces outils via le passage aux puces de nouvelles générations.

Un passage qui sera facilité et renforcé chez Intel par la plateforme OpenVINO. Un nom qui signifie Open Visual Inference and Neural network Optimization et qui décrit un système de dialogue entre des outils de programmation et de gestion d’IA vers les différents outils physiques de calcul : processeur classique, cœurs graphiques ou cœurs spécialisés comme les NPU. OpenVINO n’est pas une technologie nouvelle, c’est une plateforme de développement qu’Intel a initiée en 2018 et que l’industriel développe depuis lors sous une licence Apache 2.0. Ouverte à tous, elle supporte de nombreux langages de programmation et permet de dialoguer avec la 14e génération de puces du fondeur. L’idée étant, comme pour Centrino, de fournir une base de travail fondatrice à un écosystème pour qu’il se cale dessus. En passant par OpenVINO, un développeur d’outil proposant de l’IA sera sûr d’une prise en charge par les produits d’Intel. Qu’il s’agisse d’un Core Ultra, d’un Xeon mais aussi d’un circuit graphique ou d’outils spécialisés. La plateforme traduit et optimise les usages.

Intel compare ses puces aux solutions d’AMD sans NPU, le tableau avec les puces 8040U n’existe pas encore

Mais quels usages pour cette IA ?

C’est la grande question. Tout le monde nous en parle mais on a du mal à en percevoir les effets. Et pourtant on l’emploie déjà souvent au quotidien. Pour beaucoup d’utilisateurs, cela passe par un aspect ludique autour de la génération créative. De textes, de sons, de vidéos ou d’images. Pour d’autres cela commence à devenir un outil aussi classique qu’un traitement de texte. Un allié que l’on va solliciter au travers d’outils en ligne – gratuits ou payants – pour travailler ou réaliser des tâches variées. Hier sur les machines présentées par Intel, on retrouvait ainsi des solutions portées par des Intelligences Artificielles dont les calculs étaient effectués en local. Pour des travaux créatifs comme du son ou du dessin mais aussi pour des usages du quotidien.

Des outils exploitant déjà l’IA

Un portable sous processeur Meteor Lake avait, par exemple, pour tâche d’exécuter une héroïsation d’un portrait des gens présents à la conférence. Après une photo d’une personne sur un fond neutre, l’image passait à la moulinette d’une IA qui la recomposait en super héro. Rien de franchement original dans le travail ou le résultat si ce n’est que la tâche était effectuée en local et non pas sur un serveur distant. Pour être plus précis, la tâche était effectuée via un navigateur local sur un serveur auto hébergé par la machine utilisée. L’ensemble de l’opération était calculé par le processeur Intel Ultra en quelques instants et le résultat proposé immédiatement, sans même avoir recours à une connexion en ligne.

Autre exemple, la génération de boucles musicales ou le changement de voix en temps réel. Ce type d’outils que l’on peut aussi bien utiliser pour de la vidéo conférence, du jeu ou de la création audio était également piloté directement par le processeur Meteor Lake présent dans la machine. Par exemple, la  génération de boucles et de dérivés musicaux à partir d’une première mesure de quelques secondes peut être réalisée loin de tout service internet disponible. Ces outils vont, là encore, utiliser les capacités des puces et uniquement celles-ci.

Enfin, peut être l’exemple le plus classique du quotidien dans nos usages, un atelier technique présentait l’impact de l’IA pilotée par un NPU de processeur Meteor Lake pour un usage très classique d’une webcam. Un programme de vidéo conférence qui utilise un outil de détection de personne pour flouter ou changer le fond de l’image en temps réel basculait ainsi d’une ressource à une autre via une interface exploitant OpenVINO.

Et les chiffres sont assez parlants. En utilisant l’outil d’identification de personne et de floutage d’arrière plan, la consommation variait suivant les usages. Avec les cœurs du processeur, le simple calcul de cette identification permanente de l’interlocuteur et la correction du fond de la vidéo poussait la consommation globale de la machine entre 24 et 26 watts. En basculant sur le circuit graphique intégré au processeur, la consommation baissait à 18 watts. Enfin, en laissant le NPU spécialisé prendre en charge ce même calcul, la consommation globale tombait alors à 11 watts avec une meilleure fluidité globale. Le processeur n’affichait alors quasiment aucune sollicitation, seul le NPU réagissait en fonction des mouvements de la personne filmée.

Ce changement de consommation a évidemment un impact sur l’autonomie de la machine mais il vient en plus libérer les autres composants de cette tâche. Cela veut dire plus de performances pour le processeur et le circuit graphique mais également un recours moins important à la ventilation de l’engin et donc plus de confort d’usage. Les machines modernes savent piloter plusieurs écrans, elles embarquent de plus en plus de mémoire vive, il est donc logique de les considérer dans un usage multi tâche uniquement si ces certaines de ces tâches n’occupent pas toutes les ressources du processeur. On peut très bien imaginer un séance de télétravail avec un collègue en vidéo conférence sans avoir à limiter les compétences de calcul de la machine sur laquelle on doit effectuer des tâches. 

Les AiPC n’ont pas encore de « killer app« , cette application qui fait office de détonateur pour lancer le marché. LA Killer app, cela a été les outils en ligne comme ChatGPT et Midjourney. Il n’existe pas encore de programme qui vient véritablement bouleverser les habitudes et faire dire aux utilisateurs qu’il serait dur de « revenir en arrière ». Une de ces « applications cliquet » qui change radicalement l’usage ou la productivité d’un PC. Sans avoir de champion de ce type à mettre en avant pour le moment, Intel indique que c’est l’effervescence de l’offre, son bouillonnement, qui est la véritable fonctionnalité manquante. Pariant sur l’avenir pour voir débarquer une foule de nouveaux services et d’améliorations liées à l’IA sur nos machines.

Quel avenir pour l’IA à terme dans nos PC ?

Il n’est pas dur d’imaginer que tous les usages actuellement possibles sur les smartphones au travers d’applications spécialisées vont finir par transpirer sur PC. Pas plus qu’on a du mal à imaginer qu’à un moment ou à un autre l’ensemble des outils en ligne vont finir par être intégrés à des programmes indépendants. Imaginez simplement un générateur associé à votre traitement de texte ou à votre client email. Un outil qui prendra en charge l’aspect purement pratique de la rédaction et vous proposera des tournures de phrases ou une amélioration de votre style. Un programme qui vous aidera à rédiger des courriers type, des factures ou des documents administratifs en suivant les règles classiques de chaque type de courrier.

Mais imaginez également des programmes qui simplifieront la correction de vos photos : le contraste, la netteté, la colorimétrie de celles-ci. Qui proposeront de supprimer tel élément d’une image en recréant un univers cohérent autour de l’élément disparu. Des outils qui existent déjà mais qui peuvent demander énormément de ressources à votre machine et qui seront pris en charge par cet outil spécialisé qu’est le NPU. Pour peu que le créateur du programme s’adresse aux processeurs avec le bon langage, les NPU sauront assurer le travail demandé en échange de moins de ressources qu’un travail processeur classique.
Ici, on reprend totalement la philosophie des SoC en agglomérant des cœurs spécialisés sur un même processeur, tout en ajoutant la possibilité offerte par les cœurs historiques de venir suppléer aux éventuels besoins du système pour plus de vélocité.

L’AiPC pour tout le monde alors ?

La réponse est probablement oui. Parce que l’Intelligence Artificielle a un atout effectivement identique à celui de Centrino. C’est pratique. Et cela flatte un de nos défauts majeurs à nous autres humains, nous sommes fainéants. Si un outil peut nous permettre de répondre à une dizaine de mails aussi vite et bien que le temps que nous consacrons à en écrire un seul tout en le personnalisant, nous applaudirons à deux mains. Si un logiciel nous offre l’opportunité de retoucher une image en quelques secondes au lieu d’y passer 15 minutes – sans compter les heures d’apprentissage du logiciel en amont – et cela même si le résultat final est moins intéressant via l’IA qu’avec nos propres réglages, nous nous en contenterons sûrement très souvent. 

Comme pour le Wi-Fi qui nous a permis d’un coup de ne plus avoir à chercher une prise Ethernet pour nous connecter mais à simplement pianoter un code de connexion, les usages de l’Intelligence Artificielle vont probablement faire boule de neige dans nos machines. Et si le parc de PC vendus comptera, je n’en doute pas, des dizaines de millions de AiPC en 2024, il y aura sans doute encore plus d’utilisateurs d’IA que de machines « certifiées » en ce sens durant l’année à venir. C’est l’autre grande force sur laquelle Intel et AMD comptent dans le futur. Les machines actuelles sont déjà compatibles avec l’IA et rien n’interdit donc à tous les développeurs de compter dessus dès aujourd’hui. De quoi donner à tout le monde de basculer vers des solutions plus efficaces dès que possible.

Meteor Lake : présentation de la nouvelle offre processeur d’Intel

AiPC : le futur du monde PC passera par l’Intelligence Artificielle © MiniMachines.net. 2024.

Meteor Lake : présentation de la nouvelle offre processeur d’Intel

Minimachines.net en partenariat avec TopAchat.com

Hier soir j’étais donc à un rendez vous donné par Intel pour présenter Meteor Lake, après plusieurs discours, des démonstrations et un panel de machines présentant cette nouvelle architecture, mon avis est forgé. Meteor Lake c’est un bilan technique très positif pour l’utilisateur.

Meteor Lake, c’est pour Intel l’occasion de dévoiler sa gamme « Core Ultra » qui va permettre de faire un peu le ménage dans son offre à terme. Un des soucis du fondeur actuellement est qu’il cohabite encore sur le segment trois générations de processeurs sortis précédemment : Les Core de 11e, 12e et 13e génération. La 14e vient donc se greffer en plus. Ces nouveaux Core Ultra sont les premiers à utiliser la technologie de gravure Intel 41 et à proposer un NPU destiné au calcul d’IA en local2. Ils sont en plus, pour certains, couplés à un circuit graphique Intel Arc annoncé comme nettement plus performant.

Un montage de processeur assemblé avec des technologies nouvelles comme Foveros, gravés en utilisant la technologie Intel 4 et lancé à un rythme assez incroyable si l’on en juge par la sortie des puces Raptor Lake en tout début d’année. Intel s’est retroussé les manches pour lutter contre ses concurrents mais aussi pour imposer à nouveau ses idées sur le terrain.

Huit processeurs Meteor Lake divisés en deux camps pour le moment.

Intel lance donc 8 nouvelles puces, 4 Meteor Lake-H disponibles dès aujourd’hui et 4 Meteor Lake-U prévues pour le début de l’année prochaine. Toutes destinées à des machines mobiles mais pas avec les mêmes ambitions techniques.

La gamme « U » est la plus « conventionnelle » même si le mot est assez inadéquat pour parler de ces processeurs. On y retrouve un trio de cœurs avec 2 cœurs d’architecture « Redwood Cove » qui sont les cœurs P du dispositif. Des cœurs Performants, très rapides, seuls à gérer de l’HyperThreading dans le dispositif. Ce sont eux qui seront mis en marche pour les usages les plus exigeants de votre machine.

A côté, on retrouve 8 coeurs « Crestmont » de type E pour Efficients. Des cœurs moins performants mais également moins gourmands et qui ne gèrent pas l’HyperThreading. Ces cœurs là seront les outils à tout faire du dispositif, ils présentent le meilleur rapport performance / consommation disponible et seront réveillés en fonction des besoins de vos programmes.

Enfin, un nouveau duo de cœurs apparait avec 2 éléments « LPE » fonctionnant dans une très basse consommation qui pourront exécuter les tâches les plus sobres sur votre PC. Des cœurs suffisants pour que votre machine puisse lire un film, une musique mais également maintenir votre système en l’état lorsque vous arrêtez de solliciter votre PC. Par exemple lorsque vous quittez votre traitement de texte pour répondre au téléphone, votre portable basculera automatiquement sur ces cœurs afin de préserver l’autonomie de la batterie. Vous reprendrez votre travail de manière transparente et aurez assuré une meilleure autonomie à votre portable.

Cette combinaison de 2 cœurs « P », 8 cœurs « E » et 2 cœurs « LPE » offre un total de 12 cœurs et 14 Threads à l’ensemble de ces puces Meteor Lake-U.  Des puces qui ont toutes la même consommation avec un TDP de 15 watts de base et pouvant grimper à 57 watts au total. 

  Coeurs Fréquence P Fréquence E TDP Cache GFX NPU
Core Ultra 5 125U 12 (2 P + 8 E+ 2 LPE) Max 4.3 GHz Max 3.6 GHz 15/57 Watts 12 Mo Intel Graphics
4 cœurs Xe 1.85 GHz
2 x Intel Gen 3
Neural Compute Engines
Core Ultra 5 135U 12 (2 P + 8 E+ 2 LPE) Max 4.4 GHz Max 3.6 GHz 15/57 Watts 12 Mo Intel Graphics
4 cœurs Xe 1.9 GHz
2 x Intel Gen 3
Neural Compute Engines
Core Ultra 7 155U 12 (2 P + 8 E+ 2 LPE) Max 4.8 GHz Max 3.8 GHz 15/57 Watts 12 Mo Intel Graphics
4 cœurs Xe 1.95 GHz
2 x Intel Gen 3
Neural Compute Engines
Core Ultra 7 165U 12 (2 P + 8 E+ 2 LPE) Max 4.9 GHz Max 3.8 GHz 15/57 Watts 12 Mo Intel Graphics
4 cœurs Xe 2 GHz
2 x Intel Gen 3
Neural Compute Engines

Ces modèles « U » prendront en charge 3 lignes PCIe Gen 4 x4 et 8 PCIe Gen 4 exploitables au bon vouloir du constructeur. Elles seront capables de prendre en charge la même mémoire vive que les modèles H à savoir 96 Go de mémoire vive DDR5-5600 ou 64 Go de LPDDR/c-7467 en double canal.

Si les appellations de ces Core Ultra peuvent surprendre, la grille de lecture des puces est finalement assez claire. Plus le nombre est important en fin de descriptif, plus la puce est performante. Le message d’Intel est simple, si les architectures sont identiques avec le même nombre de cœurs, le même cache et des TDP équivalents, toutes les puces n’offrent pas les même fréquences. Intel va donc séparer un Core Ultra 5 125U capable de pousser ses Core P à 4.3 GHz d’un Core Ultra 7 165U qui peut quant à lui les faire grimper à 4.9 GHz. Plus le chiffre est élevé, plus le processeur est efficace puisqu’à consommation égale un 165U sera devant un 155U. Vous allez payer plus cher l’efficacité de vos puces, pas leur architecture ou le nombre de leurs cœurs.

Certains vont voir cette politique de manière négative en se disant que puisque les puces sont les mêmes il n’ y a aucune raison de les payer plus cher. C’est un point de vue. Mais on peut également se baser sur une autre analyse pour regarder ces produits. Un fondeur propose des processeurs en ayant comme objectif de fabriquer les puces les plus efficaces possible et en détermine le tarif sur cette base. Et, quand ses puces n’arrivent pas à atteindre les fréquences les plus élevées, il les propose alors à un prix inférieur. Un peu comme quand un fabricant de mobilier vous vend un produit neuf moins cher parce que son emballage est abîmé ou qu’il présente un défaut d’aspect. 

  Coeurs Fréquence P Fréquence E TDP Cache GFX NPU
Core Ultra 5 125H 14 (4 P + 8 E+ 2 LPE) Max 4.5 GHz Max 3.6 GHz 28/64-115 Watts 18 Mo Intel ARC
7 cœurs Xe 2.2GHz
2 x Intel Gen 3
Neural Compute Engines
Core Ultra 5 135H 14 (4 P + 8 E+ 2 LPE) Max 4.6 GHz Max 3.6 GHz 28/64-115 Watts 18 Mo Intel ARC
7 cœurs Xe 2.2 GHz
2 x Intel Gen 3
Neural Compute Engines
Core Ultra 7 155H 16 (6 P + 8 E+ 2 LPE) Max 4.8 GHz Max 3.8 GHz 28/64-115 Watts 24 Mo Intel ARC
8 cœurs Xe 2.25 GHz
2 x Intel Gen 3
Neural Compute Engines
Core Ultra 7 165H 16 (6 P + 8 E+ 2 LPE) Max 5 GHz Max 3.8 GHz 28/64-115 Watts 24 Mo Intel ARC
8 cœurs Xe 2.3 GHz
2 x Intel Gen 3
Neural Compute Engines

La gamme Meteor Lake-H reprend la même logique mais dans une version plus musclée qui se traduit par plus de cœurs Performance. Sur ces modèles on retrouvera de 4 à 6 cœurs « P » avec une consommation à la hausse puisqu’elle ira de 28 à 64 ou 115 watts suivant les états et les besoins. Ces modèles proposeront un ligne PCIe Gen5 x8 très performante qui pourra notamment servir à piloter des solutions graphiques interne ou externe, trois lignes PCIe Gen4 x4 et 8 PCIe Gen 4 que chaque constructeur pourra adapter. 

Sont prévus en plus pour le premier trimestre 2024, trois processeurs supplémentaires dans cette gamme Meteor Lake. Deux dans la catégorie U et un Core Ultra 9 dans la catégorie H.

  Coeurs Fréquence P Fréquence E TDP Cache GFX NPU
Core Ultra 5 134U 12 (2 P + 8 E+ 2 LPE) Max 4.4 GHz Max 3.6 GHz 9/30 Watts 12 Mo Intel Graphics
4 cœurs Xe 1.4GHz
2 x Intel Gen 3
Neural Compute Engines
Core Ultra 7 164U 12 (2 P + 8 E+ 2 LPE) Max 4.8 GHz Max 3.8 GHz 9/30 Watts 12 Mo Intel Graphics
4 cœurs Xe 1.5 GHz
2 x Intel Gen 3
Neural Compute Engines
Core Ultra 9 185H 16 (6 P + 8 E+ 2 LPE) Max 5.1 GHz Max 3.8 GHz 45/115 Watts 24 Mo

Intel ARC
8 cœurs Xe 2.35 GHz

2 x Intel Gen 3
Neural Compute Engines

Cette dernière gamme représente un accompagnement vers le haut pour Meteor Lake-H avec un Core Ultra 9 performant. Mais également l’apparition de puces encore moins gourmandes dans la gamme Meteor Lake-U avec des puces fonctionnant sur une base de TDP de 9 watts seulement malgré leurs 12 cœurs. 

Toutes ces puces Meteor Lake partagent des éléments communs comme la présence d’un unique NPU dédié à l’IA mais également la prise en charge par défaut de nombreux services annexes au calcul. Le Thunderbolt 4 pour commencer. Cela ne veut pas dire que toutes les machines de cette 14e Gen seront équipées d’un port de ce type mais qu’il sera possible de l’implémenter facilement pour un constructeur. 

Idem pour le Wi-Fi6E et le Wi-Fi7 ou le Bluetooth 5.3 et 5.4. Ces modules ne seront pas garantis à l’achat d’une de ces machines mais le travail d’intégration sera en quelque sorte pré-mâché par Intel. Enfin, les puces pourront prendre en charge es sorties vidéo aux format DisplayPort 2.1, HDMI 2.1 et eDP 1.4b. 

Quelle évolution depuis Raptor Lake ?

Si vous recherchez la performance pure en terme de calcul, un propriétaire d’une machine Raptor Lake (13e Gen donc) ne sera probablement pas intéressé par l’évolution proposée par Meteor Lake. Intel explique par exemple que le Core 7 Ultra 165H n’apporte que 8% de performances en plus comparé à un Core i7-1370P. Un score en hausse probablement issu d’un benchmark et qui ne se ressentira donc réellement que très faiblement dans la vraie vie. Par contre, le nouveau venu sera autrement plus économe en énergie pour certaines tâches. Il pourra consommer jusqu’à 25% de moins grâce au recours aux cœurs LPE. Un impact très intéressant sur l’autonomie de la batterie. On peut donc s’attendre à d’excellentes autonomies sans concession sur l’efficacité globale des portables.

L’autre point clé vient de l’apparition des nouveaux circuits graphiques basés sur les solutions Xe LPG des cartes graphiques Intel Arc. Après avoir sorti des modèles traditionnels pour PC de bureau, Intel a optimisé ses cœurs pour les ajuter à ses processeurs. Les cœurs Xe viennent remplacer les circuits Iris Xe que l’on connait depuis les puces Intel Core de 11e Gen. 

Déployés en 4 cœurs sous l’appellation Intel Graphics ou 7 et 8 cœurs avec la marque Intel Arc, ces solutions sont annoncées comme deux fois plus rapides que les cœurs précédents. Une augmentation notable qui se solde également par une meilleure efficacité et donc des dépenses énergétiques en moins. Bien sur, depuis la sortie des Rocket Lake en 2021 beaucoup de choses ont changé dans le domaine graphique et Intel en profite donc pour mettre à jour les capacités de ses puces. Celles-ci pourront prendre en charge le DirectX 12 Ultra par exemple et pourront également décoder ou encoder matériellement les formats AV1, H.265, H.264 et VP9. Les nouveaux circuits pourront prendre en charge jusqu’à 4 écrans en simultané et seront aptes à profiter des technologies de Super Sampling d’Intel, le XeSS. 

Intel en profite pour annoncer des scores en jeu plus rapides que son concurrent principal avec l’AMD Ryzen 7 7840U en ligne de mire. La différence n’est pas forcément nette mais le fondeur indique 10% de puissance en plus en moyenne sur un panel de jeux face aux 12 cœurs RDNA3 de la Radeon d’AMD. En pratique ne m’attend pas spécialement à une différence réellement notable mais à une mis à niveau technique qui permettra de jouer sur des machines mobiles avec un confort suffisant pour y prendre du plaisir sans avoir a forcément regarder du côté des machines de jeu. Un portable classique offrira une performance suffisante pour tenir à bout de bras des titres exigeants en haute définition standard ou plus haut en utilisant le XeSS.

Intel mets en avant de meilleurs performances par watt engagé pour chaque calcul. Des chiffres qui ne sont pas forcément très parlant puisque ces évolutions se jouent sur de faibles leviers, visibles surtout avec des benchmarks. Mis à part la solution ARM de Qualcomm clairement loin de l’échappée de tête, les autres processeur jouent probablement sur le même niveau de performances.

Meteor Lake à l’assaut de l’IA locale

Si je reviendrais sur l’IA proposée et ses usages dans un futur billet, les nouveaux processeurs permettent à Intel de proposer un traitement local très intéressant pour les outils exploitant ces technologies. Le NPU est ici constitué de deux circuits Intel Gen 3 Neural Compute Engine. Une solution pensée pour travailler à côté mais également en parrallèle de ce que proposent déjà les cœurs classiques et le circuit graphique des processeurs. Le tout est piloté en  fonction des besoins et des réglages effectués par l’utilisateur. Ainsi un processeur tel que le Core Ultra 7 165H peut entièrement diriger ses capacités de calcul pour l’IA et proposer jusqu’à 34 TOPS de performance brute. Dans le cas d’un rendu vidéo ou il s’agit de traquer un élément pour le remplacer par un autre afin de maquiller la présence d’un élément indésirable par exemple, cela permettra d gagner énormément en performances. Pour générer une image via IA depuis une application locale également.

Bien entendu il est possible de réserver certaines tâches au NPU seul afin de conserver les capacités du processeur et de son circuit graphique pour d’autres tâches. Ainsi on consommera moins d’énergie tout  en restant plus performant. Les fonctions de cadrage automatique lors des appels en vidéo conférence, ou la suppression d’une ambiance sonore pour ne garder que le son de votre voix pourra se faire nen ne comptant que sur le NPU.

Une mise à jour de la norme EVO chez Intel

Meteor Lake annonce de petits bouleversements dans la norme EVO. Norme estampillée sur certaines machines et qui garanti des usages minimum quelle que soit la marque ou le modèle. Cette certification à le mérite d’être faite de manière indépendante, par Intel, pour assurer au consommateur un certain niveau de services.

Sur cette gamme EVO signifie au moins 10 heures d’autonomie minimum pour des modèles proposant un écran FullHD. Une autonomie  qui se conjugue avec une charge rapide pour retrouver son autonomie. 30 minutes de connexion au secteur permettant de retrouver plusieurs heures d’autonomie. Le démarrage ou le reveil de ces engins doit également être très rapide afin que cette autonomie ne serve pas a a attendre de pouvoir se servir de chaque machine mais à un usage réel. Le module sans fil doit proposer au minimum une norme Wi-Fi6E pour des débits rapides et, je suppose, de s’assurer de la possibilité de profiter de streaming ou de la vidéo conférence. Tout cela n’est pas vraiment nouveau mais assure une évolution régulière de la norme qui reste très pratique quand on veut se repérer facilement dans les offres produits.

Une nouveauté est également apparue avec Meteor Lake, celle d’une meilleure prise en compte de la chauffe et de la nuisance sonore générée par les machines. Ainsi Intel note désormais  la température de surface des portables et le bruit généré par leur ventilation. Cet indice n’est pas limitatif mais Intel indique que les portables certifiés EVO restent en dessous des 41°C pour un bruit généré de 19 décibels pour une tâche basique comme un appel vidéo de longue durée.

Meteor Lake : les points clé à retenir

  • Deux gammes mobiles sont annoncées pour le moment. Les Meteor Lake-U qui visent des machines à basse consommation moins performantes mais plus autonome. Des modèles H plus ambitieux et plus rapides avec un circuit graphiques performant autorisant le jeu 3D. 
  • Les puces sont désormais rebaptisées dans un schéma assez simple et lisible qui ne doit son côté brouillon qu’avec une analyse des habitudes passées de la marque. Un Core Ultra 5 125U se lit simplement comme un processeur Core milieu de gamme (5 comme i5 situé entre le i3 et le i7 sur les gammes antérieures) avec un niveau de performances de base (125) et un usage orienté Ultra mobilité. Quand on pose côte à côte un Core Ultra 5 125U et un Core Ultra 5 155U il est assez facile de se dire que le second sera plus rapide que le premier. 125 étant inférieur à 155.  Même chose pour un Core Ultra 5 165U et un Core Ultra 7 165H. Le chiffre 7 réfère aux anciennes appellations « i7 » et la lettre H à une idée de « High Performance ».
  • Les processeurs accueillent désormais des cœurs LPE dont l’objectif est de maintenir les machines en « stase ». C’est à dire a les conserver allumés et fonctionnelles, voir exécutant des tâches basiques, sans avoir a dépenser beaucoup d’énergie. Ces cœurs sont secondés par les solutions déjà déployées par la précédente génération. Intel promet une meilleure efficacité énergétique pour ces p^rocesseurs gravés en 7 nanomètres.
  • Ces processeurs proposent désormais un NPU destiné aux calculs liés à l’IA. Ce NPU peut être épaulé par le reste de la machine pour améliorer les performances de ces calculs. Intel voit dans l’IA un renouveau du marché informatique avec de nouveaux besoins auxquels la marque compte bien répondre.
  • Les portables Meteor Lake sont d’ores et déjà disponibles.

AiPC : le futur du monde PC passera par l’Intelligence Artificielle

Meteor Lake : présentation de la nouvelle offre processeur d’Intel © MiniMachines.net. 2024.

Pourquoi je n’aime pas les benchmarks

Minimachines.net en partenariat avec TopAchat.com

Il n’y a rien de plus simple que de lancer un benchmark. Vous savez, ces logiciels de test qui vont exécuter des actions spécifiques, calculer en combien de temps chaque machine les exécute et dans quelles conditions elle y parvient. Un savant et ésotérique calcul effectué avant de vous donner un résultat sous la forme d’un chiffre brut.

Rien de plus simple car sous la bonne excuse d’une méthode « impartiale », le benchmark permet de ne pas avoir a réfléchir sur les usages possibles d’une machine. On lance le programme, il sort un chiffre, on le glisse ensuite dans un tableau. Et on peut ainsi dire que sous tel protocole de test, cette machine s’avère plus ou moins performante que telle ou telle autre. C’est utile, je ne dis pas, mais cela cache souvent d’autres problématiques.

L »excellent travail de synthèse de NotebookCheck n’a pas besoin d’être répété à l’infini

La première est que le top du classement d’un benchmark l’année X peut apparaitre en queue de peloton deux ou trois ans plus tard. Non pas parce que le produit est devenu mauvais. Il remplit toujours parfaitement son rôle, mais parce que les nouvelles propositions sont simplement meilleures. Reléguant en arrière plan une machine toujours parfaitement efficace. Est-ce que cela changera l’usage de l’engin testé ? Pas du tout. Il remplira toujours aussi bien sa tâche. Mais en 2, 3 ou 5 ans, il sera parfois jugé comme obsolète par un outil qui n’a aucune perspective sur l’utilisation des engins qu’il analyse.

La seconde vient du fait que les benchmarks sont rarement mis en scène de manière censée. On teste des engins en vrac et on les assemble dans un panneau absolument pas fairplay pour les concurrents. Comparer un MiniPC entrée de gamme avec une station portable haut de gamme n’a aucun sens. Personne n’aurait l’idée de comparer une barque avec un yacht. C’est pourtant ce que proposent souvent les benchmarks les plus connus en se focalisant uniquement sur les performances brutes et en proposant pèle mêle des solutions sans aucun rapport entre elles dans un tableau. Ces outils prennent comme point de repère les meilleures solutions du marché sans penser au prix, à l’encombrement, au bruit ou à la consommation de celles-ci.

Car c’est ce que ne voient pas ces tests. Les acheteurs ne viennent pas choisir en fonction d’une note mais pour répondre à un besoin et un budget. Il y a bien entendu un intérêt à situer un ordinateur face à d’autres et à comparer des engins de même calibre. Cela peut avoir du sens. Mais c’est malheureusement souvent peu lisible. Mettre en scène au travers d’une série de benchmarks des engins de même stature n’a que peu d’intérêt. Si on teste des machines dans les mêmes plages de tarif et ayant le même objectif, on se rend vite compte que les équipements proposés et les prix sont les mêmes.  Les constructeurs de PC piochent dans des catalogues de composants identiques et les résultats sont le reflet de cette gémellité technique. Un portable X avec une puce donnée, un certain montant de mémoire vive et un stockage rapide embarquant le même système d’exploitation aura le même niveau de note qu’un portable Y équipé de la même manière. Certaines fois, il peut y avoir une baisse sensible des performances à cause d’un défaut de la machine testée mais sans une explication technique détaillée, la note proposée par le Benchmark n’illustrera en rien le pourquoi de ce résultat. Un constructeur faisant un mauvais choix de ventilation par exemple ne sera pas compréhensible dans un tableau de résultats. Le pourquoi sera alors mis en avant dans le texte décrivant la machine. 

Autrement dit : Soit le Benchmark comparera des engins quasiment équivalents en performances à budget égal, soit il faudra aller fouiller le texte pour comprendre pourquoi ce n’est pas le cas.

Comme cela n’est pas très spectaculaire dans un test de proposer un graphique où les notes sont finalement les mêmes à quelques points les une des autres, le test est souvent accompagné d’autres processeurs. Pour y voir « plus clair ». Car pour comparer des produits de même catégorie, les Benchmarks ne sont pas très parlants. Il faut comparer des machines incomparables pour que cela ait un impact visuel. Cela pousse à une vision assez fausse de ce que l’on teste. Car on peut très bien avoir en main un engin très capable techniquement parlant mais qui apparaitra tout en bas d’un tableau de résultats. De telle sorte que volontairement ou non, l’image que l’on présente du produit peut apparaitre comme floue, si on teste des produits identiques, ou fausse, si on teste des produits de catégories différentes.

Quelqu’un qui a un budget de 1000€ pour acheter un portable ne s’intéresse pas à ce que les machines à 2500€ peuvent faire. Toute personne qui cherche une machine pour faire du montage vidéo espérera plutôt voir si un PC est capable de couvrir 100% de ses besoins particuliers. 

Les tests et Benchmarks sont utiles.

Bien sûr, des tests sont utiles, voire véritablement précieux. Connaitre les performances réelles de tel processeur, de telle puce graphique est utile. Comprendre pourquoi telle formule  a absolument besoin d’une mémoire de tel type alors qu’une autre peut s’en passer est indispensable. Savoir si la solution réseau ou le stockage embarqué sont adaptés et efficaces est important. Lancer un test des capacités de refroidissement proposées à un processeur reste tout aussi pertinent. Mais ces tests ont du sens parce qu’ils se réfèrent uniquement à ce que propose chaque machine sans le comparer à des engins sans aucun rapport. Parce que noter la vitesse de stockage d’un engin à 150€ par rapport à un autre dix fois plus cher pour en souligner la faiblesse n’a finalement que peu d’intérêt. Par contre, indiquer pourquoi un portable propose une meilleure autonomie qu’un autre machine de même calibre, positionné sur le même segment tarifaire, peut être très intéressant à signaler. Tout comme il sera particulièrement intéressant de pousser l’examen particulier d’un poste par un test plus précis. Noter que telle machine ne fait pas de bruit par rapport à une ou plusieurs autre dotées du même processeur et assortir cela d’un test de performance pour montrer que cela est bien dû à un travail sur le refroidissement et non pas une baisse des performances. Cela reste un constat précieux. 

Un méli mélo de puces incomparables

Le vrai souci pour moi avec ces Benchmarks, c’est qu’ils sont devenus l’Alpha et l’Omega des tests. C’est compréhensible car prendre en main un produit est devenu un investissement important. C’est paradoxalement aussi simple que chronophage. Passer par une série de tests permet de situer facilement la machine, surtout que l’on peut mener ces tests en batterie, sans être devant les ordinateurs testés, en lançant un ensemble programmé de procédures et en notant les résultats obtenus. C’est facile à mettre en place ou à déléguer à un indépendant ce qui est finalement assez rentable. Cela permet également de se donner un avis pétri d’une sorte de vernis « scientifique » grâce aux différents chiffres proposés. Des chiffres que l’on peut qualifier d’impartiaux même si on sait que cela n’est pas forcément vrai.

Mais au final, le constat de la note obtenue en agrégeant les tests est souvent vain. Parce qu’il ne renseigne pas réellement sur le meilleur choix. Est-ce qu’un portable avec 1000 points à un ensemble de tests mais vendu 1500€ sera plus intéressant qu’un portable qui n’aurait que 980 points mais vendu 1200€ ? Et si un troisième portable propose 950 points, qu’il est proposé à 1500€, mais qu’il fonctionne de manière absolument silencieuse ? Qui sera le plus pertinent ?

Le fait de n’établir une note qu’au travers d’un logiciel tiers dont on ne connait ni les méthodes réelles ni les rouages de calcul me parait finalement fort peu pertinent. J’ai de plus en plus l’impression de croiser des avis sur des machines qui sont forgés en aval d’une note établie par une session de Benchmarks. Comme si on écrivait l’histoire à partir de la note au lieu d’écrire les impressions laissées par la machine testée. Avec le défaut récurrent que lorsque la note s’éloigne trop du peloton de tête l’engin est alors classé comme peu pertinent ou pire, inefficace. Et cela sans considération de son usage, de son prix ou du reste de son équipement.

Quelle alternative aux Benchmarks ?

Je suis persuadé que dans la vie de tous les jours les benchmarks n’ont que peu d’intérêt. Savoir qu’une machine offre 50, 100 ou 150 points de plus ou de moins à un test lambda qui le mesure une note sur 20 000  ponts n’éclaire pas vraiment l’acheteur. Connaitre la réaction d’un ensemble de programmes précis pour un usage déterminé est autrement plus parlant. Si ce résultat sera moins précis d’un point de vue absolument technique, il pourra éclairer parfaitement l’utilisateur dans son choix. Parce qu’il parlera son langage et répondre à sa question principale concernant ses usages.

J’ai donc décidé de créer une alternative à ces Benchmarks pour mes futurs tests. Le plus logique pour moi est de déterminer non pas le nombre d’images par seconde atteint dans tel ou tel jeu, la vitesse de calcul de tel ou tel test mais plutôt de proposer la couverture d’usages possibles pour chaque machine. Une échelle de référence qualifiant chaque utilisation de l’incompétent à un « usage pro » de l’engin. Cela permettra de voir qu’un MiniPC entrée de gamme permet déjà un usage professionnel de programmes bureautique. Et qu’il n’y a pas besoin de s’orienter vers une machine dix fois plus cher pour « faire sa compta ».

Savoir que tel PC est capable de « sortir » 21000 points à un test ne me parle pas. Savoir qu’il est en bas d’un podium de 100 autres machines avec des budgets et des consommations sans rapport n’est pas éclairant  non plus. Mais avoir idée qu’un engin couvre 100% des usages web confortablement ou qu’il saura piloter convenablement des jeux en 2D ou en 3D l’est beaucoup plus. Un utilisateur qui recherchera une minimachine couvrant l’essentiel des usages de retouche photo saura ainsi qu’il peut choisir aussi bien un MiniPC à quelques centaines d’euros qu’une station dédiée à cet usage coutant beaucoup plus cher. Le fait qu’un PC montre qu’il couvre les besoins de l’utilisateur, de manière claire et lisible, permet à celui-ci de comprendre qu’au delà d’une note délivrée par un logiciel, la machine qu’il possède n’a pas forcément besoin d’être remplacée ou mise à jour. Même si son processeur se retrouve au bas d’un nouveau classement de benchmark.

Cette approche est pour moi beaucoup plus parlante, elle pousse moins à la dépense et reflète de vrais usages et non pas une quête de points dont on perd souvent l’objectif de vue en cours de route. Cela me parait d’autant plus utile que beaucoup de benchmarks sont déjà disponibles sur le web. Et que si un utilisateur veut s’y référer, il trouvera sa réponse sans difficulté en quelques clics sur la toile.

Je ne sais pas encore vraiment comment mettre en scène cette approche, j’essaye de trouver une solution très facilement lisible. Une manière graphique de voir d’un coup d’oeil si telle ou telle machine couvre les usages les plus fréquemment demandés. Cela ne m’empêchera pas parfois de lancer quelques tests pour être sûr de moi. Pour vérifier la validité de l’engin par rapport à des annonces du constructeur. Pour mesurer la validité de son refroidissement, la rapidité de son stockage ou de son module réseau par exemple. Mais pour moi il sera plus utile de traduire le résultat de ces tests en un graphique et quelques mots qu’en accumulant des dizaines de tableaux de notes illisibles ou difficilement interprétables sans contexte.

Des tests sur Minimachines ?

Oui, je sais, il n’y a pas beaucoup de tests sur le blog. Pour plein de bonnes et de mauvaises raisons. Mais cela va revenir très vite et c’est pour cela que je me devais de vous faire ce petit préambule. J’ai retrouvé un certain appétit pour tester des produits. J’ai certaines machines depuis des lustres qui attendent comme j’ai reçu des engins bien plus récents. Et j’ai bien envie de les passer au grill et de les présenter ici.

Je suis depuis toujours un peu gêné pour tester des produits qui ne m’enflamment pas. Je me suis longtemps demandé pourquoi un test comme celui du Transformer Book T100 semble couler de source pour moi, je l’écris quasiment d’une traite et sans peine. Alors que je me retrouve face à mille questions quand je dois tester un appareil qui me parle moins. Qui m’inspire moins. La réponse est finalement assez simple, ne sachant pas par quel bout le prendre, j’essaye de l’attraper avec des outils de test classiques. Et c’est souvent eux qui ne me parlent pas au final. Que raconter d’un MiniPC au travers de ces benchmarks ? Rien. Enfin, rien de plus que ce racontera le même Benchmark avec une autre minimachine équivalente. Le souci c’est que quand vous avez cinq ou dix engins avec exactement le même équipement, et parfois la même carte mère juste enrobée d’un boitier différent, comme sur le marché particulier des MiniPC, qu’avez vous encore à dire au bout du second PC ? Pour se focaliser sur les particularités de chaque machine et dépasser le stade du Benchmark, la solution d’une couverture des capacités globales de l’engin et de ses éventuels défauts me semble plus efficace que le détail précis apporté par des tests génériques.

A la rigueur il serait parfois plus utile de créer un suivi des capacités de certaines puces – comme l’Intel N100 ou le Ryzen 7 5700U massivement déployés sur de nombreux MiniPC. Dans des contenus indépendants des tests, régulièrement mis à jour et augmentés de nouvelles pratiques. Ce serait plus pertinent de vous indiquer ces prises en main généralistes sur des billets spécifiques plutôt que de ressasser encore et encore leurs capacités en boucle. Evidemment, cela n’empêchera pas de vérifier rigoureusement que les engins proposent bien ce qu’ils sont censés apporter. Mais pas forcément d’en faire la colonne vertébrale de ce qui vous sera proposé.

Des tests plus orientés usages, peut être moins complexes et plus lisibles, c’est ce que je vais essayer de proposer désormais.

Pourquoi je n’aime pas les benchmarks © MiniMachines.net. 2023.

Avec Hawk Point, AMD rajoute une pointe d’IA dans ses Ryzen

Minimachines.net en partenariat avec TopAchat.com

AMD a annoncé ses nouveaux processeurs mobiles Ryzen 8040 « Hawk Point », une gamme complète de puces à destination des portables prévus pour l’année prochaine avec, comme toujours, une nomenclature difficile à appréhender. 

La course à la nouveauté bat son plein, alors qu’Intel annonce des générations de puces l’une après l’autre pour rattraper autant que possible un retard accumulé face à AMD. On dirait que le papa des Ryzen est beau joueur et traine un peu des pieds pour permettre à son concurrent de le rattraper. Les Ryzen 7040 ressemblaient déjà beaucoup au précédents processeurs AMD. Les nouveaux Ryzen 8040 « Hawk Point » ressemblent également beaucoup aux 7040 « Phoenix »… 

Sur certaines puces, c’est un jeu plus sémantique que technologique qui est opéré. On change de « gamme » mais on ne change rien d’autre ou presque. La gravure est identique, toujours le TSMC 4, pour réaliser des  puces Zen 4. A bien y regarder le nouveau Ryzen 9 8945HS et le Ryzen 9 7940HS sont comme des frères jumeaux.

  Coeurs / Threads Boost/Base Cache TDP cTDP NPU
AMD Ryzen 9 8945HS 8C/16T 5.2 GHz / 4.0 GHz 24MB 45W 35 – 54W Oui
AMD Ryzen 9 7940HS 8C/16T 5.2 GHz / 4.0 GHz 24MB 45W 35 – 54W Oui

Il faut dire à la décharge d’AMD que leur formule est drôlement efficace.

La conjugaison des cœurs Zen4 et du circuit graphique RDNA 3 fait des merveilles, leur dosage est excellent et la solution trouvée par AMD est bien équilibrée. Changer un paramètre est donc compliqué pour la marque qui risquerait au mieux de grapiller quelques pouillèmes de performances en plus mais au pire trop modifier les puces dans leur équilibre. C’est le risque pour AMD, trop changer ses processeurs et ne plus faire entrer ses puces dans les bonnes cases en demandant trop d’énergie aux machines ou en compliquant ses tarifs à son désavantage. Est-ce que pour autant la proposition d’un Statu Quo est la bonne ? Pas vraiment. Alors pour faire passer la pilule de cette « nouvelle » génération de puces, AMD a choisi de suivre la mode du moment : ajouter de l’IA. Et tant pis si cela ne servira pas à grand monde pour le moment.

Neuf « nouvelles » puces Ryzen 8040 sont donc annoncées, sept embarqueront un NPU dédié aux calculs nécessaires à l’Intelligence Artificielle avec la promesse d’une augmentation significative de ces possibilités. La promesse globale c’est une augmentation des capacités calculs de certains modèles d’IA comme Llama 2 de Meta ou un modèle « Vision » non détaillé.

Un AMD Ryzen 7040 qui proposait une capacité de 10 TOPS avec son NPU serait supplanté par un Ryzen 8040 qui développerait à 16 TOPS. En combinant l’ensemble de ses possibilités de calcul, à savoir son NPU, son processeur et son circuit graphique, un 7040 développe 33 TOPS de puissance. Le 8040 passerait donc à… 39 TOPS. Pas une gros revolution mais un changement intéressant pour peu que l’on trouve des débouchés utiles et généralistes à ces capacités.

L’IA comme cheval de bataille ou comme étendard publicitaire ?

C’est la grande question qui revient en permanence au sujet de cette IA. Pourquoi diable nous en parler en permanence ? Plus de la moitié des communiqués de presse que je reçois en ce moment parlent d’IA. Dans le lot, la majorité colle le mot clé sans qu’il n’ait aucun rapport avec le produit présenté. Juste parce que c’est à la mode d’en parler. Avant ils parlaient de NFT ou de Crypto, encore avant de « VR » et il y a quelques années encore de « 3D ».

Dans énormément de cas l’appellation IA est mal comprise et l’usage réel du produit ne fait appel à l’IA que pour une phase de conceptualisation très à la marge du produit final. Un peu comme si un restaurant publiait un communiqué de presse pour signaler que sa cuisine est faire avec une IA alors que le seul produit ayant utilisé celle-ci aurait été l’illustration du Menu avec un générateur d’images. Vous voyez le genre.

Néanmoins, des éditeurs s’intéressent à l’IA et le font de manière pertinente. On a tous vu  apparaitre des fonctions utiles comme les améliorations des passages d’appels en visio conférence avec des fonctions d’isolation du son, de floutage d’arrière plan ou de remplacement automatique de ceux-ci. Cette  première approche de l’IA a été une des plus utilisées mais beaucoup d’autres ont été lancées avant que le mot IA soit à la mode. Les développeurs ne forçaient donc pas le trait sur ce poste.

On a eu les isolations sonores des casques à réduction de bruit, les gommages automatiques de détails dans les images, l’amélioration automatique des dites images avec des propositions de réglages de couleurs ou de contrastes. Et, bien sur, tous les filtres des applications vidéo qui permettent de « rajeunir » ou de se maquiller en temps réel. Ce qui a mis le feu aux poudres et commencé à transformer réellement le discours autour de ces technologies, c’est bien sur l’arrivée des systèmes génératifs comme Chat GPT ou Midjourney. Depuis leur apparition pour le grand public, il est devenu indispensable de communiquer autour de ces usages. Même si cela est fait de manière totalement idiote.

Là où les Ryzen 8040 et leur NPU seront les plus d’être utiles au quotidien, c’est bien entendu dans les processus créatifs. Les développeurs les plus connus sur ce terrain emploient déjà des IA pour de nombreuses tâches. Adobe et Black Magic ont des processus générés par des IA depuis des années. Pour masquer un détail dans une image simplement en gommant celui-ci grâce à la génération d’un décor cohérent par dessus. Pour déplacer un masque sur un visage dans une vidéo ou encore, plus récemment, pour générer la transcription des paroles prononcées pendant une captation vidéo et en faire des sous titres bien calés automatiquement. Ces fonctions sont pour le moment surtout utilisées par des professionnels ou des utilisateurs avancés mais il semble évident que de nombreuses évolutions de ce genre pourraient être déployées dans le futur pour tout un chacun. 

Le pari d’AMD avec les Ryzen 8040 est donc assez simple, en intégrant un BPU assez puissant dans ses puces, la marque veut attirer le public intéressé par ces technologies. Soit parce que le client final aura entendu le mot « IA » des dizaines de fois et pensera que c’est indispensable pour son prochain PC. Soit parce qu’il aura vu un usage possible à terme?

Les développeurs vont tous avoir envie de se pencher sur ces usages pour améliorer leurs services. Il est bien possible que les futures cuvées de vos logiciels préférés vérifient qu’un NPU est présent dans votre PC pour lui faire prendre en charge des éléments générés par IA. Un traitement de texte pourrait analyser votre prose et compter sur ce NPU pour la corriger ou proposer une nouvelle syntaxe, voir finir votre lettre plus rapidement. Un jeu déplacer vers le NPU les dialogues de personnages secondaires ou les stratégies de certains personnages.

De nombreux outils qui sont aujourd’hui pilotés par les cartes graphiques comme la physique des éléments, la génération de lumière en 3D et autres, ont suivi la même démarche. Il a été d’abord indispensable que le marché s’équipe de cartes capables de piloter ces usages avant que les éditeurs les prennent réellement en charge. De nombreux développeurs sont ainsi cités : Microsoft, Adobe, Avid, OBS Studio, Audacity, Magix, Capcut, Zoom…

Cette gamme Hawk Point est donc une poursuite de cette idée et AMD promet que ses futurs processeurs « Strix Point » seront encore plus performants sur ce segment avec une augmentation plus nette des capacités de leur NPU intégré. En passant des 7040 au 8040, on a droit à une évolution de 1.4 fois la capacité de calcul de ce circuit. Strix Point devrait, quant à lui, plus que tripler les capacités de calcul en TOPS des AMD Phoenix Ryzen 7040. Cette annonce faite pour 2024 correspondra avec la sortie de XDNA 2.

AMD Se compare à Intel mais aurait eu bien des difficultés à se comparer à lui même

Tout cela pour dire une chose assez simple finalement, l’augmentation promise en calcul d’IA dans les Ryzen 8040 sert à la fois de moteur pour les développeur mais également de publicité pour AMD qui n’aurait sans cela pas grand chose à raconter pour ses nouvelles puces. Autrement dit, pour le moment, si vous avez une machine sous Ryzen 7040 voir même un Ryzen 6800… Le passage vers un Hawk Pont n’a que peu d’intérêt. Bien entendu si vous devez racheter un portable en 2024, il sera sans doute plus pertinent de viser ces nouvelles puces. Mais à moins d’avoir un usage en mobilité de logiciels de création tirant vraiment partie de ce NPU, l’évolution d’une génération de processeur à l’autre ne sera pas forcément pertinente.

Les puces AMD Ryzen 8040

  Cores / Threads Boost/Base Frequency Cache TDP cTDP NPU
AMD Ryzen 9 8945HS 8C/16T 5.2 GHz / 4.0 GHz 24MB 45W 35 – 54W Oui
AMD Ryzen 7 8845HS 8C/16T 5.1 GHz / 3.8 GHz 24MB 45W 35 – 54W Oui
AMD Ryzen 7 8840HS 8C/16T 5.1 GHz / 3.3 GHz 24MB 28W 20-30W Oui
AMD Ryzen 7 8840U 8C/16T  5.1 GHz / 3.3 GHz 24MB 28W 15-30W Oui
AMD Ryzen 5 8645HS 6C/12T 5.0 GHz / 4.3 GHz 22MB 45W 35-45W Oui
AMD Ryzen 5 8640HS 6C/12T 4.9 GHz / 3.5 GHz 22MB 28W 20-30W Oui
AMD Ryzen 5 8640U 6C/12T 4.9 GHz / 3.5 GHz 22MB 28W 15-30W Oui
AMD Ryzen 5 8540U 6C/12T 4.9 GHz / 3.2 GHz 22MB 28W 15-30W Non
AMD Ryzen 3 8440U 4C/8T 4.7 GHz / 3.0 GHz 12MB 28W 15-30W Non

On retrouve deux catégories de processeurs basés sur leurs TDP. Les modèles « 28 Watts » et les modèles « 45 Watts ». Même si les cTDP évoluent de manières différentes. On les distingue par la présence d’un « 5 » à la fin des références. Ainsi le Ryzen 7 8845HS est un 8 cœurs et 16 Threads avec 45 Watts de TDP et 24 Mo de cache. Il est identique quasiment en tout point au Ryzen 7 8840HS si ce n’est pour  sa fréquence de base de 3.8 GHz contre 3.1 GHz pour le second. Et, bien entendu un TDP  beaucoup plus haut de 45 Watt contre 28 Watts. Les modèles « 45 » seront clairement à destination de machines orientées jeu et création tandis que les modèles « 40 » pourront se retrouver dans une plus vaste gamme de portables et MiniPC. 

A noter quels modèles « U » ne sont plus si différents des modèles « HS ». Ainsi un Ryzen 5 8540U va consommer 28 watts de TDP  soit autant qu’un Ryzen 5 8640HS. La différence entre les puces venant de leur cTDP respectifs.

Le cTDP ou Configurable TDP est une solution offerte aux fabricants de processeurs pour qu’ils jouent avec la consommation des processeurs afin de moins consommer d’énergie et, corolaire physique logique, chauffent moins. Cela fonctionne en baissant la fréquence des cœurs et l’alimentation de ceux-ci. Les constructeurs peuvent manier ce cTDP de manière dynamique ou le régler directement de manière fixe dans le BIOS d’une machine de manière à faire correspondre la consommation et la chauffe à leur design. Dans un PC ultrafin par exemple, régler le cTDP au minimum permettra de ne pas faire surchauffer l’engin et augmentera l’autonomie globale… au détriment des performances de calcul de la machine.

Il est également possible de laisser un portable déterminer tout seul le meilleur TDP en fonction de plusieurs critères et objectifs. Cela se traduit en général par des scénarios d’usage. Un mode silencieux va être utile pour des tâches basiques de bureautique en baissant le TDP au maximum. Un mode équilibré amènera le TDP et les fréquence à une moyenne d’usage classique. Un mode « performance » poussera les fréquences et le TDP au maximum pour du jeu ou de la création multimédia par exemple.  Ainsi un Ryzen 5 6940HS avec un cTDP de 20 à 30 Watts sera plus performant en fréquence basse (20 Watts) qu’un Ryzen 5 8640U (15 Watts). 

Avec Hawk Point, AMD rajoute une pointe d’IA dans ses Ryzen © MiniMachines.net. 2023.

Apple M3 : la pomme prend le large

Minimachines.net en partenariat avec TopAchat.com

Vous avez surement croisé ici et là des présentations techniques des derniers Macbook Pro et iMac sous SoC Apple M3. Ces nouvelles puces continuent de prendre de l’avance sur le reste du marché PC à tel point qu’elles finissent par leur porter une ombre technologique.

Après le M2, voici le Apple M3, un nouveau SoC ambitieux qui se retrouvera au cœur des derniers Mac. Une puce qui ne tremble pas le moins du monde face à la concurrence annoncée chez Intel, AMD et Qualcomm. Cela d’autant que le M3 est là, totalement disponible malgré des technologies très avancées. Alors que les futurs Ryzen sont encore flous dans leur disponibilité, les Metor Lake devraient être dévoilés en décembre prochain et les Snapdragon X Elite prévus pour le début du troisième trimestre 2024. Comme si Apple avait réussi à tirer sur la couverture du temps pour proposer dès ce mois d’octobre 2023 des technologies concurrentes pour 2024.

Première puce pour PC gravée en 3 nanomètres, L’Apple M3 est toujours seul sur ce marché à exploiter un SoC avec une mémoire unifiée. C’est également et surtout le seul processeur à bénéficier des soins attentifs d’un développement système totalement sur mesures. Un duo matériel et logiciel qui fini par rendre sa concurrence directe quelque peu ridicule. Les M2 étaient déjà impressionnants, les Apple M3 dépassent ce stade et deviennent fascinants. Assez pour faire pencher la balance et effacer doutes et appréhensions de la part du public. On arrive à des niveaux de performances annoncés qui vont égratigner les remparts du doute, du clivage entre Windows et MacOS. Des capacités qui vont faire plonger ou replonger certains utilisateurs du côté de la pomme.

Apple annonce des chiffres impressionnants. 40% de performances en plus pour les cœurs P, les plus Performants par rapport au M1. 15% par rapport aux M2. 50% pour les coeurs Efficients face à ceux du M1, 30% par rapport aux M2. Ces évolutions ne sont pas extraordinaires d’une génération à l’autre mais collent bien à la durée de vie des machines de la marque. Les premiers Macbooks équipés de puces M1 ont désormais un argument pour basculer vers le Apple M3. Ceux qui ont résisté jusque là, toujours équipés de Mac sous puces Intel, en sont à essayer de se demander quel est l’écart entre leur machine et celle qui vient d’être annoncée. Certains vont sérieusement avoir du mal à se retenir.

Apple poursuit sa logique, celle que l’on a connu avec ARM sur les puces smartphones. Le nouveau M3 consomme 50% d’énergie en moins pour effectuer la même tâche qu’un M1. Moitié moins d’énergie à performances équivalentes c’est l’assurance d’une autonomie encore en hausse et d’un fonctionnement à température très basse. Le constructeur poursuit avec une comparaison douloureuse puisqu’il met en face de sa puce un Intel Core i7-1360P. Une puce prévue pour des portables sérieux d’un moyen de gamme robuste chez la plupart des fabricants de PC. Le M3, pourtant, offrirait le même niveau de performances à l’usage que la puce d’Intel. Le même niveau mais contre 25% de sa consommation d’énergie…

Cerise sur le gâteau, au moment où l’IA semble être la nouvelle marotte des fabricants et des éditeurs pour nous vendre des produits pilotés par des circuits spécialisés, Apple dévoile un moteur dédié qui bénéficie également de ce lifting de gravure en 3 nanomètres. Résultat, il est 15% plus rapide que celui du M2 et offre 18 TOP de performances contre 15.8 auparavant.

La partie graphique n’est pas en reste

La nouvelle solution graphique se met à la page et colle aux exigences des joueurs et créateurs en proposant une meilleure gestion des dernières techniques de rendu 3D. On retrouve ainsi du Mesh Shading et la prise en charge du Ray-tracing. Des méthodes de gestion de la lumière plus réalistes et la possibilité de moduler le niveau de détails des objets 3D en fonction de leur  visibilité dans une scène afin de limiter le nombre de calculs à effectuer d’une part mais également de proposer un niveau de réalisme important pour les objets très visibles. Cela n’est pas une nouveauté dans le monde PC. Nvidia propose du Mesh Shading et du Ray Tracing depuis… 2018. Date à laquelle les cartes GeForce RTX sont apparues sur le marché. Peu importe le retard accumulé, Apple annonce ici son intention de venir se positionner sur ce segment avec des arguments équivalents à ceux du monde PC. 

Avec quelques points en plus comme le Dynamic Caching, une nouvelle fonction propre à l’Apple M3. Le SoC peut désormais dialoguer avec le système et distribuer la quantité de mémoire nécessaire pour la partie calcul comme pour la partie graphique en temps réel. La vitesse de transfert de données entre le SoC et la mémoire étant extrêmement rapide de part leur unification, Apple en tire avantage en modifiant constamment et à la volée cette variable en suivant les besoins du système. Votre jeu va avoir besoin de plus de mémoire pour une scène gourmande en textures, le circuit graphique pourra piocher dedans en fonction. L’instant d’après, quand la scène sera plus restreinte, la mémoire sera libérée pour d’autres usages du processeur. Cette parade intéressante permet de retirer partie de la mémoire unifiée sans avoir à conserver une mémoire dédiée uniquement au circuit graphique et régulièrement inexploitée.

Là encore, Apple annonce des performances en hausse. Face à un Apple M1, le M3 est présenté comme 2.5 fois plus rapide. Le M2 est également dépassé avec 1.8 fois plus de performances… La marque a bien pris en compte le regret de certains utilisateurs en terme de jeux. La puce a donc évolué sur ce poste pour proposer des performances plus impressionnantes. Ce qui est très logique puisque le jeu sur Mac est le prochain relais de croissance de la marque. Il s’agit d’un Everest qu’Apple aimerait gravir pour mieux se mesurer aux autres acteurs de ce marché. Beaucoup de joueurs continuent de préférer le monde PC pour son catalogue de jeux. Avec ces évolutions, le Mac ne sera sans doute pas la meilleure machine pour jouer, mais elle sera sans doute assez puissante pour se positionner sur ce marché et permettre de suivre l’actualité du jeu sans prendre trop de retard sur les sorties PC. Un détail qui pourrait également faire mouche chez les éditeurs de jeux.

Apple M3

Trois Apple M3 génériques, des tas de combinaisons

On retrouvera trois versions de l’Apple M3. Le modèle le plus simple proposera 25 milliards de transistors avec 4 Coeurs P et 4 cœurs E pour un maximum de 10 cœurs graphiques et de 24 Go de mémoire vive. Des déclinaisons avec moins de cœurs graphique et moins de mémoire vive seront proposées. Un M3 8/8/8 par exemple. Puce accumulant 8 cœurs CPU, 8 cœurs GPU et 8 Go de mémoire vive. Ou une variante 8/10/8 dans le même esprit. Cette puce sera proposée dans le nouvel iMac 24 2023 ainsi que dans le MacBook Pro 14 2023.

Apple M3 Pro

Le Apple M3 Pro qui poursuite la dénomination du M2 Pro. Pourtant la puce change dans son approche. Là où le M2 Pro embarquait 8 cœurs P et 4 cœurs E associés à 19 cœurs graphiques au maximum, le M3 Pro proposera 6 cœurs de chaque type et un GPU 18 cœurs. Sa mémoire vive embarquée passe par contre de 32 Go au maximum pour le M2 Pro à 36 Go pour le M3 Pro. Il sera intégré dans différentes variations dans la gamme MacBook Pro 14 et 16.

Apple M3 Max

Enfin le Apple M3 Max qui se différencie un peu plus de son Alter Ego M2 Max. Le nouveau venu propose désormais 16 cœurs Performance et 4 cœurs Efficients pour un total de 16 cœurs en tout. La partie graphique est également plus solide avec 40 unités contre 38 auparavant. La mémoire unifiée maximale du M2 Max était de 96 Go. Le Apple M3 Max bouscule ce chiffre pour atteindre 128 Go. Ce dernier SoC sera implanté dans les MacBook Pro 16.

Evidemment, les prix sont élevés, les machines ne font pas de concessions et l’arrivée de l’Apple M3 ne va pas changer les habitudes de la marque. Apple ne modifiera plus sa stratégie et ceux qui espèrent voir un jour le fabricant s’orienter vers des produits plus abordables seront encore et toujours déçus. Ce qui fait la force du constructeur aujourd’hui, c’est d’avoir réussi son pari. Sa différenciation du reste du monde PC. Le constructeur est le premier à comparer ses puces avec Intel sur le terrain. Mais hormis ce rôle marketing toujours à son avantage, Apple n’a plus aucun intérêt à se confronter au reste de la production actuelle. Il n’a en vérité plus aucun sens. Comparer le monde Apple au monde Windows n’est par essence pas possible. Parce qu’avoir sous le même pavillon le matériel et le logiciel feront toujours d’Apple un concurrent à part. 

Microsoft rêve de naviguer dans son sillage et son appui envers Qualcomm pour proposer des puces sur mesures n’est qu’une course perdue d’avance dans les conditions actuelles. Les solution de Qualcomm auront beau avoir les meilleures performances possibles, elles resteront dans l’ombre des SoC Apple tant qu’elles n’auront pas le maillage unique d’un matériel pensé pour le logiciel et d’un logiciel prévu pour le matériel. Ce que Apple propose aujourd’hui, aucune autre société n’est capable de le faire pour le moment. Et personne ne semble vraiment vouloir ne serait-ce qu’y penser.

Est-ce que cela fait des Macs les meilleures machines du marché ? Cela dépend de ce que l’on veut faire avec sa machine. Les aficionados de la marque sont ravis des promesses des M3. D’autant que celles-ci sont tenues et non pas fantasmées par la marque. Mieux encore, l’offre d’Apple semble laisser toucher du doigt dès ce mois de novembre une technologie qui semble aller au delà des performances annoncées pour l’année prochaine. Depuis l’arrivée du M1.

Pour autant certains ne verront pas les propositions d’Apple comme pertinentes et cela pour d’excellentes raisons. Le tarif demandé est loin des propositions de la concurrence pour commencer. Le choix proposé par la marque ne fait pas vraiment de concessions et on ne peut pas choisir d’avoir un Mac plus efficace dans un poste et moins dans un autre. On prend la proposition telle quelle, avec moins de choix que dans le monde PC et on en paye le prix. La partie logicielle ne conviendra pas non plus à tout le monde. Pour des raisons d’habitude ou de logithèque qu’il serait difficile de renouveler. Pour d’autres raisons plus proches de choix propres qui font que des utilisateurs ne veulent pas lier leur usage d’un ordinateur à un constructeur ou un éditeur en particulier. 

Mais une chose est sûre, plus le temps passe, plus Apple s’éloigne de ce que proposent les autres fabricants de PC. Et qu’on aime ou non ce que la marque propose, elle est aujourd’hui forte d’un écosystème cohérent et redoutablement efficace. En parfaite adéquation avec ses objectifs. Et cela crée un fort contraste avec l’univers proposé par ses concurrents.

 

Apple Mac M1 : l’heure de la rupture

Apple M2 : la poursuite logique

Apple M3 : la pomme prend le large © MiniMachines.net. 2023.

Snapdragon X Elite : un SoC 12 cœurs pour Windows

Minimachines.net en partenariat avec TopAchat.com

La longue histoire d’amour passionnée entre Qualcomm et Microsoft durera sans incartades jusqu’à l’année prochaine. En 2025, d’autres acteurs seront autorisés à venir se positionner sur le développement de puces ARM sous Windows. Il ne reste donc plus beaucoup de temps pour convaincre et cela pourrait passer par un nouvel argument : le Snapdragon X Elite. Une puce tout juste annoncée qui fait des choix intéressants pour l’avenir.

Je n’ai jamais pris de gants pour témoigner de mon amertume pour le grand écart entre les promesses de Qualcomm sur le marché PC et la réalité de son offre. Pourtant, au vu des spécifications de ce Snapdragon X Elite, l’espoir d’un SoC un peu plus compétent que ses prédécesseurs me semble tangible. Parce que la marque semble ici faire de très bons choix.

D’un point de vue technique, le nouveau venu propose des éléments très intéressants. D’abord, il est annoncé avec une gravure en 4 nanomètres. Gravure qui devrait lui assurer une excellente compacité et une gestion énergétique très performante. Ensuite, parce que Qualcomm ne lésine pas sur les moyens et décline son premier SoC à exploiter son architecture Oryon dans une version 12 cœurs. 12 unités de calcul qui fourniront le maximum de leurs performances.

On n’a pas ici a faire à une solution de type big.LITTLE qui mélangerait des cœurs rapides et d’autres plus lents. Il s’agit de 12 unités capables de proposer le maximum de leur vitesse, agglutinés les uns aux autres pour développer les meilleures performances possible. Le dispositif pourra tourner jusqu’à 4.3 GHz sur un ou deux cœurs et se limitera à 3.8 Ghz une fois les 12 unités activées. Dans tous les cas, le Snapdragon X Elite saura adapter les fréquences et l’énergie à fournir en fonction des tâches à effectuer. Il sera aussi bien possible de faire tourner un seul cœur à basse fréquence que les douze à leur maximum.

Cette architecture Oryon, nouvelle chez Qualcomm, est également la première à mettre en œuvre les technologies nées du rachat de Nuvia en 2021. Un mélange entre la recette d’ARM, le savoir faire de la marque et les idées des ingénieurs de Nuvia qui pourrait développer une puce très performante dans beaucoup de tâches. Le tout sera en prime combiné à un circuit graphique Adreno affichant une compatibilité DirectX 12 pour les jeux et 4.6 TFLOPS de puissance de calcul. Bref assez d’éléments pour faire de cette puce un véritable cheval de bataille pour le futur développement de portables ARM pour Windows.

En plus de ces éléments de base, le nouveau SoC proposera un NPU dédié aux calculs d’IA très performant. Le Qualcomm Hexagon, embarqué au cœur de la puce de base, développera 45 TOPS de puissance de calcul pour l’IA. Si on additionne cela avec la présence d’un processeur d’images (ISP) actif en permanence pour prendre en charge tout type d’éléments classiques comme la reconnaissance de visage, le floutage d’arrière plan ou le cadrage automatique. On a ici une puce très orientée vers ces nouveaux champs de développement de l’Intelligence Artificielle. Un univers vers lequel ne manquera pas de s’orienter la future évolution de Windows. 

Le Snapdragon X Elite prendra en charge jusqu’à 64 Go de mémoire vive en LPDDR5x-8533, de quoi assurer assez de vitesse et de confort à un utilisateur de Windows sans soucis. Il sera également en mesure de piloter un stockage PCIe Gen 4 et de l’UFS 4. Pour proposer des transferts et des chargements de données très rapides. Avec une compatibilité USB4 mais également la capacité de piloter de multiples capteurs photo et afficher sur deux écrans UltraHD en simultané, la puce semble rivaliser sur tous les points proposés par les solutions Intel, AMD et Apple.

Il ne manque rien dans ce tableau ? Si, du sans fil. La puce n’embarquera ni module Wi-Fi ni modem 4G ou 5G. Si le SoC saura piloter des solutions Wi-Fi7 et Bluetooth 5.4, ce sera au travers d’une puce externe. La partie cellulaire, poussée en avant comme un avantage majeur dans les précédents Snapdragon pour Windows, est également passée à la trappe. Probablement pour faire de la place pour d’autres éléments. Ce n’est pas un drame et, à vrai dire, cela permettra de comparer plus aisément les solutions entre elles. Beaucoup d’utilisateurs ne voient pas trop l’intérêt de leur imposer un modem de ce type au sein de leur machine. Ils n’en ont pas besoin et se voient contraint de le payer tout de même.

En retirant le modem cellulaire du SoC, Qualcomm se retrouve sur un pied d’égalité avec ses concurrents, à savoir ne proposer l’option que pour des déclinaisons spécifiques. Cela n’empêchera pas la marque de proposer son modem maison à ses clients. Le SoC pourra prendre en charge le modem Snapdragon x65 et a été câblé pour le faire parfaitement. Mais cela restera optionnel et n’impactera pas le prix final de tout le monde.

Des promesses énormes

Qualcomm annonce que son nouveau SoC sera plus efficace que  ses concurrents. Avec la promesse d’être deux fois plus rapide que les solutions x86 que l’on retrouvera dans des PC comparables sous Windows. Le tout en utilisant moins de ressources. Ce qui signifie plus de vitesse de traitement et une meilleure autonomie. Ce n’est pas  exactement le reflet des solutions passées chez Qualcomm, aussi il faut prendre ces affirmations avec les pincettes de rigueur. Mais la marque semble sûre d’elle et ose ici de belles comparaisons.

Ainsi le Snapdragon X Elite serait jusqu’à deux fois plus rapide qu’un Core i7-1360P d’Intel pour la même consommation énergétique. C’est beaucoup. Il pourrait proposer un traitement de données équivalent pour 68% de consommation en moins. Une fois poussé à 30 watts de TDP, il deviendrait aussi rapide qu’un Core i7-13800H tournant quand à lui à 90 watts. Enfin, Qualcomm annonce que sa puce serait capable de battre un SoC Apple M2 sur certains postes de calcul. 

Evidemment, le douloureux écho passé des annonces de la marque est encore présent à nos oreilles et ce n’est pas la première fois qu’on nous fait miroiter que la rivalité ARM/x86 serait à l’avantage du premier dans un duel entre Qualcomm et Intel. Les résultats ont pourtant montré quelques essoufflements rapides des promesses faites. Il faudra donc attendre des tests indépendants pour juger de la qualité de cette nouvelle offre. En gardant pour autant l’esprit ouvert puisqu’il s’agit ici d’une puce avec une architecture prometteuse et des capacités très complètes.

Et, évidemment, il faudra déterminer dans quelles conditions et avec quels logiciels ces résultats sont obtenus. Que Microsoft développe une version optimisée ARM de ses outils est une chose, le problème n’a jamais été là pour Qualcomm. Si le nouveau SoC sait parfaitement gérer Windows, son navigateur maison ou la suite bureautique MS Office, c’est excellent. Si elle peut le faire mieux que ce que peut proposer une puce x86, ce sera évidemment un atout. Mais la vraie rivalité de performance se jouera sur les applications non développées pour ARM. Car la vraie promesse d’un Windows ARM est ici. La capacité à utiliser tous les outils du quotidien, tous les programmes auxquels le public est habitué, sur un ordinateur sous ARM. Même si ceux-ci emploient du code d’il y a quinze ans ou des routines très récentes avec des moteurs exigeants. C’est sur ce poste que la solution ARM a toujours coincé chez Qualcomm, celui de la compatibilité universelle promise et non tenue.

Parce qu’un Snapdragon X Elite qui lance aussi vite un tableur Excel qu’un Core i7 n’intéresse personne. Passer de 3 secondes sous x86 à 3 secondes sous ARM n’est pas un enjeu. Par contre si, en combinant IA et circuit graphique, la puce parvient à piloter un logiciel graphique ou de montage vidéo aussi vite à moitié moins de consommation de courant, on aura là un véritable sujet de discussion. Que le SoC se retrouve en mesure de lancer l’obscur programme que vous êtes seul à connaitre, déniché il y a 15 ans sur un forum exotique, et cela au travers d’une couche d’émulation proposée par Windows. C’est cela qui a du sens. La promesse la plus importante pour Windows ARM c’est d’assurer à l’utilisateur qu’il ne ressentira aucun changement dans ses habitudes.

Le Snapdragon X Elite disponible en 2024

Le pari est donc toujours difficile pour Qualcomm, d’autant que la fenêtre restante pour un lancement réussi devient vraiment très mince. En 2025, Nvidia et AMD seront sur les rangs. Cela fait une année tout au plus pour convaincre le marché. Fabricants et utilisateurs n’auront que quelques mois pour ne plus douter de l’efficacité du SoC. Et cela face à une concurrence Intel, AMD et Apple de plus en plus efficace. Les trois compères historiques du marché PC ne vont pas faire du sur place et on sait déjà que de nouvelles architectures seront disponibles. Les Phoenix chez AMD, Meteor Lake chez Intel et on ne sait pas quelle surprise maison chez Apple.

Enfin, dernier point clé de cette offre, l’appétit de Qualcomm. Les précédentes solutions alternative sous Windows pour ARM proposaient des performances d’entrée de gamme pour un prix haut de gamme. Cela n’a évidemment pas séduit le grand public ni les professionnels. Mais est-ce que faire aussi bien que les solutions concurrentes au même tarif donnera envie de prendre le risque de casser sa tirelire pour s’offrir une nouvelle technologie ? Cela peut en amuser certains mais je suppose que la majorité ne va pas vraiment parier ses économies sur cette technologie. A moins que ? A moins que la promesse de faire aussi bien se conjuguent avec une politique tarifaire un peu plus agressive que les précédentes machines déclinées sous Snapdragon. Je crois que personne ne pariera un ou deux milliers d’euros sur un portable sous ARM si il peut avoir un portable x86 au même tarif. Même si on lui promet des tonnes de performances en IA… Pas en 2024 en tout cas. 

Il faudra que Microsoft et Qualcomm patientent probablement quelques temps avant que la proposition ne prenne. Ou alors que les machines débutent à un tarif plus abordable. Histoire que le public ait envie de prendre un, plus petit, risque.

Snapdragon X : Qualcomm veut – encore – bouleverser le marché

Snapdragon X Elite : un SoC 12 cœurs pour Windows © MiniMachines.net. 2023.

La fin de l’exclusivité ARM pour Windows de Qualcomm signe l’arrivée d’AMD et Nvidia

Minimachines.net en partenariat avec TopAchat.com

Le duo Microsoft et Qualcomm a eu quelques années pour proposer des solutions ARM pour Windows. Les deux entreprises ont signé un partenariat en 2016 offrant le monopole de ce développement à Qualcomm. Celui-ci doit durer jusqu’à la fin de l’année 2024. Date à partir de laquelle d’autres acteurs du monde ARM pourront proposer leurs propres designs pour faire fonctionner le système de Microsoft sous cette architecture. En 2025, AMD et Nvidia seraient donc en droit de proposer leurs propres solutions. 

On ne peut pas dire que le pari ARM pour Windows lancé par Microsoft ait réussi, l’offre actuelle de puces Snapdragon n’a séduit personne. Ni les utilisateurs de Windows, ni les constructeurs de portables. Les puces ont toujours, malgré les promesses de Microsoft et Qualcomm, été bien moins pertinentes que celles de la concurrence historique en x86. Celles proposées par AMD et Intel avec leurs solutions « classiques ». L’avance supposément gagnée par les Snapdragon n’a plus beaucoup de temps pour convaincre avant qu’elle se retrouve face à de nouveaux concurrents.

A partir de 2025, Microsoft proposera un support d’ingénierie à AMD et Nvidia sur ce segment. Avec la possibilité de commercialiser des machines sous Windows. Si AMD se fera alors concurrence à lui même en proposant une offre face à ses propres processeurs Ryzen, Nvidia y trouvera un relais de croissance intéressant. 

L’idée pour Microsoft est, bien entendu, de trouver un ou des partenaires capables de rivaliser avec ce que propose Apple et ses puces. Il est plus efficace aujourd’hui de faire tourner un processeur ARM conçu par Apple pour faire tourner MacOS qui émule un programme Windows prévu pour x86 que d’employer un Snapdragon de Qualcomm pour faire tourner le même programme directement sous Windows. Cette efficacité d’Apple dans le développement d’ARM pourrait être retrouvée par ces nouveaux acteurs. Nouveaux venus qui ne manqueront pas d’expérimenter d’autres voies qu’une simple version boostée aux hormones et aux watts de puces prévues au départ pour des Smartphones. Voie semble t-il abandonnée récemment par Qualcomm lui même avec son dernier Snapdragon X.

Difficile de voir exactement ce que peuvent promettre de tels bouleversements. Pour ma part, je reste dubitatif sur le mouvement global de cette offre. D’abord encore et toujours parce que ni Intel, ni AMD ni même Apple ne vont arrêter leurs propres évolutions maison. Ensuite parce que je ne vois toujours pas l’intérêt de faire tourner Windows tel qu’on le connait sur un SoC ARM. Autant développer un autre système, même si on le limite en compatibilité ou qu’on lui offre une optique différente. Les machines sous SoC Qualcomm de ces dernières années n’ont apporté aucun avantage réel pour l’utilisateur. 

Minimachines-10-2023

Asus Vivo Tab RT, en 2016 Nvidia proposait un Tegra 3 pour faire tourner Windows RT. Un très joli échec commercial.

Aussi chères que les solutions classiques, voire plus onéreuses à performances inférieures, elles n’ont ni brillé par leur autonomie pourtant promise comme révolutionnaire ni par leur connectivité qui, au final, n’avait rien de plus que celle apportée par une extension 4G ou 5G sur un portable x86. J’ai longtemps rêvé d’un autre futur pour les machines ARM. Des solutions qui auraient choisi une autre voie que Windows. Comme les premiers netbooks comme le EeePC 701 d’Asus avaient choisi un système Linux,

j’aurais adoré voir des acteurs se démener pour offrir le meilleur parti possible à un système alternatif, même signé par Microsoft. Parce qu’au final l’utilisateur d’un engin ultramobile ne veut pas spécialement lancer de programmes spécialisés mais plutôt accéder au web et utiliser des outils multimédia ou de bureautique classique. Peut être que cette évolution de l’offre Arm/Microsoft nous offrira au moins cela, des outils capables de proposer un service mobile de qualité… pour un prix compétitif ?

Nvidia s’est déjà « planté » avec Microsoft du temps des machines sous Windows RT. A cause d’une offre logicielle médiocre. Il lui faut au moins une solution équivalente à celle d’Apple pour venir se positionner sur le segment. Pour AMD, c’est encore plus complexe, comment faire pour trouver une rentabilité si on doit développer à grands renforts de frais en Recherche et Développement une puce qui va au final concurrencer ses propres processeurs historiques ? ARM pour Windows n’est t-il pas, par construction, voué à l’échec ? Pas forcément mais l’effort à fournir est véritablement monstrueux pour les nouveaux entrants. Apple a pu le payer parce que Apple est assis sur un joli tas d’or. Le tas de Nvidia commence  à être conséquent également, reste à savoir si la société va vraiment vouloir s’y investir. Si il s’agit d’un excellent relais de croissance potentiel, ce n’est pas un élément tactique qui lui est absolument indispensable comme c’est le  cas d’Apple.

La fin de l’exclusivité ARM pour Windows de Qualcomm signe l’arrivée d’AMD et Nvidia © MiniMachines.net. 2023.

Qualcomm annonce une solution RISC-V pour Wear OS

Minimachines.net en partenariat avec TopAchat.com

Qualcomm produit des solutions ARM pour smartphones, tablettes et autres montres connectées depuis des années. La marque a construit un écosystème complet autour de cet univers. Elle y a englouti des milliards de dollars en recherche et développement et en a fait un allié incontournable depuis des années. Si la marque s’intéresse depuis peu à RISC-V pour ses développements industriels, le fait que Qualcomm annonce, dans un communiqué conjoint avec Google, son souhait de développer une puce sur une autre architecture est donc très important. 

Suunto 7
Le segment choisi est celui des montres connectées et autres bracelets sportifs qui sont aujourd’hui partagés en deux univers. Des solutions ARM d’un côté ou Qualcomm propose d’excellentes solutions Snapdragon W. Les puces RISC-V de l’autre qui permettent à des fabricants comme Xiaomi de développer des bracelets connectés qui se vendent extrêmement bien à cause de leurs prix et de leurs capacités.

Quand la moindre montre sous ARM coûte en général plus d’une centaine d’euros, les solutions proposées sous RISC-V sont vendues une fraction de ce prix. Les modèles de bracelets Mi Band que Xiaomi écoule par millions d’unités chaque année, sont fabriqués autour d’une solution RISC-V qui fait parfaitement l’affaire. Pour ce type d’usage l’architecture RISC-V est absolument parfaite. Sans royalties à payer, elle est peu chère et peut être modelée pour s’adapter à mille usages différents. Ajouter un détecteur de mouvement pour prendre en compte le nombre de pas, un capteur de SpO2 ou un capteur cardiaque ? Aucun souci, les outils existent, l’architecture peut être tout aussi bien adaptée à cet usage ou pour un autre. Mieux, des outils  et algorithmes existent aujourd’hui pour des modes sportifs complexes. Des solutions ont été trouvées pour communiquer avec des smartphones et le seul verrou qui existait encore était dans les limitations imposées par.. Google. Limitations qui vont, mécaniquement, sauter puisque Google annonce également un support de RISC-V pour Wear OS.

Google et Qualcomm annoncent donc une première puce RISC-V pour Wear OS, terrain de jeu autrefois réservé uniquement à ARM.

Pour comprendre le souci actuel de Wear OS et de RISC-V, il faut comprendre la manière dont le dialogue est possible entre les objets connectés que sont les montres avec les smartphones sous Android. Aujourd’hui, quand vous avez un téléphone android, les applications qui détectent la présence d’une montre connectée Wear OS sous ARM proposent bien souvent d’installer une seconde application directement sur votre montre ou votre bracelet. Une fois que les deux applications sont installée, un dialogue est possible entre les deux. Le smartphone pousse via Bluetooth des infos vers la montre directement via l’application. Ainsi, une solution de guidage avec GPS pourra envoyer vers le petit cadran à votre poignet le chemin à suivre pour atteindre votre destination.

Quand la montre utilise autre chose qu’une puce ARM, et donc autre chose que Wear OS, vous avez en général une application dédiée qui est la seule à dialoguer avec la montre. Il existe également des canaux « système » qui permettent des actions très précises comme le retour de notifications de type SMS, reveil, contrôle multimédia ou déclenchement photo. Ces éléments sont liés directement à Android et les montres sous RISC-V peuvent les piloter au même titre qu’un casque filaire peut décrocher ou raccroche un appel via la prise jack d’un smartphone.

L’essentiel du dialogue entre Wear OS et la solution RISC-V passe donc pas une application dédiée qui va collecter les notifications à envoyer vers la montre. Ainsi au lieu de juste vibrer au fond de votre poche, un message Signal ou WhatsApp transitera d’abord vers l’application de la montre avant de parvenir à celle-ci. Cela fonctionne mais cela empêche tout dialogue dans l’autre sens entre la montre et le smartphone. Dans ce sens du retour, il faut également passer par l’application dédiée. Les autres outils installés sur votre smartphone ne reconnaissent pas les éléments en provenance de votre montre. Pour d’évidentes raisons de sécurité, un simple service de santé ou de messagerie ne va pas accepter qu’une autre application lui envoie des données à traiter. Ainsi, il est possible de recevoir une notification d’un message sur sa montre mais il sera impossible de répondre via un petit clavier ou en dictant un message. Comme cela ne sert à rien, le protocole n’est pas pris en compte par le système. On pourra donc tout au plus envoyer des messages préenregistrés directement dans l’application dédiée.

Un Mi Band de Xiaomi sous RISC-V

Cette différence énorme de traitement est un gros frein pour les solutions RISC-V car il n’est pas possible de profiter de toutes les interactions proposées par les montres. Mais si Google se décide à ouvrir la porte à RISC-V sur Wear OS, cela va radicalement changer la donne.

Si on résume les conséquences de ce changement, on a un bouleversement majeur pour la plateforme RISC-V. Avec Qualcomm aux manettes de la production d’une puce de ce type, il y a un mastodonte connu et reconnu capable de porter l’étendard de cette architecture au devant des différents acteurs du marché. Qualcomm devrait être en mesure de développer une solution efficace, performante et moins chère que celle d’ARM puisque sans royalties à payer à ce dernier. Avec Google qui ouvre les portes de Wear OS au système RISC-V c’est un autre problème qui saute. Le dialogue pourra s’établir entre le smartphone et l’objet connecté de la même manière sous ARM que sous RISC-V. Cela gommera totalement la différence entre les montres connectées.

Reste à savoir plusieurs choses. Est-ce que cette annonce est réelle ou sert-elle de moyen de pression sur ARM pour revoir ses prétentions de royalties sur son architecture ? Est-ce que cette ouverture vers RISC-V ne concernera que Qualcomm ou est-ce que d’autres acteurs pourraient être concernés ? Si c’est le cas des entreprises comme Huami qui construit les bracelets et montres Xiaomi / Amazfit pourraient largement en bénéficier également. Enfin, ce serait un manque à gagner important pour ARM qui pourrait perdre énormément de parts de marché avec cette nouvelle concurrence.

Difficile de voir l’avantage réel d’ARM sur ce type de produit si Google ouvre vraiment ses bras à RISC-V. L’acheteur ne sait pas ce qu’il y a dans son bracelet et à vrai dire il s’en moque. Seuls ses usages, l’autonomie  constatée et bien sûr le prix demandé le concerne. Si on lui dit qu’une montre avec une puce Qualcomm lui offre les mêmes avantages que d’habitude pour moins cher, alors il ne se souciera pas vraiment de la puce embarquée… au contraire.

Si on associe ce développement avec l’information d’une future prise en charge d’Android par RISC-V, c’est un vrai tournant pour le marché.

Le communiqué de presse de Qualcomm : 

SAN DIEGO – Octobre 17, 2023 – Qualcomm Technologies, Inc. a annoncé aujourd’hui qu’elle s’appuyait sur sa collaboration de longue date avec Google en proposant une solution RISC-V pour les montres à porter sur soi à utiliser avec Wear OS de Google. Ce cadre élargi permettra de réduire le temps de mise sur le marché des OEM lors du lancement de smartwatches dotées de fonctionnalités avancées telles que des cœurs personnalisés, une faible consommation d’énergie et des performances accrues. D’ici là, les deux entreprises continueront à investir dans les plates-formes Snapdragon Wear en tant que premier fournisseur de silicium pour smartwatches dans l’écosystème Wear OS.

« Qualcomm Technologies est un pilier de l’écosystème Wear OS, fournissant des systèmes haute performance et basse consommation à de nombreux partenaires OEM « , a déclaré Bjorn Kilburn, directeur général de Wear OS chez Google. « Nous sommes ravis d’étendre notre collaboration avec Qualcomm Technologies et de mettre sur le marché une solution RISC-V pour les appareils portables.

« Nous sommes ravis d’exploiter RISC-V et d’étendre notre plate-forme Snapdragon Wear en tant que principal fournisseur de silicium pour Wear OS. Les innovations de notre plate-forme Snapdragon Wear aideront l’écosystème Wear OS à évoluer rapidement et à rationaliser le lancement de nouveaux appareils « , a déclaré Dino Bekis, Vice-président et Directeur général de la division Wearables and Mixed Signal Solutions de Qualcomm Technologies, Inc.

Les deux entreprises ont récemment rejoint d’autres leaders du secteur pour lancer l’écosystème logiciel RISC-V (RISE) et Qualcomm Technologies a récemment annoncé qu’elle investissait dans une nouvelle entreprise pour faire progresser le développement matériel RISC-V

En tant qu’architecture de jeux d’instructions (ISA) ouverte, RISC-V encourage l’innovation en permettant à n’importe quelle entreprise de développer des noyaux entièrement personnalisés. Cela permet à un plus grand nombre d’entreprises d’entrer sur le marché, ce qui renforce l’innovation et la concurrence. L’ouverture, la flexibilité et l’évolutivité de RISC-V profitent à l’ensemble de la chaîne de valeur – des vendeurs de silicium aux équipementiers, en passant par les appareils finaux et les consommateurs.

À propos de Qualcomm

Qualcomm est à l’origine d’un monde où tout et chacun peut être connecté de manière intelligente. Notre feuille de route technologique unique nous permet d’adapter efficacement les technologies qui ont lancé la révolution mobile, notamment la connectivité avancée, les performances élevées, le calcul à faible consommation, l’intelligence sur l’appareil et bien plus encore, à la prochaine génération d’appareils intelligents connectés dans tous les secteurs d’activité. Les innovations de Qualcomm et de notre famille de plates-formes Snapdragon permettront d’assurer une convergence à la pointe du cloud, de transformer les industries, d’accélérer l’économie numérique et de révolutionner la façon dont nous vivons le monde, pour le plus grand bien de tous.

Qualcomm Incorporated comprend notre activité de licence, QTL, et la majeure partie de notre portefeuille de brevets. Qualcomm Technologies, Inc. est une filiale de Qualcomm Incorporated qui gère, avec ses filiales, la quasi-totalité de nos fonctions d’ingénierie, de recherche et de développement, ainsi que la quasi-totalité de nos activités de produits et de services, y compris notre activité de semi-conducteurs QCT. Les produits Snapdragon et Qualcomm sont des produits de Qualcomm Technologies, Inc. et/ou de ses filiales. Les technologies brevetées de Qualcomm sont concédées sous licence par Qualcomm Incorporated. Qualcomm et Snapdragon sont des marques commerciales ou des marques déposées de Qualcomm Incorporated. Snapdragon Wear est un produit de Qualcomm Technologies, Inc. et/ou de ses filiales.

Google, Wear OS by Google et d’autres marques sont des marques commerciales de Google LLC.

 

Qualcomm annonce une solution RISC-V pour Wear OS © MiniMachines.net. 2023.

Raspberry Pi 5 : une nouvelle carte plus performante et plus chère

Minimachines.net en partenariat avec TopAchat.com

Ce n’était pas le calendrier prévu, la Raspberry Pi 5 ne devait pas sortir avant 2024 avait déclaré Eben Upton en 2022. C’est donc une surprise de voir cette solution être présentée en ce début d’automne 2023. C’est également un constat doux amer sur l’évolution de la Fondation. Si la petite carte montre de nouveaux aspects très intéressants avec des changements importants de son équipement, elle débarque sur un marché où elle va devoir faire face à de sérieux défis.

La Raspberry Pi 5 est synonyme de montée en performances et comme à chaque nouvelle solution de la Fondation, on retrouve une petite carte qui évolue sous le signe d’un SoC Broadcom. Mais pour cette fois l’alliance entre le créateur de puce et les ingénieurs de Raspberry est encore plus étroite. La nouvelle puce embarquée a été créée sur-mesure pour ce nouvel ordinateur. Il s’agira d’un Broadcom BCM2712, construit en équipe pour la Pi 5 et embarquant quatre cœurs ARM Cortex-A76 64 bits fonctionnant à une vitesse d’horloge de 2.4 GHz1. Point très important de cette offre, la puce graphique VideoCore VII cadencée à 800 MHz sera complètement documentée pour le système Linux maison. On retrouvera donc une prise en charge réelle de l’OpenGL ES 3.1 et de Vulkan 1.2. Cela assurera d’excellentes performances graphiques sous Linux ainsi que le décodage de flux vidéo pouvant atteindre un double signal UltraHD en 60 images par seconde. Gravé en 16 nanos, la puce propose 512 Ko de cache L2 par cœur et 2 Mo de cache L3. Elle promet à la fois plus de vitesse de calcul, un fonctionnement plus efficace et moins de chaleur dégagée. On y reviendra plus loin.

Cette dimension d’un circuit vidéo développé par et pour la fondation est extrêmement importante pour la suite de l’aventure Raspberry Pi. Elle assure une compatibilité parfaite entre le système d’exploitation et le matériel embarqué mais promet également des pilotes totalement Open-Source qui vont pouvoir être travaillés par les utilisateurs. C’est une excellente nouvelle et un point clé de l’offre par rapport à la concurrence qui navigue souvent à vue avec des SoC aux caractéristiques totalement fermées. Certaines cartes de développement sortent, sont commercialisées et arrêtent leur production sur plusieurs années sans jamais avoir un seul pilote 3D ou vidéo parfaitement au point sous Linux. Uniquement développées pour Android, elles ne délivrent qu’une part basique de leurs capacités graphiques. La grande force de la Fondation est bien d’avoir su proposer un fonctionnement en symbiose avec Broadcom sur ce poste. Cela se traduira également par des possibilités intéressantes comme la prise en charge de l’HEVC. Aucune info sur un éventuel support HDCP ou de DRM n’a par contre été évoquée.

A noter que la Fondation a pris les devants en proposant un système de refroidissement complet pour la carte. Proposé à 5$, le dispositif comprend un petit ventilateur et un dissipateur qui viennent coiffer les éléments les plus chauds. Il se connecte directement via des performations du PCB avec un appui exercé par de petits ressorts. Le ventilateur est branché au système grâce à un connecteur 4 broches qui propose un relevé de sa vitesse de fonctionnement. 

La formule sera développée en deux solutions mémoire, 4 ou 8 Go. Toutes deux en LPDDR4x-4267, mais il est possible que d’autres versions sortent plus tard avec plus de mémoire. C’est ce module qui déterminera le prix de la Raspberry Pi 5. La version 4 Go étant proposée à 60$ et la version 8 Go grimpant à 80$.

Un prototype de HAT pour exploiter un port M.2 PCI Express

Comme d’habitude, la formule ne proposera pas de stockage interne, il faudra chercher du côté de son lecteur de carte MicroSDXC pour installer un système. Ce dernier est désormais à la norme SDR104 qui est présentée comme un format très robuste mais qui correspond en fait à l’UHS-1 avec 104 Mo/s de débit maximum. C’est excellent mais ce n’est pas au niveau des UHS-II et UHS-III que nous croisons désormais régulièrement et qui atteignent 300 et 600 Mo/s de débit. Une interface PCIe 2.0 x1 sera également disponible même si il faudra venir la chercher au travers d’une connexion externe via les broches de la carte. Cela ouvre des perspectives sur l’ajout d’un SSD au format M.2 NVMe via un HAT, par exemple.

La connectique est bouleversée avec un nouveau composant également développé en interne pour la prendre en charge, le RP1. Les précédents modèles utilisaient certes des solutions externes comme un gestionnaire Ethernet ou USB mais petit à petit l’ensemble des fonctions ont été intégrées dans le design du SoC de base de la carte. Une volonté de miniaturiser l’ensemble qui estimait que c’était la suite logique pour conserver un maximum de possibilités sur un minimum de place.

Problème, la majorité de ces fonctionnalités ne correspondent plus vraiment au format de la nouvelle puce Broadcom. L’évolution de la finesse de gravure de celle-ci étant un frein technique et économique à leur implantation. Un frein risquant de devenir un danger dans le futur. La décision a été prise de séparer les fonctions dans un autre composant : le RP1. Ainsi seules les fonctions demandant le plus de bande passante sont toujours intégrées à la puce de base de la carte : la gestion du signal vidéo HDMI, la mémoire vive et le PCI-Express restent présent. Le gestionnaire de carte SD y a également trouvé refuge pour des raisons de design. Tout le reste est externalisé vers cette nouvelle puce.

Cela permet d’employer un processus de gravure moins couteux pour ce RP1 et de le connecter directement à la puce Broadcom via une interface PCI Express 2.0 sur 4 lignes. La fondation a fait appel au 40LP de TSMC pour fabriquer ce composant, une méthode de gravure éprouvée (2008) déjà employée dans le microcontrôleur maison de Raspberry Pi, le RP2040 vendu 1$ intégré dans le Raspberry Pi Pico. C’est d’ailleurs la même équipe en charge du RP2040 qui a construit ce RP1. 

Les deux connecteurs MIPI et les deux connecteurs « VID » du signal vidéo analogique.

A son bord, on retrouve la gestion des ports USB 3.0 et USB 2.0. C’est aussi ici qu’est gérée l’interface Ethernet Gigabit, les lignes MIPI pour connecter écran et capteur photo, un gestionnaire de vidéo analogique et les traditionnels GPIO des broches embarquées. A noter que la prise jack audio stéréo a totalement disparu de la carte. 

Ce petit composant a été un travail au long cours pour la fondation qui y a dépensé une petite fortune, pas moins de 15 millions de dollars ont été injectés dans ce développement depuis 2016 pour parvenir à ce résultat. La version C0 employée ici est la troisième mouture de ce projet avec en tête une rétro compatibilité complète de la Raspberry Pi 5 avec les précédents modèles et leurs extensions. Cette puce RP1 nous renseigne sur l’avenir de la formule. En séparant les deux éléments, il sera plus simple pour la fondation d’évoluer à l’avenir. Le RP1 prendra en charge de son côté les différents composants annexes des SBC. Le circuit Broadcom sera, quant à lui, plus indépendant dans son évolution. L’arrivée de ce tandem me laisse à penser qu’il n’y aura plus quatre ans d’attente entre un Raspberry Pi 5 et un Raspberry Pi 6.

Sur la gauche, au bord de la carte et en léger relief, le bouton de démarrage

Un nouveau PMIC, le Renesas DA9091, fait également son apparition sur la carte. Le PMIC est le composant qui gère l’alimentation de la carte. Une puce spécialisée qui va aussi bien traiter les besoins spécifiques du SoC Broadom que l’alimentation du reste des composants. Ce nouveau venu est également produit en collaboration avec Renesas. Cela assure à la fondation de disposer d’un gestionnaire parfaitement adapté à ses besoins tout en répondant à des demandes récurrentes sur ces cartes de développement. On retrouvera ainsi d’une part un bouton permettant d’allumer ou d’éteindre la carte mais également d’interagir avec elle. 

Mais on pourra également compter sur la présence d’une horloge interne disponible directement à bord. Il suffira de l’alimenter avec une pile ou une batterie dont on peut voir les deux broches de connexion en bas à droite de la photo ci-dessus, pour avoir une machine toujours à l’heure. La fondation proposera une pile Lithium-Manganèse Panasonic prête à l’emploi en option à 5$.

Enfin, la partie réseau a également un petit peu évolué. Si la puce Infineon CYW43455 proposant Wi-Fi5 et Bluetooth Low Energy est toujours la même, son alimentation a été revue pour une consommation plus faible tandis que sa bande passante avec le SoC de la carte a été améliorée pour de meilleurs débits. La gestion de l’Ethernet est toujours confiée à un circuit Broadcom BCM54213 en Gigabit.

Une alimentation qui monte en puissance

Le SoC Broadcom a beau être plus efficace, ce n’est pas le cas de la carte qui demande désormais une alimentation beaucoup plus importante que la précédente. Il faudra la connecter à une solution USB Type-C offrant 5 volts et 5 ampères pour satisfaire le Raspberry Pi 5. Les modèles 3 ou 3.3 ampères ne seront plus suffisant pour la gérer sereinement. Un bloc d’alimentation 25 watts est donc prévu en option. 

La Fondation explique que si la puce est plus efficace, chauffe moins et consomme moins que celle du Pi4, la carte est également susceptible de demander plus de courant. Ces considérations de consommations inférieures au précédent modèle sont faites à « charge de travail égale ». Si on demande la même chose à un Pi4 qu’à un Pi5, alors la nouvelle SBC sera plus efficace et moins énergivore. Mais cela ne fonctionne pas vraiment comme cela dans la vraie vie. Si vous demandez une tâche lourde à la carte, celle-ci ne va pas tempérer son SoC embarqué pour rester gentiment dans les clous de votre consommation précédente. La carte offrira le maximum de ses possibilités et consommera alors plus de courant que l’ancien modèle. On parle quand même d’un pic de consommation qui passe de 8 watts à 12 watts entre les deux éléments. Elle risque donc de consommer, et de chauffer, plus.

Avec un chargeur classique, en 15 watts, la carte ne sera pas capable de gérer correctement toutes ses capacités. En particulier si vous comptez lui connecter des éléments comme un stockage mécanique externe ou un SSD sur son port PCIe 2.0. Le PMIC adaptera le courant suivant les besoins, il pourra donc baisser son alimentation USB à 600 mAh si vous utilisez un bloc secteur limité en ampérage. Le recours à un nouveau bloc 5A est donc quasi indispensable pour profiter vraiment des ressources de la Raspberry Pi 5.

 

Les caractéristiques complètes du Raspberry Pi 5 

  • SoC Broadcom BCM2712 2,4 GHz quadruple cœur ARM Cortex-A76
  • Circuit graphique VideoCore VII 
  • Double sortie HDMI UltraHD@60 avec prise en charge de l’HDR
  • Décodeur HEVC 4Kp60
  • Mémoire vive LPDDR4X-4267 SDRAM en 4 et 8 Go 
  • Wi-fi5 et Bluetooth 5.0 BLE
  • Lecteur de cartes MicroSDXC UHS-I
  • Deux ports USB 3.0 capables de supporter des débits 5Gbps simultanés
  • Deux ports USB 2.0
  • Un port Ethernet Gigabit avec fonction PoE+ via un HAT
  • 2 groupes MIPI à la fois compatibles camera et affichage sur 4 lignes
  • Une interface PCIe 2.0 x1 disponible via un HAT ou autre interface 
  • Alimentation Power Delivery sur USB Type-C en 5V/5A
  • Les 40 broches standard du format Raspberry Pi
  • Une horloge RTC
  • Un bouton de démarrage
  • Plus de prise jack 3.5 mm

Un marché qui n’a pas attendu 4 ans de son côté

La fondation apporte du neuf et des éléments intéressants avec cette Rapberry Pi 5. Mais elle se frotte désormais à un marché qui a également évolué. De nombreuses solutions annexes sont disponibles et beaucoup d’utilisateurs ont migré vers des propositions différentes. Les pénuries de cartes et l’augmentation importante des tarifs ont eu raison des fans les plus endurcis. Avec des Raspberry Pi 4 absentes des stocks pendant des mois et des projets qui s’accumulaient, beaucoup ont bifurqué vers des solutions signées Orange Pi, Mango Pi, Banana Pi, Khadas et de nombreux autres. L’augmentation des tarifs délirante des Pi4 – on parle quand même de moments où les Pi4 8 Go se vendaient à 150€ – a également poussé de nombreux acheteurs qui cherchaient un PC pas cher à se tourner vers des solutions plus classiques et prêtes à l’emploi sous processeurs x86 chez Intel ou AMD.

Bref, depuis 4 ans, les choses ont bougé et cette Raspberry Pi 5 avec son prix en hausse à 60$ HT pour la version 4 Go et 80$HT en version 8 Go ne va pas redonner un sourire immédiat aux acheteurs. La carte est intéressante, l’évolution proposée par le SoC Broadcom mérite à mon avis le détour et les possibilités offertes seront sans doute sans équivalent. Reste à savoir si ces évolutions vont dans le sens du projet initié par la fondation. Les choses ont changé depuis 4 ans, entre la pandémie COVID et les diverses implications qu’elle a eue d’un côté et les engagements pris par Raspberry Pi avec ses partenaires industriels de l’autre, la météo n’a pas été des plus clémentes pour la fondation. Mais le projet de départ était bien de fournir un ordinateur simple, bon marché, robuste et efficace pour le plus grand nombre. Le précédent modèle de carte est sorti à 35$, celui-ci débute à 60$. C’est presque le double et c’est sans compter l’ajout d’un adaptateur secteur adapté.

Raspberry Pi 4

La Raspberry Pi 4

Difficile de regarder la Raspberry Pi 5 à 60$ HT avec le même oeil bienveillant que les précédents modèles. D’abord parce que la fin des pénuries de Raspberry Pi 4 n’est toujours pas arrivée malgré les promesses  répétées d’Eben Upton. Et on se demande si régler ce problème n’aurait pas été plus important que de lancer une nouvelle gamme. Ensuite parce que l’idée d’une carte qui peut être achetée sur un coup de tête pour répondre à un projet n’existe plus. On ne va pas dépenser 60$ en considérant cet investissement au même titre qu’un loisir ou pour mener un petit projet comme on pouvait le faire du temps des RPi à 35$. 

Pour un acheteur à la recherche d’un PC « pas cher » l’offre est de moins en moins censée également. A 80$ en version 8 Go, prix hors taxe sans châssis, alimentation ni stockage, on est proche de 76€ HT soit 91€ TTC pour un produit encore inutilisable. C’est vraiment plus très loin d’un MiniPC x86 traditionnel, tout équipé, sous un châssis et livré avec mémoire vive, stockage évolutif et de grandes possibilités niveau système. Si on additionne les éléments indispensables à rajouter à la carte, le delta de prix devient vraiment très mince et pas forcément à l’avantage de la Fondation.

Evidemment pour qui cherche une solution de type SBC, avec les fameuses broches GPIO indispensables aux développements de solutions externes, la Raspberry Pi 5 reste un outil parfait et calibré pour répondre à tous ces besoins. Mais cela reste un peu étrange de voir ce grand écart permanent. D’un côté, on fait évoluer les composants majeurs pour répondre à un besoin de vitesse de traitement exigé par le public à la recherche d’un ordinateur complet. De l’autre, on continue de se positionner comme un outil programmable et de développement alternatif. Je ne suis pas sûr que cette inconfortable position puisse durer éternellement. 

Bien sûr il reste plein de solutions pour le futur. Le tarif demandé peut baisser à terme et la Fondation a peut être été contrainte de le pousser plus haut en raison de diverses circonstances. On a déjà vu par le passé la Raspberry Pi 4 1 Go à 35$ disparaitre au profit d’un modèle 2 Go vendu au même tarif. La version 4 Go de RPi 4 était déjà proposée à 55$ en 2019 et la hausse de 5$ entre les deux peut parfaitement se justifier. Si le prix de la mémoire vive a dégringolé depuis, cela n’affecte probablement pas de la même manière les solutions intégrées de ce type que les modules de mémoire plus classiques. Mais j’aurais aimé une version plus légère, en 2 Go par exemple, à 35 ou 40$ pièces. Ce sera peut être pour plus tard.

J’aimais toujours beaucoup cette idée d’une carte accessible, peu chère et sans la vocation de devenir aussi un PC d’appoint. Une carte de développement avec une grosse communauté qui peut vous faire gamberger autour d’un projet original à partager. Ici ces tarifs et ces annonces me font plus penser cette carte comme concurrente des PC du quotidien et moins comme un joujou d’apprentissage en électronique et en programmation. A suivre donc.

Raspberry Pi 5 : une nouvelle carte plus performante et plus chère © MiniMachines.net. 2023.

Meteor Lake : Intel fait le point sur ses futurs processeurs mobiles

Minimachines.net en partenariat avec IAMNUC.COM

On l’a vu ces derniers mois, Intel est en pleine mutation. Le responsable de tous ces efforts est sans doute Meteor Lake, un nom de code qui désigne une partie de la 14e génération de puces chez le fondeur.

Fin des NUC, changements de programmes, ouvertures de nouvelles stratégies en tant que fondeur pour le groupe, annonces technologiques… Intel est en pleine mutation ces derniers temps. L’idée globale de sa direction est de retrouver l’image durablement ternie par un AMD dont les générations de puces Ryzen ont salement écorné la renommée. Meteor Lake est une partie de cette réponse et cette première gamme d puces attendues pour décembre prochain est pensée pour marquer les esprits.

Et pour parvenir à ses fins, Intel n’y va pas de main morte. Tout est bon pour faire de ces nouveaux processeurs un évènement. Outre l’arrivée de cette 14e Gen, on retrouve un assortiment de nouveautés assez incroyable. Les puces seront les premières a inaugurer le nouveau système d’identification du fondeur avec l’apparition des Core Ultra par exemple. Ce seront également les premières puces a utiliser le processus de gravure Intel 4. Enfin, Intel met en avant l’apparition de fonctionnalités liées à l’IA avec l’intégration d’un circuit dédié directement au cœur de ses processeurs.

Intel 4 c’est la promesse d’une gravure en 7 nanomètres. Cela parait un peu en retard par rapport à d’autres fondeurs et d’autres processeur qui proposent déjà du 7 nanomètres sur le marché mais Intel semble sur de son avance technologique. En passant d’Intel 7 à Intel 4 le fondeur annonce un doublement de la densité des puces. Plus de transistors donc mais également une bien meilleure efficacité énergétique avec moins de fuites de courant.

Cela se traduira également par de meilleurs rendements techniques, les technologies employées permettant à la fois de baisser les couts de productions des puces mais également d’en graver plus pour la même dépense. Un changement qui pourrait se traduire par une baisse des tarifs des processeurs.

Meteor Lake sera donc la gamme mobile de 14e Gen d’Intel. Une gamme qui se veut plus rapide et plus efficace en calcul brut, capable de rivaliser avec des solutions milieu de gamme en terme d’affichage graphique et prenant également avantage de capacités de calcul spécialisées avec l’intégration de fonctions d’IA. Cet ensemble sonne comme l’empilement de compétences propres à un SoC ? C’est normal, Meteor Lake fonctionne comme un System On a Chip en accumulant des compétences éparses sur son DIE.

Ce sera la première puce grand public a employer la technologie Foveros d’Intel. Un système qui permet justement de faire cohabiter des éléments différents, pilotés par des circuits parfois gravés dans des finesses différentes, sur le même circuit global. Le processeur en lui même est sur une « tuile » spécifique. La partie graphique est positionnée à ses côté tandis que la gestion des entrés et sorties et le circuit dédié à l’IA sont sur d’autres tuiles. Foveros prend en charge le dialogue entre tous ces éléments. Cette technologie est très intéressante pour le futur d’Intel puisqu’elle permet des variations incroyables. Ajouter plus ou moins de tuiles différentes tout en jouant sur le nombre de cœurs P ou E… voilà qui permettra de créer des puces quasiment sur mesures suivant les besoins de chaque solution. Du portable dédié au créateurs ayant besoin d’un maximum de calcul à la tablette 

La partie processeur est, comme sur la génération actuelle, constituée de deux architectures différentes. Là encore une approche très ARM de la technologie. Des cœurs Performants proposeront de grosses capacités de calcul. Avec le nom de code Redwood Cove, ces éléments promettent plus de performances globale. Les Core Efficients seront baptisés Crestmont et géreront les tâches les moins gourmandes pour une consommation largement inférieure. L’ensemble sera plus efficace et plus rapide en calcul. Promettant donc plus de performances globales et une autonomie en hausse à charge égale. Intel ajoute à ce package une version limitée de ses cœurs Crestmont dans un package baptisé Low Power Island qui pourra agir en solo pour les tâches nécessitant qu’une toute petite performance. L’idée est là encore de ne réveiller les gros cœurs puissants et gourmands qu’au moment où cela sera vraiment utile. Un cœur Efficient, même à très bas régime, sera bien suffisant pour décoder un flux audio en streaming par exemple. Mieux encore, en construisant son processeur avec ces tuiles, Intel prévoit de pouvoir couper le courant de parties complètes du processeur si elles ne sont pas exploitée. Vous regardez un page web déjà chargée en mémoire ? Les tuiles exploitées qui ne sont plus nécessaire s’éteignent instantanément. Vous voulez changer de page, leur remise en route est automatique et tout aussi rapide. Cela signifie évidemment une baisse de la consommation mais également des capacités de refroidissement plus efficaces.

A côté de cette base de calcul, le circuit graphique Intel Xe-LPG annoncé comme deux fois plus rapide que le précédent circuit Xe-LP de la marque pour une consommation énergétique égale. Un total qui devrait toujours être insuffisant face à des puces dédiées de chez AMD ou Nvidia mais qui devrait suffire à des jeux embarqués sur des machines mobiles non spécialisées.

La nouvelle puce promet des fonctions de Ray Tracing et des compatibilités plus larges. On retiendra en particulier la prise en charge de nombreux codecs importants comme le VP9 ou l’AV1 avec la possibilité de piloter des contenus jusqu’en 8K HDR sur 10 bits. Les sorties audio gérées sont toutes au diapason de ces annonces avec du HDMI 2.1 et du DisplayPort 2.1. Des éléments rassurants pour la pérennité à long terme de Meteor Lake.

Dernier point d’intégration, un NPU ou Neural Processing Unit, dédié aux travaux d’IA. L’arrivée de l’Intelligence Artificielle bouleverse aujourd’hui plus le paysage médiatique que les usages du quotidien mais c’est un bon moyen pour Intel d’assurer à la fois de la visibilité et de se positionner comme un acteur de son temps. Meteor Lake promet une solution dédiée à l’IA qui sera beaucoup plus performante que le processeur embarqué. La marque explique que ce petit circuit spécialisé, si on l’emploie avec les routines adaptées, serait plus de 7 fois plus rapide que la partie calcul non spécialisée du processeur. Presque 3 fois plus performante que le circuit graphique. Oui, parce que Intel n’a pas attendu 2023 pour faire de l’IA avec ses puces Core, simplement elle prenait auparavant appui sur le reste de sa puce qui n’était pas très spécialisée. Or dans ce travail, la spécialisation fait tout, et le recours à un outil dédié est à la fois plus performant et moins énergivore. Reste la question de l’utilité au quotidien. Ceux qui se servent déjà de l’IA pour générer des images ou du texte le font en général en ligne. D’autres vont implanter des outils locaux mais sur des machines aux grosses capacités de calcul. Reste que dans l’avenir de plus en plus d’outils vont intégrer des fonctions d’IA pour des usages spécifiques ou du quotidien. Des programmes de génération ou de correction de texte mais également des fonctions d’amélioration d’images et autres vont faire leur chemin jusqu’à nos machines. Les développeurs s’appuieront sur ce type de NPU pour améliorer l’expérience globale de leur usage.

En attendant le NPU d’Intel est déjà spécialisé dans certains travaux « classiques ». La création de flou d’arrière plan et autres fonctions dédiée à l’image et au son en vidéo conférence par exemple. Rien de révolutionnaire mais une possibilité de traiter localement ce qui était proposé en externe, dans les nuages, jusqu’alors.

 

Derniers détails du puzzle Meteor Lake

On retrouve les atouts techniques chers à la marque comme le Thunderbolt 4 ou le PCIe 5. Des éléments qui permettent de proposer des fonctionnalités haut de gammes aux machines qui embarqueront ces générations de puces. Attention, cela ne sera pas automatique. Ce n’est pas parce que Meteor Lake proposera ces fonctions que les constructeurs les intégreront forcément. Tout comme la possibilité de proposer du Wi-Fi7 et du Bluetooth 5.4. Si le processeur offre une compatibilité et Intel propose même des puces pour faciliter cette intégration, cela ne reste que optionnel pour chaque constructeur.

Nous devrons attendre le 14 décembre prochain pour avoir le détail exact de l’offre. Et on peut imaginer une proposition assez large de la part d’Intel. Avec sa nouvelle architecture et la mise en place de ses technologie d’assemblage de cœur. Le fondeur peut réellement proposer des puces très variées. De quoi coller aussi bien aux besoins de constructeurs en terme de performances, d’autonomie ou de budget pour chaque gamme. Comme je l’écrivais en juin, je ne serais pas étonné de constater que l’apparition d’une nomenclature de processeurs Core et Core Ultra rime avec un proposition plus large de processeurs. 

Meteor Lake : Intel fait le point sur ses futurs processeurs mobiles © MiniMachines.net. 2023.

Asus reprend – en partie – le marché des MiniPC NUC d’Intel

Minimachines.net en partenariat avec IAMNUC.COM

Intel a donc annoncé la fin des NUC, ou plutôt la fin de ses investissements dans le marché des MiniPC. Son arrêt de tout développement de sa gamme  dans le futur. Une nouvelle qui a provoqué pas mal de remous mais qui ne remettra pas tout en cause. Asus vient en effet de signer la reprise du parc d’Intel et devrait assurer son renouvellement.

Le tout premier prototype de NUC

Etat des lieux

Intel développe sa gamme NUC depuis 2012 avec à l’esprit l’idée d’investir un secteur largement abandonné par le marché de l’époque. Les nettops, suite logique du succès fulgurant des netbooks, étaient moribonds. Plus aucun fabricant ne proposait ce type de machine de bureau. Il existait toujours des MiniPC classiques, surtout à destination des pros, mais le grand public avait alors le choix entre un PC au format tour et un portable. Les solutions MicroATX et Mini-ITX étant encore et toujours un choix plus onéreux, plus difficile à appréhender et à construire pour un néophyte.

Asus EeeBox, un Nettop sous Atom D2550

Avec le format NUC, Intel voulait rebattre ces cartes. Proposer un engin simple, sobre, facile à installer et à déployer en entreprise comme chez les particuliers. Une machine qui ne prendrait pas de place et qui pourrait remplacer ces millions de tours anciennes qui continuaient à occuper un espace énorme pour un service minimal. Cet acronyme NUC, pour Next Unit of Computing annonçait la couleur. Passer le balai sur une génération de machines inutilement encombrantes, bruyantes et énergivores. Des solutions pourtant encore présentes un peu partout en 2012.

Et ça a fonctionné. La machine initiale, son format, ses ambitions ont été portées pendant 11 années en faisant pas mal d’émules. D’autres acteurs qui existaient auparavant sur ce segment se sont vus confortés dans leur vision. Des marques comme Lenovo, Dell ou HP pour les pros, ou Zotac et Shuttle avec une vision plus grand public, ont pu profiter de cet appui très net d’un Intel souhaitant mettre en avant cette philosophie.

L’alternative au MiniPC est le format tour1

D’année en année, de nombreux autres acteurs ont rejoint les rangs. Les principaux constructeurs du marché ont suivi le mouvement avec Asus, Gigabyte, Asrock, Acer, MSI, EliteGroup et d’autres. Puis ce sont des petites marques qui ont surfé sur ce modèle : Beelink, Geekom, Minisforum, MeLE, GMK, Partaker, Topton et bien d’autres. Les commentateurs du marché ont également changé de logique.

Au lancement de la formule NUC, de nombreux journalistes et testeurs avaient la dent dure sur le format. En reprochant à ces engins des défauts qu’ils ne voyaient pourtant pas dans les ordinateurs portables. La faible évolutivité de ces machines étant largement compensée par un encombrement minimal et une consommation très faible face à un PC classique… Pour un service équivalent. Les lunettes roses chaussées par nombre d’entre eux qui recevaient de mois en mois les dernières nouveautés haut de gamme dans des tours encombrantes et… gratuites, n’aidant pas à apercevoir la réalité du terrain. Enormément d’utilisateurs particuliers comme professionnels se battaient – et se battent encore – contre des tours ahanantes et empoussiérées.

2020-01-08 15_03_01-minimachines.netLe NUC Compute Element, un PC entier et évolutif dans une format carte

Au fur et a mesure que les années passaient, que les acheteurs voyaient que le format n’était pas une marotte mais bel et bien un état d’esprit, le format est devenu plus populaire et la question de sa légitimité ne s’est plus posée. A l’arrivée des systèmes complets chez Intel en 2017, les NUC ont passé un cap. Le constructeur proposait depuis ses débuts des modèles de type barebone qu’il fallait équiper de mémoire et de stockage avant de les déployer. A l’arrivée de versions prêtes à l’emploi avec un système préinstallé, tout à changé.

Chez beaucoup de mes contacts professionnels cela permettait d’acheter et de déployer des dizaines de machines en quelque clics. Les engins s’installaient matériellement en 5 minutes et étaient pleinement opérationnels au bout de quelques minutes de connexion au réseau. De nombreux postes gourmands en énergie ont ainsi pu être remplacés par des minimachines plus sobres, parfois plus efficaces et bien moins encombrantes.

Le NUC est finalement entré complétement dans les mœurs. Pas forcément sous la marque d’Intel mais sous son format de MiniPC. Ils sont désormais partout et considérés comme une alternative crédible au format tour.

L’Intel NUC Compute Cards

Pendant ce temps, l’équipe en charge des NUC continuait à réfléchir à de nouveaux formats. Puisque leur design d’origine était devenu, en quelque sorte, une norme, il fallait inventer celle d’après. Plusieurs tentatives ont vu le jour avec des propositions très originales. Le MicroPC contenu dans un format carte de crédit avec le Compute Card. Le Compute Element qui proposait un minimachine complète dans un format de carte graphique. Des MiniPC de jeu aux formats variés mais également des solutions fanless complètes. La recherche de cette « Next Unit of Computing » a été protéiforme.

La fin des NUC, vraiment ?

En 2023, Intel a donc décidé de se retirer de ce marché et ne proposera plus de nouveaux NUC à l’avenir. Une mauvaise nouvelle évidemment mais rien qui ne signe l’arrêt de mort du format MiniPC et cela pour plein de bonnes raisons.

Le NUC 12 Extreme et son châssis embarquant une carte graphique plein format

Le format ATX, qui est le format le plus standard de l’industrie PC fixe aujourd’hui, est une invention d’Intel lancée en 1995. Un format libre et sans royalties que la marque a proposé pour doper le marché de la machine personnelle. Intel a rapidement compris qu’en standardisant les formats, il inciterait les fabricants de pièces détachées à s’investir dans le développement des pièces détachées de PC. Les formats de cartes mères des constructeurs de PC ne répondant à aucune norme, il fallait alors tout acheter chez eux pour faire évoluer, ou simplement réparer son PC : carte mère, cartes filles, alimentation et boitier. 

En proposant un standard de ce type , Intel ouvrait la porte a une interopérabilité entre cartes mères, boitiers, cartes filles et alimentations de différentes marques. Un écosystème qui a permis l’émergence de nombreux acteurs qui sont devenus des géants aujourd’hui. De ce format ATX est né le MicroATX et diverses variantes plus ou moins obscures. C’est VIA qui lance ensuite le format ITX en 2001 pour contrer le Flex-ATX d’Intel. De cette idée de base découlera le Mini-ITX que l’on connait toujours aujourd’hui et des formats comme le Nano-ITX et le Pico-ITX avec des succès plus mitigés.

Cela fait longtemps qu’Intel a compris que libérer des formats ou des technologies propriétaires était bon pour ses affaires. L’ATX n’est qu’un exemple, plus récemment on a vu l’ouverture du Thunderbolt par exemple.

Dès lors, on pouvait s’attendre à une transition en douceur du format NUC « Intel » à un format NUC plus ouvert. Du reste il est accessible à tous les constructeurs. Il s’agit d’un format de carte mère et de boitier que chaque marque emploie déjà à peu de choses près pour construire ses propres minimachines. De nombreux constructeurs proposent des engins très semblables aux solutions d’Intel. Des marques de plus petit gabarit comme Minisforum, Geekom, MeLE et autres l’emploient pour gagner en visibilité aux yeux du grand public.

Un MiniPC signé ASRock sous l’appellation NUC

Du reste, on ne peut pas dire que le constructeur ait défendu bec et ongle son acronyme. Je ne connais pas en détail les arcanes concernant le droit des marques à l’international mais il me semble que si un concurrent lance un produit comparable, un MiniPC, avec le même nom dans sa dénomination, il est assez facile de lui opposer quelque résistance légale. Depuis le début de l’aventure NUC, Intel laisse des NucBox, des NUCmachins et autres NUCbidules proliférer sans chercher la moindre opposition à leur commercialisation. Et cela même lorsqu’elles sont parfois sous processeurs… AMD.

L’idée qu’Intel pourrait offrir un blanc-seing à l’industrie afin qu’elle exploite ce format particulier n’est donc pas si étrange. Au même titre que le format ATX, le format NUC va devenir un standard industriel. Cela assurera une forte continuité dans les ventes des puces d’Intel. La demande est désormais établie avec des clients particuliers comme professionnels. Il n’y a aucune raison que les industriels ne voient pas avec une certaine gourmandise le million de NUC vendus par année par Intel depuis la création de ces produits.

ASUS reprend le parc des NUC d’Intel et le conjuguera à tous les temps

Suite à l’annonce de l’arrêt de ses investissements, on apprend que Asus va reprendre la fabrication des NUC d’Intel, la Recherche et Développement de ceux-ci mais également le suivi des générations passées.

Asus entend ainsi assurer le SAV des NUC depuis leur dixième génération jusqu’à la plus récente. Ce qui correspond à l’engagement de SAV de trois années mis en place par le constructeur lors de la commercialisation des machines. Une nouvelle qui devrait rassurer les entreprises qui ont investi dans un parc signé Intel depuis des années. Les plus gros clients de la marque.

Pour Asus qui produit déjà ses propres MiniPC, ce sera une nouvelle recette de machine, recette qui a déjà bénéficié d’un énorme investissement marketing d’Intel et qui connait une distribution fonctionnelle avec un réseau complet de revendeurs et de partenaires. Pas la pire carte à abattre pour peser dans ce marché particulier. Le marché NUC bénéficie d’une très forte sympathie du public et d’une excellent dynamique chez les pros. Des atouts pour Asus.

Asus s’engage également à poursuivre les efforts d’Intel en défrichant le futur. Le constructeur Taiwanais qui est déjà connu pour de nombreuses innovations, va tenter de proposer d’autres Next Unit of Computing. Des machines proposant un usage différent, un format révolutionnaire ou d’autres ambitions. La marque a par le passé proposé des engins assez originaux comme le ProArt, le PC ci-dessus, qui embarquait dans un format tout en hauteur les composants d’une tour dédiée aux usages créatifs.

Asus a également proposé par le passé les VivoMini, une vision propre à la marque du concept des MiniPC avec une approche modulaire destinée à faciliter leur intégration. Rien d’aussi révolutionnaire qu’Intel mais la marque n’avait pas encore cette tâche de développer un futur différent.

Les séries PN de la marque ressemblent, quant à elles, beaucoup plus aux modèles de MiniPC classiques d’Intel. Une offre qui devrait perdurer en plus de la production de NUC.

“Our NUC systems product team delivered unique products that spurred innovation in the ultra-small form factor market. As we pivot our strategy to enable ecosystem partners to continue NUC systems product innovation and growth, our priority is to ensure a smooth transition for our customers and partners. I am looking forward to ASUS continuing to deliver exceptional products and supporting our NUC systems customers.”

–Sam Gao, Intel vice president and general manager of Intel Client Platform Solutions

En annonçant cette transition vers Asus, le fondeur rassure ses clients, ses partenaires et distributeurs. Personne ne va se retrouver face à un mur de SAV ou de continuité. Des marques qui ont construit leur production autour des NUC pour une distribution à l’international n’auront pas à rechercher dans l’urgence un nouveau fournisseur compatible avec leurs produits. Si leur choix a été porté sur Intel au départ c’est pour la pérennité de l’offre que la marque porte. La reprise par Asus est donc primordiale pour leur fonctionnement.

Asus hérite d’une licence NUC, mais sans aucune exclusivité

Mais la partie la plus importante à comprendre dans l’annonce d’Intel n’est à mon sens pas dans cette reprise par Asus. C’est évidemment un évènement important, et je suppose que la négociation entre les deux entités ne s’est en réalité pas faite en quelques jours suite à l’annonce d’Intel. Les pourparlers ont du débuter il y a quelques temps.

Non le point cardinal de cette annonce est situé un peu plus bas dans le communiqué d’Intel. Une petite ligne très significative qui va à mon avis avoir un certain impact sur le marché :

Under the proposed agreement, ASUS will receive a non-exclusive license to Intel’s NUC systems product line designs.

Si Asus va reprendre le parc et le SAV des NUC déjà vendus par Intel, il ne s’agira pas d’une licence exclusive. Intel se réserve le droit d’autoriser d’autres partenaires à proposer des NUC. Ce qui pousse de fait le format a devenir une sorte de standard. Il suffira de trouver une entente avec Intel pour proposer une machine NUC. En suivant, je suppose, une recette précise et un cahier des charges proche des propositions d’Intel : le processeur et les principaux composants devant entrer dans une certaine norme. Ce qui pourrait faire foisonner l’offre et finaliser ce qu’a tenté de faire Intel avec ses MiniPC. L’acronyme NUC devant alors le nom générique de ce type de machine.

Ce futur est déjà là en réalité, certains modèles concurrents aux NUC proposent des capacités équivalentes, ont droit aux mêmes puces et se vendent dans les mêmes eaux tarifaires. Evidemment, ils ne proposent pas forcément les mêmes finitions et n’ont pas la même garantie. Les nouveaux venus restent également plus sagement dans l’ombre d’Intel, avec des propositions souvent moins téméraires. Il est plus délicat de proposer des minimachines vraiment originales, d’anticiper une vision du futur, sans la protection d’un géant comme Intel pour assurer ses arrières financières. Mais un acteur du marché qui veut assurer une bonne visibilité de ses produits pourrait à l’avenir faire estampiller sa production avec un sceau officiel d’Intel. Ce qui sous entendrait un niveau de qualité important.

Si la continuité des formats « NUC » traditionnels, le fameux 4×4 pour parler en pouces ou 11×11 pour parler en centimètres, est à mon sens assurée. Les solutions moins consensuelles comme les Compute Elements risquent par contre de se heurter au réel du marché. Je ne suis pas certain que leur production va perdurer au delà des engagments de garantie initiaux du fondeur.

Le Porcoolpine de SimplyNUC embarque une carte mère Intel NUC

La fin des NUC n’a pas sonné

La nature a horreur du vide. Les revendeurs l’ont encore plus en horreur qu’elle. Avoir une étagère vide, sans aucun produit à vendre, est la pire des choses pour un marchand. La majorité des marques ayant ouvert un univers dédié au NUC ont rapidement fait la part des choses. Elles ont été mises au courant de la fin de la gamme avant le grand public et ont ainsi pu anticiper l’avenir. Intel ne va pas non plus les laisser tomber du jour au lendemain. La production des NUC continue aujourd’hui et les engagements de livraison tenus jusqu’alors, comme les garanties, perdurent. C’est le futur qui va changer. Avec la reprise d’Asus, la transition se fera en douceur. 

Les BleuJour Kubb  emploient les carte mère Intel NUC

Dès l’annonce et même avant celle-ci, de nombreux revendeurs avaient décidé d’intégrer d’autres marques dans leurs catalogues. A terme, la transition de l’offre 100% Intel se fera sans doute chez nombre d’entre eux. Le partenariat de base qui englobait les produits NUC par Intel étant largement différent d’un partenariat ou Asus – ou un autre – serait aux commandes. 

Akasa et ses boitiers fanless pour carte mères NUC

Je suppose qu’Intel va finir par donner les clés de sa formule à divers constructeurs qui reprendront la marque fidèlement. L’idée n’est pas mauvaise, bénéficier du petit sticker Intel NUC sur son petit châssis pour montrer patte blanche à ses clients serait bénéfique. C’est dans les habitudes de la marque que d’aider les ingénieurs des différents fabricants de PC et de pièces détachées à concevoir des machines optimisées. On peut imaginer sans difficulté qu’un client potentiel qui approcherait le fondeur pour proposer des MiniPC serait guidé au même  titre qu’un fabricant de carte mère ATX. L’idée pour Intel étant de concevoir un bon produit, optimisé et efficace, pour augmenter la vente de ses propres puces.

Avec l’assurance d’un contrôle qualité suffisant, d’une garantie étendue et de conseils prodigués par le fondeur pour adopter les meilleures stratégies de refroidissement et d’implantation. Le renouveau des NUC passera désormais par d’autres signatures. C’est au final une excellente nouvelle. Cela permet de ne pas jeter à la poubelle onze années de recherche et développement mais également de revigorer un marché dont le fondeur a posé de solides fondations.

NUC : fin de partie pour les minimachines d’Intel

Asus reprend – en partie – le marché des MiniPC NUC d’Intel © MiniMachines.net. 2023.

NUC : fin de partie pour les minimachines d’Intel

Minimachines.net en partenariat avec IAMNUC.COM

C’est la fin des NUC chez Intel, le fondeur coupe sa branche après 11 ans de développement de ses Minimachines. C’est évidemment une triste nouvelle car la marque proposait des PC très intéressants dans diverses catégories. Mais c’est peut être également pour le fondeur l’occasion de passer le relais.

A l’annonce de cette information, je suis un peu tombé des nues. Intel a fêté les 10 ans de la gamme NUC en 2022 et semblait bien parti pour 10 années supplémentaires. Mais non, au final, la marque en aura décidé autrement. Après bien d’autres choix de restructuration ces derniers mois, la branche NUC est la dernière à être élaguée par le groupe.

We have decided to stop direct investment in the Next Unit of Compute (NUC) Business and pivot our strategy to enable our ecosystem partners to continue NUC innovation and growth. This decision will not impact the remainder of Intel’s Client Computing Group (CCG) or Network and Edge Computing (NEX) businesses. Furthermore, we are working with our partners and customers to ensure a smooth transition and fulfillment of all our current commitments – including ongoing support for NUC products currently in market. 

 

On a tous bien compris que l’objectif de la nouvelle direction d’Intel était de se restructurer sur son cœur de métier. Etre un concepteur de puces d’abord et devenir un fondeur « comme les autres » ensuite. La marque a choisi de se recentrer sur ces activités et cela passe par des investissements colossaux dans de nouvelles usines. L’embauche de nouveaux cerveaux et un certain accent mis sur ses forces traditionnelles. Cela passe également par un focus assez fort sur ses secteurs historiques. Quitte à sacrifier largement les développements annexes. Développements dont la gamme NUC fait partie.

La division NUC a généré 10 millions de ventes en 10 ans, un résultat plus que respectable mais probablement assez faible par rapport au business global d’Intel. Si ce choix me fait un peu mal au cœur d’un point de vue technique, je peux comprendre le point de vue financier et la stratégie du fondeur. Les marges dégagées par les NUC étaient finalement assez faibles par rapport à l’investissement en temps et en marketing que l’ensemble exigeait.

Une carte mère Intel

On a déjà connu une situation assez équivalente chez Intel par le passé lorsque la marque a arrêté de vendre ses propres cartes mères en 2013. L’idée était alors de passer le relais à ses concurrents et partenaires. Des marques qui proposaient leurs propres cartes avec à leur bord les mêmes puces fabriquées et vendues par Intel. En se retirant de ce segment, le fondeur a en réalité stimulé la concurrence. En distribuant ses parts de marché, Asus, MSI, Gigabyte et autres constructeurs distribuant des cartes mères ont pu récupérer des parts sur ce secteur.

Il en sera probablement de même sur le segment des MiniPC. En arrêtant ses investissements dans les NUC, Intel va stimuler les concurrents à s’intéresser à ces produits. en espérant qu’ils continuent de développer différentes minimachines tout en répondant aux différents besoins de cet écosystème. 

Que va t-il se passer (probablement) pour la gamme NUC ?

Pour le client final peu de chose vont changer. Intel va assumer les garanties de ses produits et continuera d’honorer les contrats passés. Les NUC actuels ne sont pas déclarés en fin de vie et les différents acteurs continueront d’être livrés sur ces gammes dans les mois qui viennent. C’est la relève de la 13e Gen qui ne viendra simplement pas. Pas de NUC de bureau de 14e Gen, pas de NUC Extreme ni de solutions nouvelles.

Il est fort possible qu’Intel revende sa marque à un concurrent et que ce dernier reprenne la philosophie, entière ou parsemée, du projet original. Plusieurs acteurs sont susceptibles d’être intéressés par cette idée. Des concurrents d’aujourd’hui qui pourraient être les distributeurs de NUC demain. Malgré tout il parait peu vraisemblable qu’une marque différente d’Intel puisse offrir les mêmes facilités en terme de garantie et de prix.

Il est également probable que l’on n’ait pas le droit à un aussi beau panel de produits que ce qu’a proposé la gamme ces dernières années. Beaucoup d’innovations, de tâtonnements et de réussites ont été liés au côté très indépendant du secteur chez Intel. Une gamme de produits après l’autre, les ingénieurs en charge du développement de ces machines essayaient de nouvelles idées, testaient des solutions, proposaient des engins originaux avec des buts variés. Il est probable que la reprise concurrente soit beaucoup moins innovante et se contente de répéter encore et encore le même MiniPC. Se concentrant surtout sur une mise à jour technique des capacités de calcul pour coller aux impératifs du marché. Là où Intel proposait des formats clé USB, des cartes-PC, des engins de diverses formes et des portables. Des engins pour les particuliers, les créatifs, les joueurs, les PME ou les grands groupes, il y aura probablement beaucoup moins de diversité.

Pour les professionnels, c’est également une assez mauvaise nouvelle. Beaucoup d’industriels qui utilisent des NUCs pour des raisons de compacité, de simplicité d’usage et de durée des gammes comme de leurs garanties vont être déçus. Quand on achète 60 à 100 machines par mois pour de l’intégration chez des clients, il est souvent préférable de choisir un produit qui sera stable. Des machines qui proposeront un support longue durée. C’est ce que les NUC offrent encore aujourd’hui avec une garantie poussée à 3 ans. Un détail qu’ils ne retrouveront pas forcément chez les concurrents. Lors de l’épisode de pénuries lié au COVID, j’ai vu des groupes habitués à acheter de NUCs perdre énormément de chiffre d’affaire à cause de l’indisponibilité chronique de certaines références.

Les boitiers créés sur-mesure pour les NUC par Akasa 

Est-ce que les autres acteurs qui dépendent des NUCs vont également y trouver leur compte ? Je pense notamment aux marques qui utilisent les cartes mères NUC pour vendre des MiniPC de leur cru. Soit dans des boitiers sur mesures et notamment des solutions fanless, soit dans des solutions à leur marque pour une clientèle très ciblée. Il est fort probable qu’il y ait pas mal de remous sur ces secteurs. Chez les différents revendeurs, l’annonce d’une fin de partie pour ces machines risque également d’avoir un certain impact tant que le sort de la division n’est pas clairement tracé.

Enfin, je pense aux équipes et aux différents contacts que j’ai pu avoir sur ce segment chez Intel. Je suppose que la majorité des acteurs vont trouver à se recaser soit chez le fondeur soit ailleurs mais c’est également une source d’incertitude pour nombre d’entre eux. 

2012-2022 : Intel fête 10 ans de NUC !

NUC : fin de partie pour les minimachines d’Intel © MiniMachines.net. 2023.

Trou d’air : les marques de MiniPC ont mal géré la fin des Celeron

Minimachines.net en partenariat avec IAMNUC.COM

Fin 2022, Intel annonce la fin de la commercialisation de ses gammes de Celeron et de Pentium. Une fin tout en douceur puisque les futurs remplaçants ne sont pas encore là. Il faudra attendre le début de l’année 2023 pour voir apparaitre les puces Alder Lake-N qui sont censées prendre la place des anciennes puces. 

Alder Lake-N promet beaucoup, en employant les cœurs Gracemont intégrés dans les Core classiques, Intel décide de monter les performances toute sa gamme d’un coup. Les Celeron sont dépassés, les Pentium sont battus et certains de ces nouveaux processeurs remplacent aisément des Core i3 entrée de gamme des générations précédentes. L’idée pour Intel est de monter l’offre, toute l’offre, d’un cran. Un tour de manivelle qui enclenchera un nouveau cliquet qu’il sera ensuite impossible à défaire. Les puces d’architecture Tremont comme les Celeron N4500 et N4505 en double cœur sont dépassés. Les N5095, N5100 et N5105 tombent également. Les Pentium Silver N6000 et N6005 sont un peu mieux lotis mais restent tout de même en retrait.

Les nouveaux Intel N100, N200 et Core I3 N300/N305 sont largement au dessus. Leurs TDP sont souvent comparables ou meilleurs. Ils sont mieux pourvus en capacités graphiques. Intel les castre d’une fonction importante en leur interdisant le double canal pour limiter leur bande passante… et éviter qu’ils ne viennent mordiller les performances de Core mobiles d’ancienne génération trop rapidement. Mais, malgré tout, il redéfinissent une nouvelle base de performances plus solide. Plus large, plus complète. Avec ces puces Alder Lake-N, Intel propose des PC « à tout faire » dans une enveloppe tarifaire très contenue. Ces engins ne seront pas capables de mener à bien des tâches exigeantes, de lancer un jeu 3D à la mode ou de vous calculer des choses très lourdes. Mais ils n’ont pas d’angle mort dans leur usage. On peut les conseiller à un utilisateur lambda qui en sera satisfait tant qu’il ne cherchera pas une spécialisation pour sa machine.

C’était la recette qu’il fallait pour Intel pour lutter contre les Ryzen entrée de gamme, les gammes mobiles d’AMD. Des produits plus chers mais plus performants qui proposaient une concurrence délicate pour le fondeur. Face à un Ryzen récent d’architecture Zen 2 ou Zen 3, les Celeron et Pentium ne faisaient clairement plus le poids. Avec les puces Alder Lake-N, Intel a une réponse. Une alternative. La marque peut proposer un processeur moins rapide mais tout à fait suffisant pour les usages visés. Et surtout moins chers.

Un boitier très original chez Nipogi

Et c’est le drame

Le monde des MiniPC est assez étroit. Vous l’aurez compris en lisant les pages du site régulièrement, nous croisons des machines absolument identiques depuis plusieurs générations. Mêmes boitiers, marques différentes et composants qui évoluent au gré des années. Le même châssis basique a pu abriter trois ou quatre générations de Celeron sous quinze marques de MiniPC différentes sans changer d’un poil.

Au centre de ce système, quelques grosses usines qui fabriquent pour tout le monde. Des assembleurs qui dessinent les plans des cartes mères, fourbissent des BIOS, cherchent les composants et construisent des engins suivant les besoins et le public visé par leurs clients. Des MiniPC de marques différentes sortent en bout de chaine avec des capacités de mémoire vive ou de stockage suivant la géographie de leurs ventes. Une Minimachine X sort en Asie avec 4 Go de mémoire et 128 Go de stockage, la même sous la marque Y est proposée en Europe en 8 Go et 256 Go. Une troisième version sans aucune marque, toujours absolument identique et fabriquée par la même usine sera proposée en 16 Go / 512 Go ailleurs. Les prix varient, les distributions correspondent au moment d’achat négocié avec les différents partenaires. Les sous marques limitent leurs dépenses au maximum en passant par des places de marché et tout cet écosystème fonctionne sans trop de soucis.

Un boitier très original chez Ace Magician

Et voilà que les puces Alder Lale-N viennent casser cette machine bien huilée. Alors que les fabricants ont encore en stock des milliers de Celeron de tout calibres, les Intel N95 et N100 débarquent. Ils sont accessibles, ils sont abordables, ils peuvent prendre la place des précédentes puces sans problème avec un TDP plus faible. En théorie c’est génial pour tout le monde mais que faire des précédents processeurs ? 

Un boitier très original chez Kamrui…

Plusieurs machines Celeron sont construites avec des prix cassés pour écouler les stocks. D’habitude cela ne pose aucun problème de faire cohabiter les générations et on voit depuis toujours sur ce marché noname différents types de processeurs. On peut ainsi croiser une puce Kaby Lake R de 2017 ou Coffee Lake de 2018 dans des PC de 2021 ou 2022 sans problèmes. Tout est possible si le fabricant propose l’option parce qu’il a négocié un lot de puces auprès d’un grossiste à un très bon prix. Les clients de ces engins sont en général peu regardant, le processeur est ancien mais il propose toujours un niveau de performances solide pour un usage basique. Il vaut parfois mieux un processeur Core un peu ancien qu’un Celeron plus récent d’un simple point de vue performances.

Mais avec l’arrivée d’Alder Lake-N c’est un véritable trou d’air. La gamme de puces fait mouche. Ses bonnes performances globales, son tarif, sa dépense énergétique, ses capacités graphiques… Tout est finalement plus intéressant que les précédents modèles. Alors que faire des anciens MiniPC sous Celeron ?

Les étagères de MiniPC Celeron ne se vident plus

Aujourd’hui, c’est devenu compliqué de continuer à proposer certains de ces MiniPC, difficile de vendre des machines construites avec les vieilles architectures. Les puces sont parfois plus chères, promettent moins, chauffent plus et proposent souvent moins de possibilités d’évolution. Et ce changement a fait mouche chez les utilisateurs finaux. Je ne sais pas si le site Minimachines en est responsable ou non mais de nombreux acheteurs ont rapidement compris que la nouvelle donne Intel était plus intéressante. Les tous premiers MiniPC sous Intel N100 se sont très bien vendus, mieux qu’anticipé. Et les stocks des modèles précédents ont fait du sur place. Les marques sont obligées de sacrifier leurs prix pour essayer de les écouler. Cela profite aux acheteurs finaux qui peuvent trouver certains de ces MiniPC à des prix très intéressants.

Le MiniPC JX1 tout en longueur

On a ainsi pu croiser en mai dernier un MiniPC JX1 sous Celeron N5105 en 8/256 Go avec une licence Windows 11 a moins de 130€. Un prix incroyable sur le moment qui a déclenché l’écriture d’un billet complet. Pour se rendre compte du Delta de ce prix, le même modèle sous une autre marque était alors encore proposé à 210€ au catalogue d’autres vendeurs. Une différence de 80€ sur un produit à ce niveau de tarif, c’était absolument énorme.

Le tout petit T-Bao T8 Plus ne mesure que 8.7 cm de côté pour 4 cm d’épaisseur

Deux petits mois sont passés. Deux petits mois seulement. Et on trouve désormais des minimachines sous Intel N100 plus performantes à… 7€ de plus que le JX1 ! Le T-Bao T8 Plus est proposé à 137€ avec toujours 8 Go de mémoire vive et 256 Go de stockage. Ce n’est pas la même machine d’un point de vue format et connectique mais c’est un engin plus rapide, plus efficace et moins gourmand en énergie. Le modèle 8/512 Go est positionné à 148.74€. Envie de plus de mémoire vive, comptez 164€ pour un modèle 16/512 Go… 

T-bao T8 Plus 8/256 Go sous Windows 11 est à 137€ avec le code 7H8VBHUB

T-bao T8 Plus 8/512 Go sous Windows 11 est à 148.74€ avec le code NNNFRSOLDET8PL 

T-bao T8 Plus 16/512 Go sous Windows 11 est à 164.16€ avec le code 7H8W0BJD 

T-bao T8 Plus 16 Go / 1 To sous Windows 11 est à 191.57€ avec le code 7H8WBY09

C’est incroyablement abordable, plus intéressant que de nombreux MiniPC sortis dans cette gamme par le passé. L’arrivée des Alder Lake-N, la conjoncture des prix de la mémoire et du stockage, nous permet de toucher du doigt des engins dont les prix n’ont jamais été aussi bas par rapport à leurs performances. Cela s’est d’ailleurs ressenti fortement en contraste de l’augmentation du prix des cartes de développement Raspberry Pi. De nombreux acheteurs ayant des projets de serveur domotique ou autres ont finalement décidé de basculer sur un MiniPC prêt à l’emploi plus accessible et moins cher que les solutions Raspberry Pi.

Et c’est un peu la panique chez certaines marques qui tentent désespérément de continuer à vendre leurs MiniPC Celeron comme elles peuvent. Certaines sont plus impactées que d’autres. Les marques qui ont peu de modèles se retrouvent avec des offres difficiles à assumer. Des solutions comme les MeLE, assez spécifiques, ont bien du mal à tirer leur épingle du jeu. Leur offre a été entièrement calibrée autour d’u processeur Celeron N5105 ou Celeron N4100 dans de petits boitiers fanless. Des puces ayant un TDP supérieur ou égal à l’offre Intel N100 qui pourrait largement prendre leur place si les stocks étaient vides. Une recherche sur le processeur N5105 sur Amazon nous montre l’étendue des stocks encore en place chez le marchand.

La réponse des marques noname commence donc à arriver et beaucoup de MiniPC sont apparus d’abord sous Intel N95 pour tâter le terrain et commencent à débarquer sous Intel N100. C’est une excellente nouvelle car cela suppose des engins abordables et efficaces pour les mois à venir.

Un niveau de performances suffisant pour tous

Le point à bien comprendre avec ces nouveaux processeurs Intel, c’est l’étendue de l’offre proposée. Un MiniPC sous Intel N100 ne promet rien de plus qu’un MiniPC sous Celeron du passé. Il ne permettra pas de lancer un jeu Triple A ou de faire le rendu d’un film de vacances en UltraHD rapidement. Ce n’est pas et ce ne sera jamais un processeur suffisamment calibré pour un usage professionnel exigeant. 

Mais il offrira par contre une expérience solide pour l’ensemble des usages du quotidien. De la navigation web à la lecture multimédia en UltraHD. De l’exploitation bureautique poussée à la retouche ou au développement photo de vos clichés de vacances. Du montage simple de vos films au lancement de jeux anciens ou peu gourmands, les nouvelles offres Alder Lake-R répondront de manière adaptée.

Quand je dis que ces puces n’ont pas d’angles morts, je parle avant tout de cet usage d’un PC multimédia familial classique. L’engin qui équipera aussi bien une chambre de collégien que le bureau où on fait sa comptabilité. Le poste que l’on glisse sous la télé pour streamer des films ou le PC qui servira tour à tour à des tâches administratives et la rédaction d’un devoir. Pour les tarifs demandés, ces minimachines sont parfaites.

Evidemment, les engins sous AMD Ryzen sont plus performants, et sont parfois proposés avec d’excellents prix également. Ils sauront mener à bien plus de tâches et offriront sans aucun doute de meilleures performances en jeu et surtout en 3D. Mais si cela n’est pas votre objectif, l’offre Alder Lake-R a de beaux jours devant elle.

Intel Alder Lake N100 : un premier test de performances en jeu

Trou d’air : les marques de MiniPC ont mal géré la fin des Celeron © MiniMachines.net. 2023.

La chute constante du prix des SSD redéfini leur usage

Minimachines.net en partenariat avec IAMNUC.COM

Moins de 25€ les 500 Go de stockage SSD NVMe de marque, sur le noname on atteint des prix encore plus étonnants avec moins de 33€ le Téraoctet en SATA 3… l’investissement nécessaire pour stocker des données a considérablement chuté. Tellement que choisir une autre solution parait aujourd’hui contre productif à moins d’avoir des usages particuliers.

Suite au billet présentant la carte graphique Asus RTX 4060 Ti avec un emplacement M.2 2280, j’ai eu pas mal d’échos quant aux scénarios d’usages actuels de nos unités de stockage. Beaucoup de retours concernant cette carte et les usages qu’elle apporterait pour  des utilisateurs. Parce qu’on se confronte à un problème assez paradoxal. D’un côté les prix des SSD ont formidablement chuté, de l’autre on manque de place pour en ajouter. 

Entre janvier et mars 2023 le prix du stockage SSD a chuté de 15 à 30% suivant les gammes et les modèles. Entre mars et la fin du mois dernier ces même tarifs ont encore dévissé de 25% sur les principales références de haute capacité. Les modèles les plus entrée de gamme ont évidemment moins baissé en tarif mais les solutions 1 To, 2 To et 4 To se sont complètement écroulées. Une baisse tellement importante que les chiffres d’affaire des sociétés qui fabriquent ces composants ont également largement chuté. On approche les -50% de revenus en moins au premier trimestre 2023 pour les  principaux fabricants de composants NAND.

23.40€ le SSD Crucial de 500 Go M.2 NVMe !

Il ne fait aucun doute pour moi que la situation ne va pas durer. Les tarifs vont forcément remonter à un moment ou à un autre. Parce que l’offre sera plus en tension, parce qu’un acteur va annoncer une nouvelle technologie ou qu’un autre va jeter l’éponge. La situation ne peut pas durer éternellement et il m’est avis que le marché va grimper quelque peu avant de se stabiliser à nouveau. Mais le prix des SSD ne va vraisemblablement pas retrouver le même niveau qu’auparavant et on se doute que les baisses continues depuis le début de l’année ne seront jamais rattrapées. Ce qui nous laissera avec des solutions de stockages très accessibles et, paradoxalement, très peu exploitables.

Une carte Asus à 233€ avec 2 ports M.2 2280 NVMe

Des cartes mère pensées pour un ou deux SSD

Je viens de faire un tour du côté des cartes mères grand public en format MicroATX et ATX et je constate que l’offre actuelle a évolué moins vite que les tarifs du stockage. L’entrée de gamme des cartes mères propose un port M.2 2280. Le milieu de gamme et la majorité du haut de gamme en ont deux et le très haut de gamme en propose trois. Sur l’ensemble de ces modèles à multiples ports M.2 2280, l’accès aux SSD n’est pas aisé. Il signifie souvent de devoir démonter sa carte graphique pour accéder au support.

Ces limitations techniques collaient parfaitement au moment où les SSD étaient vendus bien plus cher. Quand on se posait la question de quel montant allouer à ce poste pour ne pas trop faire exploser son budget. Quand on devait arbitrer entre mémoire vive, stockage et performances processeur. Mais la baisse constante des tarifs rebat totalement ces cartes.

Un SSD 2.5″ SATA de 2To de marque pour moins de 100€

Aujourd’hui un propriétaire de PC peut acheter un SSD de 1 To pour trois fois rien mais il ne peut pas l’exploiter. Il y a certes un ou deux ports M.2 sur sa carte mère mais ils sont en général déjà pleins. Souvent le SSD de base embarque le système d’exploitation, ce qui suppose un clonage ou une réinstallation. C’est étonnant de voir à quel point les deux marchés ne s’entendent pas, les fabricants de cartes mères n’ont évidemment pas eu le temps d’anticiper cette baisse. Des réactions comme celle d’Asus et de sa carte graphique montrent qu’ils pensent y faire face autrement.

Il y a certes la possibilité d’adjoindre une carte PCIe supplémentaire pour monter un ou plusieurs SSD dessus et ainsi profiter de cette manne mais c’est forcément moins pratique qu’un emplacement sur la carte mère. 

Je suis prêt à parier assez cher que les futures générations de cartes mères auront de nouvelles propositions pour du stockage. Des emplacements plus nombreux au dos des cartes mères. Des extensions livrées avec les cartes pour ajouter un ou deux SSD en plus en cas de besoin. Il devrait à terme exister des solutions assez proches de ce que l’on a connu avec le stockage mécanique quand il s’est écroulé. A savoir des possibilités de pouvoir changer de SSD M.2 facilement au travers de fonctionnalités intégrées au boitier. Un copain me disait que c’était finalement limite plus simple aujourd’hui de modifier le SSD d’un ordinateur portale que celui d’une tour. La faute à des emplacements souvent coincés sous les ports PCIe et en particulier celui employé par les cartes graphiques.

Est-ce qu’il faut craquer pour un SSD aujourd’hui ?

Si vous êtes toujours en stockage mécanique, la question ne se pose pas. Achetez un SSD 2.5″ SATA en remplacement de vos disques dur et installez votre système dessus. Ce sera le jour et la nuit d’un point de vue usages. Vous pourrez toujours employer le disque comme stockage secondaire ou dans un boitiers externe en USB.

Les différentes encoches des différents formats de SSD

Si vous avez déjà un SSD de taille modeste, je pense aux modèles de 64 à 128 Go pas particulièrement rapides sortis il y a quelques années et intégrés à différents portables, le changement peut être très intéressant. Troquer un SSD pas brillant pour un modèle de plus grande capacité est assez facile. Vous pouvez soit procéder à une réinstallation, soit cloner votre ancien SSD. Là encore il est possible de réemployer un ancien SSD dans une solution externe pour en faire une « grosse » clé USB. Il faudra faire attention aux compatibilités de votre machine afin de choisir la bonne norme de stockage : mSATA, SATA ou NVMe. L’épaisseur maximale du SSD est également importante puisque certains modèles sont coiffés d’un dissipateur qui ne rentrera pas forcément dans toutes les machines.

Toutes les longueurs cohabitent  également au sein des portables aujourd’hui : 80, 60, 43 ou 30 mm. Le format 110 mm reste cantonné à des usages de niche et ne se retrouve que dans de très rares cas. L’idéal est de trouver la documentation de votre machine, le guide de la carte mère pour une tour ou la doc de votre portable, afin de vérifier toutes les compatibilités. Si vous ne savez pas où chercher cette information, si vous ne la trouvez pas, regardez tout simplement la référence de votre SSD actuel et entrez là dans un moteur de recherche afin de connaitre le type de SSD que vous possédez.

Si vous avez déjà un SSD rapide et de bonne capacité, c’est souvent le cas avec les machines les plus récentes, l’achat d’un SSD peut avoir du sens dans quelques cas. D’abord évidemment si vous avez un emplacement vide pour les accueillir. Dépenser 25€ pour ajouter un stockage de 500 Go très rapide dans une tour ou un portable disposant d’un port M.2 non utilisé peut avoir beaucoup d’intérêt. Pour y glisser les rushes d’un film en cours de montage afin de fluidifier l’expérience. Pour y installer des programmes ou des jeux gourmands afin d’accélérer leur chargement. 

Sur les tours, il est également possible d’installer un stockage supplémentaire sur un port PCIe classique via une carte d’extension. Suivant les modèles le prix de cette carte varie entre 15 et 45€. Elle permettra d’ajouter un ou plusieurs SSD M.2 2280 et moins facilement dans votre PC. Cela peut être un bon calcul si vous êtes à l’étroit mais que vous n’avez plus d’autre solution d’extension.

Quelques modèles que j’ai pu tester :

Icy Box IB-PCI215M2-HSL : qui permet de monter 2 SSD M.2 2280 différents. Un premier en NVMe via le port PCIe de la carte mère et un second en SATA via un port SATA sur votre carte mère. La carte coute 17€.

Une carte Noname de chez noname qui permet de d’utiliser un SSD M.2 2280 et moins en NVMe sur un port PCIe à 14€. Un grand classique vendu sous 1000 références et qui fonctionne tout à fait correctement pour 14€. Cette solution peut s’intégrer sur des tours classiques ou des modèles Low-Profile. Je n’ai pas testé ce modèle spécifique mais un de ses clones.

Même topo pour cette carte NoName dont j’avais reçu un exemplaire d’un grossiste et qui est partie solutionner le problème d’un copain. Un peu plus chère à presque 50€, elle permet de monter jusqu’à 4 SSD M.2 NVMe et embarque des fonctions avancées. elle est livrée avec un dissipateur à positionner sur le SSD. Attention, les cartes mères doivent être compatibles avec ce type d’usage et les tours aérées en conséquences. Surtout si les SSD employés sont haut de gamme. Chez mon ami, sur une carte mère serveur, cela a demandé l’ajout d’une ventilation basse pour aider le système à gérer cet ajout.

Enfin le très classique port PCIe de chez Sabrent qui est pour moi une des meilleures solutions pour une tour. Parce qu’il ne prend pas trop de place, ne coûte pas trop cher, est livré avec un dissipateur et ne modifie pas les flux d’airs de votre tour. A 19€ pièce, il permet de monter un SSD M.2 NVMe 2280 et moins en un tournemain dans un boitier.

Beaucoup d’autres cartes sont disponibles, il y a énormément de choix et les technologies employées ne sont en général pas difficiles à maitriser. Il est rare de tomber sur un mauvais produit mais regardez quand même les mauvaises critiques, c’est en général des exceptions ou des cas qui expliquent les incompatibilités.

Anticiper un besoin futur au moment où les prix sont si bas a t-il du sens ? Difficile de répondre à cette question. Si on se doute que les tarifs repartiront à un moment à la hausse, il est également possible qu’ils poursuivent leur baisse encore quelques temps. Evidemment baisser de 10% sur un produit 25€ est moins impactant qu’une baisse de 45% sur un produit à 80€… Mais cela peut permettre de gagner encore un ou deux euros… Reste que le mouvement peut évidemment être inverse et le stockage repartir à la hausse. Acheter un SSD aujourd’hui plutôt que d’espérer un meilleur prix demain est donc surtout un choix à faire en fonction de vos besoins réels.

L’achat d’un SSD récent pour en faire une grosse clé de stockage USB peut ici avoir du sens. Si vous savez que vous allez en avoir besoin dans une machine future, cela permet de l’employer dès aujourd’hui en tant que stockage externe. Avec un boitier USB pour solution M.2 vous pouvez avoir un bon stockage de belle capacité qui revient finalement à un prix très concurrentiel. C’est également l’outil le plus simple pour pouvoir cloner un SSD de portable sur un nouveau.

Là encore il existe des dizaines de références sur le marché, avec des prix très variés. Des solutions sont en règle générale livrées avec des câbles USB Type-C vers USB Type-C et Type-A. 

Parmi les modèles que j’aime bien :

Ce boitier Orico basique a 25€ en moyenne fait le boulot même si il ne s’agit pas du modèle le plus esthétique du marché. Il accueillera un SSD NVMe M.2 jusqu’au 2280 en exploitant les débits USB 3.2. Ce type de modèle m’a été conseillé par un lecteur qui a solutionné avec lui son manque de capacité de stockage dans une solution multimédia. Il a tout simplement rerouté des ports USB vers l’intérieur du boitier et fixé ce type de boitier en interne pour ajouter deux SSD supplémentaires dans sa tour. 

Une version plus jolie existe, je suppose avec la même électronique mais dans un boitier plus sympa à 30€ environ. Tout dépend de l’usage que vous avez de ce type de « clé ».

Reçu également en test, un clone de ce boitier Ugreen à 33€ environ (actuellement en promo à -25% il est vendu moins cher que cela.). Ca « juste marche » comme disent les américains. Facile à monter, robuste, compatible M.2 NVMe et SATA en 2280 et moins. Cette grande compatibilité en fait une valeur sûre pour quasiment tout type de SSD. Ce modèle est par contre un peu moins discret que d’autres avec 12.6 cm de long pour 4.1 cm de large et 1.4 cm d’épaisseur. Il est rapidement tiède au toucher. Ce qui n’est pas une mauvaise chose, cela veut dire que la dissipation est bonne.

Dernier truc, si vous êtes un revendeur et que vous proposez des SSD, vous pouvez investir dans un boitier Orico qui sert au clonage facile et rapide des SSD NVMe. C’est un peu cher à 130€ mais c’est très pratique et cela évite d’avoir un PC dédié à cet usage et de devoir manipuler fastidieusement les éléments. Vous prenez le SSD source, le nouveau SSD de destination et lancez directement la procédure. Ce qui fait que vous pouvez proposer la prestation de clonage et vendre des SSD de plus grande capacité à vos clients. C’est un lecteur qui a du passer un parc entier de portables pro en stockages de plus haute capacité qui m’a conseillé ce produit.

Là encore il existe 1000 références à tous les tarifs disponibles si vous voulez choisir un modèle spécifique avec un design ou un usage adapté à vos besoins. 

Un disque dur Micropolis 1926 5.25″ de 2.6 Go en SCSI

Les habitudes de stockage doivent changer 

Au final, il faut bien se rendre compte qu’entre la baisse des prix du stockage SSD et l’augmentation des capacités de celui ci, l’approche que l’on a de ces produits doit évoluer dans les mentalités.

Impossible pour un constructeur de continuer à ne livrer qu’un seul emplacement M.2 2280 sur les cartes mères. Il faut désormais  en compter au moins deux. Lorsque vous choisirez un nouveau modèle vérifiez ce « détail » car il devient vraiment important. Il est possible d’en ajouter au dos des cartes ou, au moins, de livrer un petit adaptateur basique pour transformer un port PCIe inoccupé en stockage supplémentaire. Cela sous entend de câbler en conséquence ce port PCIe secondaire. 

Sur les portables, la place « perdue » peut servir à laisser un port M.2 libre. Ce n’est pas si gadget et pour ma part, j’indique toujours cette possibilité d’extension lorsque je parle des nouveautés. Ce type d’opportunité offerte à un client peut avoir beaucoup de sens et déclencher un achat par rapport à une machine qui sera coincée avec un seul emplacement occupé par le système. L’accès à ce port M.2 doit également être facilité.

Les utilisateurs ne doivent plus avoir peur de ce type d’investissement. Que ce soit pour un usage interne ou externe, les prix des SSD sont trop bas pour continuer à se limiter à des solutions en 128 ou 256 Go comme j’en croise encore beaucoup. Si votre système est coincé sur ce type de stockage, il ne reste au final que très peu d’espace à exploiter pour vos propres données. Le changement ou l’ajout d’un SSD de grande capacité change vraiment la donne. Il faut que je refasse un guide de clonage plus récent mais mon ancien billet à ce sujet donne les grandes lignes permettant de basculer d’un SSD à un autre

Est-ce le moment le plus optimal pour investir ? Je n’en sais rien. Mais une chose est sûre, il faut changer nos mentalités quant à notre approche du stockage.

La chute constante du prix des SSD redéfini leur usage © MiniMachines.net. 2023.

Meteor Lake : Intel détaille l’implantation et la gestion des IA

Minimachines.net en partenariat avec IAMNUC.COM

Intel a profité du Computex 2023 pour détailler les nouveautés intégrées dans son nouveau processeur Meteor Lake et en particulier le travail mené autour de son architecture de construction.  Cette puce sera la première à bénéficier de la collaboration entre Intel et le fondeur TSMC. Ce sera également la première puce de la marque à intégrer un circuit spécialisé dans le calcul d’IA.

Pour Intel, mettre un pied matériel dans l’IA et son accélération est important. Nvidia est devenu une star de ce poste avec un investissement constant depuis des années autour de ses cœurs CUDA. AMD a également intégré des moteurs dédiés à cet usage et Apple en fait un cheval de bataille. Pour Intel, c’est donc à la fois un rattrapage et une entrée au bon moment. Microsoft ayant à son tour annoncé le recours à des solutions d’IA au sein de ses produits. L’Intelligence Artificielle a revêtu un certain éclat depuis l’explosion des outils créatifs et tout le monde veut profiter un peu de sa lumière.

Beaucoup considèrent les outils génératifs à base d’IA comme un nouvel âge d’or de l’informatique, tout le monde veut donc proposer les outils les plus efficaces pour en profiter. Intel a donc détaillé un peu plus la manière dont les puces Meteor Lake offriront des outils à cette évolution.

Gravées avec le process Intel 4, les puces Meteor Lake mélangeront des composants issus de ses propres usines avec celles de TSMC. Les « Chiplets », ces éléments qui seront agglomérés entre eux sur la puce de base d’Intel, mélangeront ainsi les finesses de gravure. On retrouvera ainsi quatre éléments distincts avec un CPU, un GPU, une partie SoC/VPU1, une partie GNA 2 et la gestion des entrées et sorties. Tous ces éléments agglomérés verticalement en utilisant la technologie Foveros d’Intel. 

Intel a particulièrement insisté sur le VPU dont la fabrication a été confiée à TSMC avec son process N6. Dans cette nouvelle conception de ses puces, Intel peut donc varier les éléments et les agréger de manière très souple. Augmentant la part de l’un ou de l’autre au gré des besoins. Améliorant ainsi les capacités de calcul, la puissance graphique ou profitant d’une éventuelle évolution des processus de gravure sans affecter tout le design de sa puce. Une souplesse très intéressante pour adresser des puces particulièrement adaptées à certains usages.

 

Si on résume la puce Meteor Lake, c’est un millefeuille de compétences et de gravures. La partie CPU de Meteor Lake n’est pas confiée à TSMC mais reste sous la supervision d’Intel et de son processus Intel 4. L’interface Foveros qui fait la jonction entre le processeur et les chiplets est gravée en Intel 16. Tout le reste des composants assemblés par dessus le processeur est confié à TSMC avec des gravures légèrement différentes. Ainsi la partie graphique est en TSMC N5 et le SoC comme l’IOE sont en TSMC 6N. On imagine que l’objectif de cette conception est également de permettre à Intel de reprendre la gravure de l’ensemble des composants au fur et à mesure de sa montée en puissance en finesse de gravure.

D’un point de vue conception, le procédé est évidemment très pratique pour Intel. Le fondeur pourra faire évoluer ses puces avec beaucoup de souplesse. Besoin de plus de Cores, il sera possible d’agrandir cette partie. Un nouveau Core fait son apparition, il sera possible de l’additionner sur un design plus ancien ou de mixer deux architectures avec un Coeur performant et un Coeur Efficient comme c’est déjà le cas dans les puces Alder Lake.

Ce scénario se répète pour chaque composant. La partie graphique pourra également évoluer facilement soit en nombre d’unités soit en cache ou de génération. Idem pour la partie SoC qui pourra s’adapter aux différents besoins. Prendre en charge un format nouveau ou faire évoluer un protocole plus aisément.

L’ensemble de la puce Meteor Lake pourra profiter de la mémoire globale et ainsi redistribuer des données vers chacun des éléments assemblés. Ce qui veut dire que les différentes données pourront jongler d’un circuit à l’autre suivant les besoins et traitements. Comme c’est le cas chez AMD sur ses nouveaux Ryzen 7040 ou Apple avec ses puces Mx.

La partie VPU est au cœur de la stratégie IA d’Intel même si Meteor Lake comporte d’autres outils capables de mener à bien des tâches de ce type. Ainsi le CPU, le circuit graphique et le GNA pourront être mis à contribution suivant les tâches. La différence entre ces éléments et le VPU est liée aux différents traitements. Le CVPU sera particulièrement utile en tâche de fond. Invisible à l’utilisateur, pour tous les outils requérant une IA sans qu’on le remarque particulièrement. La partie graphique sera mise à contribution de manière plus visible, plus intensive, lorsque vous demanderez un rendu 3D ou le calcul d’une transition vidéo par exemple. Le processeur de calcul saura, quant à lui, réagir rapidement pour des besoins immédiats. Evidemment tout ce petit monde pourra travailler de concert, à condition que la partie logicielle les prenne en compte. 

Intel développe des éléments qui vont dans ce sens, pour que les développeurs puissent jongler avec l’ensemble de ces composants et faire de Meteor Lake – et des générations suivantes – une boite à outil adaptée aux différents besoins de leurs programmes. L’idée étant de proposer de manière très fine l’ensemble de ces besoins pour offrir le meilleur rendement possible au long cours. Il sera peut être plu utile de faire appel au VPU pour certains calculs pour ménager l’autonomie d’un portable quand on pourra au contraire profiter du CPU pour être plus rapide une fois branché sur secteur. Un ensemble de recettes et de scénarios doivent être mis en œuvre par Intel et les développeurs pour trouver les meilleurs arrangements.

Si aujourd’hui les puces d’Intel utilisent son GNA pour effectuer des tâches surtout orientée multimédia, c’est à dire la correction d’un bruit de fond dans une vidéo conférence ou la reconnaissance vocale pour les assistants personnels, certaines de ces tâches pourraient basculer vers le VPU pour plus de performances. A terme, le fondeur pourrait donc supprimer le GNA et tout basculer vers un VPU plus puissant. Meteor Lake hérite des deux technologies dans une logique de transition. 

Aujourd’hui, Meteor Lake est en fonction dans les laboratoires d’Intel. Les travaux d’optimisations sont en cours. Tant du point de vue pilotes que prise en charge des différents éléments pour les développeurs mais aussi pour proposer un rendement de fabrication efficace. Le calendrier annoncé prévoit toujours une commercialisation de ces puces en 2023.

Meteor Lake : Intel détaille l’implantation et la gestion des IA © MiniMachines.net. 2023.

Google Pixel Tablet : un pied en trompe-l’œil

Minimachines.net en partenariat avec IAMNUC.COM

La Google Pixel Tablet débarque dans un contexte un peu délicat pour Google. Non seulement ce marché est moribond, abandonné par de nombreux acteurs historiques, mais il est devenu difficile de conseiller une tablette Android au delà d’un certain tarif.

Si le budget d’un acheteur potentiel de tablette dépasse le prix d’un iPad, il est difficile de l’orienter vers autre chose. Plus puissantes, plus abouties logiciellement et ergonomiquement, les tablettes d’Apple sont loin devant les productions Android. Leur suivi logiciel est également sans commune mesure, ce qui en fait de bien meilleurs investissement à court, moyen et long terme.

Avec la Google Pixel Tablet, l’idée est d’inverser la tendance, de proposer un engin avec des fonctions inconnues sur iPad et de le positionner à la fois comme outil du quotidien nomade mais aussi comme un centre névralgique de toute la maison. 

Un dock pour se différencier

Premier point important de cette offre, elle comprend un dock aux avantages indéniables face à la concurrence. L’idée d’un réceptacle sur lequel on puisse appuyer sa tablette semble évident mais n’a été que très peu exploité par le passé. Ici Google le met en scène de manière intéressante car cela multiplie les usages de l’engin.

Sur son dock, la tablette se pose en outil domotique à tout faire. On pourra regarder un film, écouter de la musique et bien sûr recharger l’objet. En lui inventant une destination par défaut, un réceptacle de charge et de repos, la tablette quitte son rôle d’objet individuel pour se replacer dans un contexte d’usage partagé. Le dock joue non seulement le rôle de port d’attache mais lui donne du sens à l’usage. A l’intérieur du dock qui propose un arrimage magnétique, on retrouve une fonction de charge par connecteur POGO. Cela permettra de toujours retrouver une tablette autonome en cas de besoin sans avoir à penser spécialement à la connecter. 

La partie domotique est intéressante. Par défaut, la tablette, une fois posée sur son dock, proposera une interface domotique permettant d’exploiter ses appareils compatibles. Cameras, interrupteurs et autres outils connectés seront accessibles via un clic ou à la voix. Possible d’avoir un oeil sur une caméra intégrée à une sonnette en permanence ou de surveiller une chambre de bébé. Possible également d’allumer ou d’éteindre une lampe du bout du doigt en passant simplement la main sur la tablette. Mais si vous voulez que certains dispositifs soient plus protégés, comme un système d’alarme ou une caméra particulière, il faudra passer par une identification classique par code ou par empreinte digitale en exploitant un capteur situé sous l’écran. 

Ce pied cache également une solution audio complète pour proposer un environnement de qualité. Des enceintes plus larges proposant des médiums et des basses forcément plus profonds que ceux de la solution ultrafine qu’est cet écran portable. De quoi passer des appels mais également écouter de la musique, suivre une série ou jouer dans de bonnes conditions sonores. La reconnaissance vocale aidant, la Google Pixel Tablet est également intégrée dans ce dispositif comme un assistant personnel plus efficace et lisible.

Enfin, avec des fonctions de cadre photo numérique, cela sera un objet souvenir intéressant dans un lieu de vie. Une fonction Chromecast permettra en outre de partager facilement ses propres photos ou films à plusieurs personnes rapidement et facilement. Plus efficacement que sur un écran de smartphone avec une plus grande diagonale.

Cet ajout d’un dock est très intéressant sur la Google Pixel Tablet car il sort l’objet classique que l’on a en main de sa léthargie classique lors de sa recharge. Mieux, il met en scène de nouveaux usages. Tout en autorisant toutes les applications classiques d’Android. Il sera possible de lancer les jeux et outils classiques d’Android sur la tablette même lorsqu’elle sera arrimée sur le dock.

Une tablette de qualité

La partie écran de l’engin est tout aussi travaillée. Avec 25.8 cm de large pour 16.9 cm de haut, la Google Pixel Tablet ne mesure que 8 mm d’épaisseur. Elle propose un affichage de type IPS de 10.95 pouces en 2560 x 1600 pixels. Un ratio de 276 pixels par pouce qui proposera un affichage fin et agréable à l’usage. Assez pour suivre une vidéo très confortablement à l’écran ou afficher des pages web en hauteur de manière efficace.

Elle embarque un SoC Tensor G2 déjà présent dans les excellents smartphones Pixels 7 de la marque. Pour accompagner cette puce sous Android, on retrouve 8 Go de mémoire vive LPDDR5 et un stockage rapide, à la norme UFS 3.1, de 128 à 256 Go. Deux capteurs photo sont présents avec le choix de deux modules de 8 mégapixels en frontal comme au dos de l’engin. Des équipements suffisants pour offrir de quoi filmer en UltraHD à 60 images par seconde.

Le module réseau de la Google Pixel Tablet est un Wi-Fi6 associé à un Bluetooth 5.2. Du classique suffisant pour tous les usages de ce type d’engin et en particulier les mises à jour régulières de tout l’écosystème d’applications et de jeux.  Sur son dock, l’écran pourra donc être couplé à une manette, une télécommande ou un clavier pour de la prise de note plus facile. A noter que la tablette sera compatible avec les stylets à la norme USI 2.0 pour avoir une prise de notes manuscrites avec prise en compte des niveaux de pression. La batterie est une 27 Wh qui offre, d’après le fabricant, 12 heures d’usage en vidéo locale. Elle sera proposée en blanc, en gris et en rose. Aucune intégration NFC n’est prévue.

Une coque avec béquille protégera la tablette et permettra son usage nomade

Point important, Google assure une mise à jour longue de son suivi pour ce modèle. 5 années de mises à jour de sécurité sont garanties par la marque. De quoi rassurer quelque peu les utilisateurs échaudés par les abandons rapides des constructeurs de tablettes ces dernières années. C’est peut être ici une des raisons majeures du désamour du public pour les solutions Android et une des forces d’Apple. Les iPad sont bien mieux suivis dans la durée que leurs concurrentes chez Google. En assurant une durée de vie minimale de 5 ans niveau sécurité, Google se hisse tant bien que mal au niveau de son concurrent.

La Google Pixel Tablet démarre à 679€

Reste le problème du tarif de cette tablette. Vendue avec son dock elle est positionnée à 679€ en version 8/128 Go avec une livraison prévue pour le mois de juin. Un prix élevé face à la concurrence d’Apple qui promet tout de même beaucoup plus à l’usage. Sans dock, certes, mais avec un écosystème plus mûr, de vraies applications productives, des jeux plus aboutis et un univers globalement plus riche. 

Car si on enlève le côté assistant personnel proposé par le dock, la Google Pixel Tablet ne fera encore et toujours que proposer la même chose. Une majorité de jeux où on va vous forcer la main pour dépenser votre argent, des applications métier qui n’arrivent souvent pas à la cheville de ce que propose Apple en dessin, en montage vidéo, en création audio et autres travaux productifs.

En analysant froidement l’offre présentée ici, on n’a rien de plus qu’une jolie présentation des usages classiques de la tablette avec un dock qui pallie juste aux défauts récurrents du format. C’est très bien pour qui cherche le remplaçant d’une tablette en fin de vie sous Android mais c’est assez peu si on compare cela avec la richesse et l’étendue d’offres alternatives à Google. Que ce soit un engin classique sous Windows ou Linux ou une solution de la marque à la pomme, on aura plus d’usages que sous Android aujourd’hui.

Le principal problème d’Android reste toujours le même, ce n’est souvent qu’un système pensé pour devenir la vache à lait d’éditeurs aux maigres ambitions de développement1. Des jeux vus et revus qui ne sont proposés non pas pour distraire le public mais pour capter leur attention et leur argent. Des applications qui font tout en dessous de ce que proposent les systèmes concurrents.

Le prix demandé pour avoir finalement une tablette Android classique, avec ses limitations, son maigre catalogue de jeux intéressants et son univers applicatif très effacé, me parait trop élevé. Certes, on aura un joli dock avec des fonctions intéressantes mais cela reste loin d’être vraiment révolutionnaire. Une solution classique avec une enceinte connectée en Bluetooth et un support offrira finalement des fonctions assez similaires.

A 559€ on trouve des iPad de 11 pouces aux performances et au catalogue d’usages extraordinaires. Tant que l’écart ne sera pas comblé d’un point de vue logiciel entre les deux univers, je me vois mal conseiller un produit Android sur ce segment tarifaire à quelqu’un. Même avec un joli dock augmentant ses capacités et ses usages.

Le vrai enjeu n’est pas d’ajouter un gadget supplémentaire à cette offre mais bien à retrouver le véritable intérêt de ces outils. Etre une porte ouverte sur un univers d’applications efficaces au quotidien. Que ce soit pour jouer ou pour travailler, Android est peut être une des pires plateformes disponibles sur le marché et cela reste son principal handicap. Tant que ce fossé là ne sera pas comblé, il me parait difficile d’investir autant dans ce type de produit. Aussi séduisant soit-il.

 

Google Pixel Tablet : un pied en trompe-l’œil © MiniMachines.net. 2023.

AMD Ryzen 7040U : des processeurs rêvés pour nos minimachines

Minimachines.net en partenariat avec IAMNUC.COM

Dans l’avalanche des annonces du CES 2023 AMD proposait ses premières puces mobiles sous architecture Zen 4. La première salve s’est concentrée sur les puce Ryzen 7040HS. Aujourd’hui c’est au tour des AMD Ryzen 7040U d’être officialisés. Des solutions plus efficaces, basées sur la gravure 4 nanomètres de TSMC et fonctionnant avec une consommation très basse d’énergie. Des solutions parfaitement adaptées à un univers de minimachines.

Elaborés autour de la solution Phoenix d’AMD, les Ryzen 7040U sont un savant mélange entre l’architecture Zen 4 et le circuit graphique RDNA 3. Ils sont pensés pour des gamme mobiles, des ultraportables comme des portables classiques. Mais conviennent tout à fait à d’autres formules : MiniPC, All-In-One et ConsolePC compris. Tous les engins nécessitant un excellent ratio entre espace disponible et performances.

Quand les 7040HS visaient des portables assez haut de gamme, les nouveaux Ryzen 7040U vont chercher a conquérir un marché plus sage, moins onéreux à l’acquisition. Un marché d’utilisateurs qui se satisferont des performances du circuit graphique embarqué et qui ne courrons pas vers des cartes graphiques externes dont le prix s’est largement envolé. Avec un TDP oscillant entre 15 et 30 watts, ces nouveaux venus peuvent évoluer dans des châssis fins, des machines aussi légères que les nouvelles consoles, tout en offrant une excellente autonomie.

Ryzen 7040U : quatre processeurs sur la même partition

  Coeurs/Threads Fréquences  Circuit graphique Fréquence Cache L3  TDP XDNA
Ryzen 7 7840U 8/16 3.3 / 5.1 Radeon 780M (12CU) 2.7 GHz 16 Mo 15-30W Oui
Ryzen 5 7640U 6/12 3.5 / 4.9 Radeon 760M (8CU) 2.6 GHz 16 Mo 15-30W Oui
Ryzen 5 7540U 6/12 3.2 / 4.9 Radeon 740M (4CU) 2.5 GHz 16 Mo 15-30W Non
Ryzen 3 7440U 4/8 3.0 / 4.7 Radeon 740M (4CU) 2.5 GHz 8 Mo 15-30W Non

Avec simplement quatre puces, la gamme est malgré tout assez large en compétences puisqu’elle s’adresse à trois profils différents. Malgré tout la première chose notable est l’écart de performances entre les différents processeurs dans un même TDP. Que le Ryzen 3 7440U et le Ryzen 7 7840U soient si différents en compétences pour la même consommation en watts est étonnant. Le Ryzen 7 est largement survitaminé par rapport au Ryzen 3. On double le nombre de cœurs et de Threads ainsi que la mémoire cache. Les fréquences sont plus hautes et le nombre de Compute Units passe de de 4 à 12. Tout cela pour le même TDP oscillant entre 15 et 30 watts. C’est assez étonnant de voir un tel écart pour une même consommation.

Cela place cette série de puces Ryzen 7040U sur un entrée de gamme assez musclé finalement. Des engins qui se positionnent pour remplir un cahier des charges beaucoup plus vaste que ce que l’on a connu par le passé. Avec ces processeurs AMD relève la barre des capacités des engins entrée de gamme. Ceux qui gardent en tête des séries de machines tout justes capables de balbutier une informatique basique comme c’était le cas il y a encore quelques années avec les Athlons doivent oublier leurs idées reçues. Les PC équipés de ces Ryzen 7040U seront capables de tout, dans certaines limites.

Evidemment les puces quadruple cœurs avec quatre Compute Units n’apporteront pas la même expérience que les modèles huit cœurs avec 12 Compute Units. La consommation a beau être la même les usages des Ryzen 7 seront beaucoup plus vastes et complets. On ne retrouvera pas non plus les capacités d’une solution orientée jeu ou création graphique. Les engins sauront bien remplir des tâches complexes, créer des vidéos, en assurer le montage comme le rendu. Ils sauront piloter un travail bureautique complet et complexe. Lancer des jeux avec des graphismes rabotés en définition comme en détail. Afficher des films ultra haute définition , lire des musiques et aider à les composer. Ils sauront retoucher des photos haute définition gourmandes en ressources pour peu que vous les accompagnez de la mémoire suffisante. Ces engins sauront tout faire, pas avec la même dextérité qu’une machine plus puissante ou équipée d’un circuit graphique secondaire évidemment, mais dans des proportions qui ne limitent plus les usages.

Cela fait un paquet d’années que les utilisateurs de PC s’aperçoivent que leurs machines durent. Que logiciellement elles tiennent toujours la route et affichent suffisamment  de performances pour faire face à des besoins nés plusieurs générations de puces après elles. Ces puces AMD Phoenix offrent mieux, plus de performances de calcul pur et de capacités graphiques. Elles ajoutent au passage une petite touche de calcul spécialisé en AI grâce à une unité développée par Xilinx. AMD a racheté Xilinx en février 2022 et profite de ses capacités pour ajouter cette possibilité intéressante à ses nouvelles puces. Cette nouvelle architecture baptisée XDNA ne sera pas pour autant présente dans toute la gamme. Seuls les puces les plus évoluées en profiteront. Ces ajouts permettront de piloter des applications spécifiques d manière très performantes et sans mettre en jeu les capacités de calcul des cœurs Zen 4. Evidemment la présentation est sibylline et on n’a aucune idée de ce que représente en réalité le processeur en terme de gestion d’IA. Des tests seronot nécessaires.

AMD propose ici un couteau suisse qui change la donne en offrant non pas une pâle copie d’un « vrai » PC performant mais un outil complet. Un processeur qui ne se contente pas de faire « ce qu’il peut » en vous laissant sur votre faim mais une puce qui vaut son investissement. Qui permettra de tout faire plus que correctement sans devoir s’encombrer d’une grosse machine ni forcément flamber ses économies.

AMD annonce des performances assez impressionnantes en face d’un Core i7-1360P d’Intel. Son Ryzen 7 7840U s’en sort extrêmement bien d’après le constructeur qui le positionne toujours au dessus dans la majorité des usages. Que cela soit en terme de création, de surf ou de bureautique, la puce d’AMD est toujours largement devant.  Les tests plus synthétiques ou les usages spécialisés comme l’encodage de films lui valent les meilleurs scores.

Face aux puces Apple M2 le tableau est moins glorieux pour AMD. Surtout si l’on considère la puce d’Apple comme fonctionnant dans un TDP plus faible de 10 à 22 Watts. Les tests menés par AMD sont également sujet à quelques questionnements car on ne parle finalement pas vraiment de la même chose. Les systèmes étant différents, les services proposés le sont également. Afficher 172% de performances en « multiprocessing » face à Apple semble assez flou, voir trompeur par rapport aux usages réels et au ressenti des utilisateurs.

Attention cependant, cette comparaison ne vaut que pour le 7840U, la puce la plus musclée de la gamme. Les 7540U et 7440U moins bien équipés ne seront pas au même rendez-vous de performances. Un point a prendre en compte absolument pour analyser ce résultat est le tarif que demandera AMD face aux puces d’Intel.

La partie graphique du processeur est la plus mise en avant, le RDNA 3 de la série Radeon 700M est évidemment un atout particulièrement important dans l’exploitation de ces puces. Le nombre de Compute Units, les fréquences attentes et l’emploi conjoint d’une mémoire vive DDR5 ouvrent la porte à des usages réellement impressionnants en jeu. Il s’agit pour rappel d’un circuit graphique intégré aux processeur, un petit bout de silicium gravé à côté des cœurs de calcul classiques.

Le résultat proposé est impressionnant, ici avec le Radeon 780M du Ryzen 7 7870U on retrouve des valeurs qui permettent d’établir d’excellentes possibilités. AMD ne donne pas de nombre d’image par seconde pour les jeux testés mais uniquement leur positionnement par rapport à un Intel Core i7-1360P épaulé par son circuit Intel Iris Xe. Atteindre un certain pourcentage de performances en plus dans un jeu gourmand face à son rival ne signifie donc pas que le titre sera forcément jouable, juste qu’il sera largement mieux affiché que sur la puce du camp d’en face.

Par exemple, sur un Core i7-1360P épaulé par 16 Go de mémoire vive on peut faire tourner Cyberpunk 2077 à 22 images par seconde dans les mêmes conditions d’affichage qu’ici : 1920 x 1080 pixels avec des détails faibles. En prenant cet exemple on peut imaginer dépasser largement les 40 images par seconde avec le Ryzen 7 7840U dans le même jeu. Attention également à la manière dont est écrit ce tableau, il s’agit des meilleurs résultats obtenus. Si la machine affiche a 50% de mieux la majorité du temps mais passe de temps à autre à 150% c’est ce dernier point qui sera retenu. 

Autrement dit, il est probable que les résultats obtenus soient excellents, je suis déjà assez impressionné par le comportement de la puce d’Intel posée en challenger. Mais il conviendra tout de même d’attendre des tests poussés délivrant des résultats plus clairs. Enfin, si les notes sont flatteuses pour la puce la plus haut de gamme, il ne faudra pas non plus négliger les résultats des processeurs Ryzen 3 et Ryzen 5 qui pourraient également proposer des alternatives exploitables. A vrai dire, pour quelqu’un qui ne joue pas, le Ryzen 3 7440U peut être la plus intéressante a considérer. 

Reste quelques points cruciaux. Le premier est l’autonomie. Quel sera l’impact de ces processeurs sur les batteries. Evidemment le TDP annoncé nous donne une bonne idée de ce que les puces amputeront chaque heure sur les batteries. AMD promet une gestion affinée de la consommation des puces avec ce qu’il a baptisé le Smart Power Management. Là encore il faudra attendre les machines commerciales pour confronter les ambitions de la marque face à la réalité des chiffres d’autonomie. Cela sera un bon moyen de comparer les progrès faits par les Ryzen 7040U face à leurs prédécesseurs.

Autre point important, la gestion thermique des puces. Obtenir ces excellents résultats est évidemment une bonne chose mais il faut considérer ces écarts importants de performances entre les gammes Ryzen 7 et Ryzen 3 pour un même TDP. Deux manière d’appréhender ce problème. La première est optimiste en se disant que le modèle le plus puissant ne consomme pas plus que l’entrée de gamme. Mais en regardant les choses dans l’autre sens on est tenté de se dire que le Ryzen 3 aurait pu être, avec autant de cœurs et de capacités graphiques en moins, beaucoup moins gourmands. Comme l’occasion ratée d’un circuit capable d’alimenter une machines dénuée de ventilation active.

Enfin, il faudra considérer les tarifs de ces puces et leur disponibilité. Au vu du calendrier annoncé je ne suis franchement pas sûr que nous verrons des machines équipées de ces processeurs avant la rentrée de septembre. Je peux évidemment me tromper mais il me semble que la disponibilité ne devrait pas  être effective avant les vacances. Le pire moment pour sortir une machine dans l’année. La disponibilité au contraire pour le début septembre permettrait à AMD de placer des portables sous Ryzen 7040U comme des alternatives très efficaces pour un début d’année scolaire ou universitaire.

Dernier point, la porosité entre les marchés mobile et les MiniPC est de plus en plus efficace ces dernières années chez AMD. Il ne faut plus beaucoup de temps pour qu’un premier constructeur annonce un engin de bureau équipé des puces mobiles de la marque. L’arrivée du marché de la Console-PC a probablement encore un peu plus brouillé les pistes. Malheureusement les pionniers sur le terrain des minimachines de bureau ont souvent des prix assez élevés sur les nouvelles gammes. Marché plus étroit, contrats plus faibles avec AMD que les grands constructeurs, leurs prix d’achats sont probablement beaucoup moins bons. Je ne pense pas que nous trouvions de MiniPC sous Ryzen 7040U avant la fin de l’année au mieux et probablement même 2024.

AMD Ryzen 7040U : des processeurs rêvés pour nos minimachines © MiniMachines.net. 2023.

Meteor Lake : la 14e Gen d’Intel serait prête pour 2023

Minimachines.net en partenariat avec IAMNUC.COM

Avec Meteor Lake, Intel fait beaucoup de promesses pour le futur. Autant à ses actionnaires qu’au grand public. Pat Gelsinger a fait un bilan de l’avancée de cette 14e génération du puces Intel Core qui devrait être prête à la commercialisation d’ici la fin de l’année.

Après des générations de processeurs stagnants dans un confortable immobilisme de leader incontesté sur le marché grand public et serveur, Intel s’est retrouvé dans une situation assez difficile quand AMD a lancé ses gammes Ryzen. Après quelques trimestres sans beaucoup de réactions, Intel s’est rendu compte qu’il était temps de se remettre en ordre de bataille. Depuis la nomination de Pat Gelsinger en 2021 à sa tête, le fondeur a retroussé ses manches pour répondre à cette féroce concurrence.  Et il n’a pas chômé. Si la treizième génération de processeurs Core a été lancée en début d’année, la quatorzième pourrait être prête  à la fin de l’année. Avec de nombreux bouleversements technologiques à bord.

Meteor Lake signe l’arrivée d’une gravure 7 nanomètres chez Intel

Un nouveau processus de gravure est en phase de production pour le fondeur, il s’agit d’Intel 4. Comme annoncé par la marque, le 10 nanomètre en place depuis quelques générations doit céder la place à ce nouveau système de gravure en 7 nanomètres. Cela fait partie d’un plan à long terme ambitionné par le fondeur pour retrouver le leadership en la matière. Un plan qui conduirait finalement Intel vers du 1.8 nanomètre pour… 2024.

Actuellement les puces Raptor Lake, sorties en début d’année, sont gravées en 10 nanomètres sous l’appellation Intel 7. Un raffinement des générations 10 nanomètres précédentes améliorant performances et consommation. Intel 4 est donc un coup d’accélérateur pour tenter de recoller avec les annonces de son principal concurrent en matière de gravure de silicium : TSMC. Point important, Intel s’est en fait associé à TSMC pour mener à bien cette opération.

Le fondeur taïwanais et concurrent de toujours d’Intel profite de la nouvelle approche du géant américain qui consiste à assembler des puces avec la technologie Foveros. L’idée est assez simple, imaginez un processeur construit comme une maquette et qui combinerait des éléments en provenance de plusieurs sources. Certaines pièces seraient fabriquées par Intel, d’autres par TSMC. Le tout en suivant un plan général dessiné par Intel pour former un seul processeur. L’ensemble, une fois monté, proposerait une puce unique. Sur Meteor Lake, TSMC serait en charge de certains éléments en proposant une gravure de 5 à 6 nanomètres.

La jonction des différents éléments se ferait sur une base construite par Intel en 7 nanomètres grâce à sa technologie Intel 4. L’assemblage du tout emploierait la solution Foveros qui permettra d’ajouter, par exemple, un circuit graphique gravé en 5 nanomètres par TSMC à cette base. D’autres éléments, baptisés chiplets, pouvant s’associer à cette base pour construire la machine finale. Le tout profitant des technologies de chacun. Intel assurant de son côté une gravure d’une densité très importante grâce à de multiples technologies permettant d’optimiser ses processus. TSMC mettant en avant de l’autre côté sa capacité à produire en masse des éléments à des finesses inégalées. Cette technologie qui rappelle les SoC d’ARM, permettra à Intel de continuer son plan amorcé avec ses processeurs actuels mélangeant des cœurs Performance et des cœurs Efficients.

La difficulté de cette technologie Foveros étant de faire cohabiter parfaitement l’ensemble des composants dans une production industrielle de masse. Durant leur phase de production comme dans leur assemblage, construire de nouveaux processeurs de ce type demande évidemment beaucoup de réglages. Entrer dans une production commerciale, à savoir produire des milliers de wafers chaque jour, demande à apprivoiser des technologies très complexes. Ce qu’annonce aujourd’hui Intel par la voie de son PDG est l’accélération de cette production. Intel 4 fonctionne, Meteor Lake est donc largement sorti des laboratoires de recherche et développement et le calendrier prévu pour cette fin d’année 2023 serait donc tenu.

Une production en 2023 et une commercialisation en 2024 ?

La commercialisation début 2024 semble donc plausible. Intel aura laissé un an à Raptor Lake pour exister tout en préparant une sortie commerciale classique annoncée lors du CES 2024 pour la 14e Gen. C’est  en tout cas un moment important pour le fondeur car cela semble indispensable sur bien des secteurs. Apporter plus de performances à ses puces pour rivaliser face à un AMD toujours en plein forme avec ses ZEN et son circuit RDNA semble indispensable. Sur le segment serveur, la marque a également fort à faire en ce moment.

Foveros et Meteor Lake semblent être des réponses particulièrement intéressantes pour le marché en attendant la suite avec Lunar Lake et des gravures encore plus fines. C’est pour Intel un moyen de répondre de plus en plus finement aux besoins de ses clients. Sur une base identique, Intel serait capable d’associer des chiplets différents pour répondre aux cahiers des charges des constructeurs. Une puce avec uniquement des cœurs Efficients ? Ou une solution avec un cœur super performant, d’autres moins rapides et encore d’autres plus économes comme le font les puces ARM. Des solutions permettant de maximiser la partie graphique ou, au contraire de l’économiser. A un moment où AMD semble proposer de plus en plus de puces sur-mesure comme on a pu le voir de manière très claire avec les puces Phoenix 2 et sur le marché console, cela répondrait à de nouvelles attentes du marché.

Enfin, puisque Intel a décidé d’ouvrir les portes de ses usines à d’autres marques avec l’Intel Foundry Services, l’arrivée de ce type de technologie lui permettrait de capturer de nouveaux marchés. En comptant sur ses compétences en gravure bien sûr, mais aussi sur ses technologies puisque les solutions RibbonFET et PowerVIA sont également au menu de l’année 2024. Intel aurait donc beaucoup d’atouts à faire valoir d’ici peu. 

Source : Tom’s Hardware

Meteor Lake : la 14e Gen d’Intel serait prête pour 2023 © MiniMachines.net. 2023.

Asus ROG Ally : présentation officielle et AMD Ryzen Z1

Minimachines.net en partenariat avec IAMNUC.COM

Présentée comme une blague, la Asus ROG Ally s’est avéré être une affaire très sérieuse pour Asus. Concurrente directe des Steam Deck de Valve et de la petite galaxie de machines du même genre distribuées par des marques plus confidentielles, c’est la première solution lancée par une marque historique du marché du jeu PC.

Depuis son annonce non officielle ce premier avril, Asus a confirmé que la Asus ROG Ally était non seulement un projet très sérieux mais qu’elle était en plus la première pierre d’une toute nouvelle catégorie de machines chez le constructeur. Beaucoup d’éléments ont déjà fuité en ligne, au fil des jours et des présentations effectuées par la marque à la presse et à ses partenaires. Depuis des jours je ronge mon frein pour parler de la console, ayant signé un embargo m’interdisant de publier les informations qu’Asus a communiqué depuis. Désormais c’est le grand jour et il est temps de faire le point sur cet objet.

Avec la ROG Ally, Asus tire le premier

Asus a toujours été un pionnier en terme d’informatique personnelle. La marque a inventé beaucoup de choses sur ce segment et en a fait sa marque de fabrique. Ca a été un des précurseur de l’informatique personnelle PC avec le développement de cartes mères très efficaces et abordables au début des Intel 486. Ca a été également la marque qui a inventé des concepts comme le netbook, les machines transformables avec écran détachable et bien d’autres choses encore au fil des ans. Asus a également été un des pionnier du marché du jeu PC en créant une gamme de machines dédiée.

Voir le constructeur se positionner sur le segment de la console PC en premier parmi les grands noms du marché n’est donc pas si étrange. C’est sa marque de fabrique et c’est également une opportunité intéressante pour tirer vers lui une large part de l’intérêt que provoque cette nouvelle catégorie de produits. Pour sa marque Republic Of Gamer, qui donne les initiales ROG à la console Ally, c’est également une excellente publicité. Si l’offre fait mouche, si le public suit Asus dans cette aventure. Cela fera du Taiwanais le leader de cette nouvelle aventure de machines de jeu ultramobile  sous Windows 11. Si le public ne suit pas cela poussera quelques projecteurs supplémentaires sur Asus. Dans tous les cas le calcul est bon.

Une console qui promet beaucoup, a commencer par d’excellentes performances

Construire un engin comme la ROG Ally doit être un sacré casse tête. L’aide d’AMD n’a pas été de trop pour y parvenir. Un processeur baptisé Ryzen Z1 a été créé sur mesures pour devenir le moteur des futures consoles portables haut de gamme. AMD le présente avec un pluriel en parlant de plusieurs consoles. Ce qu’il est important de noter. Le Ryzen Z1 est bien une puce développée pour cette catégorie de produits et cela suppose donc que d’autres acteurs sont attendus au tournant autour de ce type d’offres.

Il s’agit d’une solution construite autour d’une architecture AMD Zen 4, gravée en 4 nanomètres et épaulée par un circuit graphique AMD Radeon 780M RDNA 3. Beaucoup de spéculations existaient autour de cette puce et un des élément récurrent qui revenait régulièrement indiquait qu’il s’agissait d’un dérivé plus ou moins modifié du Ryzen 7 7840U. C’est effectivement le cas. La puce devrait être proposée en deux versions. D’abord une très proche du Ryzen 7 7840U et baptisée Ryzen Z1 Extreme avec 8 cœurs et 16 threads dans des fréquences allant de 3.3 à 5.1 GHz avec 12 CU RDNA3. Mais elle devrait également être proposée en Ryzen Z1 plus classique avec 6 cœurs et 12 Threads dans des fréquences allant de 3.2 à 4.9 Ghz et seulement 4 CU RDNA3.  Les deux puces fonctionneront dans une enveloppe thermique encore inconnue mais qui devrait être située entre 15 et 30 watts.

  Architecture Coeurs / Threads Fréquences GPU Compute Units Cache TDP
Ryzen Z1 Extreme Zen 4 8 / 16 3.3 à 5.1 GHz RDNA 3 12 24 Mo 15 – 30W
Ryzen Z1 Zen 4 6 /12 3.2 à 4.9 GHz RDNA 3 4 22 Mo 15 – 30W

Cette puce Ryzen Z1 est sans aucun doute l’élément central de la console. Un composant sans lequel ce type de produit ne pourrait pas vraiment exister. Il a fallu à AMD beaucoup de temps et d’efforts pour proposer un processeur ayant cette maturité technique. Un savant mélange entre performances et consommation. Et on peut dire que le concurrent d’Intel revient de loin puisqu’il y a quelques années encore, aucune offre de ce type n’existait sur le marché. AMD s’étant concentré sur l’offre de bureau plus classique et les processeurs mobiles plus gourmands pour revenir sur le devant de la scène. Aujourd’hui, avec ces puces, la Asus ROG Ally promet une jouabilité exemplaire à des titres majeurs de ces dernières années. Des jeux exigeants en calcul avec des effets que l’on ne pouvait espérer normalement que sur des portables de jeu bien plus encombrants. Avec un peu de recul c’est assez extraordinaire de comparer les portables de jeu d’il y a seulement 10 ans avec ce que propose cette console aujourd’hui.

C’est également grâce à cette puce que la ROG Ally propose un affichage en FullHD. Ce qui laissera beaucoup de choix à l’utilisateur : on pourra jouer dans un 1920 x 1080 pixels natif plus gourmand en terme de batterie. Ou, au besoin, on pourra lancer le même jeu en 720p pour un usage moins exigeant avec de meilleures performances et une meilleure autonomie. Enfin, il sera possible de compter sur le FSR d’AMD pour étendre l’affichage en FullHD à partir d’un rendu HD pour profiter du meilleur des deux possibilités.

Plusieurs titres majeurs sont annoncés comme compatibles, du moins avec le Ryzen Z1 Extreme. De Cyberpunk 2077, connu pour son exigence graphique, à Battlefield 2042 en passant par Monster Hunter Rise ou le récent Hogwarts Legacy.  Tous ces jeux qui demandent des ressources importantes sont annoncés comme jouables sur la  console. Tous ces développements techniques sont autant de garantie d’ouverture sur des rayons d’un énorme catalogue de jeux moins gourmands ou plus anciens qui seront également être à la portée de la minimachine d’Asus.

Fifa 23, NBA 2K3, Street Fighter V, It Takes Two ou Overcooked 2 sont également des jeux évoqués. Il s’agit d’un autre genre de titres pour lequel la console montre un autre aspect de sa personnalité. Ces jeux sont multijoueur et on peut y jouer ensemble de manière collaborative ou s’y affronter par machines interposées. La proposition de la ROG Ally sera ici assez simple, pendant qu’un joueur sera assis devant son PC classique, un autre pourra l’affronter – ou l’aider- en étant simplement assis sur un canapé, console en main, dans la même pièce. 

Je ne pense pas qu’il soit très opportun de comparer la solution Ryzen Z1 à la puce Aerith créée par AMD pour Valve et son Steam Deck. Evidemment la nouvelle solution sera plus rapide. Mais elle sera également plus chère et ne s’adressera pas à la même clientèle. Les générations ne sont pas les mêmes et surtout l’objectif des deux puces est très différent. Mais on peut tout de même mesurer la distance incroyable qui sépare les deux offres. La solution employée par Valve est une architecture Zen 2 avec moins de cœurs et de threads et un circuit graphique RDNA 2. Une puce parfaite pour l’objectif fixé, créer une console PC plus abordable autour d’un système d’exploitation beaucoup moins généraliste que Windows. Mais une puce qui montre également l’étendue du travail mené par AMD sur ce segment.

La mémoire vive embarquée dans la console grimpera à 16 Go de LPDDR5-4800 en double canal. Soudé à la carte mère il ne sera pas extensible. Un montant suffisant pour les usages recherchés et un impact probable sur le tarif global de la machine au vu du prix encore élevé de la DDR5. Passer à 32 Go n’aurait pas vraiment de sens sur un engin de ce type, le multitâche n’est pas vraiment dans les objectifs de ce type de produit. 8 Go semblait par contre bien trop peu puisque la partie graphique du processeur Radeon vient piocher dans la mémoire système pour afficher des données. Ce choix de 16 Go de DDR5 offrira assez de souffle au système et aux composants. et une bande passante adaptée?

Le stockage est confié à une solution NVMe PCIe 4.0 X4 de 512 Go dans un format M.2 2230. Une unité de stockage très rapide et suffisante pour embarquer un système d’exploitation comme Windows 11 sans être gêné. La gourmandise en espace des jeux les plus récents nécessite ce type de stockage pour être confortable mais pour pallier à d’autres besoins ou pour lancer des jeux moins exigeants il sera également possible de compter sur un lecteur de cartes MicroSDXC haut de gamme. Asus a en effet choisi un modèle compatible avec le format UHS-III qui vous garantira non seulement une compatibilité avec les cartes mémoire de très grandes capacités mais également de pouvoir offrir des débits de 312 Mo/s. Les comparatifs fournis par la marque montrent des différences très limitées entre le chargement d’un jeu sur son SSD et sur une care MicroSDXC rapide. Cyberpunk 2077 met ainsi 26.86 secondes a être lancé sur le SSD et 27.92 secondes sur la carte SDXC. Pour le jeu Control on passe de 33.05 à 34.52 secondes. Avec de tels résultats on peut très bien imaginer acquérir une carte MicroSDXC rapide de 512 Go et y loger quantité de jeux sans problèmes.

Cet ensemble processeur, mémoire et stockage devraient offrir à la ROG Ally les performances nécessaires pour se comporter comme une excellente solution technique pour le jeu en 720 et 1080p. On ne sera évidemment pas au niveau des solutions les plus abouties du marché PC mais ce n’est clairement pas l’objectif visé. Il me parait important de conserver toujours à l’esprit les éléments indispensables situés autour de cette proposition de base. La ROG Ally ne peut pas être ni trop chère, ni trop lourde, ni trop chaude et encore moins bruyante ou peu autonome. Gonfler ses statistiques avec d’autres composants techniques aurait un impact d’une manière ou d’une autre sur la recette. La solution proposée ici n’est peut être pas parfaite mais elle est très cohérente. Comme pour la solution Steam Deck à une moindre échelle, il s’agit d’une proposition homogène techniquement parlant.

Cet ensemble pilotera l’affichage de la console, une dalle de 7 pouces tactile capacitive en 1920 par 1080 pixels dans un format 16/9. De type IPS, cet écran promet beaucoup de choses. A commencer par un traitement anti reflet DXC de Corning et une protection Gorilla Glass Victus pour résister aux rayures. La dalle est annoncée comme ayant un contraste de 1000:1, des angles de 178°, une luminosité de 500 cd/m² t une colorimétrie travaillée avec une couverture à 100% de l’espace sRGB. Enfin, la réactivité de la dalle serait exemplaire pour ce type de machine avec un temps de réponse gris à gros de 7 ms. Bref tout ce qu’il faut pour apporter satisfaction à un joueur sur ce type d’engin très mobile.

Asus met également en avant son extension de boitier externe XG Mobile qui permettra de profiter d’un circuit graphique très haut de gamme pouvant aller jusqu’à la Nvidia GeForce RTX 4090. Mais évidemment ce dispositif ne sera alors plus mobile.

Rog Ally : des efforts techniques indéniables

Pour rendre la console confortable, beaucoup de chantiers ont du être menés. Pour proposer un engin autonome, agréable à la manipulation, peu bruyant et ergonomique Asus a du  énormément travailler. Si on ne connait l’existence de la ROG Ally que depuis le début de ce mois d’avril, le chantier a du débuter il y a un bon moment chez le constructeur. La marque a ainsi présenté des dizaines et des dizaines de prototypes réalisés dans ses laboratoires de recherche et développement maison. Preuve d’un travail de longue haleine qui a du débuter il y a fort longtemps. Asus indique travailler sur ce projet depuis 5 ans maintenant.

La partie technique du refroidissement a été mise au point avec beaucoup de soin. Cela passe par l’emploi de plusieurs éléments techniques intéressants. Il y a d’abord un système de caloduc pensé pour pouvoir fonctionner dans toutes les positions. Cela a l’air anecdotique mais le principe de ce type de refroidissement qui joue sur les propriétés d’un fluide caloporteur est compliqué avec un appareil de ce type. Que l’on tienne la console de manière classique, posée sur une table ou les bras en l’air en étant allongé sur son lit, la ROG Ally doit toujours mener sa tâche de refroidissement à bien.

Pour pallier à ce problème, Asus a mis en place un système de deux caloducs qui jouent aux vases communicants. La chaleur évapore le fluide comme d’habitude mais que l’on tienne sa console dans n’importe quel sens et cet échange sera assuré par une communication des fluides entre deux tubes. Imaginez un briquet à gaz comme celui ci-dessus avec une ouverture en haut comme en bas pour que le liquide et le gaz puissent circuler. De telle sorte que si vous tenez le briquet à l’horizontale et que l’un des tube est entièrement rempli de liquide, l’autre chambre sera vide et permettra l’échange qui refroidira le système avant de se condenser et de redevenir liquide. Si vous retournez le briquet à la verticale ce sera le bas des deux tubes qui seront pleins et la partie haute assurera l’échange thermique et la condensation en circuit fermé. Le dispositif peut ainsi fonctionner quelque soit sa position.

Ce système de base est doublé. Deux caloducs conduisent la chaleur de la puce Ryzen Z1 vers deux groupes d’ailettes placés de part et d’autre de la partie supérieure de la console. Des ventilateurs aspirent de l’air frais de derrière la ROG Ally pour le faire circuler au travers des ailettes et ainsi conclure l’échange thermique. Une construction classique du monde portable ici condensée de manière impressionnante dans un si petit objet. Pour rappel la console mesure 28 cm de large pour 11.3 cm de profondeur et 3.9 cm d’épaisseur à son point le plus épais.

Le résultat de cet investissement dans un refroidissement complexe est double. D’abord la machine ne semble pas chauffer outre mesure. On n’a presque aucune concentration de chaleur dans la console. La circulation d’air est telle que mis à part une petite zone en haut de la console qui reste très logiquement plus chaude, l’ensemble de la ROG Ally est très confortable en main. L’autre point clé est dans le bruit généré. Avec un dispositif qui, en maintenant constamment une température toujours très faible, n’a pas besoin de monter dans les tours. Asus promet une console dont la nuisance sonore de dépassera pas les 20 décibels.

Puisque l’engin est très portable, qu’il sera vraisemblablement trimballé dans un sac ou dans une poche, Asus a intégré tout un système de filtrage pour empêcher d’encrasser les ventilateurs. Les ailettes de refroidissement en aluminium sont également travaillées pour éviter de laisser passer les poussières.

Autre poste important sur ce dispositif, l’ergonomie. Asus s’st clairement inspiré du design des manettes XBox pour sa consolePC. On retrouve le double mini joystick dans sa diagonale habituelle. Une petite croix directionnelle à gauche et les boutons XYAB à droite. On note par ailleurs les quatre gâchettes sur les épaules de la machine pour une prise en main très classique. 

Moins classique, à l’arrière de l’engin, deux boutons « macro » permettant de piloter des actions programmées à votre goût. Dans les jeux vous pourrez indiquer des actions supplémentaires a effectuer avec ces boutons. Dans l’interface de la console elles pourront servir à d’autres tâches. Un retour haptique sera bien entendu présent pour signaler des éléments de jeu et des éléments de réglage précis permettront d’optimiser les contrôles des joysticks comme des gâchettes jeu par jeu, de manière très précise. Les moteurs de vibration par exemple, seront réglables de manière séparée à droite et à gauche pour des retours différents.

L’ensemble de la coque a été travaillée pour rester confortable. Certains éléments ont été optimisés au gramme près pour réduire le poids global de l’engin à 604 grammes. Des textures sont prévues pour être agréables et offrir une bonne accroche. Un élément indispensable pour éviter de laisser tomber la console. Les angles se veulent ergonomiques  pour faciliter un contrôle confortable dans la durée.

Deux petites enceintes sont placées en face du joueur, juste sur les côtés de l’écran de manière a délivrer un son plus direct, plus riche et moins étouffé. Asus promet un son spatialisé 5.1 avec une compatibilité Dolby Atmos. J’avoue que j’ai un peu de mal a y croire, l’espace rapproché des deux enceinte n’offrant pas beaucoup d’espace pour créer un environnement propice à un son global de ce type. Mais on n’est pas à l’abri de bonnes surprises, certaines petites tablettes ont par exemple réussi ce tour de force par le passé. Autre détail technique, la présence d’un port USB Type-C avec DisplayPort 1.4, charge et transport de données. Un port Jack audio combo 3.5 mm et l’ajout d’un lecteur d’empreintes pour s’identifier sous Windows 11 complètent cet équipement. 

Pas de sortie vidéo ? Mis à part le port USB Type-C confondu avec le connecteur propriétaire du Dock XG Mobile mais parfaitement exploitable avec un câble USB Type-C classique, il n’y a pas de sortie vidéo intégrée à la console. Asus propose une alternative intéressante avec un chargeur qui remplit cet usage. L’idée de base est de ce dire qu’on n’alimentera pas un écran externe avec sa ConsolePC en mobilité. Qui dit écran externe dit fil à la patte et donc usage sédentaire. L’idée d’Asus est donc de proposer un port HDMI sur le chargeur de la ROG Ally. Pour alimenter la console on branchera le petit adaptateur sur une prise électrique puis un câble USB Type-C de celui-ci à la console. Pourquoi ne pas profiter de ce câble pour faire transiter le signal vidéo jusqu’au chargeur ? Ainsi on retrouvera sur le petit bloc une prise HDMI 2.0 et une prise USB 2.0 pour brancher, par exemple, un ensemble clavier et souris. La Asus ROG Ally proposera également une connexion Wi-Fi6E et du Bluetooth 5.2.

Quel avenir pour la console ROG Ally ?

Asus prépare donc une petite bombe avec cette console. La marque a annoncé des partenariats, elle « offrira » des accès au GamePass de Microsoft à son lancement, proposera des accessoires variés et peaufine une offre logicielle complète avec une version sur mesures de son logiciel Armoury Crate SE. Une suite logicielle qui permettra de piloter tous ses jeux dans toutes les bibliothèques disponibles : Steam, Epic, Ubisoft, Gog et autres. Le tout sous une interface qui épaulera l’usage du Windows 11 livré.

Il reste encore des inconnues autour de cette solution. On ne connait pas son autonomie par exemple. Pas plus qu’on ne connait son tarif ou sa date de sortie. Asus a évoqué un prix sous les 1000$ pour la console ce qui est assez… large. D’autant qu’on ne sait pas si la marque parle de la version Ryzen Z1 ou Ryzen Z1 Extreme.

Une certitude reste néanmoins, le constructeur s’est énormément engagé dans ce dispositif et la marque ne devrait pas  se contenter de cet essai. Asus a tout intérêt a développer son offre, a l’étoffer dans le futur et peut être, après cette sortie pour le moment exceptionnelle, à la décliner vers des solutions plus sobres et accessibles. L’arrivée du Ryzen Z1 signe également le départ de ces offres et je ne serais pas surpris de voir des modèles concurrents débarquer sur le créneau à l’avenir. Chez les « petits » acteurs classiques de ce marché mais également chez des constructeurs internationaux.

Asus ROG Ally : présentation officielle et AMD Ryzen Z1 © MiniMachines.net. 2023.

INTEL 18A : l’alliance d’ARM et Intel pour graver tout en finesse

Minimachines.net en partenariat avec IAMNUC.COM

Ceux qui sont restés sur un Intel vivant comme un gros dragon vautré sur son tas d’or sont désormais tombés de leur chaise. L’alliance improbable entre les deux concurrents Intel et ARM se matérialise par une nouveau voyage technologique dans l’infiniment petit. Pour valider son INTEL 18A, le fondeur annonce bel et bien un partenariat avec ARM.

Intel et son x86, ARM et ses Cortex, deux mondes qui se côtoient et, sur le papier, ne s’apprécie guère. A l’époque des puces pour smartphones d’Intel, le mastodonte bleu a dépensé sans compter des milliards de dollars pour essayer de se faire une place dans toutes les poches. ARM ne lui a guère laissé de chance. Depuis cet antagonisme perdurait. Et si les frontières semblent toujours très limitées entre les deux écosystèmes, certaines tentatives d’ARM comme d’Intel de s’implanter dans le pré carré de son rival apparaissaient régulièrement.

Qui aurait pu croire dès lors à une alliance entre les deux marques ? Et bien les marques elles-mêmes puisqu’elles annoncent un partenariat destiné a assurer la bonne marche de la solution INTEL 18A, la formule de gravure en 1.8 nanomètre qu’Intel travaille a marche forcée pour rattraper son retard face à ses concurrents et en particulier à TSMC.

C’est un communiqué de presse commun qui vient d’être fait de la part des deux nouveaux compagnons autour de ce processus de gravure. L’engagement est solide, il se fait sur plusieurs générations de processeurs. L’idée est de produire mieux, plus finement et probablement de partager des éléments technologiques entre les deux entités. Tout l’enjeu est de construire un processus de gravure 1.8 nanomètre qui sera profitable aussi bien à Intel qu’à ARM. Un élément indispensable à Intel si il veut pouvoir contrer les futures offres 3 nm et 2 nm de TSMC. Après des années a patauger dans des finesses qui ne bougeaient plus, Intel cherche a rattraper son retard. Sa nouvelle approche de fondeur pour des constructeurs tiers étant devenue une manne financière importante pour le groupe.

Avec INTEL 18A, le fondeur pourrait revenir là où on ne l’attendait plus

Ce partenariat signifie également beaucoup pour ARM qui pourrait voir ici un concurrent de TSMC et donc une possibilité de faire jouer les tarifs entre les deux entités pour ses propres clients. ARM ne fabrique rien mais pour gagner de l’argent il doit s’assurer que ses SoC soient produits. Quoi de mieux que de disposer d’un nouveau fondeur capable de suivre le rythme des nouveaux SoC pour faire baisser les tarifs de gravure et assurer un calendrier de production massif ?

Des « SoC mobiles » mais  aussi des solutions plus industrielles comme des production pour l’automobile, les développements militaires, l’Internet des objets et autres. Le listing des productions qui seront développées par ce nouveau partenariat concerne des marchés stratégiques. Avec des euphémismes très délicats, le plus-si-nouveau PDG d’Intel éclaire son envie d’être un concurrent des fondeurs actuels. Pat Gelsinger regrette en effet « les options limitées » qu’on les concepteur de puces ARM. Les sociétés « fabless » qui ne font que dessiner les plans des puces mais qui ne peuvent pas les  produire elles même. Et d’expliquer que le nouveau service proposé par Intel  de graver pour les autres doit bénéficier non seulement des meilleurs processus de fabrication mais ne doit pas s’arrêter sur le type de puce à graver. Avec ce partenariat, Intel ouvre ses portes à la totalité des futurs cœurs ARM du marché.

Intel pourrait donc revenir dans les smartphones non pas en tant qu’architecture mais en tant que graveur, et ce n’est pas une mince affaire pour le fabricant. Les possibilités de croissance pourraient permettre au fondeur de soutenir son développement de nouvelles usines. La marque profiterait en plus des tensions politiques qui règnent en ce moment entre Taiwan et la Chine qui gênent TSMC. En développant des usines indépendantes de Taiwan, Intel offrira une solution de repli pour une bonne partie de l’industrie si ces tensions, et de probables sanctions américaines, s’envenimaient.

Avec INTEL 18A en place, c’est donc la possibilité de graver finement, efficacement et de manière maitrisée qu’offre l’IFS, l’Intel Foundry Service. Une branche qui pourrait donc être saisie par de nombreux concepteurs de processeurs. Rockchip, AllWinner, Amlogic, Broadcomm, Mediatek, NXP et Apple pourraient être les futurs clients d’Intel. Chacun de ces développeurs de puces ARM ayant tout intérêt a trouver des solutions de gravures les plus économiques, les plus souples et les moins chères qu’il soit. Le fait qu’ARM accompagne désormais Intel dans son développement assurera une parfaite synergie entre les futurs SoC développé sous cette architecture et les capacités de gravure du fondeur.

Intel a tout a prouver face à TSMC

On attend bien entendu le fondeur au tournant. La feuille de route de TSMC est claire, annoncée et en général bien tenue. Le fondeur qui grave aujourd’hui pour la grande majorité des acteurs du monde ARM à un carnet de commande qui déborde parce que ses services sont excellents. Pour parvenir a le concurrencer, Intel doit donc proposer un service non seulement sans défaut mais également faire mieux que TSMC. La solution INTEL 18A serait la clé de cette réussite, avec une gravure en 1.8 nanomètre, Intel pourrait reprendre une avance technologique majeure et transformer l’essai. Un pari  qu’il faudra tenir et qui explique ce rapprochement avec son vieux concurrent. 

INTEL 18A n’est pas pour tout de suite et beaucoup d’éléments sont encore a régler pour le fondeur. Mais les incertitudes sont grandes sur l’avenir direct de cette industrie. Entre les exercices militaires de la Chine autour de Taiwan, le désengagement de plusieurs financiers de TSMC et l’engagement des Etats-Unis comme de l’Europe pour une plus grande souveraineté en matière de conception et de gravure de processeurs. Intel et ARM ont très logiquement tout intérêt a s’associer pour préparer ce futur.

INTEL 18A : l’alliance d’ARM et Intel pour graver tout en finesse © MiniMachines.net. 2023.

Comment l’Asus ROG Ally pourrait bouleverser le marché de la Console PC

Minimachines.net est sponsorisé par : IAMNUC.COM

Le choix d’Asus d’annoncer la ROG Ally au travers d’une campagne marketing le premier avril est un coup de génie. La Console PC n’arrive pas en effet sur un terrain tout à fait vierge et son concurrent direct qu’est la Steam Deck, a une énorme cote de popularité. Se présenter en challenger direct aurait pu très mal tourner pour le constructeur Taiwannais. En se présentant en deux temps, d’abord sous la forme d’une blague puis comme un vrai produit, le constructeur a pu désamorcer la situation.

Résumé des éléments précédents. Le 1er avril dernier, Asus lance une grosse campagne de présentation d’un nouveau produit, sa console PC Asus ROG Ally. Trois éléments sont mis en place. D’abord une grosse campagne de la marque sur les réseaux sociaux puisque toutes les antennes locales relaient cet évènement. Cela permet de maximiser la visibilité de l’engin par les aficionados de la marque, ceux qui la suivent. Evidemment, cette première étape est suivie par une reprise dans la majorité des médias qui vont commenter le produit sous différents aspects.

Deuxième étape, concomitante, la proposition d’une vidéo Youtube très élaborée. Une vidéo double effet puisqu’elle parle autant de cette nouveauté à venir que des technologies et produits de la marque. Une sorte de publicité dans la publicité. La vidéo présente la ROG Ally tout en faisant clairement des références à son côté « blague du premier avril ». On retrouve par exemple la mise en avant très rapide d’un ancien poisson de la marque avec les lentilles de contact ROG présentées à la même date quelques années auparavant. 24 heures après la présentation de ce produit, le 2 avril donc, différentes personnes travaillant chez Asus indiquent clairement qu’il s’agit d’un poisson d’avril. Insistant même sur le fait que ROG Ally se prononce de la même façon que ROG « a lie » ou « un mensonge » en anglais.

Troisième étape, dès le lendemain, le produit est finalement confirmé par Asus comme une des solutions que la marque va développer et commercialiser. Ce qui a pour effet de réactiver une troisième fois  la campagne de marketing de la marque. Cette manière de souffler le chaud, le froid puis le chaud n’a eu que des avantages pour Asus. D’abord en terme de visibilité car cette année le 1er avril tombait un samedi, jour où la communication est bien plus difficile pour une marque. En procédant ainsi et en gardant la ROG Ally « vivante » en terme de visibilité pendant trois jours, Asus a pu passer ce Week-End compliqué et rester sur le devant de la scène le lundi.

Cela a permis également de désamorcer les critiques basiques en offrant un temps de réflexion au web. La sortie des produits concurrents sur ce marché poussent toujours tout le monde à comparer les autres consoles PC au Steam Deck. Une comparaison souvent peu pertinente au vu des différences de tarifs entre les engins mais qui semble être devenu un reflexe. En proposant cette nouvelle console d’abord comme une blague, Asus a évité en partie cet écueil.

Le point sur la console Asus ROG Ally

Le vidéaste Dave2D a publié cette vidéo de prise en main d’un prototype complet de la console et nous donne les premières impressions sur son emploi. On retrouve un design assez proche des solutions de ce type comme les proposition de GPD, One Netbook, Aya ou AOKZOE. Un design assez évident que la marque avait déjà employé d’une certaine manière du temps des UMPC. Logiquement l’écran de 7 pouces est enfermé entre les commandes de jeu de l’engin. A la manière d’une Nintendo Switch. Il n’y a pas beaucoup d’autres possibilités techniques même si des marques ont proposé des alternatives coulissantes ou, comme la Switch, des manettes amovibles.

Chez Asus, l’écran est donc fixe, positionné au centre. Il s’agit d’une solution relativement sage, avec un choix fait au niveau du rafraichissement plutôt que de la définition. On retrouve ainsi une dalle IPS en FullHD 120 Hz. Une solution qui proposera jusqu’à 500 nits de luminosité pour une visibilité maximale. Loin des dalles hyper définies de certains concurrents, Asus semble ici plus sage et colle donc au 1920 x 1080 classique des machines portables. C’est un bon choix, un compromis qui le distingue du Steam Deck sans céder aux sirènes d’un couteux 2560 x 1600 pixels comme sur la ONEXPLAYER 2 par exemple.

Couteux parce que cher à l’achat pour la marque mais également gourmand en ressources pour piloter l’affichage et par voie de conséquence énergivore pour une solution portable. La très grande majorité des consoles de ce genre, hormis le Deck de Valve, emploie des dalles haut de gamme pour un usage peu justifié. Les performances embarquées dans ces engins les limitent de fait à des définition 720P ou 1080P au mieux. Le choix de cette dalle FullHD permettra à Asus de communiquer sur l’aspect multimédia de sa console. La ROG Ally sera un véritable petit écran portable pour proposer des films ou séries en mobilité.

Minimachines-04-2023

D’un point de vue performances, on ne sait pas exactement ce qui équipe l’engin et c’est un point primordial pour la positionner. Asus indique qu’il a travaillé en partenariat avec AMD pour concevoir un processeur sur mesures1. La même recette que Valve avec son Steam Deck mais probablement dans une version mise à jour. Sur la machine de Valve, il s’agit d’un processeur construit  autour d’un processeur Zen 2 associé avec un circuit graphique RDNA 2. Et le résultat est déjà excellent. Sur la ROG Ally, il s’agit d’un ensemble de cœur Zen 4 associé à un circuit graphique RDNA 3. Le résultat sera très logiquement supérieur. Probablement suffisant pour adresser l’affichage FullHD. On n’a pas le détail du nombre de cœurs mais cela ressemble à une solution proche des Ryzen 7040 ou des Phoenix 2. Il faudra évidemment attendre de connaitre le détail de l’architecture, ses fréquences et sa consommation pour spéculer plus avant mais si on recoupe les élément squi ont fuité sur ces nouvelles générations de puces, on a quelques infos.

L’architecture Phoenix 2 d’AMD avec 4 coeurs AMD Zen4 gravés en 4 nm et un circuit graphique RDNA 3 sur 8 cœurs. Le tout allié à de la mémoire LPDDR5-6400 ou LPDDR5X-8533. On n’a pas d’informations précises sur la mémoire vive embarquée dans l’engin, il est probable que la solution emploie au minimum 8 Go de RAM. Il faut piloter le système mais également la partie graphique qui vient piocher dans la mémoire centrale. Il est également possible qu’Asus propose plus de mémoire avec des solutions intermédiaires en 12 ou 16 Go comme il sait déjà le faire sur ses portables. Cela peut être une solution intéressante de proposer des étages de capacités en terme de commercialisation. Dans tous les cas, il est certain que la mémoire sera soudée directement sur la carte mère

Le stockage est anecdotique puisqu’on sait que la Asus ROG Ally propose un slot M.2 2230 NVMe pour accueillir un module en plus d’un lecteur de cartes MicroSDXC. Une formule qui pourrait permettre une certaine évolution à terme. Attention cependant, si Valve a clairement mis les petits plats dans les grands en proposant aux utilisateurs du Steam Deck de modifier leur stockage en documentant au maximum sa console, rien ne dit que ce sera possible aussi facilement chez Asus.

Le constructeur indique que sa console propose le double des performances d’un Steam Deck, ce qui explique le choix d’un affichage FullHD et donne évidemment du sens à la proposition. La ROG Ally ne pouvait pas juste faire aussi bien que la solution déjà présente par tout, pour vraiment avoir une chance il faut proposer, technologiquement, mieux. La grande question est évidemment de savoir pour combien en terme d’investissement et d’autonomie. Faire plus rapide mais moins autonome n’a peut être pas autant de charme que cela. Il faut donc pour Asus trouver la meilleure recette technique possible pour équilibrer ces trois postes que sont puissance, prix et autonomie. Un vrai défi.

La gestion du refroidissement de la machine semble être une vraie réussite, le prototype est semble t-il très discret même lorsque l’on utilise la console pour lancer des jeux gourmands. La ventilation de la console est quasiment inaudible en jeu. Asus a du mettre ici a profit tout son savoir faire pour parvenir à ce résultat. Sur la vidéo de Dave2D, la console de Valve est mesurée à 37 dB quand la solution d’Asus reste à 20 dB. C’est une différence énorme en terme de silence puisque 20 dB, c’est à peu près l’ambiance d’une bibliothèque calme.

Le port propriétaire pour le dock XG Mobile qui propose un port USB Type-C pour connecter et recharger la console.

Pour le reste, on a quelques informations comme la présence d’un port Jack audio combo 3.5 mm, d’un lecteur d’empreintes digitales ou le choix de proposer un connecteur maison pour brancher la console à un dock XG Mobile. Un choix qui pourrait d’ailleurs ne pas être systématique. Il parait peu probable qu’Asus envisage de vendre des milliers de ces Docks qui coutent le prix d’un portable neuf. Cela reste un marché de niche et la marque est probablement assez maline pour s’en rendre compte.

Si Asus doit intégrer ce connecteur spécifique, fabriqué sur mesures, dans toutes ses consoles alors qu’il ne servira qu’à une poignée d’utilisateurs, elle se tirera une balle dans le pied. Il faut un modèle compatible sur le haut de gamme mais également des modèles plus classiques et moins chers. Donc débarrassé du coût de ce dock tout de même très particulier. Autant la présence de ce connecteur pourrait inciter les propriétaires de ce dock à investir, autant cela pourra également être un argument en défaveur de la ROG Ally.

La console propose un encombrement un peu plus réduit que la Steam Deck. Avec 28 cm de large pour 11.3 cm de profondeur et 3.9 cm d’épaisseur au niveau de ses poignées. Elle pèse 608 grammes. Pour rappel le Steam Deck mesure 29.8 x 11.7 cm  sur 5.05 cm d’épaisseur pour 670 grammes.

Asus ROG Ally, quel positionnement et quelles conséquences ?

La console a un potentiel certain, on a vu par le passé beaucoup de références de produits du même genre être commercialisés avec pas mal de succès. De petites marques sans antennes locales, sans garanties nationales ni SAV direct réussir à vendre des engins entre 600 et 2000€ proposant la même chose que ce qu’apportera Asus avec la ROG Ally. La console Steam Deck n’a pas été la première du genre loin de là mais elle a sans doute été la plus visible grâce à sa plateforme de commercialisation clairement orientée pour les joueurs.

L’arrivée de la solution d’Asus va rebattre les cartes de ce marché tout simplement parce qu’il existera enfin une concurrence. Reste à savoir son tarif. Et là dessus, il est difficile de faire des spéculations qui ne soient pas un peu hasardeuses.

Le premier point vient de la communication d’Asus qui insiste sur son « partenariat » avec AMD pour construire son processeur embarqué. Un discours auquel je n’adhère pas totalement. Si il s’agit d’un processeur Phoenix II, ce n’est pas un partenariat propre à Asus mais un développement qu’AMD va proposer à l’ensemble du marché. Asus l’a choisi très logiquement puisqu’il semble avoir été construit spécifiquement pour des solutions de jeu ultraportables. Cela veut dire deux choses importantes.

D’abord, d’un point de vue marché, cela suppose qu’Asus ne sera pas le seul à dégainer un produit du genre. Et donc qu’il est urgent d’attendre. Les concurrents qui disposent d’une gamme de machines orientées jeux vont probablement tous s’engouffrer dans cette brèche. Acer, HP, Razer, Lenovo, Dell, MSI… Toutes les marques pourraient proposer leur version de la console mobile. Le volume de vente des Decks de Valve a du drôlement aiguiser les appétits. 

Cela ne va pas forcément faire tomber les tarifs vers le bas, on constate que sur le segment es ordinateurs portables classiques il y a un consensus pour créer des tranches tarifaires équivalentes chez chacun. Mais cela pourrait orienter vers des choix légèrement différents en finition, en affichage, en connectique ou même des approches diverses du matériel embarqué. Une marque proposant peut être un meilleur écran, l’autre un dock natif, une troisième proposer des mises à jour plus faciles. Dans tous les cas, cela obligera les différents acteurs à ne pas laisser s’envoler trop haut leurs tarifs. Outre la Steam Deck qui restera en embuscade, aucun constructeur ne pourra trop s’éloigner du prix moyen des produits.

Autre point clé, la commercialisation du Phoenix 2 à large échelle diminuera mécaniquement son tarif. Si Asus avait fait appel à AMD pour concevoir véritablement un processeur sur mesures, comme l’a fait Valve en prenant alors un risque assez fort, la marque aurait du s’engager sur des volumes d’achat conséquents. On ne commande pas que 1000 ou 2000 processeurs, cela coute bien trop cher en conception et en production pour être amorti de cette façon. Le fait de proposer cette puce à l’ensemble du marché devrait la rendre plus accessible.

Difficile donc de proposer un prix pour ces produits, trop d’éléments entrent en jeu. A vrai dire c’est aux marques de définir ce qu’elles visent. Un constructeur pourra proposer un engin orienté plu haut de gamme avec des fonctions avancées comme la Asus ROG Ally avec son écran 120 Hz et son super refroidissement silencieux, par exemple. Mais toutes devront jouer dans un écart assez serré pour exister. Le même qui existe sur le marché des ordinateurs portables de jeu à même moteur donné. On imagine mal un écart de plus de 150 à 200€ entre deux solutions basées sur le même processeur, la même mémoire vive et le même stockage.

Dernier point, que vont devenir les marques exotiques évoquées plus haut. Si elles arrivent à proposer la même puce AMD, elles pourront tirer leur épingle du jeu en proposant soit plus soit moins cher. En l’état, je vois mal comment elle pourraient résister à une offre concurrente comme celle d’Asus en continuant à commercialiser des consoles PC entre 999 et 1999€…

Comment l’Asus ROG Ally pourrait bouleverser le marché de la Console PC © MiniMachines.net. 2023.

Alibaba divisé en 6 activités distinctes par le gouvernement Chinois

Minimachines.net est sponsorisé par : IAMNUC.COM

Après un long moment sans donner de nouvelles et sans apparition publique, l’ancien PDG d’Alibaba.com est reparu cette semaine en Chine continentale. Jack Ma, étrange et charismatique personnage, avait déjà indiqué vouloir se mettre en retrait de la vie publique. En 2020, il avait critiqué le gouvernement Chinois et sa politique, ce qui lui avait valu quelques déboires personnels. 

Déboulonné de sa place de PDG tout puissant du groupe, il avait depuis disparu des écrans radars et des conférences qu’il donnait partout sur la planète. Sa réapparition cette semaine, qui coïncide avec l’annonce d’Alibaba de procéder à sa division en six entités distinctes, n’est évidemment pas anodine.

Jack Ma ex PDG du Groupe Alibaba

Alibaba.com est un monstre  tentaculaire. Il est présent partout sur la planète avec plusieurs éléments clés particulièrement implantés en Chine. Alibaba.com est devenu une plateforme de commerce professionnel où l’on peut tout acheter. Du moteur d’avion au tracteur en passant par des millions de roulements à bille ou des équipements industriels de pointe. C’est une plateforme internationale où des millions de biens sont échangés chaque jour. AliExpress est sa version grand public. Un système de vente qui a conquis la terre entière en permettant à des milliers d’entreprises de proposer en direct leur production.

Si ces deux entités sont connues même par le grand public, Alibaba.com c’est aussi d’autres services majeurs de vente en ligne en Chine. TaoBao et Tmall pour commencer. Le premier est un site plus localisé sur le marché Chinois. Un monstre qui liste plus d’un milliard d’articles en vente via sa place de marché. Tmall est une autre facette de la même idée puisqu’il s’agit encore d’un site de eCommerce mais qui s’étend sur une plus large région géographique : De la Chine continentale à Taiwan en passant par Hong-Kong. 

Les serveurs de la marque sont également orange…

Le site AliExpress, l’élément eCommerce du groupe que l’on connait en Europe, n’est donc que la partie émergée d’un premier iceberg. La marque en compte bien d’autres. Et c’est pour lutter contre ce gigantisme que le gouvernement Chinois vient d’imposer une scission en six groupes distincts et indépendants les un des autres. 

  • Le Global Digital Commerce Group reprendra les activités AliExpress et celles d’Alibaba.com. Cela restera l’élément de gestion du eCommerce à l’international.
  • Le TaoBao Tmall Commerce Group pour la partie eCommerce orientée vers l’Asie qui restera un élément totalement géré par alibaba.com.
  • Le Cloud Intelligence Group qui gérera probablement l’hébergement et le Cloud de l’ensemble du groupe mais de manière indépendante. Cette partie là est importante car elle gère énormément de services et de fonctions vitales de la société. C’est elle qui développe des SoC maison exploités jusqu’alors par Alibaba.com.
  • Cainiao Smart Logistics sera une autre entité vitale de l’ensemble puisque c’est elle qui va prendre en charge la partie en dur des établissement commerciaux : le transport, le stockage, la gestion de ces flux de produits monstrueux qui sont générés par l’ensemble de l’activité.
  • Le Digital Media and Entertaimnent Group qui assurera une activité de gestion de média et de création de contenu de divertissement. Une activité surtout centrée sur la Chine continentale.
  • Enfin le Local Services Group, également très lié au territoire puisqu’il s’agit de livraisons directes et de services à la demande mis à disposition du public Chinois.

AliPay n’est jamais cité dans l’ensemble du nouveau dispositif, ce moyen de paiement très populaire en Asie et massivement employé sur les sites du groupe devrait logiquement tomber dans l’escarcelle de la partie eCommerce mais pourrait également déboucher vers la création d’une solution Bancaire. Solution qui a pour le moment été freinée par le gouvernement Chinois.

Il semble évident que si ces groupes seront séparés en différentes entités juridiquement indépendantes, leur proximité restera très forte. La partie logistique ne peut pas survivre sans les sites de eCommerce pour laquelle elle a été dimensionnée. Le service Cloud  a été bâti sur mesures pour gérer les activités du groupe et on imagine mal une transition vers d’autres concurrents. La volonté de ce changement n’est pas de tuer l’ensemble mais de le faire… dégonfler.

Si une de ces entités facture à une autre, si il demande à être autonome, il sera forcé d’être rentable et donc de fonctionner dans une concurrence peut être moins faussée qu’actuellement. La partie Cloud pouvait, avec un client comme Alibaba.com, totalement casser les prix de son véritable coût face aux concurrents. En étant indépendant économiquement, il ne sera plus possible pour l’entité de bénéficier de tarifs dérisoires  sur  certains secteurs. Alors que les concurrents seront toujours obligés de payer leurs factures. Les coûts logistiques et d’hébergement par exemple ne pourront plus être rattrapés par une autre branche du groupe. C’est une sorte de travail inversé des situations de regroupement et de concentration que nous avons connus en Europe et aux Etats-Unis ces dernières décennies. Au lieu de créer des sociétés de plus en plus monstrueuses, des mastodontes de plus en plus puissants, la Chine cherche à leur redonner une envergure plus « raisonnable ». 

Dans cette vidéo d’il y a un an seulement, on comprend bien la volonté du groupe de venir concurrencer le géant Amazon à l’international.

C’est également un bon moyen de transformer l’image du groupe qui a pâti très largement de la guerre commerciale entre la Chine et les états unis. Alibaba est côté en bourse aux US, à Wall Street, et depuis deux ans, son cours a perdu les deux tiers de sa valeur. Comme beaucoup d’autres grosses sociétés Chinoises. Ce qui sape la réussite politique du programme voulu par le président Chinois Xi Jinping. En scindant l’entreprise en de plus petites entités, la donne économique change. D’un cerbère à plusieurs têtes avec un corps unique on passe à un réseau interdépendant. Une évolution qui peut gommer la peur provoquée par la voracité d’Alibaba ces dernières années. Et rouvrir les portes de certains marchés.

Difficile cependant de voir pourquoi ce choix est fait, tant cela parait contraire à nos pratiques. J’ai donc interrogé deux contacts locaux à ce propos et leurs témoignages sont très intéressants. Chacun y voit un intérêt assez logique. Les deux savent bien d’abord que la popularité de Jack Ma, ex CEO de Alibaba.com, ne plaisait pas au gouvernement Chinois. L’idée de base de ce changement est donc probablement lié également à une volonté de ne plus le laisser gagner en visibilité. De ce côté là, cela semble déjà gagné.

Mais, plus prosaïquement, mes contacts m’expliquent en quoi ils voient un intérêt dans ces changements et c’est assez amusant par rapport au discours ambiant en France ou dans l’Union Européenne.

Réduire l’ombre du géant Alibaba

Diminuer la carrure d’Alibaba, même si le groupe restera monstrueux, c’est augmenter la possibilité pour ses concurrents de grossir. Le problème de ce groupe est qu’il a une tendance à étouffer ses concurrents. En fonctionnant comme une énorme place de marché, il empêche d’autres entités de s’épanouir tout en conservant une efficacité redoutable. Comment proposer une logistique digne de ce nom avec un concurrent de ce type ? Comment être concurrentiel en stockage dans les nuages ? Qui va vous faire confiance pour vendre des produits en place de marché avec un nouveau site alors que tout le monde connait déjà Alibaba et ses antennes ?

Il est vrai qu’aujourd’hui en France, et presque partout dans le monde, si on veut devenir  un acteur important du commerce électronique, on doit se frotter à un monstre qui s’appelle Amazon. Et ce n’est pas chose aisée de venir contrer ce concurrent. Un industriel qui fabrique et vend ses produits sur ses serveurs avec sa logistique et ses services… Une marque qui fait quasiment la pluie et le beau temps chez les politiques de tous bords en indiquant vouloir installer un entrepôt qui créera des emplois ou le retirer en détruisant ceux-ci suivant qu’il souffle le chaud ou le froid. Une sorte d’Alibaba à sa manière donc. Quand on gère tous les maillons de la chaine, avec la possibilité de ne pas en comptabiliser certains ou de les absorber dans son bilan, on peut littéralement étouffer la concurrence. Chose que ne veut plus le gouvernement Chinois.

Cette redoutable efficacité du groupe qui passe par une excellente gestion interne signifie également une diminution importante du nombre d’emplois nécessaires pour faire fonctionner l’ensemble. On m’explique clairement qu’en séparant les entités les unes des autres, le groupe devrait multiplier les emplois internes dans chaque groupe. Chez nous, on cherche justement le contraire avec une consolidation des services après chaque acquisition, le gouvernement Chinois semble préférer les multiplier. C’est du moins ce qui est rapporté. Parce que, de mon côté, je peux lire qu’entre 2020 et 2022 le nombre d’employés du groupe est passé de 117 600 à 254 940… Ce qui est assez respectable.

En 2019, le groupe Alibaba avait enregistré 38 milliards de dollars US de CA pour la journée du 11.11

La puissance politique du groupe est également largement critiquée. Quand un monstre comme Alibaba génère autant de devises, gère une telle part de l’économie du pays et assume autant d’emplois… Cela offre à ses gestionnaires un pouvoir dont ne veut plus le gouvernement Chinois. Les représentants locaux ont tendance à accepter toutes les requêtes du groupe. Son implantation dans une région, son poids sur le tissu industriel global à l’import comme à l’export en font un acteur avec qui on ne veut pas se fâcher. Très clairement on m’explique qu’en scindant ces entités en groupes séparés, même si ils travaillent toujours ensemble, le poids de l’ensemble ne sera plus le même politiquement. Si certains pays décorent leurs capitaines d’industrie, en Chine on a tendance à leur rappeler une certaine humilité m’explique t-on. « C’est la politique locale ».

La conclusion est assez simple, les choses ne devraient pas vraiment changer pour Alibaba, certains des éléments décidés sont des soupapes de sécurité. Financière, pour caresser le gouvernement Biden dans le sens du poil. Ou politique pour que Pékin soit satisfait. Pour le client lambda, la donne ne changera probablement pas.

Alibaba divisé en 6 activités distinctes par le gouvernement Chinois © MiniMachines.net. 2023.

Arena Canyon, le NUC 13 Pro se dévoile sous Raptor Lake-P

Minimachines.net est sponsorisé par : IAMNUC.COM

Le NUC 13 Pro est l’évolution logique de la gamme de MiniPC d’Intel. Une poursuite du format d’origine qui embarque désormais des processeurs de 13e génération Raptor Lake-P. Ce qui offre aujourd’hui un assez beau panel de solutions.

La gamme Arena Canyon pourra grimper jusqu’au Core i7-1370P, une puce annoncée en début d’année qui propose 14 cœurs répartis en 6 cœurs P et 8 cœurs E pour 20 Threads. Un joli bébé fonctionnant de 3.9 à 5.2 GHz avec 24 Mo de mémoire cache et développant de 20 à 64 Watts de TDP avec une puissance de base de 28 petits watts. Cette puce propose en son sein un circuit graphique Intel Iris Xe avec 96 EU qui ouvrir la porte à énormément d’usages.

Bien entendu, la gamme NUC 13 Pro ne se limitera pas à ce processeur haut de gamme, la panoplie de puces disponibles permettra de trouver la solution la plus adaptée à chaque usage. On retrouvera ainsi des Core i3-1315U et UE, des Core i5-1340P et PE, le Core i7-1360P ainsi que les i5-1350P et I7-1370P également proposés en versions PE avec Intel vPro. Evidemment, les tarifs des engins feront un grand écart VanDammien suivant les puces. Mais cela permet de choisir exactement la puissance nécessaire à ses besoins dans un même format de MiniPC.
Les prix annoncés démarreront autour des 340$ pour culminer à 1080$. Des prix publics qu’il faut comprendre hors-taxes évidemment.

 

Les NUC 13 Pro seront comme d’habitude vendus en plusieurs versions avec des modèles au format barebone, dépourvus de mémoire vive mais proposant deux slots So-DIMM DDR4-3200 et un double ou triple stockage. Les solutions prêtes à l’emploi seront livrées avec un minimum de 8 Go de mémoire vive et 512 Go de stockage en NVMe PCIe sur un port M.2 2280 Gen4 X4. Un second port M.2 2242 NVMe PCIe X1 Gen3 sera disponible sur la carte mère en plus du port M.2 2230 équipé par défaut d’une solution Wi-Fi6E et Bluetooth 5.3 d’Intel. Ces modèles équipés en stockage seront livrés avec un système Windows 11 (Home ou Pro) pour être exploitable dès leur déballage. Enfin, Intel proposera des cartes mères nues pour construire des systèmes sur mesures architecturés tout autour, celles-ci seront livrées sans stockage ni mémoire, pas même de circuit Wi-Fi. 

Suivant les modèles, il sera possible d’intégrer un second stockage au format 2.5″ SATA. Les versions les plus hautes permettront cet ajout bien pratique tandis que les modèles les plus fins offriront une intégration plus facile et discrète. La connectique est classique avec deux ports Thunderbolt 4, Ethernet 2.5 Gigabit piloté par un chipset Intel i226-LM, un USB 2.0 Type-A, trois USB 3.2 Gen2 Type-A, un Jack audio combo 3.5 mm et deux HDMI 2.1. 

La gamme Intel NUC 13 Pro persiste donc dans les petits volumes traditionnels d’origine. Des engins discrets, compacts et offrant assez de muscles pour réaliser la majorité des tâches du quotidien. C’est un point à comprendre dans la stratégie d’Intel et de sa division Next Unit of Computing. A chaque sortie d’une solution NUC plus grande que ce format, je peux lire des commentaires rageurs de lecteurs qui ne comprennent pas qu’Intel sorte de cette vision du MiniPC le plus compact possible.

Ici, l’engin reste dans un format des plus compacts avec 11.7 cm de large pour 11.2 cm de profondeur et de 3.7 à 5.4 cm de hauteur. Cette gamme perdure en plus des autres solutions plus évolutives que la marque peut sortir sur les marchés gamer comme le NUC 13 Extreme Raptor Canyon, le NUC 12 Serpent Canyon ou en matière de portables comme le Camden County qui partagent cette appellation NUC. Certains se sentent comme trahis par Intel parce qu’ils ont compris que NUC signifiait « petit » et si la marque choisis effectivement des développement compacts pour ne pas avoir trop d’ombre – ni en faire – de la part des autres constructeurs, leur offre MiniPC persiste encore et encore.

Pester contre les propositions d’Intel sous prétexte d’une incompréhension de leur offre, c’est à dire la traduction « Next Unit of Computing » par « des MiniPC Intel », c’est comme s’énerver parce qu’un restaurateur agrandirait sa care. Qu’une table proposant une spécialité d’excellentes crêpes se mettait a proposer de toutes aussi délicieuses gaufres. Où est le mal si il continue les crêpes qui ont fait sa réputation ?

Le fait qu’Intel propose d’autres choix est un service supplémentaire. Mais la gamme NUC « classique » de MiniPC est toujours là et le NUC 13 Pro montre que le fondeur est toujours aussi impliqué dans son offre. Mieux encore, le nombre de déclinaisons de ces machines n’a jamais été aussi large qu’avec cette gamme Arena Canyon. On retrouve 8 cartes mère nues, 6 MiniPC prêts à l’emploi sous Windows 11 et 24 modèles de MiniPC en kit où il faudra rajouter mémoire et stockage.

Source : Intel

Arena Canyon, le NUC 13 Pro se dévoile sous Raptor Lake-P © MiniMachines.net. 2023.

Beelink GT-R : un autre MiniPC sous AMD Ryzen 5 R3550H

Minimachines.net est sponsorisé par : IAMNUC.COM

MAJ : Le Beelink GT-R est en stock chez Banggood en version 16 Go DDR4 + 512 Go SSD pour 387.53€ avec le code BGca8b4c. C’est probablement la fin de vie de ce produit.

Billet original : A la mi Juin 2020, je vous expliquais qu’une nouvelle génération de MiniPC abordables et capables de remplacer une tour classique, allait débarquer. Qu’une révolution était en train de débuter. L’annonce du Minisforum Deskmini DMAF5 était un signe annonciateur de cette nouvelle génération de machines. Aujourd’hui, cette nouvelle gamme de solutions se confirme avec l’annonce du Beelink GT-R. 

On retrouve sur le Beelink GT-R un élément commun avec la machine de Minisforum, le Ryzen 5 R3550H. Un processeur signé AMD qui déploie quatre coeurs et huit threads. Le tout cadencé de 2.1 à 3.7 GHz et associé à un chipset Radeon Vega 8 à 1.2 GHz. Une solution robuste qui permet d’exécuter tous les programmes classiques d’un PC familial : bureautique, multimédia, retouche d’image, montage léger, conception et impression 3D et même jeu 2D et 3D. Ce Ryzen 5 n’est pas un monstre de performances mais il est largement suffisant pour de nombreux usages et pourra, par exemple, réaliser des montages vidéos FullHD et lancer des jeux 3D récents peu détaillés.

Beelink GT-R

Dans le Beelink GT-R, cette puce sera bien entourée. La marque va vendre son MiniPC sous plusieurs formats allant du barebone nu, sans mémoire ni stockage, jusqu’à des versions pré-équipées. L’engin proposera deux slots de mémoire vive DDR4, ce qui devrait lui permettre de piloter au moins 32 Go de mémoire vive. On pourra également profiter de deux slots au format M.2 2280. Le premier sera compatible PCIe NVMe et le second limité au SATA 3.0. Enfin, un emplacement 2.5 pouces pour un stockage SATA 3.0 supplémentaire sera également disponible. On pourra donc piloter 3 solutions de stockage différentes avec cet engin. 

Beelink GT-R

Le tout sera ventilé activement par une solution assez complète comprenant un système de caloduc en cuivre et un double ventilateur en extraction. Un système complet et assez classique qui pousse de l’air frais sur des ailettes vers lesquelles la chaleur a été transportée. On n’aura donc pas un engin fanless mais il est possible que les moyens employés par la marque permettent de profiter d’un engin relativement discret en terme de nuisances sonores. On note au passage que le système de refroidissement est placé au dessus du châssis et non pas en dessous de la carte mère, un point positif pour l’ensemble de la ventilation globale qui permettra de garder un processeur plus facilement au frais malgré ses 35 watts de TDP. 

Beelink GT-R

Le boitier du Beelink GT-R lui même participera à la dissipation de la  chaleur. Avec une coque en aluminium, il protégera bien l’ensemble de la machine tout en proposant une option originale pour un MiniPC de ce type. Au dessus du châssis, on retrouve un lecteur d’empreintes digitales qui pourra piloter un système d’authentification et de chiffrement. 

Beelink GT-R

La connectique est bonne avec en façade deux ports USB 3.0 type-A, un USB Type-C, un port jack audio combinant casque et micro, un double micro pour piloter une solution d’assistant personnel. Et, en plus du bouton de démarrage, un bouton reset. Je ne pense pas qu’il s’agisse d’une bonne solution de placer ce bouton qui ré-démarrera la machine à cet endroit. J’imagine que des erreurs de manipulation pourraient être faites et un placement à l’arrière pourrait être plus sécurisant que de placer ce type de bouton entre les ports USB et le bouton de démarrage. On pourra sans doute débrancher le connecteur de ce bouton assez facilement pour éviter tout ça.

Beelink GT-R
Sur la partie arrière du Beelink GT-R, on découvre de très belles choses avec une alimentation jack classique, deux ports réseau Ethernet Gigabit ce qui est une excellente nouvelle pour piloter deux réseaux distincts avec ce type d’engin, une double sortie vidéo HDMI2.0 et un Displayport 1.4. Les trois ports permettront d’afficher des contenus en UltraHD à 60 images par seconde et en HDR.

Beelink GT-R

Le port USB Type-C de façade étant également compatible DisplayPort, il sera possible de piloter quatre écrans en simultané avec l’engin. Un point qui pourrait intéresser certains métiers.

Enfin, quatre autres ports USB 3.0 sont présents pour un total de 6 au global. Parfait encore une fois pour remplacer une tour classique avec l’ensemble des accessoires traditionnels : De la webcam au clavier en passant par une imprimante et des manettes. Il manque peut être pour pinailler un lecteur de cartes mémoire SDXC qui n’aurait pas été désagréable mais on pourra en connecter un en USB 3.0 facilement. Le MiniPC propose évidemment un Wifi5 ainsi qu’un module Bluetooth 4.1 pour piloter des systèmes sans fil.

Beelink GT-R

Le Beelink GT-R fait tenir tout cela dans un châssis un peu plus grand que d’habitude avec 16.8 cm de large pour 12 cm de profondeur et 3.9 cm d’épaisseur. Cela reste très très compact et comme l’engin propose une fixation de type VESA, il sera possible de le fixer sur un meuble ou derrière un écran facilement. 

Le Beelink GT-R est annoncé comme 100% compatible Linux et Windows et si on ne connait pas encore sa date de commercialisation ni les prix demandés par la marque, je suis persuadé que ce type de machine va bouleverser le marché. Plus complète et plus efficace, elle ne remplacera pas un PC Expert spécialisé dans un usage mais sera parfaite pour un usage familial avec très peu de choses inaccessibles dans cette optique.

Voilà également pourquoi il ne faut pas se précipiter sur des offres comme celle du Minisforum Deskmini DMAF5 en financement participatif. Il est possible que cet engin soit une meilleure affaire au final et profite d’une commercialisation traditionnelle. Comme il est possible que d’autres constructeurs de ce type lancent leur propre version d’un MiniPC sous Ryzen 5 et fassent jouer la concurrence et les prix.

Source : Beelink

Beelink GT-R : un autre MiniPC sous AMD Ryzen 5 R3550H © MiniMachines.net. 2023.

Le Steam Deck souffle sa première bougie

Minimachines.net est sponsorisé par : IAMNUC.COM

Il s’en est passé des choses en un an pour la minimachine de Valve. L’engin a réussi plusieurs tours de force sur un secteur que tout le monde croyait fermé. En s’asseyant à cheval entre deux types de produits, la console-PC est parvenue à se hisser comme le produit emblématique d’une nouvelle manière de jouer.

Le monde du jeu mobile a toujours été considéré comme un défi impossible à relever pour le segment PC. En partie à cause de l’interface particulière de la combinaison clavier-souris et cela même si une grosse partie du catalogue de jeux actuel est partagé avec des interfaces consoles. Mais aussi et surtout à cause de l’encombrement des machines de jeu actuelles. Le marché du « Gaming » PC étant avant tout obnubilé par la performance brute, l’idée de Valve a pris tout le monde à revers.

Et pourtant, la sauce a pris. Désormais ce sont 10 000 jeux qui sont considérés comme compatibles avec la console-PC dans le catalogue de Valve. 8000 sont considérés comme jouables ou vérifiés. Plus de 1000 ont été ajoutés depuis le début de cette seule année. De jolis scores pour un engin de ce calibre même si sa proximité avec Steam dans son rôle d’éditeur a évidemment été un gros élément incitatif pour les développeurs.

Dans une interview avec le site US spécialisé dans le jeu vidéo RockPaperShotgun.com, deux employés de Valve dissertent sur quelques aspects du futur de cette machine particulière. Ce sont toujours les deux même compères qui sont envoyés au « casse pipe » : Laurence Yang et Pierre-Loup Griffais. Des éléments importants de l’équipe du Steam Deck qui sont devenus des sortes de porte-paroles de la console.

Steam Deck

A eux deux, ils reviennent sur quelques aspects intéressants de l’engin et en particulier sur son approche inhabituelle par rapport au reste du marché PC. Ils annoncent par exemple que le Steam Deck actuel est parti pour souffler plusieurs bougies et qu’une version améliorée n’est pas prévue pour si tôt

« Un vrai Steam Deck de nouvelle génération avec une augmentation significative de ses performances ne sera pas là avant quelques années » déclarent-ils. Tordant ainsi le cou à une rumeur persistante d’un Deck 2 pour cette année 2023. La logique de Valve n’est pas celle des constructeurs de portables de jeu traditionnels. Ile ne vont pas créer une machine par génération de puce graphique. Ils cherchent plutôt à proposer un engin sur le temps long en incitant les développeurs à infléchir les éléments techniques requis pour porter leurs jeux sur la console.

Tout le monde ne va pas suivre ce mouvement et, depuis pas mal d’années, on assiste à une course permanente à la surenchère technique pour certains titres qui n’ont que la débauche de moyens graphiques pour faire parler d’eux. Mais pour d’autres, se plier à un cahier des charges limitant n’est pas forcément un problème. Mieux cela peut faire de leur jeu, difficile à rendre visible devant la profusion des offres actuelles, un titre plus désirable. Le public possédant un Steam Deck étant avant tout à la recherche de nouveautés tournant sur la plateforme.

Pour d’autre utilisateurs, savoir que certains jeux sont compatibles avec le Steam Deck les rassurera sur la possibilité d’y jouer sur des plateformes similaires. Des propriétaires de portables, de MiniPC ou de machines assez anciennes peuvent voir cette compatibilité avec la Console-PC comme une assurance que le titre sera également compatible avec leur matériel.

Evidemment beaucoup de titres importants ne vont pas suivre cette logique. Certains persistent à demander des machines incroyables pour pouvoir afficher décemment leurs jeux. Ceux-là ne seront pas exploitables sur le Deck même dans des conditions d’affichage fortement dégradées. Est-ce un mal ? Non, ces jeux sont en général plus à leur aise sur de grands écrans avec un excellent confort ergonomique. Ils demandent des sessions de jeu longues que la console n’est pas obligatoirement censée fournir.

Une grande partie du plaisir procuré par la console-PC est liée au fait que l’on rejoue à un catalogue de titres que l’on a aimé. Mais on y joue de façon différente. En mobilité, loin de la manière dont on a découvert le jeu. Un ami me disait avoir refait quelques titres de A à Z avec beaucoup de plaisir sur la console : Elden Ring, Celeste ou même de vieux jeux de course. Si aucune Steam Deck 2 ne semble prévue dans un horizon proche, le temps qu’une nouvelle  console sorte et les titres les plus exigeants d’aujourd’hui lui seront sans doute alors accessibles.

Pour Pierre-Loup Griffais, l’approche de chaque studio est différente. La problématique étant liée aux moteurs des jeux et à leur gourmandise en général. Pour un studio qui a lâché les chevaux à son équipe de développement pour proposer un jeu le plus impressionnant possible, tenir un pari sur le matériel du Deck est impossible. Pour un studio dont l’ambition se situe ailleurs, l’approche est évidemment beaucoup plus simple. Pour Griffais, il y a un énorme avantage à faire ce travail de compatibilité avec le Deck. « Si les jeux exigeants de dernière génération sont capables de s’adapter au Deck tout en proposant une excellente expérience, ils seront alors plus agréables pour une large variété de PC, ils amélioreront l’expérience de jeu de tous les joueurs. »

« Nous sommes toutefois optimistes à ce sujet » déclare Laurence Yang. Les faits parlent par eux même. Des jeux récents et gourmands « fonctionnement bien sur Steam Deck parce que les développeurs ont travaillé et testé la console. Nous avons également pu voir des réponses très positives quand les jeux sont estampillés vérifiés ou jouables pour la console. » Une réponse positive des joueurs signifie clairement une augmentation des ventes. Le fait de développer des jeux en ayant cette compatibilité en ligne de mire est un bon moyen d’augmenter son chiffre d’affaire pour un studio de développement de jeu.

Doom Eternal a bénéficié d’une belle optimisation pour Steam Deck

Au final on pourra retenir une philosophie inhabituelle pour cette machine. Le choix de conserver un prix attractif en évitant l’écueil de la performance maximale est particulier sur ce marché. Et cela évite au passage une autonomie misérable pour le joueur. Mais l’approche très console en terme de renouvellement est peut être l’élément le plus original. Si Valve ne compte pas changer de matériel chaque année, cela a quelque chose de très rassurant.

Pour les studios de jeu, cela les conforte dans l’implication d’un développement prenant en compte la console. C’est important car savoir qu’elle sera là, identique, avec les mêmes performances, dans plusieurs trimestres laisse le temps de travailler une adaptation de son titre. Si le Steam Deck devait disparaitre où être remplacé trop rapidement, les studios seraient évidemment moins enclins à investir du temps de développement dans ce genre d’optimisation.

Par effet rebond, les joueurs vont également avoir plus confiance dans cette volonté de faire durer le produit plutôt que de le remplacer à un rythme effréné. Justement parce que cela encouragera les studios à développer plus de titres et donc à valider la plateforme.

Enfin, cette console particulière profite également de son ADN de PC en ayant reçu de nombreuses mises à jour et optimisations depuis son lancement. Valve n’a pas ménagé ses efforts pour proposer de meilleures performances, une meilleure gestion de sa ventilation, une optimisation de sa batterie et plein d’autres choses encore. Des éléments propres au monde PC où l’on est moins avare sur le développement de pilotes.

Cette première année a donc été bien remplie pour Valve sur ce front. Et il semble bien possible que la minimachine souffle d’autres bougies dans le futur.

Steam Deck : l’avenir rafraichissant proposé par Valve

Le Steam Deck souffle sa première bougie © MiniMachines.net. 2023.

Sponsor, cela veut dire quelque chose

Minimachines.net est sponsorisé par : IAMNUC.COM

Voilà, je viens de raccrocher les gants. Mon dernier appel pour mon dernier boulot de 2022 est terminé. Ce billet est en gestation depuis longtemps mais je voulais couper entièrement les ponts avant de basculer d’un modèle à l’autre.

Depuis la fin de l’année dernière, je vous indique que le sponsoring allait démarrer sur le blog. Il existe déjà au travers des lecteurs qui financent le site directement. Mais désormais des entreprises sont également dans la boucle. Vous avez pu voir leur logo sur les pages du blog mais en réalité, depuis le début de l’année, je n’ai facturé personne. Parce que je n’avais pas encore réussi à me rendre totalement disponible. Toujours empêtré dans des boulots que je devais finir sur des contrats de 2022. Comme j’ai enfin terminé1, je vais commencer à envoyer des factures à mes sponsors.

C’est donc le bon moment pour mettre les points sur les i concernant le sponsoring qui débute réellement maintenant sur Minimachines. Parce que le terme pose un petit problème technique du fait de sa traduction volontairement confuse de l’anglais. 

 

La définition du mot Sponsor par Le Petit Robert

De la définition du mot « sponsor »

Cette année, Minimachines est « sponsorisé » et le terme me semble finalement assez mal choisi. Ou du moins assez mal compris.

Ma rencontre avec le mot sponsor a été, comme pour beaucoup j’imagine, liée au sport. Lors d’événements de cette nature, que ce soit un match de basket, de foot, de rugby mais aussi une course à vélo ou une régate de voile, on découvre assez vite la notion de sponsor. Un mot qui fait plus moderne que le terme « mécène » qui est le plus souvent lié au monde de l’art. Mais dans l’idée c’est un peu la même chose.

Afin qu’un projet soit mené à bien, une entreprise investit pour le financer. Au niveau très local c’est le poissonnier ou le patron de bistrot dont le fils ou la fille fait partie de l’équipe sportive locale qui va payer les maillots tout neufs réclamés par l’entraineur. Il en profite pour inscrire le nom de sa société sur le dos des maillots au passage. Rappelant ainsi aux habitants de la ville que c’est un peu grâce aux poissons qu’ils achètent ou aux cafés qu’ils dégustent que les joueurs vont sur le terrain dans une tenue non dépareillée. Bien mieux que l’affreux gilet fluo plus ou moins bien lavé avec un numéro dans le dos que les enfants enfilaient auparavant. Les parents sont contents, les bambins s’amusent et, le jour où il faut acheter un bar ou aller au bar, on passe plus volontiers par le sponsor que par un concurrent. Bien entendu cela ne signifie pas pour autant que l’entraineur devra choisir le fils ou la fille du patron comme capitaine d’équipe. Sponsor ne veut pas dire donneur d’ordres.

Piochée au hasard, cette équipe de basket de l’Avenir Trémentine est « sponsorisée »

A un niveau régional ou national évidemment les choses changent. Le sponsor ne se contente pas de payer des maillots mais fait également un gros chèque pour mettre en avant sa marque. C’est ainsi qu’on retrouve des sportifs d’exception décorés d’un dossard représentant une banque, une chaine de supermarchés, une compagnie d’aviation ou de la charcuterie industrielle. De gros contrats qui assurent à chaque marque une énorme visibilité et un partage du succès accumulé par les joueurs. Les plus grands clubs sont évidemment les plus chers. Et certains évènements comme la voile ou le cyclisme ont des équipes dont le nom complet est une marque. On peut ainsi compter sur de multiples répétitions à l’oral ainsi que sur la visibilité à l’antenne d’un nom et d’un logo pendant des évènements sportifs très populaires sur des périodes très longues.

Ce bateau s’appelle du nom de son sponsor.

Cela ressemble évidemment à de la publicité mais c’est tout de même un peu différent. D’abord parce qu’il y a une prise de risque de la part du sponsor. On peut très bien payer un bateau qui va coûter très très cher et ne pas réussir à passer la ligne d’arrivée en premier. Pire, le bateau peut avoir une avarie grave, le skipper abandonner la course au bout de quelques heures et tout l’investissement tomber à l’eau. C’est arrivé à des compagnies d’assurance par exemple de financer ce genre fiasco. Une saison sportive prometteuse avec de grands joueurs peut devenir un désastre et la marque sponsor pâtir du partenariat plutôt que d’en profiter.

Enfin, et surtout, la grosse différence entre le joueur d’une équipe dans un stade qui porte le nom d’une marque sur son maillot et celle d’une publicité, c’est l’action qui est menée. On ne demande rien d’autre au sportif que de faire son travail de sportif. Un rameur va ramer, un footballeur va footballer, un bouliste va tiroupointer. Jamais on ne voit un cycliste pendant le Tour de France descendre de son vélo au début de l’étape pour vous raconter en quoi tel ou tel VPN est absolument indispensable pour votre usage informatique. Ou comment tel jeu mobile va égayer vos futures soirées. Non, le cycliste pédale et ne fait que cela. Et c’est une sacrée différence.

Parce que voilà, avoir un sponsor ce n’est pas vraiment exceptionnel. Un petit tour en ligne et on rencontre 1000 sites avec 1000 sponsors2. Et des milliers de vidéastes qui mettent en avant des jeux, des services de VPN, des sites de clés à prix cassé et autres trucs de paris en ligne. En France, il y a donc semble t-il plusieurs sens au mot sponsor.

 

La définition du mot Publicité par Le Petit Robert

Quand un vidéaste vous annonce que sa vidéo est sponsorisée par une marque et qu’il fait ensuite un segment de quelques minutes pour vous présenter le produit de la marque, il n’est pas sous cette forme de mécénat que le mot sponsor rappelle au premier abord en français. Il déroule une page de publicité. C’est exactement de la publicité. Qu’il lise un texte écrit par une agence ou qu’il écrive son propre discours autour de cette marque, cela reste de la publicité. Cela devrait donc s’appeller de la publicité. On le voit souvent aux yeux vides de certains youtubeurs pendant cet exercice. Le déroulé publicitaire rime fortement avec alimentaire. Ils n’ont aucune joie à présenter un énième VPN ou un jeu de Tanks sur mobile avant de parler de leur véritable passion. C’est juste pour bouffer.

Youtube demande de préciser si une vidéo contient une publicité ou non avant la publication.

Alors je n’ai absolument rien contre cela. Je regarde de nombreux vidéastes qui financent leur productions avec ce système et si, en général, j’ai tendance à zapper les segments publicitaires pour aller au contenu, je ne suis pas du tout contre ce principe. Parfois, je tique un peu quand on présente des jeux dont le but avoué est de soutirer un maximum d’argent à des gosses avec des méthodes plus que limites. Mais cela reste en général un système de publicité assez propre. Le vidéaste fait la présentation de ce qu’il qualifie comme « sponsor » parce que cet anglicisme a traversé la manche depuis les vidéos produites aux USA. Une fois le segment publicitaire passé, il propose son propre contenu. Bien. 

Il  va de soi que la principale différence entre un mécénat et un sponsor ici est dans le droit de regard de l’annonceur sur le contenu publié. Jamais un VPN ne va sponsoriser un teste d’un concurrent par exemple. Jamais un jeu en ligne ne va accepter que la chaine traite du problème de l’addiction de ces jeux. La ligne éditoriale du site doit suivre le plus souvent des éléments déterminés à l’avance.

Ce choix sémantique qui a fait préférer le mot sponsor à celui de publicité est bien évidemment lié à la fois aux agences de communication et aux éditeurs. Parce qu’il faut bien le dire, tout le monde aime les sponsors comme tout le monde déteste la publicité.

Tout le monde aime les sponsors comme tout le monde déteste la publicité.

Le truc qui me chagrine, c’est donc la sémantique employée. Le mot sponsor a peut être du sens en anglais pour décrire ce système, mais en français il ne colle pas vraiment. D’ailleurs Youtube ne s’y trompe pas lorsqu’il demande aux vidéastes de spécifier si leur vidéo aura un segment publicitaire, une « communication commerciale », dans son déroulé. Le site ne parle pas de sponsor mais utilise des termes désignant bien une publicité. Plutôt que de parler de sponsor, il faudrait donc parler de pub. On fait de la publicité pour un produit sur quelques minutes en échange d’un financement. C’est très différent du mécénat que l’on entend en général avec le mot sponsor dans le milieu sportif en France.

Le mot est assez mal traduit chez nous. Dans la terminologie financière officielle, la manière dont nous traduisons le mot « Mécénat » par le mot « sponsor » montre que nous qualifions les choses de manière assez différente de la réalité de terrain. C’est comme si le côté « sans contrepartie directe » n’affectait pas le web. Tous les contenus sponsorisés, billets sponsorisés, vidéos sponsorisées, contenant un segment publicitaire en rapport avec celui qui finance sont totalement créés avec une « contrepartie directe de la part du bénéficiaire ». Il s’agit donc bien de publicité.

Ce que le mécénat veut normalement dire c’est un scénario différent de tout cela. On donne de l’argent pour faire vivre un projet. Si cela fonctionne, si le sponsor est content du retour de ce projet en terme d’image, alors il poursuit sa collaboration. Sinon il l’arrête. L’autre grosse nuance, c’est que le mécène n’impose normalement pas de discours ou de sujet au créateur. Il le laisse libre de mener son projet à sa guise.

Ce type de financement indépendant qu’est le mécénat a un autre énorme avantage pour le lecteur. Il n’est pas lié au nombre de vues que le média génère. Qu’il s’agisse de pages web ou de vidéos, le mécénat est fixe. Il est moins rentable pour celui qui produit du contenu qu’une grosse campagne de publicité mais n’a pas d’incidence sur son travail, sur le contenu qu’il produit. Pas besoin de faire des titres racoleurs, pas besoin de coller sa trombine bouche ouverte avec de grosses flèches sur des vignettes vidéo. Pas besoin d’inventer des titres énigmatiques qui ne vous renseignent pas sur le sujet mais vous interrogent ou vous inquiètent pour vous pousser à cliquer coûte que coûte pour assurer un ratio minimal à de la publicité. Le mécène ne s’inquiète pas des mesures d’audience.

Le mécénat finance le contenu d’un projet dans sa globalité et ce n’est pas, au contraire, ce contenu qui doit remplir le quota d’affichage demandé par les annonceurs.

Minimachines a donc désormais des sponsors mécènes

Si cette problématique sémantique me gène désormais c’est que Minimachines est maintenant « sponsorisé ». Avec toutefois cette différence par rapport à ce que le mot anglais suppose. Je l’entends donc bien comme la formule du mécénat que comme de la publicité traditionnelle tout juste maquillée d’un voile  de vocabulaire. C’est bien une forme de publicité, qu’on ne s’y trompe pas, mais sans impact sur le contenu présenté. Les marques qui vont participer à ce mécénat n’auront aucun droit de regard sur le contenu proposé. Les deux éléments resteront totalement indépendants. Si des sociétés décident d’investir dans Minimachines, c’est pour leur image par rapport au contenu déjà existant, pas pour des opérations spécifiques dans des contenus présents ou futurs.

Alors, évidemment, il est fort possible que TopAchat, Geekbuying, Blackmagic Design, Notos ou IAMNUC, qui font partie de ces premiers sponsors, proposent des produits dont je parlerai ici. Il est même possible qu’ils m’envoient des offres promo, des trucs à tester, des lots à faire gagner en concours ou des bons plans que je publierai dans les rubriques adaptées. Mais jamais ces entreprises ne me dicteront le moindre élément éditorial. Cela fait partie du contrat. Elles seront présentes au générique des vidéos et sur le site mais n’auront pas droit à de la « publicité » pour leurs offres via ce « sponsoring ». On est au niveau du logo sur le maillot du cycliste pendant le tour de France, pas sur celui de la page de publicité avant la météo.

Cela ne veut pas dire que je ne ferai jamais de publicité dans mes vidéos. Si un jour une marque me contacte pour mettre en avant un produit que je juge adéquat au travers d’un segment publicitaire et que cela m’assure un bon gros trimestre de financement, je le ferais peut être. Bien sûr je choisirai le produit et n’accepterai pas n’importe quel annonceur. Mais surtout j’indiquerais bien qu’il s’agira alors d’une publicité et pas d’un sponsor. Histoire d’être totalement cohérent et transparent.

Voilà, c’est un billet un rien pénible mais il me fallait le faire pour être au clair avec vous. Cela fait 15 ans que je bloggue désormais et je n’ai jamais accepté un centime contre un billet « sponso » ou une vidéo « publicitaire ». Je pense que faire cette mise au point permettra de garder les choses bien étanches côté finances.

Si vous êtes interessés par cette expérience pour mettre en avant votre marque, n’hésitez pas à me contacter. J’ai préféré créer des segments de sponsoring abordables et multiples plutôt que de confier tout le financement du site à une seule grosse entité comme on me l’a proposé. Cela me demandera sans doute plus de travail à moyen terme mais cela évite toute dépendance trop forte envers une marque. Et donc tout risque de pression de celle-ci sur mes contenus. 

Pierre

Sponsor, cela veut dire quelque chose © MiniMachines.net. 2023.

Intel : le pari réussi des circuits graphiques ARC

Minimachines.net est sponsorisé par : IAMNUC.COM

Il y a un an quasi jour pour jour, j’écrivais un billet sur Intel et son intention de venir s’implanter sur le marché des solutions graphiques avec les puces ARC. Un an après je pense que le pari d’Intel est gagné.

Intel ARC : une commercialisation en demie teinte

On ne peut pas dire que d’un point de vue commercial les solutions Intel aient été une grosse réussite. Il y a bien eu des cartes graphiques disponibles sur le marché mais leur distribution a été plus confidentielle que le battage fait autour des puces concurrentes. Je ne connais pas les chiffres des ventes de la marque mais elle vient d’annoncer une baisse de tarif sur sa propre  solution ARC 750 qui passe à 249$ HT aux US. On peut donc s’attendre à des ventes en augmentation. L’intégration dans des machines mobiles a été assez rare, peu de portables équipés de ces solutions ont pu être aperçu sur le terrain. Les ventes ont donc dû être mécaniquement assez faibles.

Acer a lancé une carte graphique Intel ARC A770 

Mais il faut bien se rendre compte que c’est le début de l’aventure pour Intel sur ce segment et malgré le poids de la marque auprès des constructeurs, il n’existe aucun moyen de changer leurs habitudes plus rapidement. Les principaux fabricants de portables ou de cartes graphiques ont tendance à répéter les recettes qui fonctionnent en boucle. Intégrer un nouvel ingrédient est donc un pari plus ou moins risqué pour elles.

Le MEDION ERAZER Major X10 sous Intel ARC

Pourquoi se mettre à vendre des cartes graphiques Intel quand les modèles AMD et Nvidia fonctionnent ? Pourquoi intégrer des chipsets graphiques Intel quand les retours sur le terrain indiquent que les clients veulent de l’AMD ou du Nvidia ? Evidemment, les acheteurs potentiels se basent sur l’offre disponible et cela fait que la statistique a un peu tendance à se mordre la queue. Mais l’idée générale est là, les grands fabricants de PC portables et de cartes graphiques sont d’énormes paquebots. Il est très difficile de leur faire changer de cap rapidement. Intel en est probablement parfaitement conscient et savait donc dès le lancement de cette plateforme ARC que la première manche serait compliquée.

Un timing presque parfait

La montée des prix chez les concurrents, qu’elle qu’en soit les raisons, a bien entendu poussé certains à tenter l’aventure Intel. Face à des cartes AMD et Nvidia en très nette hausse de tarifs pendant la pandémie et en conséquence des usages des cartes par les cryptomonnayeurs, on a pu voir des internautes déclarer leur flamme pour les solutions Intel ARC. 

Ils étaient prêts à essuyer les plâtres, parés pour une nouvelle aventure et en général peu déçu de leur choix. Cela reste néanmoins un public assez limité. Si la crise des tarifs avait perduré plus longtemps, peut être que l’impact sur les ventes d’un Intel moins onéreux aurait été meilleur. En l’état, le public concerné restait de toutes façons limité à des « spécialistes » capables d’assumer la jeunesse de la gamme. 

Il est bien entendu que sans une implantation plus massive de l’offre ARC par les fabricants et les assembleurs, jamais elle ne trouvera le chemin du grand public. Cela aurait pu se jouer pendant la crise des cartes graphiques mais le marché n’a pas donné le temps à Intel d’en profiter. Toute la bataille concurrentielle est donc encore à mener.

Une gamme solide et bien accueillie

Pour autant la marque a su travailler consciencieusement et produit une gamme de circuits efficaces. La cible d’Intel n’était certes pas d’entrer en concurrence avec les produits majeurs d’AMD et Nvidia. Ceux qui ont voulu le faire croire étaient surtout à la recherche de sensationnalisme. Comment un acteur débutant à nouveau sur  ce segment pouvait t-il espérer rattraper en quelques mois le travail de fond mené par ses concurrents depuis des lustres ? Non, l’objectif d’Intel était de poser un nouveau jalon sur un produit milieu de gamme pouvant convenir à un maximum d’utilisateurs à défaut d’être la chaussure de verre du marché « pro gaming ». 

La différence de performances entre le premier et le  dernier pilote d’Intel sur la ARC A750 LE

Et sur ce segment la carte a été parfaitement accueillie. Les retours des utilisateurs sont bons, leur appréciation globale de l’offre est très correcte et surtout ils semblent apprécier le travail effectué par le constructeur sur les pilotes. Intel a su faire la différence sur ce poste en étant à l’écoute des retours des usagers. Non seulement de multiples mises à jour ont permis de gagner en performances sur les applications et les jeux mais le format même des interface a su être aménagé pour répondre aux attente de leur public.

Les dernières annonces toutes récentes d’Intel montrent que leurs pilotes sont désormais parvenus à maturité avec des gains de performances impressionnants. On parle de 43% de performances obtenues en plus sur les circuits A750 entre le pilote actuel et celui proposé au lancement. Une évolution majeure, ressentie par les utilisateurs, qui montre le travail effectué par les équipes ARC.

Bien entendu, les tests synthétiques globaux, ceux qui vont mettre les ARC face à la concurrence des puces AMD et Nvidia, ne vont jamais positionner la solution d’Intel sur la plus haute marche du podium. Ce qui ne contribuera pas à dorer le blason de la marque. Beaucoup d’acheteurs fonctionnent en regardant qui est le premier puis vont chercher dans cette marque la solution qui correspond à leur budget. Ce n’est pas forcément la meilleure façon de faire mais pour autant, cela reste une habitude assez forte en cas d’achat d’un nouvel équipement. Rares sont ceux qui vont changer de fournisseur de puce graphique. Comme pour les constructeurs, les utilisateurs n’aiment pas trop bouleverser leurs pratiques.

Il faudra donc du temps, un travail continu sur les pilotes, une écoute des besoins des utilisateurs et de nouvelles gammes pour que les puces ARC puissent s’implanter plus profondément sur le marché. Intel en était conscient dès le départ de l’aventure, sachant pertinemment que ce premier jet était une manière de coincer son pied dans la porte d’un marché fermé, dominé sur le segment des circuits graphiques indépendants par AMD et Nvidia. Le but du jeu désormais est de réussir à entrebâiller cette porte pour que le public comme les constructeurs lui fassent un tant soit peu confiance.

xe

Le Xe-HPG

Un futur intéressant

Intel commence à parler du futur de ses gammes avec l’architecture Xe2 « Battlemage ». Derrière ce nom on découvre une nouvelle stratégie pour cette aventure. Quand Intel a lancé la famille Xe en 2020, on comptait pas moins de quatre architectures graphiques différentes dans la gamme. Une manière de proposer au marché de quoi satisfaire les attentes de chaque acteur. On retrouvait donc annoncés les Xe-LP destinés à l’intégration et à l’entrée de gamme. l’architecture Xe-HPG pour le segment large des cartes graphiques, les Xe-HP pour les serveurs et les Xe-HPC pour le calcul haute performance. Quatre architectures différentes. Une vision qui a bien entendu ses avantages mais qui pose de nombreuses questions face à l’offre concurrente. A se demander si cette démarche de fabrication n’est pas liée au fait qu’elle ait été confiée aux ingénieurs du fondeur. En multipliant les architectures on peut en effet largement optimiser la taille des puces et donc leur fabrication. D’un point de vue performances pures, cela permet également de proposer des éléments utiles pour chaque segment. Omettre d’intégrer les fonctions les plus avancées pour les puces entrée de gamme au lieu de simplement les… désactiver.

Au sein de chaque gamme, des déclinaisons techniques.

Pour autant ce foisonnement d’architectures n’a pas que des avantages. En les multipliant on augmente également beaucoup de problématiques techniques. Il faut expliquer plus de choses, commercialiser plus de produits et surtout développer beaucoup beaucoup plus de code. Il faut concevoir et vérifier quatre fois plus de produits, mettre en œuvre une production sensiblement différente en usine et assurer leur maintenance. Cette stratégie a finalement porté préjudice à Intel qui a du annuler certains produits tout en ralentissant le développement de ses pilotes.

 Si pour le moment le futur des puces Intel est basé sur des coeurs « Realto Bridge » issus de versions optimisées des actuels circuits Xe. La génération suivante se conjuguera sous la bannière Xe2. Et nous ne retrouverons alors plus que deux microarchitectures seulement. La gamme « Battlemage » sera composée des Xe2-LPG et des Xe2-HPG qui produiront différentes solutions techniques par soustractions techniques. L’idée globale étant qu’en se concentrant sur moins de silicium, Intel pourra en tirer de meilleurs fruits. Avec des pilotes plus performants et moins de travail d’ingénierie inutile, les gammes seront finalement plus efficaces et moins coûteuses.

Il est amusant de constater qu’Intel s’est d’abord dit qu’en multipliant des architectures différentes pour s’adresser à chaque segment, ils auraient de meilleurs produits. Amusant parce qu’Intel est devenu un spécialiste de la déconstruction de ses processeurs Core en différentes gammes depuis des années. Aujourd’hui le fondeur se rend bien compte que cette solution adoptée par ses concurrents sur ce segment depuis longtemps, est la plus intéressante. Développer une architecture très efficace, complète et solide puis la déployer de différentes manières en ôtant des fonctions suivant les résultats visés semble bien plus pertinent que dessiner trois ou quatre produits différents et autant de sous produits.

Le résultat obtenu par cette évolution stratégique s’est fait sentir  en 2022. Intel a coupé certains segments de son marché comme le Xe-HP destiné aux serveurs. La marque s’est rendue compte assez vite qu’il était possible de proposer aux datacenters ses puces Xe-HPG et Xe-HPC. Cela a permis de gagner du temps de développement pour ses autres architectures tout en concentrant des ressources sur moins de produits pour le futur. De la même façon, penser un Xe-HPC généraliste et le dépouiller de fonctions haut de gamme comme le Raytracing est finalement plus efficace et plus rentable que de développer une solution différente comme le Xe-LP. Plus besoin de développer des pilotes spécifiques pour les solutions intégrées et d’autres pour les cartes graphiques. Le retard pris par Intel pour livrer les circuits Xe-HPG est en grande partie du à ces problématiques de foisonnement.

Avec ARC, Intel a un fort potentiel

La grande question qui reste est dans la volonté d’Intel de continuer à s’impliquer dans ce segment. Si certains ont tenté de déclarer la fin de la gamme ARC dès la publication des premiers résultats des tests des cartes face à la concurrence. C’est parce qu’ils n’ont que le prisme de la performance pure en tête. L’objectif de la gamme Xe n’a jamais été de damer le pion aux dernières productions de Nvidia ou AMD. Au contraire, l’idée était de proposer une alternative en terme de prix, d’encombrement et de consommation.

On l’a vu dernièrement, le fondeur a coupé de nombreuses branches à ses activités. Cherchant à se reconcentrer sur son métier de base qui est de développer des processeurs et de les fabriquer. La gamme ARC fait totalement partie de cette vision et il est donc probable qu’elle perdure. Les sommes engagées en recherche et développement pour mener à bien le projet sont gigantesques et abandonner l’aventure serait donc absurde. Cela d’autant qu’Intel savait dès le début du projet que leurs premières cartes seraient surement un ballon d’essai avant une éventuelle reconnaissance du grand public et des constructeurs.

Pour ma part, je suppose qu’Intel ne va pas abandonner la gamme ARC. Au contraire, le constructeur va concentrer et intensifier ses efforts sur ce poste dans le futur. Une manière pour le fondeur de proposer une solution « tout en un » efficace au public. Avec un duo processeur et chipset aux commandes, il y a moyen de créer des synergies très performantes avec un circuit graphique externe. Intel ne sera probablement pas en mesure de proposer une solution aussi puissante que Nvidia et AMD sur le segment du haut de gamme mais la marque pourrait tout à fait proposer une forte alternative. Moins chère d’abord, mais aussi moins gourmande et tout à fait suffisante pour le commun des utilisateurs.

Des circuits correspondant à la majorité des acheteurs qui ne veulent pas forcément mettre des sommes fabuleuses dans leur circuit graphique. Des utilisateurs qui se satisferont parfaitement d’une jouabilité efficace en FullHD sans chercher à aller au delà. C’est le cas de la majorité des joueurs aujourd’hui. Si l’on en croit les statistiques de Steam c’est toujours la  Nvidia GTX 1650 la carte la plus utilisée sur la plateforme. Une solution très efficace qui ne permet pas d’aller au delà du 1080p sur les titres les plus récents.

La principale leçon laissée par cette première gamme ARC Xe est sans doute là. Intel sait fabriquer des circuits graphiques et  sur ce segment reste très à l’écoute des besoins des utilisateurs comme des fabricants. Ses prochaines gammes devraient monter en puissance tout en respectant cette recette. Et si, en face, AMD et Nvidia resteront devant en terme de performances, Intel aura l’intelligence de proposer une alternative crédible.

 

Intel : le pari réussi des circuits graphiques ARC © MiniMachines.net. 2023.

Abxylute promet une console de jeu en streaming à 249$

Minimachines.net est sponsorisé par : IAMNUC.COM

Inconnue au bataillon, sortie de nulle part, la console Abxylute fait beaucoup parler d’elle en réussissant un tour de passe-passe inédit. Là où Logitech s’est cassé les dents, là où Razer n’a pas réussi la même équation, là où les constructeurs chinois au plus proche des usines de production ne sont pas parvenus au même résultat… Abxylute semble avoir trouvé la formule magique.

L’idée générale n’est pas nouvelle, Abxylute propose sa propre version d’un objet qui est dans toutes les têtes de joueurs depuis un moment. Une petite console portable permettant de jouer facilement et confortablement de n’importe où du moment qu’on ait une connexion suffisante au réseau. Parce que l’idée, ici, n’est pas d’avoir un objet lourd, gourmand et encombrant mais de déporter le calcul des jeux sur un serveur distant. 

Abxylute semble être une startup toute nouvelle sur ce segment et sa proposition est alléchante. Pour 249$1, et même pour 200$ lors d’une campagne de financement participatif qui devrait avoir lieu prochainement, la marque proposerait une solution complète. Pour rappel, le prix public de la Logitech G Cloud est de 349$, La Razer Edge coûte, quant à elle, 399$ dans sa version de base. C’est donc un rabotage de prix sévère que propose Abxylute.

Qu’est-ce que la console Abxylute propose ?

Et pour ce tarif on aurait droit à quoi ? Un écran de 7 pouces de diagonale en 1920 x 1080 pixels, avec 60 Hz de rafraichissement. Aucune mention de la technologie d’affichage employée n’est proposée mais on peut se douter d’un écran IPS sur un engin mobile comme une console PC. Pour accompagner cet affichage, on retrouverait un moteur assez entrée de gamme avec un SoC Mediatek MT8365 (Genio 350) accompagné par 4 Go de mémoire vive. Les solutions Razer et Logitech embarquent des puces Qualcomm Snapdragon aux tarifs bien plus élevés. Le stockage de base serait de 64 Go auxquels on pourrait ajouter le contenu d’une carte MicroSDXC. La connectique montre la présence d’un port USB Type-C pour dialoguer avec la console et recharger sa batterie 5000 mAh. Un port jack audio 3.5 mm est également présent. Le tout fonctionnerait sous Android 12 avec un prise en charge de fonctions classiques comme un gyroscope sont également de mise. Sa partie réseau  serait confiée à un circuit Wi-Fi5 et Bluetooth 5, aucune mention d’un modem 4G ou 5G n’est faite par la marque.

Autour de cet écran, on retrouve une interface de jeu classique de ce type d’engin : deux mini joysticks, des boutons ABXY2, une croix directionnelle, des gâchettes et un format portable très efficace. Des enceintes sont visibles ainsi que des boutons de contrôle classiques. Un système de vibration pour faire réagir la manette est présent et de petites LEDs permettent d’illuminer la console. La Abxylute est annoncée pour un poids de 410 grammes et des dimensions de 25 cm de large pour 11.5 cm de profondeur et 3 cm d’épaisseur à son point le plus haut au niveau des manettes.

Je suis pourtant TRES dubitatif

Cette puce Mediatek MT8365 est une solution quadruple coeur Cortex-A53 à 2 GHz proposant un circuit graphique Mali-G52. Un choix qui permet effectivement de faire des économies et qui ne pose pas de soucis  à priori dans la formule d’Abxylute. Puisque le but est de faire calculer à l’extérieur de la console vos jeux et de les afficher ensuite sur l’écran via un accès au réseau, le principal problème est d’avoir un chipset vidéo capable de gérer un streaming 1920 x 1080 pixels de manière fluide. Or, le chipset Mali-G52 peut tout à fait prendre en charge un flux vidéo FullHD en temps réel, c’est complètement dans ses cordes.

Là où je m’inquiète un peu plus, ce sont dans les éléments à côté de ce poste de base. Le premier bémol vient de la capacité de traitement réseau de ce SoC. Car la puce ne dispose en réalité d’aucun module réseau sans fil actif. Ils sont totalement désactivés par défaut dans ce modèle. Le choix de ce Mediatek MT8365 est donc difficile à comprendre puisqu’il a été construit pour équiper des systèmes IoT ou multimédia connectés en Ethernet. Il dispose en effet d’une solution en 10/100 sur ce poste et toutes ses fonctions Wi-Fi et Bluetooth sont par défaut désactivées. Imaginez le MT8365 comme la puce qu’on intègre dans une télé entrée de gamme ou dans une TV-Box. Ce n’est pas moi qui le dit d’ailleurs, c’est Mediatek lui même à plusieurs endroits. Jamais la marque n’a commercialisé ce SoC pour venir se loger dans un produit mobile. On ne pourrait pas choisir un plus mauvais candidat pour une console en streaming.

La réponse à cette étrange décision d’Abxylute pourrait être liée au choix de ce SoC accompagné d’un modem Wi-Fi extérieur comme les « companion chips » MT6631 ou MT7663 proposé par Mediatek en option… Mais cela n’a aucun sens. D’abord parce que les formules SoC ARM + modem Wi-Fi externe sont plus coûteuses que les éléments intégrés de base. Il faut additionner le prix de deux puces mais également les gérer logistiquement et les intégrer sur un PCB. Cela prend de la place dans une console où on recherche avant tout de la compacité. Et cela demande des ressources supplémentaires pour n’avoir au final aucun service en plus.

Ensuite, pour quelle raison choisir alors une solution Wi-Fi5 et Bluetooth 5.1 alors qu’il existe pléthore de composants externes Wi-Fi6 ou 6E et Bluetooth 5.3 en externe. Quitte à faire le choix d’un composant différent et séparé du SoC, autant choisir la solution la plus pertinente et pérenne du moment, non ? Et si cette recherche d’une solution externe au SoC se justifiait alors par une envie de souplesse ? Je veux bien entendre l’argument mais Mediatek propose des SoC intégrés, destinés au matériel mobile, avec Wi-Fi6 et Bluetooth 5.x pour à peine plus cher que le MT8365. Des puces proposant les mêmes garanties d’approvisionnement que celle choisie et donc la même sécurité dans la production. Tout en garantissant une intégration plus simple dans l’objet lui même.

Abxylute : une société toute neuve et sortie de nulle part

Ce premier élément m’a mis la puce à l’oreille mais j’ai préféré continuer à creuser. Mes contacts en Chine étant en train de fêter la nouvelle année du lapin pendant que Abxylute révélait ses plans, j’ai du attendre un petit peu. Les premières réponses que je viens de recevoir sont assez édifiantes. D’abord personne n’a entendu parler d’eux en Chine. La société Shanghai ABXY Tech Co., Ltd. est inconnue au bataillon. Elle est bien enregistrée depuis Septembre 2022 aux USA vers une adresse située en Chine : « No. 6055 Jinhai Highways, Fengxian District Shanghai City CHINA 201400 ». On y reviendra plus bas.

Mais surtout les constructeurs locaux ne voient absolument pas comment dégager le moindre bénéfice avec ce type de produit au prix où il est annoncé. Localement, ce serait déjà une opération à perte pour le moment, avec une distribution à l’international et en comptant les éléments d’assurance, de distribution et de garantie, la console à ce prix et avec les composants annoncés n’est absolument pas viable financièrement parlant.

Cela pourrait avoir du sens dans une optique de long terme. Avec des reins assez solides pour vendre la console à perte et assurer ainsi l’avenir de la marque sur un terrain de jeu tout neuf. Abxylute pourrait ainsi se faire un nom et proposer dans le futur des solutions plus rentables. L’idée d’un prix d’appel avec un financement participatif limité pourrait également avoir du sens avant une commercialisation à un tarif plus élevé. Enfin, adossé à une offre partenaire comme celle de Nvidia ou celle de Microsoft, en récupérant des commissions sur d’éventuels abonnements à leurs services en longue durée, serait également une manière de faire fructifier le produit. Puisqu’il sera nécessaire de prendre un abonnement de jeu en streaming de ce type, on peut imaginer que la société travaillerait avec ce type d’offre. Pour le moment rien n’est indiqué de ce côté sur le site d’Abxylute.

Vous le savez, je suis assez méfiant quand il s’agit de financement participatif. Le fait que la pratique bascule de la zone confortable du commerce en ligne très protégée par de multiples lois pour entrer dans la zone de l’investissement qui, par essence, est une zone à risques, me laisse en général sur mes gardes. D’abord parce que, suivant les sites employés pour gérer ce financement, il n’y aucune garantie que les acheteurs ne reçoivent quoi que ce soit. Ensuite parce qu’on a vu par le passé des expériences similaires qui ont mené à de belles débâcles. Vous pouvez parcourir le détail de l’aventure de la console Smach-Z si vous voulez vous rafraichir la mémoire.

Les vidéos proposée par Abxylute sont celles d’un prototype qui permet de jouer en streaming. Rien ne nous dit qu’il s’agit d’un réel prototype. Moyennant finance, on peut aujourd’hui obtenir une impression 3D de ce gabarit avec une excellente finition dans laquelle on va coller un écran et un équipement de smartphone et proposer exactement le même résultat. Je ne dis pas que c’est ce qui est proposé ici, je dis juste que c’est totalement faisable et au vu des sommes récoltées par certaines campagnes frauduleuses – on parle de centaines de milliers de dollars et parfois plus – ce n’est pas un investissement surdimensionné de dépenser 2 à 3000 dollars dans la réalisation d’un prototype et d’un site convaincant.

Le compte Twitter de la marque montre de son côté des images d’un prototype imprimé en 3D avec des composants en cours de test et des plans de design de la console. C’est plus encourageant mais, encore une fois, cela ne veut rien dire en terme de R&D. Je pourrais proposer le même genre de contenus depuis ma cave.

Autre élément intéressant, le site de la marque pointe vers une adresse aux USA. Le « 100 N Howard St Ste W Spokane, WA 99201-0508 ». C’est l’adresse d’une société de domiciliation au nom Washington Registered Agent LLC. Une société proposant un service de boite postale qui, pour 65$ par an, reroute votre courrier où bon vous semble. Leurs arguments sont nombreux mais un active toujours mes sens d’araignée : « Utilisez notre adresse, cachez la votre ». C’est une technique bien évidemment légale et utilisée par des sociétés tout à fait légitimes. C’est notamment le cas de beaucoup de sociétés asiatiques qui veulent une sorte de « pied à terre » en Europe ou aux USA pour qu’on puisse les contacter par courrier sans avoir à payer un affranchissement à l’international.

L’adresse en Chine est d’ailleurs également celle d’une autre boite postale. Le « No. 6055 Jinhai Highways, Fengxian District Shanghai City CHINA 201400 » est un bâtiment regroupant des milliers de sociétés allant de l’industrie textile à de la recherche génétique et un véritable bataillon de sociétés d’import-export électronique. Une voie sans issue de plus.

Tout cela additionné à une intracabilité du déposant du nom de domaine de la marque qui se cache derrière un service d’enregistrement, font qu’il n’y a aucun moyen de rattacher la marque Abxylute à qui que ce soit. Cela ne veut pas dire qu’il y a forcément anguille sous roche mais que le véritable propriétaire du nom de domaine, l’entité qui gère cette activité, ne veut pas qu’on sache qui il est. D’ailleurs « l’histoire » de la marque n’informe en rien sur ses propriétaires qui devraient pourtant être fiers de leur travail.

 

Le lien « Privacy Policy » d’Absolue mène vers une page du site OnePlus.

Le code source en question

En fouillant plus loin dans les « Terms of Sale » du site, j’ai découvert d’autres bizarreries typiques de pratiques plus ou moins « propres ». Par exemple, ces éléments juridiques proposés par le site d’Abxylute sont en réalité le copié-collé de ceux de la marque… Oneplus ! Il s’agit d’une copie complète du document juridique où un simple remplacement du mot ONEPLUS a été fait par le mot ABXYLUTE. Cela se voit à quelques détails…

Minimachines-01-2023 Minimachines-01-2023

A gauche les « TERMS OF SALES » de Oneplus. A droite ceux de Abxylute

Un autre élément de ce document est « problématique ». Il s’agit d’une mention du service juridique international JAMS employé par ONEPLUS pour gérer divers soucis légaux. Un service fort coûteux piloté par une équipe de juristes internationaux dont le prix est probablement trop élevé pour une marque qui veut proposer des consoles « Low-cost ». C’est absolument impossible que Abxylute puisse employer ce service. Il n’y a qu’a regarder le site JAMS pour comprendre qu’ils n’en ont pas les moyens.

Enfin, l’ensemble du site est piloté par une solution Shopify qui permet de monter ce genre de structure en quelques clics. Tout cela ne veut absolument pas dire que cette marque est frauduleuse. La console peut tout à fait exister mais je suis pour le moins concerné par ces éléments. Le choix d’un SoC mal positionné au vu de la destination de la console. Le fait de n’indiquer aucune identité précise. La marque Shanghai ABXY Tech Co., Ltd inconnue au bataillon chez les fabricants. Le fait que personne ne semble assumer être l’auteur de ce produit révolutionnaire… Tout cela me laisse fortement perplexe.

Je veux bien qu’une startup fasse des erreurs et prenne des raccourcis comme le copier-coller malheureux d’un document légal d’une autre entreprise. Qu’elle se cache quelque peu derrière des solutions de courrier en boite postale ou autres. Mais je vous encourage vraiment à rester prudent avec une boite qui démarre en fanfare en proposant une solution qui n’a été trouvée par aucun autre acteur, présent depuis longtemps, sur ce segment. Une société qui compte distribuer son produit miracle via un financement participatif alléchant. On connait cette recette, elle ne fait pas toujours de véritable omelette mais casse en général beaucoup d’œufs.

Abxylute promet une console de jeu en streaming à 249$ © MiniMachines.net. 2023.

Les portables du CES 2023 : quelques tendances marquantes

Minimachines.net est sponsorisé par : IAMNUC.COM

Le CES 2023 est terminé et le moins que l’on puisse dire est qu’il a été riche en propositions techniques et en nouveaux modèles de portables. Si l’ensemble des annonces a quelque chose qui se rapproche d’une avalanche, il permet de voir les grandes tendances qui se dessinent pour cette nouvelle année.

Gartner estime que les expéditions de PC ont chuté de 28.5% au 4e trimestre entre 2021 et 2022

Le premier élément à prendre en compte au sortir de ce CES 2023 est que le marché n’est pas à la fête. Les analystes qui étudient les livraisons de machines font tous les même constat. Le secteur va mal, très mal, avec des baisses de presque 30% des livraisons au dernier trimestre . Cela s’explique par les excellents scores de l’année dernière, la queue de peloton de la période COVID qui a permis aux fabricants de continuer à avoir des ventes supérieures aux prévisions. Ce chiffre est donc sensible mais il s’agit d’une correction par rapport à ceux du passé.

Mais ce n’est pas forcément une nouvelle positive pour autant, les constructeurs sortent d’une période où ils n’ont pas pu travailler comme ils le souhaitaient dans un contexte tendu qui les a également obligés à écouler un stock de machines à tout prix avant l’arrivée de nouvelles puces. Entre le spectre de la pandémie d’un côté et l’enclume de nouveaux processeurs et circuits rendant instantanément leurs modèles récents moins attirants, les fabricants ont du prendre des décisions. Beaucoup ont utilisés la période des fète pour écouler des stocks de machines à petit prix et à bien regarder ce début de soldes, on constate qu’il ne reste pas grand chose à se mettre comme portable sous la dent.

Dans ce climat « un peu » compliqué, et parce que les constructeurs se doutaient de ce scénario bien à l’avance, les annonces de ce CES 2023 ont été finalement assez sages. Il y a bien entendu des produits un peu extravagants et des annonces assez audacieuses comme c’est toujours le cas sur ce salon. Mais cela reste plus un moyen d’attirer les projecteurs qu’une véritable volonté de percer économiquement. On retiendra par exemple le Lenovo Yoga Book 9i et ses deux écrans ou le ThinkBook Twist qui mixe OLED et E Ink. Des modèles qui montrent le travail de défrichage permanent de Lenovo. Les solutions ProArt StudioBook d’Asus et leur écran 3D. Ou les écrans Samsung Flex, encore en prototype mais qui dévoilent peut être des compétences d’avenir. Mais ces modèles ne feront pas le marché, tout le monde en est conscient dès aujourd’hui. Avec des prix souvent élevés, ces solutions ne seront pas autre chose que des produits de niche, peu vendues par rapport aux chiffres globaux du secteur. Ce qui fera gonfler ces chiffres seront des engins plus « classiques » qui hériteront de certains traits techniques présentés pendant ces quelques jours de Show.

 

La brillante victoire d’Intel au CES 2023

Sur le segment Minimachines de ce Consumer Electronic Show, il n’y a pas vraiment de doutes quand à l’écrasante victoire d’Intel sur AMD et ARM. Quasiment aucune machine n’est présentée sous processeur AMD, encore moins sous processeurs ARM. Je n’ai pas parlé de tous les engins et en particulier j’ai fait l’impasse sur les 16 et 17″ orientés jeu ou création qui sortaient du cadre des engins vraiment mobiles ou discrets. Sur ces segments, il y a bien des solutions AMD et la marque y joue des muscles de manière efficace. Mais pour le lancement de ses nouvelles gammes de puces mobiles, on ne peut pas vraiment dire qu’AMD ait fait le plein.

Quasiment tous les constructeurs ont d’abord lancé des engins sous Intel Core Raptor Lake mobile. La large gamme d’Intel permet aussi bien de construire des ultraportables très légers que des machines classiques ou des productions très performantes. Le CES étant un salon très concurrentiel sur ses annonces avec une série de conférences de présentation qui s’enchainent de manière extrêmement rapprochée, le fait qu’Intel décoche le premier sa présentation de ses nouveaux processeurs a sûrement un impact fort sur le déroulé des annonces. Un constructeur comme Acer, par exemple, a lancé ses nouveaux portables sous Intel au tout début du salon quasiment en même temps qu’Intel annonçait ses puces. Son modèle Swift Go 14 sous Ryzen 7735U a du attendre la présentation plus tardive des puces Ryzen pour être totalement dévoilé. Ce n’est clairement pas ce que souhaitent les constructeurs aujourd’hui.

Je ne doute donc pas que des constructeurs vont proposer plus de modèles AMD Ryzen 7000 dans les mois qui viennent mais sur le CES 2023, Intel s’est taillé la part du lion en terme d’annonces. Mis à part quelques produits comme le HP Dragonfly Pro qui se décline d’office en AMD et Intel, la très très grande majorité des constructeurs a présenté des Core Raptor Lake.

 

Intel Xe ou Radeon, les circuit graphiques intégrés évoluent en performances

Le changement de génération de processeurs apporte également également une hausse globale des capacités graphiques des machines. Si aucune des deux offres processeur n’embarquent des solutions capables de rivaliser avec les nouvelles puces RTX 40 mobiles présentées par Nvidia, elles sont assez puissantes pour permettre aux utilisateurs de nombreux usages confortablement.

Il ne sera pas nécessaire de choisir un portable équipé d’une puce graphique secondaire si vous choisissez un engin récent. Si votre usage se limite à des jeux en définition classique, à des titres assez anciens ou si le marché des jeux indépendants a plus de charme pour vous en mobilité que les blockbusters plus exigeants. Les Intel Xe et autres RDNA seront suffisants. 

Pour les usages créatifs, toujours clairement à l’honneur aujourd’hui dans les préoccupations marketing des fabricants, ces puces sont également largement suffisantes pour une majorité d’usages. Retouche photo, montage vidéo avec une limite sur le rendu évidemment, création musicale, publication numérique ou papier… Tous ces usages sont parfaitement pris en charge par la majorité des circuits graphiques embarqués. Evidemment, le confort ne sera pas identique sur une machine ultraportable de 1 Kg que sur un PC sédentaire où la carte graphique consommera à elle seule le double de votre machines mobile complète. Mais cela restera possible et pour les solutions les plus haut de gamme assez confortable. Le RDNA3 comme les Intel Xe des versions Core les plus évoluées permettant aujourd’hui des comportements tout à fait efficaces.

 

Des modules de mémoire vive DDR5 signés Micron

La généralisation de la DDR5, du NVMe Gen 4 et… des soudures

D’un point de vue matériel, on découvre également une évolution quasi générale de la mémoire vive DDR4 vers la DDR5. La transition s’est faite en un an avec l’arrivée des Intel Raptor Lake mobiles et des puces  AMD Ryzen 7000 Mobile. Cette transition s’est faite avec moins de heurts qu’anticipé. La transition de la demande du marché de la DDR4 vers la DDR5 a permis aux modules de mémoire d’augmenter largement leur production et de baisser leurs tarifs. La crainte d’une mémoire DDR5 faisant exploser les prix des machines est donc passée .

En parallèle de cette évolution de gamme, on assiste malheureusement à des changements de comportement de la part des constructeurs. Comme si l’arrivée de cette nouvelle norme autorisait désormais la possibilité de proposer plus souvent des éléments soudés aux carte mères. Cette évolution est évidemment liée aux changements de formats des portables qui sont encore et toujours plus fins. Il est difficile de proposer des modules So-DIMM sur ce genre de design et les constructeurs ont donc recours à des solutions soudées. Le danger est dans la proposition de machines limitées en terme de mémoire et non évolutives. Cela sera probablement un piège dans les offres de cette année. Ne pas acheter un modèle en 8 Go de mémoire soudée mais lui préférer une solution évolutive ou basculer directement vers un modèle 16 Go par défaut semble la bonne démarche.

Le stockage a définitivement basculé vers le NVMe PCIe Gen 4, il ne me semble pas avoir vu de portables équipés d’autre chose que ce type de solution. Le format est toujours en M.2 et on en sait pas vraiment de quel type il s’agit en longueur mais c’est toujours du NVMe PCIe Gen 4. Un bon point pour  équilibrer le marché et permettre des comparaisons sur d’autres postes.

 

Le différentes normes de couleurs

Des écrans de plus en plus contrôlés

Le CES 2023 signe le quasi abandon de la formule 1920 x 1080 classique au profit du 1920 x 1200 pixels. Le passage d’un format 16:9 au format 16:10 est plutôt une bonne idée et colle surtout aux dimensions nouvelles des engins portables. Avec des bordures fines sur les côtés apparues il y a quelques années, les machines ont d’abord cherché à donner un côté plus large à leurs écrans. Ces derniers temps, les  constructeurs ont également réussi à réduire les bordures hautes et basses de leurs écrans et ont donc pu l’allonger un peu. Cela a permis ce passage du 1080 pixels de haut vers du 1200 pixels. Une auteur bienvenue pour les utilisateurs dont un des usage principal aujourd’hui est le surf. Les quelques 120 pixels de plus en hauteur permettant d’afficher une page plus grande ou de garder une interface efficace sur leurs machines.

Il me parait difficile de proposer moins que du FullHD sur le secteur à l’avenir et ce format semble même difficile à tenir face à la concurrence posée par le 1920 x 1200 pixels. Il est par contre assez inquiétant de ne voir quasiment plus aucune production employant du 3:2 aujourd’hui. Un format pourtant plébiscité par de nombreux utilisateurs. Comme si le 1920 x 1200 pixels coupait la poire en deux entre l’école « cinéma » du 16:9 et l’école « document » du 3:2.

Autre point qu’il est facile de constater, la grosse percée de la colorimétrie sur le secteur. Chaque dalle ou presque est désormais validée d’une manière ou d’une autre dans sa gestion des couleurs. Les machines sont, au moins, 100% sRGB. Mais de nombreux modèles vont plus loin en choisissant la norme plus drastique du DCI-P3. La validation Pantone fait également une apparition qui, encore timide, semble donner des arguments à cette volonté de justesse de la colorimétrie.

Cette volonté de contrôle de la couleur est difficile à expliquer d’un point de vue fabricants. Certaines gammes de machines n’en ont pas besoin et le public d’acheteurs ne la réclame pas. Il faut aller du côté des fournisseurs de dalles pour la comprendre. Les fabricants d’écrans, ceux qui construisent les affichages qui seront implantés dans les machines, se font une guerre concurrentielle sans merci et leur nouvelle marotte est dans cette certification. Le point clé à retenir est qu’en choisissant des écrans de ce type les marques de portables choisissent des produits haut de gamme sérieux. Le fait que la concurrence entre les différents fournisseurs pousse à cette validation colorimétrique en amont de la volonté des constructeurs n’impacte donc pas les prix de vente des PC outre mesure. Un mouvement bénéfique pour les utilisateurs au final.

Le Asus Zenbook Pro 14 OLED

L’OLED n’a pas fait tâche d’huile. Si il existe des marques qui font de ce type de dalle un véritable cheval de bataille comme Asus, le gros du marché reste fixé sur des dalles IPS moins onéreuses. La réputation sulfureuse de l’OLED lié aux écrans de télévision de première génération et à leur « marquage » de dalle fait sans doute encore un peu peur au grand public. Mais c’est probablement parce que les dalles IPS ont monté en gamme et proposent désormais à la fois une bonne gestion des couleurs, une excellente luminosité et des taux de rafraichissement équivalents que le marché reste positionnés dessus. Avec des prix plus abordables, ces excellentes dalles IPS permettent de construire des machines économiquement plus attractives.

L’OLED finira par percer au fur et à mesure qu’il sera reconnu par le grand public pour ce qu’il propose : une image magnifique et fiable, avec une colorimétrie juste et des contrastes profonds. Les dalles OLED restent impressionnantes et beaucoup d’acheteurs confrontés à ces machines OLED en ressortent comme hypnotisés. Reste que pour le moment la transition est lente à cause des seuils psychologiques de prix des machines. Cette technologie est rarement implantée dans des engins milieu de gamme mais sert surtout à faire passer la pilule d’un prix élevé de l’entièreté des composants employés. On n’aura droit à de l’OLED que  si on casse sa tirelire et accepte de payer le prix fort est également perçu comme, si on choisit le haut de gamme, alors on bascule du monde classique de l’IPS aux monde « merveilleux » de l’OLED.

La démocratisation de l’OLED attend encore une diminution de son tarif. Peut être qu’un constructeur choisira d’implanter un jour une de ces dalle sur un engin milieu de gamme en proposant une solution abordable avec « juste » le surcout de l’IPS vers cette technologie. Et cela fera basculer le marché.

 

Le retour à une connectique plus sage

Après une quasi disparition des connecteurs standards sur les machines ultramobiles il y a quelques années, les constructeurs semblent avoir compris que les caprices techniques de leurs usages spécifiques n’étaient pas les mœurs de la majorité. Il reste quelques engins qui ne proposent que des ports USB Type-C et font l’impasse sur les usages de monsieur et madame tout le monde au quotidien. Mais ils sont beaucoup moins nombreux qu’auparavant.

La majorité des machines proposent désormais une solution comprenant deux ports USB Type-C – Thunderbolt 4 ou USB 4.0 – mais également au moins un port USB Type-A et un port HDMI plein format. L’époque où les constructeurs se débarrassaient de la problématique de leur absence en parlant de dongle ou autres hub USB semble révolue. Il reste quelques modèles encore équipés uniquement de ports USB Type-C mais ils ne visent clairement pas le grand public.

Toujours dans l’idée de se connecter, si le port Ethernet a totalement disparu, le passage au Wi-Fi6 et Wi-Fi6E est désormais acté. La totalité des machines a basculé sur ces formules très rapides et s’est lié à des Bluetooth 5.x. Ce constat est à rapprocher du premier point et de la réussite d’Intel. Il faut d’ailleurs y voir un lien de cause à effet. Sur ce CES 2023 l’écrasante majorité des engins sous processeurs Intel embarquent une solution Wi-Fi signée du fondeur. Un duo qui doit permettre à Intel  d’améliorer ses marges et aux constructeurs de faire des économies. Avec une implantation plus simple et un tarif « groupé » des composants, c’est une formule économiquement gagnante pour tout le monde.

Autre point à ne pas négliger, les efforts faits par les marques pour proposer des chargeurs en USB Type-C avec des fonctions de charge rapide. Il reste des fabricants qui emploient un bloc secteur spécifique mais c’est souvent en plus de cette charge rapide. Une analyse assez simple de la situation explique ce mouvement en quelques années des ports d’alimentation vers l’USB Type-C, les acheteurs n’en veulent plus dans leur très grosse majorité. Le marché s’est donc adapté.

 

La Webcam a définitivement pris du galon

Les webcams ont été analysées comme des outils vraiment utiles pour la première fois par le grand public pendant les périodes de confinement liées au COVID.  Depuis les constructeurs ont compris que les modèles qui étaient jusqu’alors employés pour remplir les fiches techniques devaient avoir un peu plus de capacités. Au CES 2023, plusieurs grandes tendances se dessinent comme l’apparition quasi systématique de modèles 1080P. Les rares webcam en 720P qui subsistent sont perçues comme inférieures ou moins adaptées au besoin du quotidien. Le télétravail est devenue une ressource, la présence d’un modèle capable de diffuser un flux de manière lisible est désormais un élément indispensable aux acheteurs. C’est même devenu un élément plus regardé que d’autres point fondamentaux des machines. 

Autre élément phare, la présence dans la majorité des solutions de modules infrarouges destinés à la reconnaissance faciale. Le passage à Windows 11 du marché et l’importance des modules de sécurité TPM 2.0 présents et actifs au sein des machines pour pouvoir obtenir une compatibilité du système semble avoir réveillé les fabricants de portables. Quitte à implanter des éléments de sécurité, autant rajouter cette fonction biométrique peu couteuse au sein du module caméra. Cela permet à certains de se démarquer comme MSI avec ses modules Tobii Aware

Les constructeurs prennent également de plus en plus soin de la confidentialité de leurs clients. On retrouve sur ce CES 2023 de nombreuses machines proposant un système de confidentialité pour obturer ou désactiver les webcams embarquées. Un bon point qui devrait désormais être une règle quasi générale.

 

L’autonomie n’est plus vraiment un sujet pour les constructeurs

Force est de constater que les autonomies des machines ont été chassées des discours des fabricants. Il y a encore quelques années les constructeurs insistaient lourdement quand leurs machines atteignaient 8 heures d’usage mixte dans une journée. Aujourd’hui, cela semble normal à tout le monde de proposer plus que ce chiffre. Les rares à préciser encore l’autonomie de leurs modèles sont ceux qui atteignent des chiffres record, plus de 14 heures d’usage mixte par exemple. Le gros du cheptel mobile est désormais situé au dessus des 10 heures et les constructeurs sont passés à autre chose.

Il faut dire qu’avec des usages qui évoluent, il semble de plus en plus délicat de considérer réellement comment les machines seront utilisées. On peut désormais trouver des ultraportables aptes au montage vidéo ou au jeu. Leur autonomie constatée dans ces usages sera évidemment très différente de celle d’un utilisateur exploitant son PC comme un lecteur multimédia et une machine à écrire des emails.

Il est, semble t-il, plus pertinent de parler de chargeurs rapides et efficaces que de répondre de l’autonomie des batteries. Le recours à des chargeurs remettant d’aplomb une batterie en quelques minutes est finalement plus convainquant à l’usage que la promesse d’une autonomie record. Un des sujets du prochain CES 2024 devrait être l’arrivée des chargeurs GAN en masse chez les constructeurs. Ceux-ci ne sont pour le moment pas encore sortis des cartons d’origine.

 

Le format 14 pouces, vraie star du CES 2023

Toujours plus fins, toujours plus compacts, les ultraportables du Show sont toujours focalisés sur un format à cheval entre le format de la feuille A4 Européen et le Letter US. Un encombrement qui correspond aux mesures classiques d’un bagage du quotidien. Du sac à dos à la mallette, si votre PC peut tenir dans ces dimensions alors vous pourrez l’emmener partout avec vous. Ce qui va changer en 2023, c’est la diagonale disponible autour de ce même encombrement.

Nous sommes allégrement passés du 13.3 pouces des années 2020 à 2022 au 14 pouces pour ce CES 2023. Le format est partout et propose peu ou prou le même encombrement que les 13.3 pouces d’il y a quelques années. Difficile de voir ce qui a motivé ce changement quasi général chez tous les constructeurs. Peut être est-ce lié tout simplement à l’offre des fabricants de dalles qui proposaient des solutions de cette taille pour un prix semblable ou proche aux 13.3″ avec en plus des options plus variées de définition ?

Le ASUS Rog Zephyrus G14 fait rimer jeu vidéo, création et 14″ de diagonale

Une chose est sûre et doit reste à votre esprit, si vous voulez acheter une bonne machine en 2023 il y a fort à parier qu’elle sera en 14 pouces. Regarder le catalogue de l’offre sous le prisme de cette diagonale d’écran vous fera surement gagner du temps. 

Le reste des formats est assez fidèle aux habitudes prises par les constructeurs. Les modèles hybrides sont toujours là avec des solutions permettant des usages en mode tablette ou en format classique. On retrouve des options tactiles même si elles sont, semble t-il, moins nombreuses sur les machines standard. La mode des dalles capacitives en doublon de pavés tactiles désormais gigantesques, semble être passé. Le faible appétit des acheteurs pour des écrans brillants imposés par ces technologies étant peut être entendu par les constructeurs. Désormais, soit on achète un hybride qui sera, par définition, tactile. Soit on choisit une machine standard avec peut être une option tactile sur certains modèles. Le marché a semble t-il fini d’imposer des écrans capacitifs partout et pour tout le monde.

 

Des tarifs sensiblement plus élevés

Les prix des engins présentés sur ce CES 2023 semblent avoir impressionné pas mal de monde. Parfois exprimés en dollars et ensuite traduit en euros plus ou moins approximativement, parfois directement exprimés en euros suivant les constructeurs, ils semblent beaucoup plus élevés que les modèles de 2021 et 2022. A cela plusieurs raisons. 

D’abord parce que les prix de beaucoup de composants ont augmenté. Le recours à de la DDR5 au lieu de la DDR4 n’est pas aussi violent qu’escompté mais génère tout de même une hausse des tarifs. Les SSD NVMe PCIe Gen 4 sont également plus chers que les modèles de générations inférieures. Enfin, la qualité des dalles proposées ont un impact comme l’ensemble des ajouts de cette nouvelle génération décrits ici même : connectique, réseaux et accessoires.

Le fait que les prix globaux du marché aient augmenté joue un rôle indéniable sur les prix des engins. La situation actuelle du marché Chinois pèse également sur les constructeurs qui restent dans une certaine incertitude face au déroulement de l’année. En contraste, on est également forcé de constater que les prix de la fin de 2022 étaient spectaculairement bas. C’est lié aux mauvaises expéditions indiquées au début de ce billet. Certains constructeurs n’ont pas hésité à brader des produits pour maintenir leurs chiffres à des niveaux corrects. Le contraste avec les prix publics de 2023 est donc d’autant plus saisissant.

Cela conjugué au fait que le CES 2023 ne met en avant que des produits orientés vers le haut de gamme et non pas la totalité des machines qui seront présentes sur l’année contribue à donner cette impression d’une hausse généralisée des tarifs. Je ne la nie pas et il est facile de constater que les bonnes affaires réalisées entre octobre et décembre 2022 ne sont plus au rendez-vous aujourd’hui.

Il ne faut cependant pas généraliser l’offre du CES 2023 à l’ensemble de la production de l’année. Les prix publics sont souvent rattrapés et corrigés par le marché. Il est possible que ceux-ci dévissent au gré des jeux concurrentiels, de l’appétit des acheteurs qui force les marques à réviser leurs ambitions et des évolutions des prix des composants. Certains produits présentés ne sortiront pas avant le troisième ou le quatrième trimestre. Le reste de la production classique, celle que les constructeurs ne peuvent pas exposer sur un salon comme le Consumer Eletronic Show où les mètres carrés coutent vraiment extrêmement cher, profiteront des mêmes évolutions du marché à des prix plus compétitifs.

 

PS : Ce billet sur le CES 2023 est « sponsorisé »

Comme je vous le disais en début d’année, Minimachines a désormais des sponsors. Grâce à IAMNUC, TopAchat et Notos.co, je n’ai pas besoin de courir après des promos ou des bons plans1. Il y a un an à la même période, j’aurais du passer ma journée à suivre les soldes pour mettre à jour la page dédiée comme un malade histoire de payer mes factures. Aujourd’hui grâce à mes sponsors et à vos dons, j’ai passé la journée à compiler les notes que j’ai prises pendant le Show et à vous écrire ce billet. Qui dit sponsor ne dit pas forcément contenu acheté. Aucun des trois sponsors n’a d’intérêt particulier à ce que je rédige ce billet. Ils sponsorisent le blog pour son contenu global et pas pour une opération particulière. Je leur en suis donc très reconnaissant et je reviendrai probablement sur ce concept de sponsor dans les jours à venir.

Je suis également reconnaissant envers tous les particuliers et toutes les entreprises qui ont décidé de financer ponctuellement ou de manière récurrente le blog depuis le début de son aventure. Vous êtes particulièrement nombreux à rejoindre le mouvement en ce début d’année et cela me fait évidemment très plaisir. C’est également grâce à vous que ce genre de billet existe ici sans publicité ni cookies.

Les portables du CES 2023 : quelques tendances marquantes © MiniMachines.net. 2023.

AMD Ryzen 7000 Mobile : Zen 4 et RDNA 3 entrent dans la danse

Minimachines.net est sponsorisé par : IAMNUC.COM

Avec pas moins de cinq gammes de puces annoncées, la nouvelle génération de processeurs AMD Ryzen 7000 Mobile est assez touffue. On retrouve des puces entrée de gamme avec les « Mendocino » mais également des évolutions par paliers jusqu’aux impressionnantes solutions « Dragon Range ». On va essayer d’y voir un peu plus clair.

AMD a annoncé sa nouvelle méthode de désignation de processeurs en septembre dernier et il est indispensable de réviser un peu celle-ci avant de commencer. Certains trouvaient les dénominations d’Intel compliquées, accrochez votre ceinture, celles d’AMD ne sont pas forcément plus simples à suivre. Il faut juste se rappeler que chaque chiffre correspond à un élément spécifique, comme un code secret qu’il faut apprendre à déchiffrer pour savoir où se place chaque puce. 

Le premier nombre réfère à l’année de commercialisation de la puce. Le 7 étant pour 2023, le 8 pour 2024 et ainsi de suite. Le second nombre positionne le segment visé, c’est à dire la performance globale qui entre en jeu. Les processeurs les moins rapides démarrent à 1 et ceux les plus puissants finissent  à 9. Vient ensuite la référence à l’architecture de la puce avec en ce moment un 4 pour les Zen 4. On a ensuite un 0 ou un 5 pour distinguer des modèles plus ou moins puissants sur le même « moule », les 0 étant des solutions moins rapides que les « 5 ». Et enfin, une lettre, qui signale la consommation en watts de chaque puce. 

Bon, c’est pas Enigma mais il faut avouer que ce n’est pas forcément très simple de garder tout cela en tête quand on va parcourir des listings de machines et analyser rapidement leur intitulé pour savoir où se situer. Cela requiert un peu de pratique.

Parce que, l’air de rien, on a un petit Everest à gravir avec cette sortie des AMD Ryzen 7000 Mobile. La liste des processeurs est longue, très longue avec ces 5 gammes de puces. Si le marché va se focaliser sur le fait qu’AMD sort un monstre comportant 16 coeurs Zen 4 développant 32 threads et proposant 80 Mo de mémoire cache, le marché est en réalité bien plus vaste.

Cela commence avec les AMD Mendocino dont on a déjà parlé. Des puces 7X20 plus accessibles à destination du marché entrée de gamme et basse consommation. Toujours en Zen 2 mais avec un chipset graphique intégré en RDNA 2, ces puces ont déjà été annoncées sur des machines budget chez Acer et Lenovo et Intel y a répondu avec une gamme renouvelée de puces Alder Lake-N. Des puces qui ne prosposeront pas d’accès à l’USB 4 nativement et emploieront de la mémoire vive LPDDR5.

7020 MENDOCINO Coeurs / Threads Fréquences Cache TDP GPU
Ryzen 5 7520U 4 / 8 2.8 GHz / 4.3 GHz 6 Mo 15W Radeon 610M à 1.9 GHz 
Ryzen 3 7320U 4 / 8 2.4 GHz / 4.1 GHz 6 Mo 15W Radeon 610M à 1.9 GHz 
Athlon Gold 7220U 2 / 4 2.4 GHz / 3.7 GHz 5 Mo 15W Radeon 610M à 1.9 GHz 
Athlon Silver 7120U 2 / 2 2.4 GHz / 3.5 GHz 3 Mo 15W Radeon 610M à 1.9 GHz 

Vient ensuite la gamme « Barcelo-R » et ses Ryzen 7X30 qui, comme son nombre l’indique, propose une architecture Zen 3 et des circuits Radeon Vega. Des solutions typiquement à destination de machines grands public, voire d’un marché pro classique pour certains modèles. Rien de bien folichon mais une gamme importante pour AMD afin de faire du volume. Ces deux gammes Classique et Pro sortiront respectivement en Janvier et en Février. Celles-ci seront compatibles DDR4 et LPDDR4 et ne pourront pas non plus proposer d’USB 4.0 directement.

7X30 BARCELO R Coeurs / Threads Fréquences Cache TDP GPU
Ryzen 7 7730U 8 / 16 2 GHz / 4.5 GHz 20 M0 15W Radeon Vega 12
Ryzen 5 7530U 6 / 12 2 GHz / 4.5 GHz 19 M0 15W Radeon Vega 6
Ryzen 3 7330U 6 / 12 2.3 GHz / 4.3 GHz 10 M0 15W Radeon Vega 4
Athlon Silver 7120U 2 / 2 2.4 GHz / 3.5 GHz 3 M0 15W Radeon 610M
(2 x RDNA 2)

Les modèles pro rajoutent des fonctions de sécurité nécessaires à certains emplois professionnels. Cela crée une offre légèrement différente mais toujours sur une architecture Zen 3.

7X30 Pro Coeurs / Threads Fréquences Cache TDP GPU
Ryzen 7 Pro 7730U 8 / 16 2 GHz / 4.5 GHz 20 Mo 15W Radeon Vega 12
Ryzen 5 Pro 7530U 6 / 12 2 GHz / 4.5 GHz 19 Mo 15W 6adeon Vega 6
Ryzen 3 Pro 7330U 6 / 12 2.3 GHz / 4 GHz 10 Mo 15W Radeon Vega 4

Les séries AMD Ryzen 7X35 au doux nom de code « Rembrandt-R » sont des mises à jour techniques des puces AMD 6000 mobiles de 2022 comme le « 5 » de leur nom l’indique. Un raffinage qui fait penser à l’optimisation du système Tik-Tok d’Intel. On retrouve donc très logiquement des coeurs  Zen 3+ et un circuit graphique RDNA 2 avec un léger boost de fréquence. Rien de nouveau donc sous le soleil mais là encore une solution solide pour intégrer un maximum de machines populaires.

Avec une possibilité d’intégration quasi transparente depuis la précédente génération de machines, cette gamme va permettre d’assurer une transition en douceur d’une gamme à une autre en employant des modèles de portables à peine mis à jour techniquement parlant. Les fabricants pourront basculer en DDR5/LPDDR5 et proposer un port USB 4.0 pour ajouter un petit coup de neuf  à leur gamme et l’offre aura du sens. Le fait qu’elle s’étale entre 15-28 Watts et 35 Watts permet également de viser un panel assez large de portables différents. Bref, une gamme de transition entre Zen 3+ et Zen 4 qui sera moins accessible à ses débuts.

7X35 Rembrandt-R Coeurs / Threads Fréquences Cache TDP GPU
Ryzen 7 7735HS 8 / 16 3.2 GHz / 4.75 GHz 20 Mo 35W Radeon 680M
(12 x RDNA 2)
Ryzen 7 5 7535HS 6 / 12 3.3 GHz / 4.55 GHz 19 Mo 35W Radeon 660M
(6 x RDNA 2)
Ryzen 7 7736U 8 / 16 2.7 GHz / 4.7 GHz 20 Mo 15 – 28W Radeon 680M
(12 x RDNA 2)
Ryzen 7 7735U 8 / 16 2.7 GHz / 4.75 GHz 20 Mo 15 – 28W Radeon 680M
(12 x RDNA 2)
Ryzen 5 7535U 6 / 12 2.9 GHz/ 4.55 GHz 19 Mo 15 – 28W Radeon 660M
(6 x RDNA 2)
Ryzen 3 7335U 4 / 8 43 GHz / 4.3 GHz 10 Mo 15 – 28W Radeon 660M
(6 x RDNA 2)

Les puces « Phoenix » aka les « Ryzen 7X40 » montent ensuite en gamme mais également en consommation puisqu’on passe de 15-35 watts à 35-45 Watts. On ne suit là plus du tout la même logique et évidemment on profite d’une architecture plus performante. L’architecture Zen 4 est intégrée avec une gravure en 4 nanomètres. Le RDNA 3 de la partie graphique apportera égaement un gros gain en performances graphiques. Un mélange moins performant que les Dragon Range mais très pertinent pour construire des machines efficaces sur tous les segments. Elles seront disponibles en mars, proposeront un accès plus facile à l’USB 4.0 sans toutefois le garantir et exploiteront exclusivement de la mémoire vive LPDDR5 ou DDR5.

PHOENIX 7X40 Coeurs / Threads Fréquences Cache TDP GPU
Ryzen 9 7940HS 8 / 16 4 GHz / 5.2 GHz 40 Mo 35 – 45W Radeon 780M
(12 x RDNA 3)
Ryzen 7 7840HS 8 / 16 3.8 GHz / 5.1 GHz 40 Mo 35 – 45W Radeon 780M
(12 x RDNA 3)
Ryzen 5 7640HS 6 / 12 4.3 GHz / 5 GHz 38 Mo 35 – 45W Radeon 760M
(8 x RDNA 3)

Viennent enfin les Dragon Range, fleurons de cette nouvelle gamme avec une puce qui mobilise 16 coeurs et 32 threads en assumant tranquillement 80 Mo de mémoire cache. Un très beau processeur qui devrait, comme ses déclinaisons, viser plutôt le haut de gamme avec des machines gaming et des stations de travail aux tarifs élevés. On est bien entendu sur une architecture Zen 4 et la gravure assurée pour ces puces est de 5 nanomètres.

La consommation reste assez faible avec des variantes allant de 45 à 75 W+ ou un 55 à 75 W+ pour le Ryzen 9 7945HX. Cela s’explique par le recours à des solutions RDNA 2 et non pas 3. Un recul qui s’explique facilement du simple fait qu’aucun constructeur n’emploierait ces processeurs sans les jumeler avec un circuit graphique secondaire. Disponibles dès le mois de févier, ces processeurs Dragon Range proposeront un accès facilité à l’USB 4.0 et emploieront exclusivement de la mémoire DDR5.

Dragon Range 7X45 Coeurs / Threads Fréquences Cache TDP GPU
Ryzen 9 7945HX 16 / 32 2.5 GHz / 5.4 GHz 80 Mo 55 – 75W+ Radeon 610M
(2 x RDNA 2)
Ryzen 9 7845HX 12 / 24 3 GHz / 5.2 GHz 76 Mo 45 – 75W+ Radeon 610M
(2 x RDNA 2)
Ryzen 7 7745HX 8 / 16 3.6 GHz / 5.1 GHz 40 Mo 45 – 75W+ Radeon 610M
(2 x RDNA 2)
Ryzen 5 7645HX 6 / 12 4 GHz / 5 GHz 38 Mo 45 – 75W+ Radeon 610M
(2 x RDNA 2)

Cette gamme de puces assez large offre des possibilités très intéressantes pour AMD qui va pouvoir truster toutes les gammes de machine. Il y a encore très peu de temps, la marque ne possédait rien de sérieux pour contrer Intel sur les segments occupés par les Celeron et les Pentium. Avec Mendocino, elle bouche de manière intéressante cette lacune.

De la même façon, la marque tapisse littéralement toutes les possibilité offertes par un large milieu de gamme. A la fois en service mais également en consommation et plus que probablement en tarif. Un fabricant de portables ou de MiniPC trouvera toujours un processeur adapté à ce qu’il veut faire. En cela AMD devient un vrai concurrent d’Intel qui propose ce type de produits depuis longtemps.

AMD a également rattrapé un peu de son retard sur les services en proposant des accès plus simple au WXi-Fi6 ou à l’USB 4.0. Intel en a fait un cheval de bataille avec raison sur ses gammes. Conscient que quasiment toutes les machines de ces dernières années sont aptes à mener à bien la très grande majorité des usages du grand public et des PME. Offrir du Thunderbol ou de l’USB 4.0 a finalement plus de sens pour un utilisateur que de gagner 5 ou 10% de performances de calcul multicoeur sur un logiciel de test…

AMD indique d’ailleurs à ce propos que ses séries Dragon Range sont jusqu’à 18% plus rapides en mono coeur que les séries précédentes. Et jusqu’à 78% en multi coeur. Sur la partie jeu, certains titres ont été flashés comme 32% plus rapides. Des chiffres que je vous invite à relativiser d’office comme étant plus souvent l’exception que la règle. D’autant qu’il faut juger ces gains en perfromance par rapport à la hausse globale de la consommation des puces.

AMD Ryzen 7000 Mobile : Zen 4 et RDNA 3 entrent dans la danse © MiniMachines.net. 2023.

Nvidia RTX 40 pour portables : plus de performances et moins de consommation

Minimachines.net est sponsorisé par : IAMNUC.COM

Avec des tarifs démarrant autour des 1000$,1 les portables sous Nvidia RTX 40 devraient commencer à débarquer aux alentours du mois de février. Au menu, une gamme de machines plus rapides qui seraient également plus autonomes.

L’architecture ADA Lovelace les RTX 40 embarqués dans les machines portables nous annonce l’arrivée de nouvelles technologies d’économies d’énergie Nvidia Max-Q qui seraient jusqu’à trois fois plus efficaces que la génération précédente. Une recette qui, sur le papier, fait drôlement envie puisqu’elle permettrait de combiner rapidité d’exécution mais également longévité de la batterie. L’annonce indique que les puces GeForce RTX 4050, RTX 4060 et RTX 4070 seraient en mesure de proposer des performances comparables ou supérieures à une solution RTX 3080 en exploitant tout juste un tiers de sa consommation d’énergie. Un résultat qui, si il est validé dans des conditions d’usage réelles, donne un intérêt particulièrement intéressant à la gamme.

D’autant que cette recherche d’efficacité ne se fera qu’en cas de besoin et qu’il sera toujours possible de débrider votre performance pour atteindre un niveau plus élevé en mode sédentaire. Les RTX 40 annoncent ainsi des capacités permettant de lancer des jeux récents à 80 images par seconde en 1440P avec une solution RTX 4070. Des performances que l’on retrouve en général plutôt dans des PC de bureau. Il faudra évidemment voir de quel équipement il s’agit et avec quel processeur ce résultat est obtenu. Surveiller également la consommation et la ventilation générée par ce type de performances.

  Nvidia GeForce RTX 4050 Nvidia GeForce RTX 4060 Nvidia GeForce RTX 4070 Nvidia GeForce RTX 4080 Nvidia GeForce RTX 4090
Mémoire vive 6 Go GDDR6 8 Go GDDR6 8 Go GDDR6 12 Go GDDR6 16 Go GDDR6
Puissance en Watts 35 à 115 W 35 à 140 W 35 à 140 W 60 à 175 W 80 à 175 W
Cœurs CUDA 2560 3072 4608 7424 9728
Interface mémoire 96-Bit 128-Bit 128-Bit 192-Bit 256-bit

La gamme est assez étalée en terme de compétences techniques : on passe de 6 à 16 Go de GDDR6 de la RTX4050 à la RTX 4090. La consommation maximum est également très différente en basculant de 115 à 175 watts. Mais c’est le nombre de cœurs CUDA qui reste le plus impressionnant dans son ascension. En passant de de 2560 à 9728 d’un extrême à l’autre de la gamme, il triple largement. Ces cœurs, très utilisés dans les travaux graphiques et les calculs 3D, décideront de l’orientation de chaque machine.

Toutes les puces prennent en charge la VR, la gestion Nvidia Optimus, ainsi que le Whisper Mode 2.0 qui va proposer une ventilation adaptée aux exigences de l’utilisation de la machine en temps réel. La gestion des fonctions DLSS 3.0 pour accélérer le nombre d’images par seconde avec les jeux compatibles grâce à une IA optimisée est évidemment présente dans toute la gamme. 

Ces bonnes performances se traduiront également par une meilleure capacité de traitement des outils de création. Les annonces de la marque sont en effet assez bluffantes sur certains postes. Un rendu de 2.5 heures effectué par une machine mobile « équivalente » sous RTX 3080 avec le logiciel Blender ne prendrait plus que 10 minutes avec le même engin sous RTX 4070… Un gain  de productivité énorme qui rend possible l’exploitation de ce type de machine en mobilité. Personne ne va calculer une scène pendant 2.5 heures chez un client mais il est possible de lancer ce même rendu avant une pause et de revenir voir  le résultat avec un café chaud 10 minutes plus tard. Cela change l’usage complet de ce type de machine pour des créatifs.

L’ensemble de ces éléments permettant de proposer plus de performances avec moins de consommation ont un axiome évident. Il est également possible de construire des portables un peu moins rapides. De se retrouver au niveau d’une puce moins récente, mais en diminuant drastiquement d’autres postes : moins d’énergie, moins de ventilation et un besoin d’espace beaucoup plus faible. De quoi construire des machines plus compactes et notamment des engins en 14 pouces à bordures fines et donc à l’encombrement des 13.3″ classiques. Des ultraportables qui proposeront avec ces puces RTX 40 des performances remarquables dans un encombrement plus acceptable en vraie mobilité. Nvidia annonce que ce type de machines sous RTX 4050, RTX 4060 et RTX 4070 débarqueront dès le mois de février à partir de 999$.

Attention toutefois à modérer les ardeurs de chacun. La RTX 4050 est semble t-il une bonne bonne solution mais largement en deçà des propositions du reste de la gamme. Pour autant, je me doute que quand Nvidia indique un ticket d’entrée de 999$, il s’agit bel et bien d’engins équipés de cette version moins performante de la gamme RTX 40. Il faudra nécessairement dépenser plus plus aller chatouiller les solutions RTX 4060 ou 4070 autrement plus intéressantes.

Les machines gaming plus « traditionnelles » dans leur format, grosse ventilation, gros châssis et grosses LEDs RGB, pourront quant à elles laisser libre cours à une débauche de watts et de performances. Les portables sous RTX 4080 et RTX 4090 apparaitront aux différents catalogues à partir du début février à un tarif de base de 1999$2.

Comme à chaque saut technologique des circuits graphiques, l’arrivée des RTX 40 sur mobile va permettre aux constructeurs de jouer non pas sur le seul objectif de la puissance mais aussi sur celui de l’autonomie. Le nouvel outil concocté par Nvidia est ici parfaitement calibré pour proposer une nouvelle pierre angulaire sur ce segment particulier des machines pour joueurs ou créateurs. Non seulement la possibilité de jouer ou de travailler confortablement sur des logiciels exigeants va arriver sur  des machines de plus en plus mobiles et en particulier un segment 14 pouces qui devrait largement évoluer. Mais il est plus que vraisemblable que les constructeurs s’emparent de cette nouvelle gamme de puces pour proposer des machines « à tout faire » très convaincantes.

Le tableau d’un PC portable sous Intel ou AMD de dernière génération, avec un RTX 40, 16 ou 32 Go de mémoire vive, un stockage NVMe rapide et confortable porté par un châssis de 14 ou 16 pouces compact se dresse de manière assez évidente. Ce ne sera probablement pas toujours l’engin le plus abordable mais il offrira une pérennité intéressante et des possibilités d’exploitation très compètes. On pourra faire avec ce type de machine mobile ce que l’on rêvait de faire avec un PC sédentaire il y a seulement quelques années. Mais on pourra vraisemblablement jongler facilement entre performances et mobilité. Passer d’une session de travail classique en matinée à un calcul de rendu photos ou 3D pour le boulot dans l’après midi et finir la journée en jouant à un jeu 3D sans contraintes. Tout cela en modulant de manière fluide le niveau de puissance demandé au circuit graphique à la volée.

Une promesse appétissante qui, si elle se traduit concrètement dans les faits, pourrait décider finalement assez facilement à ce type d’investissement.

Nvidia RTX 40 pour portables : plus de performances et moins de consommation © MiniMachines.net. 2023.

Les processeurs Intel Raptor Lake mobile sont officialisés

Minimachines.net est sponsorisé par : IAMNUC.COM

Trois gammes Raptor Lake mobile, du plus économique en watts au plus puissant en calcul, c’est la recette classique d’Intel reportée à cette 13e Gen de processeurs. Rien de nouveau dans l’approche globale donc mais un foisonnement d’offres rendu possible par le système de cœurs mis en place.

On commence avec les Alder Lake mobile U et P qui devraient être déployés dans plus de 250 machines dès la moitié de 2023. Cet ensemble de puces vise plusieurs segments, à commencer par les ultraportables les plus légers et endurants du marché. Cela n’empêche pas la gamme de déployer des fonctionnalités plus qu’intéressantes notamment en terme de graphisme avec des fonctions liées aux circuits Iris Xe. Une bonne partie de ces processeurs seront en effet capables de prendre en charge des fonctions d’upscaling XeSS et donc d’augmenter le nombre d’images par seconde jusqu’à 35% en jeu grâce à l’IA de d’Intel. Cela n’en fera pas des machines de « gamer », soyons clairs, mais des engins capables d’afficher un jeu dans de bonnes conditions de temps en temps.

Un usage plus sobre au quotidien est toutefois visé par la marque qui estime que ces puces seront aptes à piloter des fonctions classiques. L’idée est de porter un bureau standard dans un emballage sobre et léger avec une excellente autonomie. Et non pas de transformer un ultraportable en console mobile. Chacun sa tâche.

La gamme U est assez large même si on peut se demander le pourquoi de certaines déclinaisons comme le i5-1334U quasiment identique au i5-1335U. Elle signe en pratique l’abandon des appellations Celeron et Pentium. Il reste un Intel U300 qui est un 5 cœurs et qui aurait pu hériter de cette appellation mais pour le reste, on est dans l’exploitation logique du concept introduit par Raptor Lake Mobile.

Plus ou moins de coeurs Performance ou Efficient et des modulations de fréquences créent la gamme. La montée en mémoire cache est évidemment présente. C’est on ne peut plus classique mais cela reste efficace pour créer des solutions performantes. A noter le nombre d’Unités d’Execution graphiques de chaque puce, permettant une exploitation multimédia confortable même sur les plus petites.

La série P est moins étoffée mais correspond  à ces même formats de machines. Portables et ultraportables au premier rang mais avec plus d’énergie et de puissance. On découvre des Core i5 et i7 avec une base de  consommation de 28 Watts au lieu de 15 et un maximum qui grimpe à 64 Watts en mode Turbo. Le nombre de cœurs augmente, les fréquences et le Cache L3 également. Des puces plus musclées pour des machines encore très mobiles affichant néanmoins de belles performances de calcul.

Les variations sont très complètes et entre les puces de série U et P, les constructeurs ont un choix important de puissance ou de consommation. La série 15 watts Raptor Lake Mobile peut fonctionner jusqu’en 55 Watts en mode le plus poussé mais il sera tout à fait possible de le contenir dans une formule plus légère en limitant leurs dépenses énergétiques. On constate que l’emploi de cœurs de deux types permet des évolutions en douceur de chaque modèle. Au final, en combinant les deux gammes on a un panel très complet où piocher suivant ses besoins et ses ambitions.

La gamme Raptor Lake Mobile H change de braquet avec un choix large dans une gamme de performances plus élevées. On retrouve ici des Core i5, i7 et i9 et des consommations énergétiques bien plus élevées. Avec une base de TDP de 45 watts, les puces offriront de bien plus grandes capacités mais moins d’autonomie et de finesse aux portables. Ici les processeurs s’étalent de 8 à 14 cœurs et de 12 à 20 Threads. Les fréquences évoluent et la mémoire cache est bien plus conséquente.

L’évolution de performance face à la 12e Gen n’est pas forcément flagrante à première vue, et pour cause on est sur un raffinement d’architecture classique chez Intel. Les fréquences vont plus haut mais cela n’est pas forcément le principal point fort de ces nouvelles puces. La gamme propose de nombreuses innovations comme la prise en charge du PCIe Gen5 même si il reste optionnel. Une meilleure gestion énergétique est également atteinte avec une promesse d’autonomie de 30 minutes supplémentaires à usage équivalent par rapport à une puce de 12e Gen.

Des évolutions techniques intéressantes sont également disponibles comme l’inclusion optionnel du VPU Movidius d’Intel. Des fonctions qui vont permettre la prise en charge matérielle de fonctions variées allant du floutage d’un arrière plan en vidéo conférence à des calculs graphiques dédiés. Une point intéressant pour la marque qui veut lutter contre les puces ARM qui proposent désormais des circuits dédiés à l’IA proposant ces usages. Ce type d’intégration sera laissé au choix des constructeurs mais donne une idée du type de composant qu’Intel pourrait intégrer dans ses futurs processeurs “Meteor Lake” de 14e Gen. Enfin, les prises en charge connectiques spécifiques sont toujours là et les ports Thunderbolt 4 peuvent désormais être au nombre de 4. Evidemment, le Wi-Fi6E reste de mise.

Je ne suis pas certain qu’un actuel propriétaire de processeur Core de 12eme Gen ait un quelconque intérêt à évoluer vers un Core de 13eme Gen. Ce sont les processeurs de 9eme Gen et antérieur qui commencent à accuser un vrai retard par rapport à cette gamme. Le gain apporté par un Raptor Lake Mobile H Core i9-13900HK n’est que de 10% de performances en plus par rapport à son prédécesseur de 12eme Gen. Le jeu n’en vaut la chandelle que si votre puce n’est que de 8 ou 9eme Gen à mon humble avis.

La liste des processeurs Intel de 13e Gen « HX » est plus impressionnante encore avec cette fois-ci une base de puces égrenant 10 Coeurs mais pouvant aller jusqu’à 24 Coeurs et 32 Threads.  La contrepartie est évidemment la consommation de ces puces qui débute avec 55 Watts, c’est à dire en consommant au minimum ce qu’une puce « U » consomme au maximum. Ils peuvent atteindre 157 Watts en mode Turbo. La gravure Intel 7 employée ici permet de calibrer des processeurs qui entrent volontiers dans une composition mobile mais sans pour autant promettre une autonomie démesurée.

Inutile de dire que ces processeurs auront besoin d’un écrin suffisamment vaste et ventilé pour fonctionner confortablement. On est sur une gamme de machines certes portables mais loin de la légèreté proposée par les autres processeurs. Il faut considérer les Raptor Lake Mobile HX comme des puces qui ne donneront leurs véritables performances qu’en mode sédentaire. En mobilité, on ne tiendra pas longtemps avec un processeur aussi gourmand si on veut effectuer des tâches lourdes.

Minimachines-01-2023 Minimachines-01-2023 Minimachines-01-2023 Minimachines-01-2023 Minimachines-01-2023

Prévus pour les stations de travail et les ordinateurs de jeu très haut de gamme, à architecturer en conjonctions de circuits graphiques secondaires eux aussi très gourmands, les HX annoncent des capacités impressionnantes. La compatibilité avec une mémoire vive pouvant aller jusqu’à 128 Go de DDR5-5600 ou de DDR4-3200, la gestion de 4 SSD, la prise en charge des PCIe Gen 4 et Gen 5, la possibilité de piloter deux affichages Thunderbolt ainsi qu’un Wi-Fi6E et du Bluetooth LE Audio promet un usage dans la durée de votre machine.

Avec un format identique à la génération précédente, il sera possible et finalement assez facile de faire basculer les modèles actuels vers la 13e Gen HX. Ce qui devrait pousser les constructeurs à proposer de nombreux produits identiques dans un premier temps avant de basculer vers de nouveaux designs.

Bref, une gamme très complète qui vise large et assez fort pour cette nouvelle année. La marque ne révolutionne pas son offre en terme d’architecture mais propose une évolution solide pour convenir la totalité des besoins des constructeurs. Une approche qui a toujours permis à Intel de se positionner fortement sur le segment puisque les constructeurs trouvent forcément très pratique d’avoir un fournisseur unique et capable de répondre à tous leurs besoins.

Intel propose ici de quoi piloter une chaine alimentaire complète, de l’ultraportable mobile jusqu’à la station de travail haut de gamme. Et il le fait en mettant les petits plats dans les grands en assurant une assistance solide pour le développement des engins et un ensemble de services compréhensifs par le grand public.

A ce propos, la plateforme EVO évolue. Avec celle-ci, Intel construit un signe distinctif assez fort qui promet aux utilisateurs l’assurance d’une panoplie de fonctions désormais plus importantes que la puissance brute. Gagner 10 ou 15 % de performance en plus dans un logiciel professionnel avec une machine mobile est une chose mais c’est finalement moins utile que l’assurance d’une véritable bonne autonomie ou d’un réveil instantané en cas de besoin. Ave Intel Evo, les constructeurs promettent de se plier à une carte de qualité et de fonctions standardisées de haut niveau. Etre sûr que l’on pourra utiliser une reconnaissance biométrique, retrouver de bonnes performances, profiter d’une bonne connexion… Autant de promesses qu’Intel réunit aujourd’hui sous un seul label.

Les processeurs Intel Raptor Lake mobile sont officialisés © MiniMachines.net. 2023.

Steam Deck : l’avenir rafraichissant proposé par Valve

Minimachines.net est sponsorisé par : IAMNUC.COM

La console de Valve va souffler très bientôt sa première bougie et le moins que l’on puisse dire, c’est que cette année 2022 lui a plutôt bien réussi. Avec une commercialisation compliquée, une disponibilité sur réservation finalement peu encourageante, un format inhabituel, un système d’exploitation neuf et des partis pris originaux. La console a réussi le tour de force de s’imposer autant du côté des joueurs que des éditeurs.

Dans cette interview proposée à TheVerge, Lawrence Yang et Pierre-Loup Griffais reviennent sur de nombreux éléments concernant la console. Certains sont très intéressants car ils montrent une philosophie aux antipodes de nos habitudes.

Steam Deck

 

Steam Deck : un objet pensé dans une durée différente

Premier élément particulièrement intéressant, le Steam Deck a beau être un PC, il a été pensé comme une solution plus proche de la console que de l’habituelle machine de jeu sous Windows. Et cela se ressent de multiples manières. La première est évidente, elle est liée à son système d’exploitation qui est propre à la machine et non pas hérité d’une entreprise tierce. Si Valve autorise les propriétaires de la console toutes les excentricités logicielles qu’ils souhaitent, depuis l’installation de Windows à celle d’une distribution Linux de leur choix, leur véritable préoccupation est Steam OS.

La console tourne avec un ratio de mises à jour et de corrections de bugs impressionnant, plus de 90 mises à jour ont eu lieu depuis sa sortie. Un écart tellement immense par rapport aux fournisseurs de PC classiques qu’il en est presque étrange. La situation s’explique par l’ouverture faite autour du produit. Jamais Valve n’a interdit d’utiliser la console dans telle ou telle situation, avec un certain type de matériel ou logiciel. La solution a donc embrassé d’un coup l’entièreté du monde PC et ses dangereuses combinaisons de compatibilités. De telle sorte que des situations inattendues se sont évidemment produites ayant comme résultat d’inévitables bugs. 

Les résoudre ne fait en général pas partie des préoccupations des fabricants de PC. Quand Lenovo ou HP lancent un produit, qu’il rencontre une incompatibilité avec un autre, cela n’est pas leur affaire. Si l’incompatibilité est problématique, ils vont au mieux l’annoncer au travers d’une mise à jour de leur documentation. Mais la parade générale consiste à proposer une liste de produits compatibles. Des composants de mémoire vive ou de stockage par exemple, et de les inscrire dans un document technique lisible dès l’achat.

Pourquoi ce grand écart entre les deux visions du même problème ? C’est à mon avis l’élément le plus intéressant de cette interview. Car il semble que Valve ait décidé de prendre un chemin de traverse par rapport à ce que proposent les fabricants en général.

Chez les constructeurs de PC, on sort des machines qui suivent un rythme court, de plus en plus court. Les fabricants collent à l’actualité matérielle proposée par leurs fournisseurs. Si AMD et Intel sortent un nouveau processeur, ils suivront la cadence et mettront à jour leurs gammes en annonçant de nouvelles machines. Si Nvidia ou AMD lancent de nouvelles puces graphiques, ils feront de même. Chaque évolution matérielle est sujet à l’annonce de nouveautés qui vont chasser les précédents modèles du devant de la scène. Et cela se comprend, leur moteur économique est dans la vente de ces produits. Leur marketing reflète cette approche avec une volonté permanente de ne pas regarder de quoi la machine de l’année précédente est encore capable mais uniquement les nouvelles capacités de la dernière sortie.

A l’inverse, chez les fabricants de consoles, on est dans le temps long. Les machines sortent avec un matériel stable et robuste construit pour durer au maximum. L’idée n’étant pas de vendre du matériel mais bien des jeux. Il est parfaitement pertinent pour un Sony ou un Nintendo de proposer la plus vaste base de machines totalement identiques dans la durée. Plus le parc est largement installé plus il est rentable pour un studio d’investir dans la création d’un jeu. Cela ne veut pas dire que les consoles sont totalement figées dans le temps, la Nintendo Switch version OLED est un bon exemple des évolutions possible sur ce type de machine. On peut procéder à des mises à jour, certaines seront nécessaires suite à la découverte d’un problème technique ou autre, mais le coeur de l’engin ne bougera évidemment pas.

La troisième voie de Valve

Ce que propose la console Steam Deck est une alternative située entre ces deux éléments. L’idée est de faire évoluer le matériel embarqué en permanence. Non pas de lancer un produit de rupture qui ringardiserait d’office le précédent mais bien de procéder par petites mises à jour permanentes. Le premier poste qui devrait évoluer semble être l’affichage de la solution actuelle. Face à la Switch OLED justement, la console de Valve est tout de même en retrait. L’écart de tarif entre une solution IPS classique et un écran OLED peut être important mais il est vraisemblablement possible de glisser cette différence dans un système d’options. 

Cette vision qui consisterait à procéder en une amélioration par petites touches, pour profiter des évolutions proposées par le marché  est assez intéressante. Valve ne considère par la console comme un modèle qui doit nécessairement se faire remplacer par un autre. La marque ne veut pas décevoir le client qui lui a fait confiance en rendant sa console précédente moins attractive. 

Ce que semble vouloir faire Valve, c’est oublier la machine en tant que telle et se concentrer sur le catalogue de ses usages. La regarder non pas comme un objet produisant un certain pic de performances mais bien comme un outil. Il est évident qu’un jour ou l’autre le processeur embarqué sera également mis sur la sellette et qu’une mise à jour de ce type créera un écart important entre la précédente génération et la nouvelle. Mais en ayant cette philosophie comme moteur, Valve ne cherchant pas à pousser au remplacement permanent de son matériel pour s’intéresser au contraire aux possibilités de jeu, la marque ne créera qu’un remplacement logique de sa console. Un remplacement plus proche de celui d’une perceuse que d’un PC. On ne change pas sa perceuse parce que le moteur de la nouvelle en magasin va 10% plus vite ou parce que sa batterie offre 20 minutes d’usage en plus. On attend que sa perceuse tombe en panne avant de la remplacer.

Quand l’outil tombera vraiment en panne, qu’il ne sera plus possible de le réparer. Quand la console finira par vraiment lâcher ou quand son « amortissement » sera bien rentabilisé, il sera possible de changer de Steam Deck et de profiter d’un modèle plus efficace. Cela ne passera pas forcément par un meilleur processeur mais peut être pas une plus belle image, une meilleure batterie ou des contrôle optimisés. L’important n’est pas l’outil lui même mais bien son usage : offrir la possibilité de jouer à des jeux PC en mobilité. Valve a déjà fait un pas de côté, forcé qu’il était de ne pas suivre le mouvement imposé par le matériel haut de gamme du monde du jeu PC.

Impossible de promettre les derniers Triple A tous détails à fond. Irréaliste d’imaginer jouer à l’entièreté du catalogue de Steam sur ce type de format. Les acheteurs du Steam Deck sont déjà dans le compromis par défaut. En choisissant un système d’exploitation indépendant et en optant pour un processeur sur mesures, l’éditeur a déjà commencé à proposer une troisième voie. La poursuivre semble des plus logiques mais reste à l’inverse des habitudes du marché informatique actuel. 

Valve aurait pu proposer un engin plus rapide et pourrait probablement le faire très rapidement. Mais à quel prix ? Non seulement le tarif de la console s’envolerait – probablement aussi haut que celui d’une console Aya ou OneXplayer, soit plus près des 1000€ que des 500. Mais également avec une autonomie en berne et une nuisance d’usage en hausse. Autant sur la chaleur émise par la machine que par le bruit de sa ventilation.

J’aime beaucoup cette idée d’un produit en devenir permanent. Un produit qui reste ouvert et réparable avec un système d’exploitation construit sur mesures également. Un Steam OS qui va commencer à vivre sa vie de manière de plus en plus indépendante. Non seulement Valve compte bien pousser d’autres constructeurs à s’emparer de Steam OS pour le proposer dans des produits concurrents à sa propre console mais des particuliers vont pouvoir également embarquer le système dans des solutions maison. Des MiniPC comme TV-Box sous Steam OS à glisser sous un téléviseur. Des portables de jeu qui pourront également tirer partie de cet écosystème pour retrouver une seconde jeunesse.

Steam Deck : l’avenir rafraichissant proposé par Valve © MiniMachines.net. 2022.

❌