Lateo.net - Flux RSS en pagaille (pour en ajouter : @ moi)

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 19 avril 2024Korben

Mateusz Jurczyk – L’expert en sécurité qui a exploré la base de registre Windows pour y trouver des failles

Par : Korben

Mateusz Jurczyk, un nom qui ne vous dit peut-être rien, mais retenez-le bien, car le bonhomme est fort. Ce chercheur en sécurité bien intentionné bosse pour Google Project Zero, une équipe de choc qui traque les failles dans tous les recoins depuis des années déjà. Et pendant quasi 2 ans, de mai 2022 à décembre 2023, il s’est lancé le défi d’ausculter un des organes les plus vitaux de Windows : sa base de registre.

Pour ceux qui débarquent, le registre, c’est un peu le cerveau de Windows. Une méga base de données qui stocke tous les réglages, options et préférences du système et des applis, organisés de manière hiérarchique avec des clés, des sous-clés et des valeurs. Bref, un truc super sensible et stratégique. Si un pirate arrive à mettre ses mains là dedans, bonjour les dégâts !

Mais notre Mateusz, c’est pas le genre à se dégonfler. Armé de ses outils et de ses connaissances en reverse engineering, il a plongé dans les millions de lignes de code de ce monolithe vieux de 30 ans et croyez-moi, il a frappé fort : pas moins de 50 failles critiques déterrées, dont 39 qui permettent une élévation de privilèges ! En gros, la totale pour passer de simple clampin à admin suprême sur une machine.

La force de son taf, c’est d’avoir exploré des endroits de la base de registres que personne n’avait vu avant. Des trucs bien planqués comme la récupération des transactions avortées, le chargement de ruches extraites ou les bails de virtualisation du registre (une fonctionnalité qui permet aux vieilles applis de tourner sans broncher sur les Windows récents). Bref, un vrai boulot de fourmi avec une grosse dose de persévérance.

Et le plus flippant, c’est que la moitié de ces failles seraient plutôt faciles à exploiter notamment via des techniques de corruption de mémoire ou de cassage des garanties de sécurité comme les ACL (les listes qui contrôlent qui a le droit de faire quoi dans le registre). Pour vous donner une idée, Mateusz a même créé des exploits de démo pour deux vulnérabilités, montrant comment détourner le registre à son avantage.

Heureusement, c’est un White Hat avec un grand cœur et toutes ses trouvailles ont été balancées en temps et en heure à Microsoft via le programme de divulgation responsable de Project Zero. Les ingés de Redmond ont évidemment remédié au boxon en patchant, avec des délais moyens de correction de 80 jours. Vous pouvez donc souffler !

Mais l’histoire est loin d’être finie. Il a tellement kiffé son voyage dans les méandres du registre, qu’il prévoit d’en faire une série de posts de blog pour partager son savoir. Au menu, des analyses bien poussées des bugs, des techniques d’exploit et plein de tips pour mieux protéger nos bécanes, comme :

  • Toujours avoir une sauvegarde du registre avant d’installer un nouveau soft : regedit.exe /e sauvegarde.reg
  • Scanner régulièrement le registre avec des outils comme CCleaner Registry Cleaner, Wise Registry Cleaner ou Glarysoft Registry Repair.
  • Se méfier des applis louches qui veulent mettre leur nez dans le registre et les virer en cas de doute.
  • Garder son Windows et ses drivers à jour pour bénéficier des derniers patchs de sécurité.
  • Utiliser les outils de monitoring comme l’Observateur d’événements ou les Performances Windows pour garder un œil sur l’activité du registre.

J’ai hâte de dévorer tout ça !

Source + Source

PyTorch dévoile Torchtune pour fine-tuner les LLM

Par : Korben

PyTorch, le framework chouchou des bidouilleurs d’IA, vient de nous pondre un petit truc cool : Torchtune ! 💎 Cette nouvelle bibliothèque native, encore en phase alpha mais déjà disponible en open-source sur GitHub, va vous permettre de fine-tuner les gros modèles de langage (LLM) comme un pro, sans vous prendre la tête.

Torchtune est donc une boîte à outils hyper flexible et modulaire qui va vous permettre de vous éclater à customiser des modèles pour vos propres besoins, le tout avec des recettes mémoire efficaces qui tournent même sur une bête carte graphique de gamer, comme les NVidia 3090/4090.

Son secret ?

Une architecture bien pensée qui mise sur l’interopérabilité avec l’écosystème des LLM, qu’ils soient open-source ou non. Concrètement, ça veut dire que vous allez pouvoir brancher Torchtune à tout un tas d’outils et de frameworks que vous adorez déjà, comme Hugging Face 🤗, PyTorch FSDP 🪢, Weights & Biases 📈, et plein d’autres.

Grâce à des recettes simples et bien documentées pour les modèles populaires comme Llama 3, Mistral ou Gemma 7B, même les débutants vont pouvoir se lancer dans l’aventure sans flipper. Bon OK, il faudra quand même un peu de bagage en PyTorch et en LLM, mais rien d’insurmontable ! Et si vous êtes un pro, vous allez pouvoir hacker le code à volonté pour l’adapter à vos besoins spécifiques.

Alors comment on met les mains dans le cambouis avec Torchtune ?

Rien de plus simple, mon cher Watson ! Il vous suffit d’installer la dernière version stable de PyTorch (2.2.2 au moment où j’écris ces lignes), puis de télécharger Torchtune depuis PyPI avec un petit

pip install torchtune

Et voilà, vous êtes prêt à en découdre avec les LLM !

Pour vous faire les dents, je vous conseille de jeter un œil au tutoriel sur le fine-tuning de Llama2 7B. C’est le parfait point de départ pour comprendre comment Torchtune fonctionne et comment l’utiliser pour vos propres projets.

En gros, ça se passe en 4 étapes :

  1. Téléchargez le modèle pré-entraîné et le tokenizer depuis Hugging Face Hub avec tune download.
  2. Choisissez une recette de fine-tuning (LoRA, QLoRA, full…) et customisez-la avec un fichier de config en YAML.
  3. Lancez l’entraînement avec tune run en précisant votre recette et votre config. Vous pouvez même faire du multi-GPU avec torchrun !
  4. Admirez le résultat et testez votre modèle fine-tuné avec une inférence locale. Si tout se passe bien, exportez-le avec ExecuTorch pour le déployer en prod, ou utilisez les API de quantification de Torchao pour l’exporter en int4 ou int8 et l’utiliser sur mobile ou en edge.

Facile, non ? 😄

Bon OK, j’avoue, j’ai un peu simplifié. En vrai, il y a pas mal de subtilités et de paramètres à régler pour obtenir les meilleurs résultats, comme le learning rate, le nombre d’époques, la taille du batch, le ratio de LoRA, et tout un tas d’autres trucs, mais c’est justement sa flexibilité qui vous permet d’expérimenter à l’infini pour trouver la combinaison parfaite.

Bref, si vous êtes dev et que vous aimez jouer avec les LLM c’est à tester.

Source

Explorez les secrets des dépôts Git avec Grep.app

Par : Korben

Vous êtes-vous déjà demandé ce qui se cache dans les profondeurs obscures des dépôts Git publics ? Eh bien, figurez-vous qu’il y a un outil en ligne qui permet de dénicher des trucs de dingue ! Ça s’appelle Grep.app et c’est un moteur de recherche qui va vous faire halluciner.

Concrètement, vous balancez votre recherche dans la barre et hop, ça vous sort tous les résultats où votre mot-clé apparaît dans les repos Git publics. Genre, vous tapez une adresse email et vous tombez sur tous les endroits où elle est mentionnée. Mais attention, hein… Y a pas que des trucs anodins qui traînent dans ces dépôts. Si vous cherchez un peu, vous pouvez même tomber sur des clés d’API AWS ou Google !

Bon, après faut pas déconner non plus. Si vous tombez sur des clés dans un dépôt public, considérez-les comme grillées direct. Même si le dépôt est supprimé par la suite, y a plein de petits malins qui font ce genre de recherches régulièrement. Donc méfiance !

Cela dit, Github a quand même mis en place un système d’alerte pour les clés, mots de passe, etc qui se retrouvent dans le code. Du coup, y a des chances que la plupart soient invalidées assez vite, soit par le développeur qui change sa clé, soit direct par le fournisseur. Mais on n’est jamais trop prudent…

En parlant de Github, ils ont aussi leur propre outil de recherche de code qui est plutôt balèze. Ça s’appelle Github Code Search. Ça indexe environ 45 millions de dépôts, ce qui est déjà pas mal !

En gros, ils utilisent un moteur de recherche maison qui indexe le contenu avec une technique appelée « sparse ngrams ». D’après eux, ça permet d’exécuter les recherches plus rapidement, tout en étant un index plus petit. Si vous voulez en savoir plus sur la technologie derrière, ils ont publié un article de blog super intéressant.

Maintenant, est-ce que Grep.app est à la hauteur face à Github Code Search ? Difficile à dire… Une chose est sûre, c’est que Grep.app a l’air de se concentrer uniquement sur le code en lui-même. Donc si vous cherchez des chaînes de texte dans de la prose qui se retrouve dans des recherches de code, vous risquez de passer à côté avec Grep.app. Genre pour chercher dans des fichiers texte ou Markdown.

Et ça, c’est un peu dommage. Parce que des fois, on a besoin de chercher du code avec plein de caractères spéciaux vicieux. Et là, la recherche de code actuelle de Github nous laisse tomber. Mais bon, on peut pas tout avoir non plus… En attendant, Grep.app reste quand même un outil bien pratique pour dénicher des infos cachées dans les entrailles de Git. Et puis c’est gratuit et open-source en plus !

Llama 3 – l’IA open source de Meta qui rivalise avec les meilleurs modèles

Par : Korben

Accrochez-vous à vos claviers, car Meta vient de lâcher dans la nature une nouvelle créature nommée Llama 3. Oui, vous avez bien compris, je parle de la dernière génération de modèles de langage « open source » (ou presque, on y reviendra) de la société de Mark Zuckerberg.

Si vous pensiez que ChatGPT, Claude ou Mistral étaient les rois de la savane, attendez de voir débarquer ces nouveaux lamas survitaminés ! Avec des versions allant de 8 à 400 milliards de paramètres (pour les non-initiés, disons que c’est l’équivalent de leur QI 🧠), les Llama 3 atomisent littéralement la concurrence sur de nombreux benchmarks standards, que ce soit en termes de connaissances générales, de compréhension, de maths, de raisonnement ou de génération de code.

Mais qu’est-ce qui fait de Llama 3 un tel monstre par rapport à son petit frère Llama 2 ? Déjà, un entraînement de folie à base de 15 000 milliards de tokens (7 fois plus que Llama 2 !) pompé depuis le web (!!), avec beaucoup plus de code et de données non-anglaises pour préparer le terrain à une IA multilingue. Ajoutez à ça des techniques de parallélisation à gogo pendant la phase de pré-entraînement, et vous obtenez des lamas dopés qui apprennent à une vitesse supersonique.

Et ce n’est pas tout ! Les Llama 3 ont suivi un programme d’éducation complet, avec du fine-tuning à base de rejection sampling, de PPO et de DPO (si vous ne connaissez pas ces acronymes, ne vous inquiétez pas, moi non plus 😅). Résultat : des modèles ultra-fiables qui refusent rarement une tâche, font preuve d’un alignement exemplaire et sont capables de suivre des instructions complexes sans sourciller. Bref, ce sont des cracks en raisonnement et en génération de code !

Mais au fait, comment on met la main sur ces petites bêtes ? Facile, il suffit de se rendre sur le site de Meta AI et de les télécharger ! Enfin, quand je dis facile… Les Llama 3 sont bien « open source », mais sous une licence maison qui impose quelques restrictions, notamment pour les entreprises de plus de 700 millions d’utilisateurs mensuels (suivez mon regard vers Mountain View et Redmond 👀). Mais bon, rien ne vous empêche de vous amuser avec si vous n’êtes pas une multinationale !

Et en parlant de s’amuser, sachez que Meta a aussi concocté un chatbot maison (pas encore dispo en France) baptisé sobrement « Meta AI« , disponible sur le web (www.meta.ai) et directement intégré dans les barres de recherche de Facebook, Instagram, WhatsApp et Messenger. Sous le capot, c’est bien sûr du pur Llama 3, avec en prime un modèle de génération d’images nommé « Meta Imagine« .

Au programme, de la discussion, de la recherche web via Bing et Google, et bien sûr de la création d’images en un clin d’œil. Seul hic, pas encore de mode multi-modal façon ChatGPT pour uploader vos propres documents ou images, mais ça ne saurait tarder !

Alors, que penser de ce nouveau coup d’éclat de Meta dans la bataille des IA ?

Personnellement, je trouve ça plutôt chouette de voir un poids lourd du Net jouer le jeu de l’open source (ou approchant) et mettre à disposition de tous des modèles de cette qualité. Bien sûr, on peut toujours discuter des arrière-pensées de Zuck et sa volonté de garder un œil sur ce qu’on fabrique avec ses lamas. Mais au final, c’est toujours ça de pris sur les GAFAM et leurs vilains modèles propriétaires !

Allez, je vous laisse, j’ai un lama à aller dompter moi ! 🦙

Et n’oubliez pas, comme le dirait l’autre, « le monde appartient à ceux qui codent tôt ». Ou tard, c’est selon.

Source

À partir d’avant-hierKorben

Comment configurer un VPN sur Apple TV ?

Par : Korben

— Article en partenariat avec Surfshark VPN

Vous le savez déjà parce que je vous le répète depuis des années, mais dans notre ère numérique, protéger sa vie privée en ligne et améliorer son expérience de streaming sont essentiels. Et aujourd’hui on va voir ensemble et en détail comment le faire sur une Apple TV.

En intégrant un réseau privé virtuel (VPN) sur votre smart TV, vous débloquez tout un monde de possibilités tout en assurant un accès sécurisé et illimité au contenu. Dans cet article, je vais creuser un peu les tenants et aboutissants de la configuration d’un VPN sur l’appareil de la pomme, en mettant en lumière ses fonctionnalités, ses avantages, et les meilleures options adaptées pour une intégration transparente. Et si vous n’avez pas de TV Apple ? J’ai déjà publié un article pour Surfshark VPN et n’importe quelle smart TV.

Comprendre les VPNs et Apple TV

Qu’est-ce qu’un VPN et comment ça marche ?

En 2024 je pense que tout le monde (au moins sur mon site) sait ce qu’est un VPN, mais dans le cas contraire je vais juste rappeler qu’il s’agit d’un outil qui permet d’établir une connexion sécurisée et chiffrée entre votre appareil et internet. En faisant transiter votre trafic internet par des serveurs distants, un VPN masque votre adresse IP et chiffre vos données, garantissant ainsi anonymat et confidentialité en ligne. Ce chiffrage assure que vos activités en ligne, que ce soit le streaming, la navigation ou le gaming, restent privées et sécurisées loin des regards indiscrets. Et cela même pour votre fournisseur d’accès (grâce au mode camouflage de Surfshark).

Les fonctionnalités de l’Apple TV

Une Apple TV disposant du tvOS, c’est un peu la machine de streaming révolutionnaire par excellence. Elle proposent une multitude d’options de divertissement, avec non seulement des services de streaming, mais aussi (depuis peu) des applications et des jeux. Par contre si l’Apple TV offre un accès fluide au contenu numérique il faut reconnaitre que sa connectivité internet native manque des fonctionnalités de sécurité robustes, mais aussi du déblocage géographique qu’un VPN peut offrir. En intégrant un VPN avec votre Apple TV, vous améliorez votre expérience de streaming, accédez au contenu géorestreint, et protégez votre vie privée en ligne simultanément. Que demande le peuple ?

Bref la trousse à outils par excellence, d’ailleurs je vous ai déjà détaillé tout cela. Mais pour résumer voilà les avantages d’utiliser un VPN avec Apple TV

  • confidentialité améliorée : protégez vos activités en ligne des regards indiscrets et des potentielles violations de données en chiffrant votre trafic internet.
  • Déblocage géographique : accédez au contenu restreint par région et contournez les restrictions de censure facilement, ce qui vous permet en plus de profiter d’une gamme plus large d’options de streaming (catalogues d’autres pays … par exemple le catalogue Netflix).
  • Sécurité renforcée : protégez vos informations sensibles des hackers et des menaces en ligne en chiffrant vos données et en masquant votre adresse IP.
  • Streaming optimisé : surmontez la limitation de vitesse imposée par votre fournisseur d’accès internet et profitez d’un streaming sans tampon de vos contenus préférés, garantissant une expérience de visionnage aux petits oignons

La possibilité de combiner les 2 est encore toute chaude donc toutes les fonctionnalités classiques du VPN ne sont pas encore intégrées : c’est le cas par exemple de la fonction Cleanweb (ça aussi je vous en ai déjà parlé), du MultiHop dynamique ou encore de l’IP fixe. Ces options devraient apparaitre dans un futur plus ou moins proche, en tous cas on peut l’espérer. Et je vous en reparlerai si c’est le cas.

Avez-vous besoin d’un VPN pour votre Apple TV ?

Si vous vous demandez s’il est obligatoire d’utiliser un VPN … la réponse est non. Je ne vous regarderai pas avec moins de bienveillance (encore que …). Mais si ce n’est pas une nécessité absolue pour utiliser Apple TV, il offre quand même de sacrés avantages qui améliorent votre expérience de streaming. Surtout si vous accordez de l’importance à la confidentialité, à la sécurité, ou à l’accès à une gamme plus large de contenu. Et encore plus si vous n’êtes pas trop égoïste et que vous pensez à protéger le reste de votre famille.

Parce que je vous rappelle quand même sur Surfshark VPN supporte un nombre de connexions … illimitées et simultanées. Ce qui reste un des gros points forts de l’outil VPN du requin.

Comment configurer un VPN ?

Voilà le moment que vous attendiez tous, mettre les mains dans le cambouis ! Configurer un VPN sur votre Apple TV peut se faire de plusieurs moyens, chacun adapté à votre configuration matérielle. On va creuser le processus étape par étape, et comme vous allez le voir il n’y a vraiment rien de bien compliqué.

Si vous disposez d’une Apple TV HD ou un modèle 4K (pour les 3 premières générations, voir plus bas) : vous allez commencer par installer l’appli Surfshark sur votre appareil depuis l’App Store (Captain Obvious est parmi nous). Pour ouvrir l’appli, vous pouvez utiliser votre adresse mail habituelle ou directement votre compte Apple. Et pour la version mobile, il suffit de scanner le QR Code qui apparaitra sur l’écran. Jusque là même Mme Michu est encore dans le game.

Ensuite ? Rien, c’est fini. Ce n’est pas une démarche digne de la NASA, c’est ultra simple comme sur n’importe quel autre appareil et c’est fait exprès. Vous allez simplement vous connecter à des serveurs en choisissant un pays en fonction du catalogue de votre plateforme de streaming, du pays le plus proche, etc.

Éventuellement si vous avez des soucis de connexions, il faudra passer par les paramètres de votre Apple TV (Paramètres > Réseau > Détails de connexion > Supprimer VPN) et retenter la connexion. Et si vraiment vous avez du mal et que vous préférez voir de vos yeux comment ça marche, l’équipe a mis en place une vidéo YouTube dans laquelle on apprend que le protocole par défaut est Wireguard (bon choix).

Et si, comme je le mentionnais plus haut, vous disposez d’une télévision Apple des 3 premières générations ? Pas de panique. Elles ne supportent pas l’installation d’applis, mais il est toujours possible de passer par la fonction Smart DNS ou passer par un routeur.

Configurer un VPN sur votre routeur

  1. Accédez à la page des paramètres de votre routeur et localisez la section VPN.
  2. Entrez les identifiants VPN fournis par votre fournisseur de VPN.
  3. Enregistrez les paramètres et redémarrez votre routeur pour appliquer les modifications.
  4. Connectez votre Apple TV au réseau de routeur activé par VPN.

Configurer un routeur virtuel avec un VPN

  1. Installez un client VPN sur votre ordinateur portable ou de bureau.
  2. Configurez un routeur virtuel en utilisant les paramètres intégrés de votre appareil.
  3. Connectez le routeur virtuel à votre serveur VPN.
  4. Connectez votre Apple TV au réseau du routeur virtuel.

Configurer Smart DNS sur votre Apple TV

  1. Accédez au menu Paramètres sur votre Apple TV.
  2. Sélectionnez « Réseau » puis choisissez votre réseau Wi-Fi.
  3. Entrez les adresses DNS fournies par votre fournisseur de VPN.
  4. Enregistrez les paramètres et redémarrez votre Apple TV pour appliquer les modifications.

Comment choisir le meilleur VPN ?

Lors du choix d’un VPN pour Apple TV, prenez en compte les facteurs suivants :

  • Compatibilité : assurez-vous de la compatibilité avec les appareils Apple TV pour une intégration sans faille.
  • Vitesse et performance : optez pour un VPN avec des serveurs rapides et une latence minimale pour améliorer votre expérience de streaming. De ce côté Surfshark a frappé fort en passant la majorité de son parc de serveurs de 1Gb/s à 10 Gb/s ces derniers mois.
  • Couverture serveur : choisissez un fournisseur de VPN avec un vaste réseau de serveurs pour des capacités de déblocage géographique optimales. Ce qui vous permettra d’accéder au contenu du monde entier, mais aussi d’avoir un temps de réponse plus rapide. Surfshark c’est 3200+ serveurs dans 100+ pays.
  • Fonctionnalités de sécurité : les protocoles de chiffrement doivent être solides et reconnus (AES 256, ChaCha20, Wireguard, OpenDNS …), bouton kill switch, split tunneling, protection contre les fuites DNS sont des incontournables aujourd’hui.

Même si la plupart des fournisseurs de VPN offrent un support pour divers appareils, y compris Apple TV, c’est toujours mieux d’aller vérifier précisément si c’est vraiment le cas. Recherchez un VPN qui mentionne explicitement la compatibilité avec les appareils Apple cela vous garantira que vous n’allez pas vous retrouver dans la mouise à devoir bidouiller des solutions annexes ou demander un remboursement. Juste histoire de ne pas avoir de mauvaise surprise, on se prend déjà assez la tête ailleurs. Même si la plupart des outils proposent un remboursement sous 30 jours, vous savez comment ça se passe hein … y’a jamais de soucis pour que l’argent arrive chez eux, par contre pour le retour c’est pas toujours aussi simple. Au moins Surfshark est clair de ce côté, son outil est adapté.

Les meilleurs VPNs pour Apple TV

Alors, comme vous le savez je suis un utilisateur comblé avec Surfshark depuis plusieurs années, qui me convient très bien au quotidien avec très peu de lenteurs, etc. Mais on ne va pas se mettre des oeillères non plus et d’autres VPN font plutôt bien le taf de ce que j’en sais (mais eux sans avoir testé de manière concrète). Un petit tour rapide de quelques outils que je connais en mode bullet points (à prononcer en bon français, boulettes pwoiiiin) :

Surfshark VPN

  • Avantages : connexions simultanées illimitées, fonctionnalités de sécurité robustes, et serveurs optimisés pour le streaming.
  • Compatibilité : compatible avec les appareils Apple TV, intégration transparente, capacités de streaming améliorées, bibliothèques de contenu du monde entier …

NordVPN

  • Avantages : vaste réseau de serveurs, serveurs dédiés au streaming, et protocoles de sécurité de premier ordre.
  • Compatibilité : compatible avec les appareils Apple TV, accès illimité aux bibliothèques de contenu du monde entier.

ExpressVPN

  • Avantages : serveurs ultra-rapides, interface conviviale, et excellent support client.
  • Compatibilité : compatible avec les appareils Apple TV, streaming optimisé et des fonctionnalités de sécurité améliorées.

Et du côté des VPN gratuits ?

Vous connaissez déjà mon avis sur le sujet, oui il existe des bouses options de VPN gratuites. Le souci c’est qu’elles présentent souvent des limitations comme des quotas de données, des vitesses plus lentes, moins de serveurs et c’est blindé de pubs. Et, comme si ça ne suffisait pas, il n’y a pas non plus de niveau de sécurité minimal si vous faites attention à vos données. De plus il y a de très fortes chances que la plupart d’entre eux revendent vos données à divers organismes (il faut bien manger ma bonne dame). Si vous avez déjà essayé d’utiliser un VPN gratuit … vous savez que ça fait aussi mal que de marcher sur des tessons de bouteilles. 

Pour des performances et une sécurité optimales, investir dans un service VPN payant réputé n’est pas un luxe. Performances fiables et stables, des fonctionnalités de sécurité robustes … rien de mieux pour diminuer sa dose de stress.

Surtout au prix actuel qui reste vraiment abordable depuis plusieurs années. On parle de moins de 2.75€/mois TTC avec l’abonnement 2 ans et 2 mois. C’est vraiment pas cher si vous avez 4 ou 5 machines à protéger ou que vous avez de la famille. Et du côté du paiement, Surfshark est plutôt flexible, vous pouvez payer d’un tas de manières différentes : PayPal, carte bancaire ou de débit, Google ou Amazon Pay, et même en cryptomonnaies (l’occasion d’enfin faire quelque chose de vos Ripple ou Cardano … haha). Toujours avec la garantie de 30 jours satisfait ou remboursé.

Je n’en ai pas parlé aujourd’hui parce que c’est déjà pas mal long, mais vous pouvez aussi ajouter diverses options à votre VPN si vous voulez une protection plus complète. Surfshark One (avec son antivirus, son système d’alerte, etc.) ou la version Plus (qui intègre le service Incogni) sont aussi à votre disposition pour quelques euros de plus.

Découvrir le VPN de Surfshark !

TikTok Lite – l’UE exige des réponses sur la version rémunérée

Par : Korben

Aïe aïe aïe, on dirait bien que ce cher TikTok s’est encore fourré dans un sacré pétrin ! Figurez-vous que ces petits malins ont eu la riche idée de lancer en douce une nouvelle fonctionnalité dans leur app, sobrement intitulée « Task & Rewards« , dispo en France et en Espagne. Jusque-là, rien de bien méchant, me direz-vous sauf que voilà, cette version soi-disant « light » du réseau social cache en fait un système de récompenses qui paye les utilisateurs en échange de leur fidélité. Et ça, ça ne plaît pas du tout à l’Union Européenne !

En effet, la Commission Européenne vient de sortir l’artillerie lourde en exigeant des réponses de la part de TikTok dans un délai de 24 heures. Pourquoi tant de précipitation ? Eh bien figurez-vous que cette nouvelle fonctionnalité « Task & Rewards » qui rémunère les utilisateurs de plus de 18 ans à coup de bons d’achat ou de « coins » virtuels en échange de leur attention, inquiète.

Toute d’abord, on peut légitimement se poser la question de l’impact d’un tel système sur la santé mentale des utilisateurs, et en particulier des plus jeunes. Parce que bon, encourager les gens à scroller comme des zombies pour gratter trois cacahuètes, c’est quand même un peu limite… Surtout quand on sait à quel point les réseaux sociaux peuvent générer des comportements addictifs. La Commission s’inquiète notamment de l’efficacité de la vérification de l’âge des utilisateurs et de la gestion des plaintes par la plateforme.

Ensuite, il y a la question épineuse de la protection des données personnelles parce que pour distribuer ses récompenses, TikTok va forcément récolter encore plus d’infos sur nos habitudes, nos goûts, nos clics… Bref, de quoi remplir gentiment sa base de données, nourrir son algorithme et cibler toujours plus finement les utilisateurs.

Et là, l’UE ne rigole pas, elle veut des réponses, et vite !!!

TikTok a donc 24 heures chrono pour fournir son évaluation des risques liés à ce nouveau programme et s’il s’avère que la boîte chinoise a encore une fois voulu capturer toutes nos données sans prendre les précautions qui s’imposent, ça risque de chauffer pour son matricule ! La Commission a des pouvoirs qui pourraient potentiellement forcer TikTok à revoir entièrement, voire stopper son modèle économique si des impacts toxiques son relevés.

Bien sûr, TikTok assure qu’il a pris toutes les dispositions nécessaires, genre limiter l’accès à la fonctionnalité « Task & Rewards » aux plus de 18 ans, plafonner les récompenses à environ 1€ par jour et limiter le temps passé quotidiennement sur l’app, pour gratter des points, à seulement une heure. Mais bon, on ne va pas se mentir, ça ressemble quand même furieusement à une stratégie pour garder les gens le plus longtemps possible sur la plateforme. Comme d’hab quoi.

Les associations de consommateurs en Europe avaient déjà tiré la sonnette d’alarme sur l’UX / UI de la plateforme, notamment l’utilisation de monnaie virtuelle pour créer des incitations à l’engagement. Mais à en juger par la surveillance exercée par la Commission sur l’approche de l’app chinoise en matière de conformité au Digital Services Act (DSA), celle-ci devra peut-être aller plus loin pour satisfaire les responsables de ce nouveau règlement européen.

Alors attention TikTok, l’UE a l’œil sur toi !

VASA-1 – Des visages parlants ultra-réalistes et en temps réel

Par : Korben

VASA-1 est un nouveau framework qui permet de générer des visages parlants ultra-réalistes en temps réel ! En gros, vous balancez une simple photo à cette IA, ainsi qu’un petit clip audio, et bim ! Elle vous pond une vidéo d’un visage qui parle, avec une synchronisation de la bouche nickel chrome, des expressions faciales hyper naturelles et des mouvements de tête très fluides. C’est hyper bluffant !

Les chercheurs de Microsoft ont réussi ce tour de force en combinant plusieurs techniques de pointe en deep learning. Ils ont d’abord créé un espace latent expressif et bien organisé pour représenter les visages humains. Ça permet de générer de nouveaux visages variés, qui restent cohérents avec les données existantes. Ensuite, ils ont entraîné un modèle de génération de dynamiques faciales et de mouvements de tête, appelé le Diffusion Transformer, pour générer les mouvements à partir de l’audio et d’autres signaux de contrôle.

Et le résultat est juste époustouflant. On a l’impression de voir de vraies personnes qui parlent, avec toutes les nuances et les subtilités des expressions faciales. Les lèvres bougent parfaitement en rythme avec les paroles, les yeux clignent et regardent naturellement, les sourcils se lèvent et se froncent…

En plus de ça, VASA-1 peut générer des vidéos en haute résolution (512×512) à une cadence élevée, jusqu’à 40 images par seconde, avec une latence de démarrage négligeable. Autant dire que c’est le graal pour toutes les applications qui nécessitent des avatars parlants réalistes. On peut imaginer des assistants virtuels avec lesquels on pourrait interagir de manière super naturelle, des personnages de jeux vidéo encore plus crédibles et attachants, des outils pédagogiques révolutionnaires pour apprendre les langues ou d’autres matières, des thérapies innovantes utilisant des avatars pour aider les patients… etc etc..

En plus de pouvoir contrôler la direction du regard, la distance de la tête et même les émotions du visage généré, VASA-1 est capable de gérer des entrées qui sortent complètement de son domaine d’entraînement comme des photos artistiques, du chant, d’autres langues…etc.

Bon, évidemment, il reste encore quelques limitations. Par exemple, le modèle ne gère que le haut du corps et ne prend pas en compte les éléments non rigides comme les cheveux ou les vêtements. De plus, même si les visages générés semblent très réalistes, ils ne peuvent pas encore imiter parfaitement l’apparence et les mouvements d’une vraie personne mais les chercheurs comptent bien continuer à l’améliorer pour qu’il soit encore plus versatile et expressif.

En attendant, je vous invite à checker leur page de démo pour voir cette merveille en action. C’est juste hallucinant ! Par contre, vu les problèmes éthiques que ça pourrait poser du style usurpation d’identité, fake news et compagnie, et connaissans Microsoft, je pense que VASA-1 ne sera pas testable par tous bientôt malheureusement. Mais je peux me tromper…

ChatGPT est plus efficace et moins coûteux qu’un cybercriminel

Par : Korben

Les grands modèles de langage (LLM), comme le célèbre GPT-4 d’OpenAI, font des prouesses en termes de génération de texte, de code et de résolution de problèmes. Perso, je ne peux plus m’en passer, surtout quand je code. Mais ces avancées spectaculaires de l’IA pourraient avoir un côté obscur : la capacité à exploiter des vulnérabilités critiques.

C’est ce que révèle une étude de chercheurs de l’Université d’Illinois à Urbana-Champaign, qui ont collecté un ensemble de 15 vulnérabilités 0day bien réelles, certaines classées comme critiques dans la base de données CVE et le constat est sans appel. Lorsqu’on lui fournit la description CVE, GPT-4 parvient à concevoir des attaques fonctionnelles pour 87% de ces failles ! En comparaison, GPT-3.5, les modèles open source (OpenHermes-2.5-Mistral-7B, Llama-2 Chat…) et même les scanners de vulnérabilités comme ZAP ou Metasploit échouent lamentablement avec un taux de 0%.

Heureusement, sans la description CVE, les performances de GPT-4 chutent à 7% de réussite. Il est donc bien meilleur pour exploiter des failles connues que pour les débusquer lui-même. Ouf !

Mais quand même, ça fait froid dans le dos… Imaginez ce qu’on pourrait faire avec un agent IA qui serait capable de se balader sur la toile pour mener des attaques complexes de manière autonome. Accès root à des serveurs, exécution de code arbitraire à distance, exfiltration de données confidentielles… Tout devient possible et à portée de n’importe quel script kiddie un peu motivé.

Et le pire, c’est que c’est déjà rentable puisque les chercheurs estiment qu’utiliser un agent LLM pour exploiter des failles coûterait 2,8 fois moins cher que de la main-d’œuvre cyber-criminelle. Sans parler de la scalabilité de ce type d’attaques par rapport à des humains qui ont des limites.

Alors concrètement, qu’est ce qu’on peut faire contre ça ? Et bien, rien de nouveau, c’est comme d’hab, à savoir :

  • Patcher encore plus vite les vulnérabilités critiques, en priorité les « 0day » qui menacent les systèmes en prod
  • Monitorer en continu l’émergence de nouvelles vulnérabilités et signatures d’attaques
  • Mettre en place des mécanismes de détection et réponse aux incidents basés sur l’IA pour contrer le feu par le feu
  • Sensibiliser les utilisateurs aux risques et aux bonnes pratiques de « cyber-hygiène »
  • Repenser l’architecture de sécurité en adoptant une approche « zero trust » et en segmentant au maximum
  • Investir dans la recherche et le développement en cybersécurité pour garder un coup d’avance

Les fournisseurs de LLM comme OpenAI ont aussi un rôle à jouer en mettant en place des garde-fous et des mécanismes de contrôle stricts sur leurs modèles. La bonne nouvelle, c’est que les auteurs de l’étude les ont avertis et ces derniers ont demandé de ne pas rendre publics les prompts utilisés dans l’étude, au moins le temps qu’ils « corrigent » leur IA.

Source

Atlas – Le robot humanoïde de Boston Dynamics passe en version sans fil

Par : Korben

Boston Dynamics, le célèbre fabricant américain de robots, va vous épater une fois de plus avec sa dernière prouesse technologique : Atlas, le robot humanoïde qui passe en mode « sans fil » si je puis dire ! Eh oui, ce grand gaillard mécanique qui nous avait déjà bluffé par ses prouesses physiques fait peau neuve et troque ses câbles encombrants contre une batterie bien pratique. Fini le régime « branché sur secteur », Atlas peut maintenant se la jouer nomade et partir à l’aventure sans sa laisse, en abandonnant son système hydraulique pour un système 100% électrique.

Vous l’aurez compris parce que vous êtes super malins, limite HPI je pense, l’idée c’est de le rendre plus autonome et plus mobile afin qu’il puisse se faufiler dans des endroits inaccessibles, intervenir sur des terrains accidentés, et même prêter main forte lors de missions de sauvetage.

Grâce à ses capteurs et ses algorithmes de pointe, il peut analyser son environnement en temps réel, esquiver les obstacles tel un ninja, et même se relever tout seul comme un grand s’il se prend une gamelle. Un vrai pro de la gymnastique quoiqu’un peu flippant ! Équipé de capteurs comme des caméras, du lidar, du sonar et de l’imagerie thermique, il est ainsi capable de collecter des données dans différents environnements industriels.

Mais le plus fort, c’est qu’Atlas apprend à une vitesse affolante. Ses créateurs lui font suivre un entraînement intensif digne des meilleurs athlètes : courses, sauts, pirouettes… leur robot est soumis à un vrai parcours du combattant et le résultat est là puisqu’à chaque nouvelle vidéo, on reste scotché devant les prouesses de ce prodige mécanique. Grâce à des techniques de vision par ordinateur et d’apprentissage automatique, il peut détecter des objets, reconnaître des formes et suivre des mouvements.

Boston Dynamics a aussi lancé son propre système d’exploitation pour robots, baptisé Orbit. C’est la tour de contrôle qui permet de gérer toute une flotte de robots, de créer des jumeaux numériques des sites, pour orchestrer une robotisation complète d’un entrepôt ou d’une usine par exemple. Pour l’instant, seul Spot y a droit, mais Atlas et Stretch devraient bientôt être de la partie.

Pour le plaisir, je vous remets aussi la vidéo très impressionnante de l’ancienne version d’Atlas qui lui est hydraulique :

Évidemment, tout ça soulève pas mal de questions sur l’avenir de nos amis les robots. Est-ce qu’un jour Atlas et ses copains remplaceront les humains sur les chantiers ou dans les usines ? Est-ce qu’ils viendront nous sauver des décombres tel Superman quand un bâtiment s’effondrera ? Une chose est sûre, Boston Dynamics ne compte pas s’arrêter en si bon chemin. L’objectif c’est de l’intégrer avec les autres systèmes de l’entreprise comme des ERP pour améliorer encore un peu plus ses fonctionnalités et lui fournir des tas de données en temps réel.

Actuellement, la société américaine planche sur une version encore plus perfectionnée d’Atlas, avec une intelligence artificielle dernier cri et une autonomie rallongée et à terme, ce robot pourrait bien devenir le nouveau chouchou des industriels et des services de secours du monde entier même s’il faut garder à l’esprit qu’il ne peut pas encore tout faire car certaines zones confinées ou difficiles d’accès peuvent nécessiter d’autres méthodes d’inspection en complément.

Dommage, je l’aurais bien amené dans la forêt avec moi pour couper du bois. M’enfin, rassurez-vous, même avec toutes ces améliorations, Atlas n’est pas près de piquer le boulot de Terminator. Enfin, espérons-le ! En attendant, on ne peut que saluer le génie des ingénieurs de Boston Dynamics, qui repoussent sans cesse les limites de la robotique.

Et si vous voulez en savoir plus sur les dernières avancées d’Atlas, je vous invite à consulter le blog officiel de Boston Dynamics qui détaille les dessous de cette nouvelle version sur batterie.

Source

Peut être une solution pour réduire les acouphènes ?

Par : Korben

Ah les acouphènes, cette bande-son de l’enfer qui nous pourrit la vie ! Perso, j’ai parfois un sifflement strident qui me vrille les tympans et pas de bouton « mute » pour le stopper. Alors ça va, ça m’arrive assez rarement mais si vous faites partie des 8 millions de français à subir ce calvaire, j’ai une bonne nouvelle pour vous.

Figurez-vous que la FDA (l’équivalent américain de notre bon vieille ANSM) a donné son feu vert à un appareil révolutionnaire : le Lenire.

OK, le nom fait un peu penser à un Pokemon, mais ce truc au look tout droit d’un film de science-fiction des années 80 dispose d’un embout buccal bardé d’électrodes en acier inoxydable que vous placez dans votre bouche et qui va littéralement vous envoyer de l’électricité dans la langue !

Wow wow wow, on se calme, c’est pas la chaise électrique non plus hein ^^.

En fait, ça envoie des mini stimulations pour « chatouiller » votre langue, comme si une armée de petites fourmis faisait la fiesta sur votre muscle lingual. Pendant ce temps-là, vous avez un casque sur les oreilles qui diffuse des sons aussi apaisants que le ressac sur une plage de sable blanc et le combo fait que les acouphènes se réduisent. Dans une étude clinique portant sur 326 patients, 84% des participants ont constaté une amélioration significative après 12 semaines d’utilisation du Lenire. C’est quand même un sacré bond en avant quand on sait qu’avant, y avait pas grand chose pour soulager les gens.

Alors comment ça fonctionne ?

Et bien en gros, votre cerveau, c’est comme un projecteur qui est toujours braqué sur ce qui est important. Quand vous avez des acouphènes, c’est comme si le projecteur était bloqué sur le bruit parasite en mode « alerte rouge, défcon 1, on va tous mourir !« . Du coup, impossible de penser à autre chose, ça vous pourrit le ciboulot. Eh ben figurez-vous que cet appareil, c’est le copain qui viendrait vous secouer en mode « hey, regarde plutôt ça, c’est carrément plus intéressant !« . En stimulant votre langue et vos oreilles simultanément, il force donc votre cerveau à changer de focus. Résultat, votre projecteur mental n’est plus obnubilé par les acouphènes !

Après, c’est pas donné… comptez dans les 4000 balles pour vous offrir cette petite merveille. Mais pour les gens qui ont les oreilles qui sifflent à longueur de journée, on est prêt à tout pour retrouver un peu de répit, même à vendre un rein au marché noir (non, je déconne, faites pas !). Après y’a surement moyen de faire un équivalent DIY avec une pile et un casque à réduction de bruit, j’sais pas…

Bref, y’a de l’espoir pour tous les acouphéniques en galère et c’est ce que je voulais partager avec vous aujourd’hui ;-).

Source

IA sera bientôt capable de se répliquer et survivre d’après le CEO d’Anthropic

Par : Korben

Les avancées fulgurantes dans le domaine de l’intelligence artificielle ces dernières années ont suscité autant d’enthousiasme que d’inquiétudes et si les dernières déclarations de Dario Amodei, PDG d’Anthropic, se confirment, nous pourrions bien être à l’aube d’une nouvelle ère où les IA seront capables de se répliquer et de survivre de manière autonome comme n’importe quel être vivant.

Lors d’une récente interview pour le New York Times (je vous mets le transcript ici), Amodei a évoqué la possibilité que nous atteignions bientôt un niveau d’IA qu’il qualifie d’ASL 4. Ce stade, qui implique une autonomie et une capacité de persuasion accrues, pourrait permettre à des acteurs étatiques comme la Corée du Nord, la Chine ou la Russie de renforcer considérablement leurs capacités offensives dans divers domaines militaires.

Pour rappel, il a cofondé Anthropic avec sa sœur Daniela après avoir quitté OpenAI en raison de divergences sur l’orientation de l’entreprise. Chez OpenAI, il avait notamment participé au développement de GPT-3. Donc autant dire qu’il maitrise son sujet.

ASL signifie « Architectural Safety Level » (Niveau de Sécurité Architecturale en français). C’est une échelle empruntée aux laboratoires de virologie concernant leur niveau de « biosécurité » (spéciale dédicace à Wuhan ^^) qu’Anthropic a adapté à sa sauce pour évaluer le niveau de sécurité et de fiabilité d’une IA.

Ça va de 1 à 5 et ça donne à peu près ça :

  • ASL 1 : c’est une IA qui a peu ou pas de garanties de sécurité du tout.
  • ASL 2 : c’est une IA avec quelques garanties de sécurité de base.
  • ASL 3 : c’est une IA avec des garanties de sécurité modérées. Considérée suffisamment fiable pour certaines applications.
  • ASL 4 : c’est une IA avec de solides garanties de sécurité. Elle est considérée comme très fiable et peut être utilisée pour la plupart des applications, y compris les applications critiques comme tout ce qui est militaire.
  • ASL 5 : c’est une IA avec des garanties de sécurité extrêmement élevées. Elle peut être considérée comme sûre même pour les applications les plus critiques.

Donc ASL 4 c’est un niveau élevé et ça peut potentiellement inclure « l’autonomie » et la « persuasion ». Ah et actuellement, on est au niveau ASL 2.

Mais ce qui est encore plus impressionnant, c’est la perspective d’une IA capable de se répliquer et de survivre de manière autonome. Selon lui, nous pourrions atteindre ce stade critique dès 2025 ou 2028. Il ne s’agit pas d’une vision lointaine, mais bien d’un futur proche. Perso, un programme informatique capable de se répliquer et de s’adapter à son environnement (« survivre »), c’est ce que j’appelle un virus… ça ne me dit rien qui vaille. Bref, si les prédictions d’Amodei se confirment, cela soulève de nombreuses questions sur les implications d’une telle avancée technologique : Une IA autonome et capable de se répliquer pourrait-elle échapper à notre contrôle ? Quelles seraient les conséquences sur notre société, notre économie… notre sécurité ?

Comme l’histoire de la conscience la dernière fois, ça fait un peu flipper, mais une fois encore, c’est super important que le développement de ces technologies se fasse de manière responsable et éthique, avec, si c’est nécessaire, des garde-fous.

En tout cas, j’sais pas pour vous, mais moi j’ai l’impression qu’on nage en plein scénario de SF en ce moment.

Source

AiFormat – Un outil en ligne de commande pour formater vos fichiers pour Claude

Par : Korben

Si vous vous intéressez un peu aux outils IA, vous connaissez sûrement Claude, l’assistant IA dernière génération d’Anthropic. Depuis la sortie de sa version 3, c’est d’ailleurs devenu mon meilleur pote pour coder à la vitesse de l’éclair. j’ai même pris un abonnement payant en rusant un peu.

Toutefois, le seul truc qui me ralentissait dans mes grandes ambitions, c’était de devoir copier-coller à la main tous mes fichiers de code dans la fenêtre de contexte de Claude pour ensuite lui demander d’analyser ça, et me proposer des corrections ou une nouvelle fonction. Mais ça, c’était avant car je suis tombé sur un petit bijou opensource qui va vous changer la vie : AiFormat.

Ce petit outil en ligne de commande vous permet de sélectionner des fichiers et dossiers, et de les convertir automatiquement dans un format optimisé pour Claude. En deux clics, tout est dans le presse-papier, prêt à être envoyé à votre IA préférée.

Sous le capot, AiFormat utilise Ink, une chouette librairie pour créer des CLI avec une belle interface utilisateur. Ça vous permet de filtrer et naviguer dans vos fichiers, de les sélectionner avec les flèches, et tout ça de façon super intuitive.

Pour l’installer et le prendre en main, c’est hyper simple, tout est expliqué sur la page Github du projet. Ça commence par un simple :

npm install --global aiformat

Ensuite, pour utiliser aiformat, accédez au répertoire contenant les fichiers et dossiers que vous souhaitez partager avec Claude puis lancez la commande suivante :

aiformat

Le créateur a eu la bonne idée de mettre le projet en opensource (MIT license), du coup n’hésitez pas à y jeter un œil et même contribuer si le cœur vous en dit. La communauté vous dira merci !

Franchement, si vous utilisez souvent Claude pour coder ou analyser des projets, c’est un indispensable à avoir dans sa boîte à outils. Ça vous fera gagner un temps fou au quotidien.

Un joueur japonais arrêté pour vente de Pokémons trafiqués

Par : Korben

Au pays du Soleil-Levant, un certain Yoshihiro Yamakawa, âgé de 36 ans et résidant dans la charmante ville d’Uji, s’est retrouvé dans de beaux draps. Ce décorateur d’intérieur est soupçonné d’avoir enfreint la loi sur la prévention de la concurrence déloyale en modifiant illégalement les capacités des petits monstres apparaissant dans le célèbre jeu Nintendo Switch « Pokémon Violet ». Selon les autorités, il aurait utilisé des outils spécialisés pour altérer le code du jeu et créer des Pokémon rares aux caractéristiques surpuissantes.

Mais attendez, ce n’est pas tout ! Non content de jouer les apprentis sorciers avec les données du jeu, notre cher Yamakawa a eu la brillante idée de vendre ces Pokémon modifiés pour la modique somme de 13 000 yens (environ 89 euros) pièce, via des marketplaces en ligne. Une sacrée arnaque !

Bien évidemment, Nintendo et The Pokémon Company ne sont pas du genre à laisser passer ce genre de choses surtout quand on touche à leurs précieuses licences. A ce moment là, ils sortent les Dracolosses et justement, Yamakawa risque gros : jusqu’à 5 ans de prison et une amende de 5 millions de yens. De quoi lui faire passer l’envie de jouer au plus malin.

Mais le plus dingue dans tout ça, c’est que les logiciels utilisés pour modifier les données de sauvegarde sont disponibles gratuitement sur Internet. Pas besoin d’être un Mewtwo de l’informatique pour s’en servir. Du coup, les ventes illégales de Pokémon modifiés pullulent sur la toile, générant des revenus estimés à plusieurs millions de yens.

L’association de protection des droits d’auteur des logiciels informatiques (ACCS) met en garde contre ces pratiques qui, non seulement gâchent le plaisir de jouer, mais peuvent aussi déséquilibrer les combats en ligne en donnant des avantages injustes à certains joueurs. Et puis, soyons honnêtes, c’est un peu comme tricher aux examens avec ChatGPT : c’est mal et ça ne rend pas plus intelligent !

Alors, chers dresseurs en herbe, la prochaine fois que vous tomberez sur une annonce alléchante proposant des Pokémon surpuissants à prix cassé, méfiez-vous ! Non seulement vous risquez de vous faire rouler dans la poudre d’escampette, mais en plus, vous encourez de sérieux ennuis avec la justice.

Source

Attention aux Deep ‘Cyprien’ Fakes !

Par : Korben

Vous en avez sûrement entendu parler ces derniers mois, le célèbre Youtubeur Cyprien est au cœur d’une polémique malgré lui. En effet, son image a été utilisée dans des deepfakes pour faire la promotion de jeux mobiles plus que douteux.

C’est donc bien une IA (et des humains) qui est derrière ces vidéos détournant l’image de Cyprien pour lui faire dire ce qu’il n’a jamais dit. On le voit notamment vanter les mérites d’une app soi-disant révolutionnaire pour gagner de l’argent facilement. Le souci, c’est que cette app sent l’arnaque à plein nez…

Résultat des courses, Cyprien s’est senti obligé de réagir pour démentir son implication dans ces pubs. À travers une vidéo mi-sérieuse mi-humoristique, il met en garde contre les dérives de l’IA et des deepfakes.

C’est quand même flippant de voir son image utilisée à son insu pour promouvoir des trucs plus que limite. Rien que le fait qu’il soit obligé de démentir montre à quel point un deepfake peut semer le doute dans l’esprit des gens, donc il fait bien de sonner l’alerte à travers sa vidéo.

Et c’est là qu’on se rend compte à quel point ces technologies peuvent être dangereuses si elles tombent entre de mauvaises mains. Aujourd’hui c’est Cyprien qui trinque, mais demain ça pourrait être n’importe qui d’entre nous. En attendant, méfiance quand vous voyez une vidéo d’une célébrité qui fait la promo d’un produit. Surtout si c’est pour une app ou un vpn (ah non, pas un vpn ^^). Y’a 9 chances sur 10 pour que ce soit un deepfake !

Perso, je l’ai trouvé au top cette vidéo, donc comme d’hab, je fais tourner.

Les IA comme ChatGPT aident-elles réellement les étudiants en informatique ?

Par : Korben

Vous êtes un étudiant en informatique, tout frais, tout nouveau, et on vous balance des exercices de programmation à faire. Panique à bord !

Mais attendez, c’est quoi ce truc là-bas ?

Ah bah oui, c’est ChatGPT, votre nouveau meilleur pote ! Il est capable de résoudre vos exos en deux temps trois mouvements, grâce à des techniques de traitement du langage naturel (NLP) et d’analyse de langage de programmation, mais attention, c’est pas si simple.

Des chercheurs ont voulu creuser la question et voir comment ces générateurs de code IA influencent vraiment l’apprentissage des étudiants et pour cela, ils ont réalisé 2 études. Dans la première, ils ont pris 69 étudiants, des novices complets en Python et les ont séparés en deux groupes : Ceux qui utiliseront l’IA et ceux qui coderont à l’ancienne sans IA.

Durant 7 sessions, ils leur ont donné des exos à faire. Les Jedis boostés à l’IA avaient accès à un générateur de code basé sur Codex, un modèle d’apprentissage automatique qui utilise le NLP et l’analyse de langage de programmation pour générer du code à partir des entrées des utilisateurs. Les autres, eux, devaient se débrouiller.

Résultat des courses ?

Les dev augmenté à l’IA ont cartonné ! Ils ont fini 91% des tâches contre 79% pour les autres. En plus, leur code était beaucoup plus correct. Toutefois, sur les tâches où il fallait modifier du code existant, les deux groupes étaient au coude à coude. Ensuite, ils ont fait passer des tests de connaissance aux étudiants, sans l’IA. Et là, surprise ! Les deux groupes ont eu des scores similaires. Mais quand ils ont refait les tests une semaine plus tard, les étudiants du goupe boosté à l’IA ont mieux retenu ce qu’ils avaient appris.

Dans la deuxième étude, les chercheurs ont analysé comment les étudiants utilisaient vraiment le générateur de code. Et là, révélations ! Certains en abusaient grave, genre copier-coller direct la consigne sans réfléchir. Pas cool ! 😅 Mais d’autres étaient plus malins et s’en servaient pour décomposer le problème en sous-tâches ou vérifier leur propre code.

Alors, que faut-il en retenir ?

Et bien que l’IA peut être un super outil pour apprendre à coder, mais à condition savoir l’utiliser intelligemment. C’est pourquoi les concepteurs d’outils et les profs doivent encourager une utilisation responsable et auto-régulée de ces générateurs de code. Sinon, c’est le drame assuré !

Pour ma part, vous le savez, le développement, c’est pas mon truc. Mais depuis que l’IA a débarqué dans ma vie, « sky is the limit » et ça m’aide énormément. Et comme ces étudiants, si je pose mon cerveau que je passe en mode copié-collé IA, à la fin, je vais avoir du caca. Mais si je comprends ce que je veux faire, si je maitrise mon code plus comme un chef de projet bien technique et bien c’est redoutablement efficace. Et ce qui est encore plus cool, c’est que j’apprends plein de trucs. On dit souvent qu’il faut forger pour devenir forgeron. Et bien là c’est le cas, car je ne m’encombre plus des problématiques de syntaxe, et je construis brique par brique mes outils en comprenant tout ce que je fais. Donc l’IA pour développer, oui !! Mais en laissant le cerveau allumé.

En tout cas, une chose est sûre, c’est en train de révolutionner l’apprentissage du code. Ça promet pour le futur mais faudra veiller à ce que les étudiants apprennent vraiment à faire les choses et ne deviennent pas des zombies du copier-coller (on avait déjà le souci avec StackOverflow, cela dit…).

Source

Netflix crée la polémique avec de fausses photos IA dans un docu true crime

Par : Korben

Netflix a encore frappé, mais cette fois, ce n’est pas pour une nouvelle série addictive. Non, ils ont carrément utilisé des photos générées par IA dans leur dernier documentaire true crime « What Jennifer Did » (« Les Vérités de Jennifer », en français). Et autant vous dire que ça fait jaser sur la Toile !

Le docu retrace l’affaire sordide d’un meurtre commandité qui a eu lieu au Canada en 2010. Jennifer Pan, une ado en apparence sans histoires, a en fait orchestré l’assassinat de sa mère. Brrr, ça donne froid dans le dos ! Mais le plus fou, c’est que pour illustrer à quel point Jennifer était « pétillante, heureuse et pleine d’assurance » selon les mots d’une amie, Netflix a balancé des photos qui ont tous les codes des images générées par une IA. On parle de mains difformes, de visages déformés et même une dent de devant anormalement longue. Sympa le portrait !

Ça soulève pas mal de questions éthiques d’utiliser l’IA pour représenter une vraie personne, qui plus est dans une affaire criminelle. D’accord, Jennifer croupit en taule jusqu’en 2040 au moins, mais quand même, c’est glauque de tripatouiller la réalité comme ça. Surtout que bon, on n’est pas dans une fiction là, mais dans un fait divers bien réel et tragique.

On a déjà vu des séries utiliser l’IA pour générer des éléments de décor random, genre des affiches chelous dans True Detective. Mais là, on passe un cap en traficotant des photos d’une personne qui existe. Perso, ça me fait penser à ces deepfakes de célébrités qui pullulent sur internet alors si même les docs se mettent à nous enfumer avec de fausses images, où va-t-on ?

Netflix se défendent en disant que pour des raisons légales, ils ne pouvaient pas utiliser de vraies photos de Jennifer. Ok, mais ils auraient pu flouter son visage ou juste ne pas mettre de photos.

En tous cas, ça promet de sacrés débats sur l’utilisation de l’IA dans les médias. Jusqu’où peut-on aller pour illustrer une histoire vraie ? Est-ce qu’on a le droit de « créer » des images de personnes réelles dans ce contexte ? Autant de questions épineuses qui divisent.

La technologie utilisée par Netflix est probablement une forme de réseaux antagonistes génératifs (GAN) ou de deepfake. Ces technologies utilisent l’intelligence artificielle pour créer des images ou vidéos réalistes en apprenant des motifs à partir de données existantes. Les GAN sont composés de deux réseaux de neurones : un générateur qui crée les images, et un discriminateur qui essaie de distinguer les images générées des vraies. Au fil du temps, le générateur s’améliore pour créer des images ultra-réalistes, indiscernables de photos authentiques.

Mais l’usage de ces technologies soulève d’importantes questions éthiques, car elles peuvent servir à manipuler la perception de la réalité. Et dans le cas des Vérités de Jennifer, cela pourrait induire les spectateurs en erreur.

On verra si ça se généralise ou si Netflix saura en tirer des leçons.

Source

La plateforme MEDIUM interdit le contenu généré par IA de son programme partenaire

Par : Korben

Ça va en faire des déçus chez les petits malins qui croyaient avoir trouvé la combine du siècle pour se faire du blé facile sur Medium en balançant des articles pondus par ChatGPT et compagnie ! La plateforme de blogs vient en effet de dégainer son bazooka anti-IA et de bannir purement et simplement le contenu généré artificiellement de son programme partenaire rémunéré. Eh oui, fini de laisser tourner GPT-4 à plein régime toute la nuit pour cracher des articles à la chaîne et les planquer derrière un paywall ! Medium a dit « Niet, c’est fini ça !« 

La sentence est tombée par mail dans la boîte des utilisateurs : à partir du 1er mai, c’est tolérance zéro pour les histoires 100% IA dans le programme de monétisation. Les récits conçus par une intelligence artificielle seront donc retirés des paywalls illico presto, et les comptes récidivistes pourront même se faire virer de la rémunération par Medium. Ça rigole plus !

Faut dire que la plateforme a une vision bien précise de son identité : un sanctuaire pour le storytelling humain, pas un repaire de scribouillards synthétiques.

Ok, ils sont ouverts à ce que l’IA file un coup de main pour peaufiner un texte ou aider à écrire dans la langue de Shakespeare quand on est rouillé en anglais. Mais que dalle pour les papiers écrits de A à Z par un algorithme, c’est no way !

« Medium, c’est fait pour les histoires humaines, pas pour les textes générés par l’IA« , martèle la plateforme dans son mail qui a dû faire l’effet d’une douche froide à plus d’un. En fait, si on y regardait de plus près, c’était déjà écrit noir sur blanc dans les guidelines de Medium : les histoires 100% IA, c’était déjà restreint à une diffusion limitée au petit cercle de l’auteur sur la plateforme. Pour utiliser l’IA en mode fair-play, faut jouer la transparence et le mentionner direct dans les 2 premiers paragraphes. Pareil pour les images générées par l’IA, qui doivent être identifiées et sourcées comme il faut.

Mais là, en virant le contenu IA de son programme de monétisation, Medium serre sérieusement la vis. Et si jamais vous tombez sur un de ces récits bricolés par un bot et que ça vous gonfle, pas de souci ! Il suffit de cliquer sur « Voir moins de contenu similaire » pour dire à Medium « Merci mais non merci, très peu pour moi ! » et ainsi limiter la propagation de ces histoires synthétiques. A voir comment ils comptent faire techniquement maintenant…

Après soyons honnêtes, le contenu généré par l’IA, c’est souvent mal fait et on se retrouve avec une belle bouillie insipide qui manque de saveur. Étant abonné payant à Medium, je trouve que c’est pas une mauvaise nouvelle et j’imagine que bon nombre de plateformes vont leur emboiter le pas.

Source

SUPIR – L’IA qui restaure vos photos comme jamais

Par : Korben

SUPIR (Scaling-UP Image Restoration) est une avancée majeure dans le domaine de la restauration d’images intelligente et réaliste. En s’appuyant sur des techniques multi-modales et des générateurs préentraînés avancés, SUPIR repousse les limites de ce qui est possible en termes de qualité et de contrôle de la restauration en combinant ce qui se fait de mieux en ce moment en IA.

Au cœur de SUPIR se trouve un modèle génératif que vous connaissez bien : StableDiffusion-XL (SDXL) et ses 2,6 milliards de paramètres. Pour l’appliquer efficacement à la restauration, les dev du projet ont du concevoir et entrainer un adaptateur de plus de 600 millions de paramètres.

Mais l’autre atout clé de SUPIR est son jeu de données d’entraînement titanesque, avec plus de 20 millions d’images haute résolution et haute qualité, chacune annotée avec une description textuelle détaillée. Cela permet à SUPIR de réaliser des restaurations guidées par des instructions en langage naturel, offrant un contrôle sans précédent sur le résultat final.

Je l’ai testé sur une image culte d’Internet : Les Horribles Cernettes. Pour ceux qui ne connaissent pas, il s’agit de la première photo qui a été envoyée via Internet à Tim Berners-Lee.

Voici l’image d’origine bien dégeu en terme de qualité :

Et voici ce que ça donne une fois passé dans SUPIR. Vous n’avez jamais vu cette photo avec cette qualité, j’en suis sûr !

Des prompts de « qualité négative » sont également utilisés pour améliorer encore la qualité perceptuelle. Et une méthode d’échantillonnage guidé par la restauration a été développée pour préserver la fidélité à l’image source, un défi courant avec les approches génératives.

Par contre, au niveau de certains détails comme les yeux, on n’y est pas encore mais je sais qu’il y a d’autres IA capable de gérer ça.

Grâce à cette combinaison unique de modèles, de données d’entraînement massives et de fonctionnalités plutôt avancées, SUPIR produit des restaurations d’une qualité exceptionnelle, en particulier sur des photos dégradées. Le tout avec la possibilité inédite de contrôler finement le résultat via des instructions en langage naturel.

Voici quelques exemples de cas d’utilisation :

  • Restaurer des paysages en faisant ressortir toute la beauté naturelle des photos
  • Obtenir des portraits ultra-détaillés et des expressions faciales quasi-parfaitement restituées
  • Redonner vie au charme des animaux dans des clichés anciens ou de faible qualité
  • Remastering de jeux vidéo pour une clarté et un niveau de détail époustouflants
  • Résurrection de films classiques pour revivre l’âge d’or du cinéma avec une netteté impeccable

Si vous ne me croyez pas, il y a plein d’exemples sur le site officiel du projet. Alors par contre, y’a pas de version en ligne officielle donc vous avez 2 possibilités pour jouer avec. Soit vous taper l’install à la main sur votre ordinateur, soit aller sur Replicate qui héberge une version en ligne avec laquelle vous pourrez améliorer vos images.

Pour en savoir plus sur SUPIR, rendez-vous sur le dépôt officiel du projet.

Whomane – L’IA portable & open source

Par : Korben

Accrochez-vous bien à vos slips, parce que je vais vous parler d’un truc de ouf qui risque bien de révolutionner le monde de l’IA portable : Whomane ! Ouais, vous avez bien lu, c’est un projet open source de wearable avec une caméra intégrée.

Whomane, c’est un peu le rêve de tout maker qui se respecte : un appareil portatif bourré d’IA et de capteurs, le tout en mode open source pour pouvoir bidouiller et créer ses propres applications. La vision derrière ce projet, c’est de rendre l’IA embarquée accessible à tous, que ce soit pour l’utiliser ou pour développer dessus.

Concrètement, Whomane se présente sous la forme d’un petit boîtier à clipser sur soi, un peu comme une broche hi-tech. Mais attention, pas n’importe quelle broche ! Celle-là embarque une caméra, un micro et du logiciel capable d’analyser votre environnement en temps réel. Et le tout est propulsé par un raspberry pi Zero capable de faire tourner des modèles de deep learning directement sur l’appareil.

Maintenant, vous vous demandez sûrement ce qu’on peut bien faire avec un truc pareil ? Eh bien, les possibilités sont quasi infinies ! Imaginez par exemple une application qui reconnaît les visages et affiche des infos sur les gens que vous croisez. Ou encore un assistant personnel qui analyse vos conversations et vous souffle des réponses. Vous voyez le genre ?

Mais Whomane, c’est aussi et surtout une plateforme ouverte et collaborative. Le code source est dispo sur GitHub, avec une licence GPL pour les projets open source et une licence commerciale pour ceux qui veulent l’intégrer dans des produits fermés.

Alors okay, je vous vois venir avec vos grands chevaux : « Oui mais la vie privée dans tout ça ? C’est Big Brother ton truc ! » Alors oui, évidemment, dès qu’on parle de caméra et d’IA, ça soulève des questions. Mais justement, l’avantage d’un projet open source comme Whomane, c’est la transparence. Tout est là, à disposition de la communauté pour auditer le code et s’assurer qu’il n’y a pas de dérive. Et puis bien sûr, il faudra toujours veiller à respecter les lois et réglementations en vigueur.

Bref, vous l’aurez compris, Whomane c’est le genre de projet geek et utopiste qui fait vibrer la corde du bidouilleur qui sommeille en nous. Après, on ne va pas se mentir, c’est encore un prototype avec sûrement plein de bugs et de limitations. Mais quand bien même, qu’est-ce que c’est excitant de voir émerger ce genre d’initiatives !

Le Recovery Kit V2 – Le cyberdeck pour les aventuriers du net

Par : Korben

Vous avez vu le Recovery Kit Version 2 ?

En gros, c’est un cyberdeck de compète qui renferme un Raspberry Pi dans une valise Pelican Case. Le genre de bidule qui vous donne envie de partir à l’aventure numérique façon Mad Max.

Alors pour faire simple, un cyberdeck, c’est un ordi portable custom taillé pour les baroudeurs du net. Un truc compact, autonome et qui en a dans le ventre pour pirater la NASA depuis un bunker en plein désert (enfin, façon de parler hein, on est pas là pour finir en taule).

Ce Recovery Kit V2, c’est une version améliorée du premier modèle conçu par Jay Doscher en 2019. À l’époque, le concept avait fait un petit buzz dans la commu des makers et des nerds. Faut dire que l’idée de fourrer un Raspberry Pi dans une mallette antichoc, c’est quand même stylé.

Mais alors, qu’est-ce qui change avec cette V2 ? Déjà, on a droit à un Raspberry Pi 5 qui envoie du gros. Ça va vous permettre de faire tourner des trucs costauds sans avoir l’impression d’être revenu au temps du Minitel. Ensuite, y a une batterie de 25 600 mAh pour tenir la distance (4 à 5h d’autonomie), un écran tactile 7 pouces, un clavier ortholinéaire et même un disque SSD NVMe pour le stockage. De quoi vous concocter une config de guerrier nomade.

La valise Pelican 1300 utilisée pour le boitier offre une protection optimale contre la poussière, l’eau et autres dangers environnementaux, histoire de garder votre matos bien au sec.

Au niveau des composants, la liste est plutôt complète mais il manque quelques détails techniques qui pourraient être utiles, genre un schéma du montage pour voir comment tout se branche car le tuto de montage complet est réservé aux membres premium.

En parlant de switches, les célèbres Cherry MX sont un classique mais pour un kit nomade, des switches low profile type Kailh ou Outemu seraient plus adaptés je trouve. Niveau look, comme vous le voyez, on reste dans un style assez brut de décoffrage qui respire la robustesse. La valise Pelican noire avec ses coins renforcés, ça envoie du lourd. On est clairement pas sur un truc fragile à trimballer avec des gants blancs.

Bon après, faut pas se leurrer, c’est pas non plus le machin le plus ergonomique du monde. Le clavier ortholinéaire, c’est un poil déroutant au début et faut aimer taper sur des touches de la taille d’un timbre poste. Mais bon, c’est le prix à payer pour avoir un truc compact qui rentre dans une valise.

Côté connectique, on est plutôt bien servi avec de l’Ethernet, de l’USB-C, un port GPIO pour brancher des modules et même un switch réseau pour partager la connexion. Par contre, va falloir vous coltiner un adaptateur secteur, parce que la recharge se fait via un port barrel. Un poil old school mais bon, on va pas chipoter.

Pour ce qui est de la config logicielle, Jay propose une image toute prête avec Raspberry Pi OS, mais vous pouvez aussi installer votre distro préférée. Perso, je verrai bien un petit Kali Linux pour partir en mode h@ck3r dans la matrice, mais rassurez-vous, un Windows c’est possible aussi. 😎

En vrai, ce Recovery Kit V2, c’est clairement pas un truc pour madame Michu qui veut surfer sur Facebook. C’est plutôt une machine pour les passionnés de bidouille qui kiffent l’idée d’avoir un ordi portable custom qui sort de l’ordinaire. Et puis faudra quand même mettre la main au portefeuille parce qu’entre la valise Pelican, le matos électronique et les accessoires, vous allez vite dépasser les 500 balles. Mais bon, c’est le prix à payer pour avoir un cyberdeck qui en jette.

En attendant, si vous voulez en savoir plus sur ce projet, je vous invite à checker le site de Jay Doscher. Vous y trouverez plein de photos et des détails sur les composants utilisés.

IA – Des biais de genre qui font froid dans le dos !

Par : Korben

Malheureusement, j’ai une nouvelle qui va vous faire bondir de votre canapé ! 😱 Figurez-vous que nos chers modèles de langage d’IA, là, genre GPT-4, GPT-3, Llama 2 et compagnie, eh ben ils sont bourrés de biais de genre ! Si si, et c’est pas moi qui le dis, c’est l’UNESCO qui vient de sortir une étude là-dessus.

Cette étude, menée par des chercheurs de l’University College London (UCL) et de l’UNESCO, a fait de l’analyse de contenu pour repérer les stéréotypes de genre, des tests pour voir si les IA étaient capables de générer un langage neutre, de l’analyse de diversité dans les textes générés, et même de l’analyse des associations de mots liées aux noms masculins et féminins.

Bref, ils ont passé les modèles au peigne fin et les résultats piquent les yeux. Déjà, ces IA ont une fâcheuse tendance à associer les noms féminins à des mots comme « famille », « enfants », « mari », bref, tout ce qui renvoie aux stéréotypes de genre les plus éculés. Pendant ce temps-là, les noms masculins, eux, sont plus souvent associés à des termes comme « carrière », « dirigeants », « entreprise »… Vous voyez le tableau quoi. 🙄

Et attendez, ça ne s’arrête pas là ! Quand on demande à ces IA d’écrire des histoires sur des personnes de différents genres, cultures ou orientations sexuelles, là aussi ça part en vrille. Par exemple, les hommes se retrouvent bien plus souvent avec des jobs prestigieux genre « ingénieur » ou « médecin », tandis que les femmes sont reléguées à des rôles sous-valorisés ou carrément stigmatisés, genre « domestique », « cuisinière » ou même « prostituée » ! On se croirait revenu au Moyen-Âge !

Tenez, un exemple frappant avec Llama 2 : dans les histoires générées, les mots les plus fréquents pour les garçons et les hommes c’est « trésor », « bois », « mer », « aventureux », « décidé »… Alors que pour les femmes, on a droit à « jardin », « amour », « doux », « mari »…et le pire, c’est que les femmes sont décrites quatre fois plus souvent dans des rôles domestiques que les hommes.

Nombreux sont les gens de la tech qui se battent pour plus de diversité et d’égalité dans ce milieu, et voilà que les IA les plus avancées crachent à la gueule de tous des clichés dignes des années 50 ! Il est donc grand temps de repenser en profondeur la façon dont on développe ces technologies parce que là, non seulement ça perpétue les inégalités, mais en plus ça risque d’avoir un impact bien réel sur la société vu comme ces IA sont de plus en plus utilisées partout !

Alors ok, y a bien quelques boîtes qui arrivent mieux à limiter la casse, mais globalement, c’est la cata. Et le pire, c’est que ces biais viennent en grande partie des données utilisées pour entraîner les IA, qui deviennent à leur tour ce reflet de tous les stéréotypes et discriminations bien ancrés dans notre monde…

Mais attention, faut pas tomber dans le piège de dire que ces IA sont volontairement biaisées ou discriminatoires hein. En fait, ce sont juste des systèmes hyper complexes qui apprennent à partir des données sur lesquelles on les entraîne. Donc forcément, si ces données sont elles-mêmes biaisées, et bien les IA vont refléter ces biais. C’est pas qu’elles cherchent à discriminer, c’est juste qu’elles reproduisent ce qu’elles ont « appris ».

Mais bon, faut pas désespérer non plus hein. Déjà, des études comme celle de l’UNESCO, ça permet de mettre en lumière le problème et de sensibiliser l’opinion et les décideurs et puis surtout, il y a des pistes de solutions qui émergent. Les chercheurs de l’UNESCO appellent par exemple à renforcer la diversité et l’inclusivité des données d’entraînement, à mettre en place des audits réguliers pour détecter les biais, à impliquer davantage les parties prenantes dans le développement des IA, ou encore à former le grand public aux enjeux… Bref, tout un tas de leviers sur lesquels on peut jouer pour essayer de rééquilibrer la balance !

Alors voilà, je voulais partager ça avec vous parce que je trouve que c’est un sujet super important, qui nous concerne tous en tant que citoyens du monde numérique. Il est crucial qu’on garde un œil vigilant sur ces dérives éthiques et qu’on se batte pour que l’IA soit développée dans le sens du progrès social et pas l’inverse. Parce que sinon, on court droit à la catastrophe, et ça, même le plus optimiste des Bisounours ne pourra pas le nier !

N’hésitez pas à jeter un coup d’œil à l’étude de l’UNESCO, elle est super intéressante et surtout, continuez à ouvrir vos chakras sur ces questions d’éthique IA, parce que c’est un défis majeurs qui nous attend.

Allez, sur ce, je retourne binge-watcher l’intégrale de Terminator en espérant que ça ne devienne pas un documentaire… Prenez soin de vous les amis, et méfiez-vous des machines ! Peace ! ✌️

Source

Imprimantes HP – Un nouveau firmware qui fait grincer des dents

Par : Korben

Ah les imprimantes, ces petites boites en plastique bon marché, bien bruyantes, sans lesquelles on serait bien embêtés pour imprimer nos QR Codes pour les JO photos de vacances ou nos documents. Mais attention, si vous avez une imprimante HP, vous risquez d’être encore plus embêtés !

En effet, la célèbre marque a eu la bonne idée de balancer une mise à jour firmware qui bloque l’utilisation des cartouches d’encre non estampillées HP. Sympa non ? Du coup, si vous aviez l’habitude d’acheter des cartouches génériques pour faire des économies, c’est raté. Votre imprimante va gentiment vous envoyer bouler en vous disant d’aller acheter des cartouches HP, sinon rien.

Cette mise à jour firmware contient une fonctionnalité de sécurité qui empêche l’utilisation de cartouches d’encre non-HP, monopolisant ainsi le marché des cartouches de remplacement. Bien que les détails techniques ne soient pas précisés, il est probable que la mise à jour utilise un algo spécifique et des techniques de gestion des droits numériques (DRM) pour vérifier l’authenticité de la puce sur la cartouche et empêcher son utilisation si ce n’est pas une cartouche de marque HP.

Forcément, ça n’a pas plu à tout le monde cette histoire. Des petits malins ont décidé d’attaquer HP en justice, en mode « non mais oh, on n’est pas des pigeons non plus » (Vous la sentez la conviction que j’y mets ?). Ils accusent la marque de vouloir monopoliser le marché des cartouches d’encre en forçant les utilisateurs à acheter ses propres cartouches hors de prix. Les plaignants affirment que HP a cherché à tirer profit des coûts irrécupérables des clients en monopolisant le marché secondaire des cartouches d’encre de remplacement par le biais de la sécurité dynamique et d’autres tactiques.

Alors ils ont bien tenté de se défendre en disant « mais non, on ne bloque pas toutes les cartouches, regardez il y a des marques compatibles« . Sauf que les plaignants ne sont pas dupes. Ils ont bien compris que le but du jeu était de profiter du fait que les gens ont déjà investi dans une imprimante HP pour leur faire cracher un max de thunes en cartouches.

Mais le fabriquant ne compte pas se laisser faire. La marque affirme que les mises à jour de firmware qui bloquent certaines cartouches sont là pour « protéger l’innovation et la propriété intellectuelle« . Arf ! En gros, si vous voulez utiliser une imprimante HP, vous devez passer à la caisse pour acheter des cartouches HP, sinon c’est de la triche. HP soutient également que les plaignants ne peuvent pas réclamer de dommages et intérêts pour avoir été surfacturés en vertu des lois antitrust fédérales américaines, car les consommateurs qui achètent des produits auprès d’un intermédiaire ne peuvent poursuivre le fabricant que pour obtenir une injonction, et non pour récupérer des dommages et intérêts résultant d’une prétendue surfacturation.

Le problème, c’est que cette stratégie est un poil abusive. C’est un peu comme si on vous forçait à faire le plein de votre Renault uniquement dans les stations Renault (je sais, ça n’existe pas), en prétextant que les autres essences ne sont pas assez bien pour votre voiture. Pas cool.

D’ailleurs, le PDG de HP, Enrique Lores, a exprimé l’espoir d’attirer les clients vers un modèle d’abonnement à l’impression, où les clients sont facturés pour avoir suffisamment imprimé ou utilisé suffisamment de fournitures. Mais attention, certaines estimations suggèrent que les prix de l’encre pour imprimante peuvent être assez élevés, allant de 439 à 2 380 dollars le litre. Outch ! C’est encore plus cher que le parfum de luxe.

Alors certes, HP n’est pas le seul à jouer à ce petit jeu. Les fabricants d’imprimantes ont bien compris que c’est sur les cartouches d’encre qu’ils se font le plus de blé, mais bloquer carrément les cartouches concurrentes, c’est un cran au-dessus. Et ça risque de leur coûter cher en procès et en image de marque. D’ailleurs, on peut se demander si d’autres fabricants d’imprimantes ont mis en place des mises à jour similaires, et s’ils font également l’objet de poursuites judiciaires ? Ça pourrait avoir un impact sur les choix des utilisateurs.

En attendant, si vous avez une imprimante HP récalcitrante, vous pouvez toujours essayer de bidouiller le firmware pour contourner le problème. Mais à vos risques et périls, car la marque risque de ne pas apprécier que vous trichiez avec son système. Et puis bon, il faut quand même avouer que c’est un peu la galère de devoir se prendre la tête avec son imprimante juste pour pouvoir imprimer tranquille.

Bref, tout ça pour dire que cette histoire de firmware bloquant est un bel exemple de comment les fabricants essaient de nous la faire à l’envers pour gratter toujours plus de pognon. Mais les consommateurs ne sont pas prêts à se laisser faire, et HP risque de le découvrir à ses dépens. En attendant, si vous cherchez une imprimante, peut-être que vous devriez regarder du côté des marques qui ne vous obligent pas à vendre un rein pour acheter des cartouches. Juste une suggestion comme ça, en passant…

Source

Dark Matter – Voyagez dans le multivers avec la nouvelle série SF d’Apple TV+

Par : Korben

Apple TV+ s’apprête à nous en mettre encore plein les mirettes avec sa nouvelle série de science-fiction : Dark Matter. Basée sur le roman éponyme de Blake Crouch, cette petite pépite promet de nous faire voyager dans les tréfonds du multivers. Et si j’en crois la bande annonce, ça va décoiffer !

Au cœur de l’intrigue, on retrouve Jason Dessen, un brillant physicien interprété par le talentueux Joel Edgerton, qui un soir, alors qu’il rentre tranquillement chez lui, se fait kidnapper et se retrouve projeté dans une réalité alternative complètement dingue. Le voilà plongé dans un labyrinthe de vies parallèles qu’il aurait pu mener, sauf que pour retrouver son existence d’origine et sa famille, il va devoir affronter le pire ennemi qui soit : lui-même !

Aux côtés de Joel Edgerton, on retrouve une brochette d’acteurs de haute volée comme Jennifer Connelly, oscarisée pour sa performance dans Un homme d’exception qui incarne un personnage clé dans la quête de Dessen. Le reste du casting n’est pas en reste avec Alice Braga, Jimmi Simpson, Dayo Okeniyi et le jeune prodige Oakes Fegley. Bref, du beau monde pour nous en mettre plein la vue.

Mais ce n’est pas qu’une simple série de SF avec des multivers comme on a en déjà vu plein. C’est surtout une réflexion profonde sur les choix qu’on fait dans la vie et les chemins qu’on ne prend pas. J’espère que vous méditerez là dessus, hein ^^.

Bref, rendez-vous le 8 mai 2024 sur Apple TV+ pour un double épisode qui s’annonce déjà épique. La série comptera 9 épisodes au total, diffusés chaque mercredi, de quoi nous tenir en haleine jusqu’au dénouement final le 26 juin.

Source

Donnez une seconde jeunesse à votre vieux Mac avec OpenCore Legacy Patcher

Par : Korben

Si vous en avez assez de voir votre vieux Mac prendre la poussière dans un coin parce qu’il ne peut plus faire tourner les dernières versions de macOS, et bien j’ai une bonne nouvelle pour vous.

Il s’agit d’un outil nommé OpenCore Legacy Patcher (OCLP) qui est là pour redonner une seconde jeunesse à nos fidèles compagnons en aluminium ! Grâce au bootloader OpenCore et tout un tas de kexts et de patchs du noyau, OCLP permet d’installer et de faire tourner macOS Big Sur, Monterey, Ventura et même la toute nouvelle version Sonoma sur des Mac qui ne sont officiellement plus supportés par Apple, et ce jusqu’aux modèles sortis en 2007 ! Rien que ça.

Mais ce n’est pas tout, en plus de permettre de profiter des dernières fonctionnalités de macOS comme Sidecar, Contrôle Universel ou AirPlay vers Mac, OpenCore restaure aussi le support de pas mal de matériel que Apple a abandonné au fil des versions comme de vieilles cartes graphiques ou d’anciens chipsets Wi-Fi.

Alors bien sûr, tout n’est pas rose non plus et selon les modèles il y a quelques limitations, notamment au niveau des performances graphiques avec l’API Metal qui n’est pas supportée partout. Mais globalement, l’expérience utilisateur reste très bonne une fois OCLP installé.

La grande force d’OpenCore Legacy Patcher, c’est que contrairement aux outils de patch précédents comme DOSDude1 ou Patched Sur, il n’a pas besoin de modifier le système installé sur le disque. Au lieu de ça, il injecte ses modifications à la volée pendant le démarrage, ce qui permet de garder un système macOS « vanilla » (d’origine quoi) et de continuer à recevoir les mises à jour d’Apple directement depuis les préférences système, comme sur un Mac officiellement supporté.

Et le tout sans bidouiller le firmware ou désactiver des protections comme SIP, ça c’est la classe ! Évidemment, un Mac récent fera toujours mieux qu’un vieux coucou, mais pour tous ceux qui n’ont pas les moyens de changer de machine tous les 4 matins, OCLP est une super solution pour continuer à profiter de son Mac le plus longtemps possible.

Bien sûr, tout ça ne serait pas possible sans la super communauté de développeurs et bidouilleurs passionnés qui gravitent autour du projet. Alors je le tire mon chapeau pour leur boulot de dingue. Et aussi à Apple pour macOS, hein, faut pas déconner non plus ^^.

Après, attention, installer un OS non supporté c’est toujours un peu casse-gueule et ça demande un minimum de connaissances techniques. Donc si vous n’êtes pas sûr de vous, renseignez-vous bien avant de vous lancer. Les documentations du projet sont très complètes, et en cas de souci la communauté sur le Discord d’OCLP saura sûrement vous dépanner.

Bon, c’est pas tout ça mais je crois que je vais ressortir mon vieux MacBook Pro de 2005 moi, j’espère juste que la batterie n’a pas trop morflé !

Le Problème à Trois Corps de Netflix divise les fans et serait moins bon que la version chinoise

Par : Korben

Si vous êtes passionnés de science-fiction, laissez-moi vous parler de la dernière sensation qui agite la toile : l’adaptation par Netflix du monument de la SF chinoise, Le Problème à Trois Corps de Liu Cixin.

Autant vous dire que ça fait des vagues, surtout en Chine où les fans sont en ébullition !

Bon, déjà, petit rappel pour ceux qui vivraient dans une grotte (ou qui n’auraient pas encore eu la chance de découvrir cette pépite) : Le Problème à Trois Corps, c’est LE roman de hard SF qui a propulsé Liu Cixin au rang de légende vivante. Il s’agit d’une fresque épique qui nous embarque dans une histoire de premier contact avec une civilisation extraterrestre, le tout saupoudré de physique quantique, de sociologie et de réflexions sur la nature humaine. Bref, du lourd comme j’aime.

Donc forcément, quand Netflix a annoncé qu’ils allaient adapter ce mastodonte en série, il y a eu de l’excitation dans l’air. Sauf que voilà, en Chine, Netflix n’est pas vraiment le bienvenu. Mais vous croyez que ça arrête les fans ? Que nenni ! VPN, sites de streaming illégaux… ils ont plus d’un tour dans leur sac pour mettre la main sur les épisodes. Et là, c’est le drame…

Déjà, il faut savoir que les Chinois vouent un culte quasi religieux à l’œuvre de Liu Cixin. Chaque détail, chaque virgule est sacré. Alors forcément, quand ils ont vu que Netflix avait pris quelques libertés avec l’œuvre originale, ça a fait des étincelles ! Changements dans l’intrigue, personnages modifiés, voire carrément remplacés… Pour certains puristes, c’est un scandale, une hérésie, un crime de lèse-majesté !

Mais en même temps, il y a aussi pas mal de fans qui sont ravis de voir leur roman fétiche adapté par une grosse machine hollywoodienne et propulsé sur le devant de la scène internationale. Faut dire que les adaptations chinoises précédentes, bien que plus fidèles, n’avaient pas vraiment le même impact.

Et puis il y a ceux qui s’interrogent sur la façon dont la Chine est représentée dans la série. Parce que mine de rien, Le Problème à Trois Corps a une sacrée portée politique et historique. Ça parle de la Révolution Culturelle, des relations sino-américaines, de la place de la science dans la société… Pas vraiment des sujets anodins. Alors quand ils voient que les gentils sont joués par des acteurs occidentaux et les méchants par des chinois, certains crient au complot et à la propagande anti-chinoise. Faut les comprendre aussi…

Mais pour moi, l’essentiel est ailleurs.

OK, la série de Netflix n’est pas une adaptation littérale du bouquin. Mais est-ce vraiment un problème ? L’important, c’est que ça permet à un public encore plus large de découvrir l’univers fascinant de Liu Cixin et les questionnements vertigineux qu’il soulève sur notre place dans le cosmos. Et ça, c’est quand même sacrément excitant !

Après, je ne vais pas vous mentir, je viens de découvrir la version chinoise sortie l’année dernière et à ce qu’il parait, elle est incroyablement fidèle au bouquin. D’ailleurs, je ne remercierai jamais assez P5Lawrence de m’avoir fait découvrir cette pépite ! Figurez-vous que tous les épisodes sont dispos gratuitement sur Viki, la plateforme de streaming de Rakuten, avec des sous-titres en français s’il vous plaît.

Donc je vais faire confiance à mes followers Twitter et stopper immédiatement mon visionnage sur Netflix et je vais basculer sur cette version. Ensuite, on verra, mais je pense que je me ferais quand même celle de Netflix juste pour pouvoir comparer.

Allez, je vous laisse, j’ai un rendez-vous ce marathon de SF chinoise (30 épisodes quand même…).

Et n’oubliez pas de toujours garder un œil sur le ciel, on ne sait jamais qui pourrait nous rendre visite ! D’ailleurs, je crois que c’est prévu pour cette année ^^.

Alacritty – Le terminal nouvelle génération ultra rapide

Par : Korben

Envie d’un terminal nouvelle génération qui allie performance et flexibilité ? Ne cherchez plus, Alacritty est fait pour votre bonheur !

Disponible sur toutes les plateformes qui comptent (Linux, macOS, Windows, BSD ^^), ce terminal au look sobre et épuré cache sous son capot une configuration ultra complète. Pas besoin de réinventer la roue, Alacritty s’intègre avec vos applications préférées pour vous offrir une expérience sur-mesure sans compromis sur la vitesse. Bon OK, c’est encore un peu jeune, il est un peu long à configurer et il reste quelques fonctionnalités à ajouter et bugs à corriger, mais ça n’empêche pas de nombreux baroudeurs du shell de l’utiliser quotidiennement. YOLO comme on dit.

Mais Alacritty, c’est pas qu’un simple émulateur de terminal de base. Il embarque des features bien pratiques pour améliorer la vie des accros de la ligne de commande :

  • Vous aimez vim ? Ça tombe bien, avec le mode Vi vous pouvez retrouver vos réflexes pour vous déplacer et sélectionner du texte.
  • Vous avez la flemme de scroller manuellement pour retrouver une commande ou une erreur ? Utilisez la recherche intégrée pour localiser ce que vous voulez en un clin d’œil.
  • Vous en avez marre de jongler entre votre souris et votre clavier ? Avec les hints façon regex, plus besoin de quitter le clavier, interagissez avec n’importe quel texte à l’écran.
  • Votre PC rame quand vous ouvrez 10 terminaux en même temps ? Pas de problème, avec le mode multi-fenêtres , un seul process Alacritty est partagé intelligemment.

Et je vous ai parlé que de quelques fonctionnalités, y’en a bien d’autres à découvrir dans la doc.

Après la théorie, passons à la pratique. Pour l’installer, c’est ultra simple. Si vous êtes sur macOS ou Windows, direction la page des releases GitHub pour chopper le binaire. Sous Linux ou BSD, il est sûrement déjà dans le gestionnaire de paquets de votre distrib. Sinon, les instructions détaillées vous expliqueront comment compiler depuis les sources.

Une fois installé, pas besoin de vous embêter à configurer, les options par défaut sont déjà pas mal. Mais si vous voulez quand même mettre votre patte, le fichier de config en TOML se trouve, en fonction de votre OS, dans $XDG_CONFIG_HOME/alacritty, $HOME/.config/alacritty ou %APPDATA%\alacritty.

Par exemple, pour l’installer sous macOS, vous pouvez faire également :

brew install --cask alacritty

Puis créer un fichier de config comme ceci :

mkdir -p ~/.config/alacritty && touch ~/.config/alacritty/alacritty.toml

Voici un exemple de config à mettre dedans pour obtenir un truc comme ça :

# Configuration du shell et des variables d'environnement
shell = { program = "/bin/zsh", args = ["-l"] }

[env]
TERM = "xterm-256color"

# Activation du rechargement dynamique de la configuration
#live_config_reload = true

# Configuration de la fenêtre pour un look minimaliste et semi-transparent
[window]
decorations = "buttonless"
dynamic_padding = false
opacity = 0.9
padding = { x = 25, y = 20 }

# Configuration de la police personnalisée avec styles spécifiques pour différents états du texte
[font]
size = 20.0
[font.normal]
family = "JetBrains Mono"
style = "Medium"
[font.bold]
family = "JetBrains Mono"
style = "Heavy"
[font.italic]
family = "JetBrains Mono"
style = "Medium Italic"
[font.bold_italic]
family = "JetBrains Mono"
style = "Heavy Italic"

# Configuration des couleurs
[colors]
[colors.primary]
background = '#282a36' # Arrière-plan foncé
foreground = '#f8f8f2' # Texte clair
[colors.cursor]
text = 'CellBackground'
cursor = '#ff79c6' # Couleur du curseur
[colors.selection]
text = 'CellBackground'
background = '#44475a'

# Configuration du curseur
[cursor]
style = { shape = "Block", blinking = "On" }
thickness = 0.25

# Ajout de raccourcis clavier pour améliorer l'efficacité
[keyboard]
bindings = [
  { key = 'N', mods = 'Control|Shift', action = 'CreateNewWindow' },
  { key = 'C', mods = 'Control|Shift', action = 'Copy' },
  { key = 'V', mods = 'Control|Shift', action = 'Paste' },
  { key = '+', mods = 'Control', action = 'IncreaseFontSize' },
  { key = '-', mods = 'Control', action = 'DecreaseFontSize' },
  { key = '0', mods = 'Control', action = 'ResetFontSize' }
]

Mais du coup, c’est vraiment le terminal le plus rapide ?

Difficile à dire… Mesurer les perfs d’un terminal, c’est compliqué. Sur les benchmarks, en tout cas, Alacritty s’en sort bien, surtout grâce à l’accélération GPU. Après, sur des critères plus subjectifs comme la latence ou la fluidité de l’affichage, difficile de départager les challengers. Le mieux est de l’essayer et de voir s’il convient à VOS usages.

Par contre, ne vous attendez pas à retrouver toutes les fonctionnalités de terminaux plus anciens. Pas de tabs, pas de splits, Alacritty se concentre sur son cœur de métier. Pour ces features, votre gestionnaire de fenêtres ou un multiplexeur comme tmux feront très bien l’affaire. Et si vous voulez faire un peu de customisation, il faudra vous plonger dans la doc.

Après, si jamais il vous manque un truc indispensable, le projet est ouvert aux contributions. Alacritty est d’ailleurs distribué sous licence Apache 2.0. Donc si vous vous sentez de rajouter ce p’tit truc manquant, la communauté vous accueillera à bras ouverts. Comme quoi, y’a pas que Microsoft qui sait faire dans l’open source ! mdr.

En attendant de voir vos pull requests pleuvoir sur ce projet, je ne peux que vous conseiller de tester Alacritty. Vous verrez, c’est le genre d’outil auquel on s’habitue vite et qui change la vie. Bon OK, ça reste un terminal, faut pas exagérer non plus. N’empêche que depuis que j’ai goûté à la fluidité de son rendu, j’avoue que j’aurais du mal à revenir en arrière !

Merci à Lorenper

Google admet un problème majeur qui risque de mettre à mal son business model principal

Par : Korben

Ah la la, Google… Le géant du web se retrouve face à un sacré casse-tête avec l’arrivée de l’intelligence artificielle dans son moteur de recherche. Figurez-vous qu’ils envisagent de faire payer les utilisateurs pour accéder à cette fonctionnalité expérimentale ! Du jamais vu chez Google, qui a toujours tout misé sur la gratuité, mais voilà, l’IA coûte cher, très cher même. Et surtout, elle vient complètement bouleverser le modèle économique de Google, basé, comme vous le savez sur la publicité.

Parce que oui, Google Search, c’est une vraie machine à cash et les annonceurs payent pour que leurs pubs s’affichent dans les résultats de recherche et sur les sites web que vous visitez ensuite. Sauf que l’IA, elle, elle digère le contenu des pages web pour vous donner une réponse claire, nette et précise. Plus besoin de cliquer sur les liens, donc plus de pubs vues, et moins de revenus pour Google (et pour moi aussi du coup ^^, mais je m’en fous, j’ai mon Patreon !).

Ironique, non ?

En plus, générer une réponse avec l’IA consomme bien plus de ressources et d’énergie qu’une simple page de résultats. Bref, Google est face à un vrai dilemme : Comment rentabiliser son IA sans tuer sa poule aux œufs d’or ?

Mais ne vous inquiétez pas, ils vont bien trouver une solution. Peut-être en proposant aux marques de sponsoriser certaines requêtes, comme le fait Perplexity, ou alors en faisant payer uniquement les utilisateurs les plus gourmands. On verra bien… mais une chose est sûre, Google va devoir faire preuve de créativité et d’adaptation pour rester le roi de la recherche en ligne. Surtout que la concurrence est rude, avec Microsoft et son nouveau Bing dopé à l’IA, ou encore les petits nouveaux comme You.com.

C’est fou tout ce qui se passe en ce moment. Tout a déjà tellement changé depuis le 30 novembre 2022, date à laquelle on a tous découvert ChatGPT pour la première fois… Des géants vont tomber, d’autres sont peut-être déjà nés. Et puis, moi et mon petit site web d’artisan du web, et bien on verra bien comment je me ferais manger 😉

Source

Backdoor critique dans les NAS D-Link – 92 000 appareils vulnérables qui ne seront pas patchés

Par : Korben

Mauvaise nouvelle ! Un chercheur en sécurité du nom de « Netsecfish » vient de dénicher une faille bien vicieuse dans les NAS D-Link. C’est pas un petit bug de rien du tout puisque c’est une backdoor (porte dérobée) qui permet carrément d’exécuter des commandes à distance sur votre NAS ! Ce qui est flippant, c’est qu’il y aurait plus de 92 000 appareils exposés sur Internet qui seraient vulnérables à cette RCE.

D’après Netsecfish, la faille se planque dans le script « /cgi-bin/nas_sharing.cgi », qui gère les requêtes HTTP GET et qui autorise un compte caché avec le nom d’utilisateur « messagebus » et un mot de passe vide. Et en plus de cette porte dérobée, il y a également une faille d’injection de commande via le paramètre « system » qui permet d’exécuter tout et n’importe quoi sur le NAS. Une vraie passoire donc !

Quand on sait que sur nos NAS, on stocke à peu près tout, de nos photos perso à nos backups, je pense que là, on peut dire que ça craint. Bien sûr, vous vous dites sûrement : « Pas de panique, D-Link va corriger ça vite fait bien fait« .

Ah ah, que vous êtes drôles vous. Bah oui, parce que les modèles concernés sont en fin de vie, obsolètes, has been (comme vos t-shirts), donc D-Link ne compte pas développer de patch. Bouuuh les affreux ! La seule solution, c’est donc remplacer votre vieux NAS par un modèle plus récent. Ouin… Cela dit, je pense que les clients D-Link passeront à la concurrence… Au hasard Synology ????

92 000 appareils exposés, ça fait une belle brochette et même si c’est du vieux matos, ça doit trainer chez pas mal de monde et d’entreprises qui doivent encore l’utiliser et qui ne seront même pas au courant de ce problème, sauf s’ils lisent mon site évidemment ^^.

Bref, si vous avez un vieux NAS D-Link qui traîne dans un coin, éteignez-moi ça vite fait. Et par pitié, ne le laissez pas exposé sur Internet, sauf si vous aimez vivre dangereusement.

Source

La Quête Fantastique – Un jeu de piste magique en plein air

Par : Korben

Oyez, oyez, gentes dames et damoiseaux ! Si vous êtes en quête d’une aventure fantastique en famille ou entre amis, où vous serez plongés dans un univers médiéval fantastique, arpentant les rues de votre ville à la recherche d’indices pour résoudre une mystérieuse énigme, j’ai ce qu’il vous faut.

Cela s’appelle La Quête FantastiqueLe Secret de l’Alchimiste, et c’est un tout nouveau concept de jeu de piste géant en plein air que j’ai eu la chance d’expérimenter pas plus tard que ce matin lors de la première session à Montpeyroux.

Attention, il ne s’agit pas d’une simple chasse au trésor. Voyez plutôt cela comme une expérience immersive où vous incarnerez des héros dans un monde peuplé de dragons, de magiciens et autres créatures extraordinaires. Votre mission, si vous l’acceptez, sera donc de déjouer un plan machiavélique qui menace le Village Fantastique et ses habitants hauts en couleur.

Et pour avoir passé 3h dessus ce matin (j’ai fait mes 10 000 pars ^^), je peux vous assurer que le jeu tient toutes ses promesses. Le charme du village de Montpeyroux participe évidemment à cette ambiance médiévale et les énigmes et codes à déchiffrer sont suffisamment corsés pour titiller les méninges sans être frustrants.

Pour mener à bien votre quête, vous devrez donc faire preuve de logique, d’observation et d’esprit d’équipe. C’est comme un escape game grandeur nature où la quête vous entraînera dans les recoins les plus insolites de la ville, transformée pour l’occasion en un vaste terrain de jeu, avec sa galerie de personnages loufoques, comme l’Éleveuse de dragons, le Barde ou encore l’Alchimiste.

Rassurez-vous, pas besoin d’être un expert en heroic fantasy comme tous mes copains des Geek Faeries ou un grand sportif comme mes copains… ah non, j’ai pas de copains sportifs ^^… pour profiter de l’aventure. C’est accessible dès 8 ans et il y a deux niveaux de difficulté (expert et famille) avec une durée moyenne de 3 heures. Bref, c’est l’activité idéale pour occuper une grosse demi-journée avec toute votre petite famille.

C’est vrai que le concept, né d’un projet Ulule, a rapidement séduit les foules (et moi et moi et moi…). Et après cette première édition à Montpeyroux que j’estime couronnée de succès, cette Quête Fantastique va essaimer dans près de 90 villes en France : de Lille à Marseille en passant par Paris, Nantes ou encore Strasbourg, sur des dates qui s’égrèneront d’avril à octobre 2024. Et ça c’est super, parce que forcément, ça passe pas loin de chez vous.

Bref, j’ai adoré ce moment avec mes enfants, et je vous recommande vivement cette expérience qui change un peu de ce qu’on a l’habitude de faire.

Plus d’infos ici !

PlayAbility – Quand l’IA change l’expérience gaming pour les personnes handicapés

Par : Korben

J’ai une pure pépite à vous présenter aujourd’hui ! C’est un truc de fou qui va révolutionner le monde du gaming pour les personnes en situation de handicap : playAbility !

C’est pas juste une énième manette adaptée, non non non, c’est carrément un logiciel développé par le streamer Squirelo (que je salue au passage) qui utilise l’intelligence artificielle pour convertir vos expressions faciales, mouvements de tête et même le joystick de votre fauteuil roulant en commandes de jeu. Si c’est pas dingue ça ! 🤯

Pour en profiter, c’est hyper simple. Vous téléchargez l’app, vous connectez votre webcam et zou, vous voilà prêts à créer votre manette virtuelle sur-mesure. Vous pouvez combiner vos appareils d’assistance, vos gamepads et vos mouvements faciaux pour obtenir la config’ parfaite. Et le kif ultime, c’est que playAbility est compatible avec un max de jeux, que ce soit des jeux de course, des FPS ou des jeux d’aventure.

Concrètement, ça donne quoi ? Bah vous pouvez par exemple bouger votre tête pour contrôler les sticks gauche et droit. Vous avez comme ça plus de 50 mouvements de visage différents à associer aux contrôles de votre choix. Et si vous avez un fauteuil roulant électrique, comme je le disais en intro, son joystick peut direct servir de stick directionnel dans le jeu !

C’est ouf quand on y pense.

L’objectif de playAbility, c’est clairement de favoriser l’inclusivité dans les jeux vidéo. On parle quand même de rendre le gaming accessible aux 20% de la population mondiale qui vit avec un handicap ! C’est par rien !

Autre bon point, vous pouvez utiliser votre Xbox ou votre PlayStation à distance grâce au remote play. Pas besoin de PC gaming surpuissant ! D’ailleurs, l’équipe bosse avec les principaux services de streaming de jeux pour permettre au plus grand nombre de s’y mettre sans se ruiner.

La version bêta privée n’est qu’un début et vous pouvez au choix, aider à financer le projet ou non. C’est vous qui voyez. Franchement, quand on voit des initiatives comme ça, on ne peut qu’applaudir. La technologie et notamment l’IA permettent de créer un véritable impact positif sur le quotidien des joueurs. Bravo Squirelo !

Bref, je vous invite à garder un œil sur playAbility, parce que je sens que ces p’tits gars vont aller loin. C’est le genre de projets qui donnent foi en l’avenir du jeu vidéo et prouvent que quand on a de la volonté, on peut renverser des montagnes. GG à eux et longue vie à playAbility !

L’App Store d’Apple accepte enfin les émulateurs de jeux rétro

Par : Korben

Ça y est, les émulateurs de jeux rétro débarquent enfin sur l’App Store ! C’est la grande nouvelle annoncée par Apple ce vendredi. Les règles de l’App Store de la firme à la pomme s’assouplissent pour accueillir ces applications tant attendues par les fans de jeux rétro.

Jusqu’à présent, les émulateurs étaient persona non grata sur iOS, laissant les possesseurs d’iPhone dans l’obligation de passer par des solutions de contournement comme le jailbreak ou des magasins d’apps alternatifs. Mais ça, c’était avant ! Avec ce revirement, Apple ouvre grand les portes aux émulateurs déjà présents sur Android (enfin, ceux qui ont survécu aux assauts de Nintendo). Une décision qui pourrait bien couper l’herbe sous le pied des app stores tiers désormais autorisés dans l’Union Européenne.

Mais attention, pas question pour autant de faire n’importe quoi. Les jeux proposés devront respecter « toutes les lois en vigueur« , sous-entendu pas de place pour le piratage. Comme ça, les développeurs sont prévenus !

En parallèle, la firme de Cupertino a également clarifié sa position sur les « super apps » type WeChat. Mini-jeux et mini-apps devront se contenter donc se contenter d’HTML5 et n’auront pas le droit à leur app native.

Ces changements interviennent alors qu’Apple est dans le collimateur de la justice américaine. Le géant est accusé de vouloir étouffer la concurrence des apps de cloud gaming et des super apps. Une plainte qu’Apple semble avoir anticipée en autorisant récemment les services comme le Xbox Cloud Gaming ou GeForce Now.

Et ici, c’est la Commission Européenne qui met la pression. Résultat, Apple autorise désormais les apps de streaming musical à inclure des liens et des infos sur les abonnements hors App Store. Spotify peut dire merci à Bruxelles ! Mais tout n’est pas encore réglé. Malgré l’injonction de la commissaire européenne Margrethe Vestager de laisser les apps communiquer « librement » avec leurs utilisateurs, Apple compte bien continuer à prélever sa dîme sur les achats via les fameux liens. De quoi faire grincer des dents chez Spotify.

« Suivre la loi n’est pas optionnel, mais Apple continue de défier cette décision« , s’agace un porte-parole. « À partir du 6 avril, la Commission pourra lancer des procédures pour non-conformité et imposer des amendes quotidiennes. Il est temps d’agir de manière décisive pour donner une fois pour toutes un véritable choix aux consommateurs.« 

Bref, vous l’aurez compris, c’est un petit pas pour les émulateurs, un grand pas pour l’ouverture de l’App Store. Mais le chemin est encore long avant d’arriver à un véritable marché ouvert et concurrentiel sur iOS. En attendant, sortez vos manettes et préparez-vous à replonger dans la nostalgie du rétrogaming directement sur votre iPhone !

Source

Voyager 1 – La NASA identifie la cause du problème et travaille sur une solution

Par : Korben

Voyager 1, cette vénérable sonde exploratrice de l’espace lointain cause à la NASA, depuis novembre dernier, quelques sueurs froides en envoyant des données incompréhensibles à la Terre. Mais pas de panique, les ingénieurs de la NASA ont retroussé leurs manches et se sont mis au boulot pour comprendre ce qui clochait !

Et figurez-vous que le problème viendrait d’une petite portion de mémoire corrompue dans l’un des ordinateurs de bord de Voyager 1, appelé le « flight data subsystem » (FDS). C’est ce petit composant qui est chargé de rassembler les données scientifiques et techniques avant de les transmettre à la Terre via le module de modulation de télémétrie (TMU) et l’émetteur radio.

Les ingénieurs ont réussi à confirmer qu’environ 3% de la mémoire du FDS était corrompue, empêchant l’ordinateur de fonctionner normalement. Plus précisément, ils soupçonnent qu’une puce responsable du stockage d’une partie de cette mémoire ait rendu l’âme, soit à cause d’une particule énergétique venue de l’espace, soit tout simplement à cause de l’usure après 46 ans de bons et loyaux services.

Mais pas question de baisser les bras ! Les ingénieurs sont optimistes et pensent pouvoir trouver un moyen de faire fonctionner le FDS normalement, même sans cette portion de mémoire défectueuse. Cela permettrait à Voyager 1 de recommencer à transmettre ses précieuses données scientifiques et techniques.

Pour rappel, lancées en 1977, les sondes jumelles Voyager ont visité Jupiter, Saturne, Uranus et Neptune avant de s’aventurer dans l’espace interstellaire, en dehors de la « bulle » de particules et de champs magnétiques créée par le Soleil, appelée l’héliosphère. Voyager 2 continue de fonctionner normalement, mais c’est Voyager 1 qui détient le record de l’objet humain le plus éloigné de la Terre !

En attendant, croisons les doigts pour que les ingénieurs de la NASA trouvent rapidement une solution et que Voyager 1 puisse continuer à nous envoyer des nouvelles de son périple aux confins de l’espace, parce que mine de rien, on s’y attache à cette petite sonde…

Source

Le DRM Denuvo d’Hogwarts Legacy à nouveau cracké

Par : Korben

Ça y est, après 6 mois de travail acharné, le développeur Maurice Heumann a réussi un sacré tour de force : craquer la protection Denuvo du jeu Hogwarts Legacy ! Il n’a évidemment pas fait ça pour pirater le jeu contrairement à d’autres qui ont réussi avant lui, puisque son but était d’en décortiquer les mécanismes pour comprendre comment ça fonctionnait dans les entrailles de la bête Denuvo. Ils sont donc 3 à ce jour à avoir réussi.

Du coup, il est resté assez vague sur les détails techniques pour éviter que ça parte en vrille. Mais ce que je peux vous dire, c’est que Denuvo c’est du costaud. Ce DRM utilise tout un tas d’astuces pour vérifier que vous avez bien acheté le jeu en créant une sorte « d’empreinte digitale » de votre PC. Ensuite, un petit ticket Steam est envoyé pour prouver que vous possédez bien le jeu. Ce ticket part direct sur les serveurs de Steam qui vérifient alors que tout est en règle. Une fois validé, un jeton Denuvo est généré, mais attention, il ne marche que sur le PC avec la bonne empreinte !

Et c’est pas fini puisque pendant que vous jouez, le jeu va régulièrement vérifier cette empreinte pour s’assurer que vous n’êtes pas en train de tricher. Notre ami Maurice en sa qualité de Gryffondor (ou un Serpentard, on ne sait pas trop) a donc réussi à détourner le système après des mois de reverse engineering pour identifier la plupart des vérifications d’empreinte, sans compter sur un coup de bol incroyable qui lui a permis de trouver le dernier déclencheur. Résultat des courses : avec environ 2000 rustines maison, il a pu lancer le jeu sur son laptop en utilisant un jeton généré sur son PC fixe.

Il a aussi voulu tester si Denuvo ralentissait vraiment les performances, comme beaucoup le pensent. Alors certes, il n’a pas pu faire des benchmarks dans les règles de l’art mais il a regardé à quelle fréquence Denuvo faisait ses petites vérifications.

Et surprise : les bouts de code Denuvo ne s’exécutent qu’une fois toutes les quelques secondes, ou lors des chargements. Donc pas de quoi fouetter un chat niveau performances. Ça rejoint d’ailleurs ce que Denuvo avait déclaré officiellement. Alors bien sûr, le crack de Maurice n’est pas parfait puisque le jeu plante encore de temps en temps mais son but c’était surtout d’arriver à lancer le jeu et atteindre le menu principal. L’idée une fois encore c’était de comprendre comment ce fameux DRM fonctionnait et il a réussi son coup ! Par contre, ne comptez pas sur lui pour vous donner tous les détails techniques… Un magicien sait garder ses secrets ^^.

Édit pour apporter plus de contexte sur les précédents cracks de Denuvo :

Source

MoOde – Le lecteur audio Raspberry Pi préféré des audiophiles

Par : Korben

Vous cherchez un lecteur audio open source de qualité pour votre Raspberry Pi ? Ne cherchez plus, moOde audio est là pour vous !

Ce lecteur audio totalement gratuit et distribué sous licence GPL permet d’avoir un véritable serveur musical sur votre Rpi pour en faire profiter toute la famille. C’est un peu comme Volumio dont je vous ai déjà parlé, mais en beaucoup plus abouti. En plus, les gars derrière moOde sont des vrais. Pas de pubs intrusives, pas d’abonnements à la noix, zéro cookies ou tracking à la Google. Toutes vos données restent bien au chaud sur votre Raspberry Pi, et ne sont refilées à personne d’autre. Bon, après si vous voulez les soutenir, vous pouvez toujours faire un petit don…

Pour installer moOde, c’est facile. Vous chopez l’img et vous allez suivre le guide d’installation qui est juste là. En gros, vous préparez votre image avec le Raspberry Pi Imager, vous pouvez même configurer le SSH et le WiFi direct, et après vous balancez le tout sur votre carte SD. C’est du classique pour les utilisateurs de Raspberry Pi. Rien de plus simple !

La dernière version, la 8.3.9, est dispo pour les modèles 3B, 3B+, 3A+, 4, 400, les Compute Module 3, 3+ et 4, et même le petit dernier le Zero 2 W et elle tourne sur une debian Bullseye 64 bits. Autant dire que ça va envoyer du lourd côté performances audio.

D’ailleurs, parlons-en de l’audio. moOde gère une flopée de périphériques compatibles avec les Raspberry Pi. Que vous ayez une enceinte Bluetooth ou quelque chose de plus « filaire » comme un DAC USB (Digital Audio Converter), une carte d’extension Hat ou carrément un streamer réseau, y a de fortes chances que ça fonctionne direct. Et niveau réglages, les audiophiles vont être aux anges puisqu’il y a de quoi faire du réglage fin sur votre son comme jamais !

Le top du top, c’est l’interface web. Super bien foutue, responsive, elle s’adapte parfaitement à votre appareil, que ce soit un pc, une tablette, un smartphone ou même une TV. Pas besoin d’installer quoi que ce soit, un simple navigateur suffit. Vous pourrez lancer la lecture d’un album, écouter la radio, taguer vos morceaux, accéder à des partages de fichiers via SMB et NFS, balancer le son en AirPlay ou avec Spotify Connect, faire du multiroom synchronisé et profiter de fonctionnalités audiophiles comme le support des formats hi-res, un égaliseur paramétrique, et divers algorithmes de rééchantillonnage. Pour les devs, y a même une API REST pour faire mumuse.

Et si vous avez besoin d’aide ou que vous voulez causer son entre passionnés, le forum moOde est là pour vous. Les devs sont ultra réactifs et la communauté est au taquet. Vous pouvez même choper les dernières news sur le développement du player.

Côté technique, si vous voulez mettre les mains dans le cambouis, un guide du développeur est dispo. Vous pourrez gérer les paquets et générer vos propres images.

Ah et j’allais oublier, les gars de moOde vous ont même concocté un petit DAC NOS (Non-Oversampling) à monter vous-même : le ProtoDAC. Il paraît que le son est d’enfer, surtout si vous utilisez des composants de qualité. Les plans et le guide sont dispos, vous avez juste à commander vos PCB et sortir votre fer à souder.

Bref, vous l’aurez compris, moOde c’est que du bon fait par des pro du son pour les audiophiles geeks qui aiment faire les choses eux-mêmes. Alors, n’attendez plus, foncez sur le site, chopez l’img et transformez votre Raspberry Pi en un lecteur audio de compèt’ !

Merci à François pour le partage !

Google Books indexe des livres générés par IA et ça c’est pas bon

Par : Korben

Figurez-vous que notre cher Google Books s’est mis à indexer des livres générés par IA, et autant vous dire que niveau qualité, on est plus proche du papier toilette que du prix Goncourt ! 🧻

En farfouillant un peu, on peut tomber sur ces fameux bouquins en cherchant des phrases typiques des réponses de ChatGPT, genre « Désolé, en tant que modèle de langage…« . Et là, surprise ! On tombe sur des dizaines de livres qui contiennent cette phrase, mais qui n’ont rien à voir avec le sujet de l’IA.

Prenez par exemple ce chef-d’œuvre. Ça se la joue guide ultime pour les débutants en trading, mais en vrai, c’est juste du blabla généré par ChatGPT avec une analyse superficielle digne de Wikipédia. Autant apprendre la bourse avec Picsou Magazine ! Et que dire de celui-ci, publié en mars 2024 ? Ce bouquin est tellement has been qu’il parle encore de Twitter alors qu’Elon Musk a transformé ce truc en X depuis belle lurette. C’est comme sortir un guide sur comment utiliser Lycos ou Caramail en 2024 !

Le pire, c’est que ces bouquins générés par IA risquent de se retrouver dans le Google Ngram Viewer, un outil hyper important utilisé par les chercheurs pour suivre l’évolution de la langue à travers les bouquins scannés par Google. Si ces machins se mettent à polluer les résultats, ça va devenir le bordel intersidéral.

Bref, Google a intérêt à se bouger le fondement pour filtrer tout ce contenu généré par IA, sinon on court droit à la catastrophe. Mais les connaissant, ils vont sûrement nous sortir un truc bullshit du genre « On travaille sur une approche innovante basée sur l’IA pour évaluer la qualité des livres de manière disruptive et révolutionnaire, t’inquiète » et on en verra jamais la couleur.

En attendant, méfiez-vous des bouquins chelous sur Google Books et Amazon, parce que y’a de grandes chances que ce soit juste du caca pondu par une IA pas très futée et sans relecture humaine derrière. Et si vous voulez en savoir plus sur ce sujet passionnant (ou pas), jetez un œil à cet article.

Cloudflare Calls – La plateforme WebRTC serverless pour vos apps temps réel

Par : Korben

Cloudflare nous sort encore un truc marrant : Cloudflare Calls ! Il s’agit d’une plateforme WebRTC serverless qui vous permet de créer des applications temps réel que ce soit de l’audio, de la vidéo ou même de la data. Le tout, sans vous prendre la tête avec l’infrastructure. Ça peut servir d’unité SFU (selective forwarding unit) pour router intelligemment les flux, ou même de système de diffusion pour broadcaster du contenu. Bref, les possibilités sont énormes !

Le gros avantage, c’est que ça tourne sur le réseau mondial de Cloudflare, présent dans des centaines de villes. Donc niveau latence et qualité, vous êtes aux petits oignons et pas besoin de vous soucier de la scalabilité ou des régions, puisque c’est géré.

Pour commencer à bidouiller avec Cloudflare Calls, rien de plus simple. Vous créez une app dans le dashboard, vous récupérez les identifiants, et hop, vous pouvez commencer à coder votre propre app WebRTC. Il y a même un exemple complet sur GitHub, l’app de démo « Orange Meets – room Korben ^^ ». (Non, ça n’a rien à voir avec l’opérateur du même nom, même si c’est de la téléphonie…)

Après, faut quand même mettre les mains dans le cambouis hein. Mais si vous êtes à l’aise avec WebRTC, vous allez vous éclater. Sinon, c’est l’occasion d’apprendre ! Et puis la doc est plutôt bien foutue, avec des tutos pas à pas. Ça ouvre un paquet de possibilités pour créer des apps temps réel fun ou utiles comme un outil de collaboration en ligne, avec un tableau blanc partagé et de la visio. Ou même un petit jeu multijoueur. Avec Cloudflare Calls, vous pouvez prototyper ça rapidement sans vous soucier de l’infrastructure.

Après, attention quand même, c’est encore en beta. Donc à utiliser en prod avec précaution. Mais pour tester et apprendre, c’est parfait. Et puis connaissant Cloudflare, le produit final sera sûrement béton.

Bref, je vous invite à aller jeter un œil à Cloudflare Calls, à tester la démo « Orange Meets », et pourquoi pas, à vous lancer dans le développement de votre propre app WebRTC serverless.

Le retour du Roi (pas du tout)

Par : Remouk

— Article rédigé par l’ami Remouk (DansTonChat) – Merci à lui —

Mini article pour un mini jeu, mélangeant puzzle et petites histoires : celles d’un jeune homme qui rêve d’être roi. 👑 À nous de le mener vers le bon chemin ! Plusieurs histoires car si l’on démarre toujours au même endroit, différentes issues sont possibles dans Storyblocks: The King. Disponible en téléchargement sur Switch, PS4/PS5, XBox et Microsoft Store depuis… Aujourd’hui ! 😮

Le principe est tout simple : on dispose de tuiles, toutes identiques, elles ont la forme d’un domino. Il faut les positionner pour créer un chemin menant notre point de départ à une des sorties disponibles sur le terrain. Quelques contraintes : le chemin ne doit pas proposer de « fourches » ou de boucles, et doit absolument utiliser toutes les tuiles proposées !

Dit comme ça, cela pourrait sembler super facile… Et ça l’est. 😀 Hormis quelques moments où on doit réorganiser nos tuiles pour tomber tout pile sur une sortie, il y a peu d’erreurs possibles. Il manque une vraie part de réflexion : peut-être avec des tuiles différentes, des passages obligatoires… Dommage.

Aussi, les contrôles, sur console en tout cas (jeu testé sur Switch), requièrent trop de précision, le stick est trop sensible. Donc on se goure souvent… Ça casse parfois les couil… le côté zen de l’expérience. La partie sonore est sans grand intérêt. Les différents petits récits, débloqués à chaque nouvel embranchement que l’on choisira d’atteindre, sont malheureusement trop basiques. Pas très bien écrits, peu recherchés.

Bon vous l’aurez compris, ce petit jeu dispose d’un concept sympa mais qui aurait mérité d’être creusé avec des mécaniques supplémentaires, des histoires plus travaillées, un gameplay + agréable… C’est une petite déception. 🙁 Mais alors pourquoi en parler ? La première raison c’est que j’ai reçu une version du jeu pour le tester, donc je respecte mon engagement. La deuxième, ce sera pour vous éviter de perdre une poignée d’euros en voyant ce concept et cet habillage si sympa, si jamais vous le croisez par hasard sur un store et qu’il vous fait de l’œil. 😉 En espérant qu’ils fassent mieux lors d’un 2nd volet ! 🙏

Embrouillez les sites qui vous trackent avec l’extension User-Agent Switcher

Par : Korben

Si ça vous saoule que des sites web vous trackent et récoltent des tas d’infos comme le type de navigateur et de système d’exploitation que vous utilisez, et bien j’ai ce qu’il vous faut les amis ! Il s’agit d’une petite extension Firefox bien pratique qui s’appelle « User-Agent Switcher » et qui comme son nom l’indique, va vous permettre d’embrouiller ces fouineurs en modifiant votre « user-agent » c’est-à-dire la façon dont votre navigateur s’identifie.

Avant d’aller plus loin, un petit rappel s’impose. Le « user-agent », c’est tout simplement une chaîne de caractères envoyée par le navigateur au serveur à chaque requête pour indiquer des infos comme le type et la version du navigateur, le système d’exploitation, etc. Ça ressemble à un truc du genre : Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:87.0) Gecko/20100101 Firefox/87.0

Maintenant que c’est dit, revenons à nos moutons. L’extension « User-Agent Switcher » va vous permettre de contrôler ce fameux user-agent et de le remplacer par ce que vous voulez. Comme ça, vous pourrez faire croire aux sites que vous utilisez un autre navigateur, un autre OS ou même un appareil mobile.

Alors comment ça marche ce truc ? Et bien c’est tout simple. Une fois l’extension installée depuis la page officielle, vous aurez un nouveau bouton dans votre barre d’outils Firefox. En cliquant dessus, vous pourrez choisir un user-agent prédéfini dans une liste (il y en a des tonnes !) ou entrer une chaîne personnalisée.

Et là c’est la fête du slip, l’extension va modifier le user-agent dans le navigateur mais aussi dans les entêtes des requêtes envoyées aux serveurs. Du coup, pour les sites, ça sera comme si vous utilisiez un autre navigateur ou appareil. La combine parfaite pour se faire passer pour l’ordinateur que vous n’êtes pas !

Parfois certains sites ou services surveillent le user-agent pour vous autoriser ou non à voir certains contenus comme des versions mobiles ou que sais-je. Avec cette extension, vous serez donc capable de tout voir 🙂

Mais ce n’est pas tout puisque User-Agent Switcher dispose plein d’autres options bien pensées :

  • Vous pouvez choisir d’appliquer le user-agent uniquement sur certains domaines, en mode liste blanche ou liste noire.
  • Il y a une option pour avoir un user-agent aléatoire qui change à chaque requête. Comme ça, vous brouiller encore plus les pistes !
  • Vous pouvez même définir un user-agent différent pour chaque fenêtre ou onglet de Firefox. Pratique pour tester le rendu d’un site sous différentes configurations.

Et si vous êtes du genre parano (ou précautionneux, c’est vous qui voyez), sachez que l’extension n’utilise aucune ressource quand elle est désactivée. De plus, elle ne modifie le user-agent que pour les requêtes HTTP, HTTPS et FTP, donc pas de souci pour vos pages locales.

Autre bon point, User-Agent Switcher est open-source et dispo sur GitHub.

Ah et j’oubliais, l’extension supporte une chiée de systèmes et navigateurs différents ! Que vous soyez sur Windows, Mac, Linux, Android ou même BeOS (si si ça existe encore), vous trouverez votre bonheur. Pareil côté navigateurs avec la totale : Chrome, Firefox, Opera, Safari et cie. Même Internet Explorer est de la partie, c’est dire !

Bref, si vous voulez reprendre un peu le contrôle sur vos infos de navigation face aux sites un peu trop curieux, User-Agent Switcher est clairement un incontournable. C’est sans danger, facile à utiliser et ça peut servir dans plein de cas, que ce soit pour raisons de sécurité, de test ou juste pour le fun.

Merci à Lorenper pour l’info

Jpegli – La lib JPEG nouvelle génération de Google

Par : Korben

Google vient de publier en open source une nouvelle bibliothèque de codage JPEG appelée Jpegli qui permet de compresser vos images 35% plus efficacement qu’avec les codecs JPEG traditionnels, tout en conservant une qualité d’image supérieure.

Non seulement Jpegli est rétrocompatible avec le standard JPEG original, mais en plus il offre des fonctionnalités intéressantes comme le support des composantes 10 bits et plus, ce qui permet d’éliminer les vilains artefacts dans les dégradés pour avoir un rendu beaucoup plus ultra-smooth ^^.

Pour cela, Jpegli utilise de la quantification adaptative et une sélection améliorée des matrices de quantification. En gros, ça réduit le bruit, améliore la qualité d’image, et ça fait des miracles sur la taille des fichiers.

De plus, Jpegli reste aussi rapide que les solutions de codage actuelles, donc vous pouvez intégrer cette merveille dans vos workflows sans sacrifier les performances. Alors voilà, si vous voulez donner un coup de boost à vos sites web et offrir de meilleures images plus belles et plus légères, allez jeter un œil à Jpegli ! Pour le moment, y’a pas encore d’outils de conversion mais les sources sont dispo sur le Github, alors y’a plus qu’à attendre que le monde se l’approprie.

Source

En route vers des modèles IA moins énergivores mais tout aussi efficaces

Par : Korben

Vous avez sûrement entendu parler de l’impact environnemental faramineux de l’intelligence artificielle, que ce soit pour demander à ChatGPT de nous donner un coup de main ou pondre une image de fou sous Midjourney, l’IA a un appétit gargantuesque en énergie. Il parait qu’une seule requête à ChatGPT consommerait autant d’électricité que 40 recharges de smartphone ! Un peu dingue.

Mais rassurez-vous, tout n’est pas perdu. Une équipe de chercheurs en informatique de l’Université de Copenhague a trouvé une solution pour mettre l’IA au régime, sans pour autant lui couper les vivres. Leur étude, qui sera présentée lors de la conférence internationale ICASSP-2024, montre qu’en gardant l’efficacité énergétique en tête dès la conception des modèles d’IA, on peut réduire leur empreinte carbone de 70 à 80% sans sacrifier leurs performances. C’est pas mal, hein ?

Les chercheurs ont pour cela, passé au crible plus de 400 000 modèles de réseaux de neurones convolutifs, ces IA qui servent à analyser des images médicales, à faire de la traduction ou encore à reconnaître des visages. En se basant sur ces calculs, ils ont alors concocté un genre de « livre de recettes » pour les pros de l’IA, avec des exemples de modèles moins énergivores mais tout aussi efficaces.

Alors oui, dans certains domaines comme les voitures autonomes ou la médecine, il ne faut pas rigoler avec la précision. Mais pour le reste, les chercheurs insistent : il faut adopter une approche globale qui prenne en compte non seulement les performances des modèles, mais aussi leur impact climatique.

Si le sujet vous intéresse, je vous invite à jeter un œil à l’article original ! Les chercheurs ont même mis à disposition ce fameux « livre de recettes » sur Github pour que les dev spécialisé en IA puissent s’en inspirer et réduire l’empreinte carbone de leurs modèles. C’est un vrai premier pas vers une IA plus durable et responsable, et ça c’est cool !

Source

Stable Audio 2.0 – L’IA qui ne remplacera pas les musiciens

Par : Korben

Bonne nouvelle, les David Guetta de demain, ça ne sera pas vous ! Il vous suffit de balancer quelques mots dans une IA, et hop, elle vous pond un morceau de musique entier, avec une qualité discutable ! Mais pour faire souffrir ses voisins, c’est pas mal et l’exploit technique est intéressant quand même. C’est exactement ce que propose Stable Audio 2.0, la nouvelle version du générateur musical de Stability.ai.

Vous lui donnez des instructions en langage naturel, genre « Compose-moi un morceau de rock épique avec un solo de guitare déchirant sur le thème de l’espace« , et bim, l’IA se met au boulot ! En quelques secondes, elle vous sort une piste audio complète de 3 minutes, en stéréo 44.1 kHz s’il vous plaît.

Voici ce que j’ai fait rien que pour vous :

Stable Audio 2.0 ne se contente pas de générer de la musique à partir de zéro. Vous pouvez aussi lui filer vos propres samples audio et lui demander de les transformer comme bon vous semble. Par exemple, vous prenez un extrait de votre morceau préféré de Metallica, vous le refilez à l’IA en lui demandant de le remixer façon dubstep avec une touche de jazz manouche, et voilà, c’est parti mon kiki !

Bon, je vous vois venir avec vos grands chevaux : « Oui mais Korben, et les droits d’auteur dans tout ça ?« . Eh bien figurez-vous que les petits gars de Stability AI ont pensé à tout. Pour entraîner leur modèle, ils ont utilisé une base de données de sons sous licence provenant d’AudioSparx, en donnant la possibilité aux artistes de se retirer du projet s’ils le souhaitaient. Et pour éviter que des petits malins utilisent des samples protégés, ils ont intégré une technologie de reconnaissance de contenu qui empêche l’utilisation de matériel copyrighté. Bien vu les gars !

Alors, vous en pensez quoi ? Perso, je trouve que c’est une sacrée avancée pour les créatifs en herbe comme pour les pros de la musique même si on est encore trèèèès loin d’un rendu propre. Pour le coup, je préfère Suno. Mais ça peut donner de l’inspiration. Ça ne remplacera jamais le talent et la sensibilité d’un vrai musicien mais ça reste un bon logiciel dans la boîte à outils des artistes

Pour tester Stable Audio 2.0, c’est sur le site officiel. C’est gratuit pour 20 crédit et hyper simple à prendre en main, vous m’en direz des nouvelles !

Certains gamers perçoivent plus de FPS que les autres

Par : Korben

Vous êtes-vous déjà demandé comment certains pro gamers étaient aussi bons ?

Bien sûr, il y a les heures d’apprentissage, de grinding, la compétition…etc mais il se pourrait bien aussi qu’ils aient tout simplement de meilleurs globes oculaires !

Selon une nouvelle étude menée à Dublin et repérée par The Guardian, les chercheurs ont étudié une caractéristique humaine appelée la résolution temporelle, qui mesure notre capacité à distinguer différents signaux visuels et qui influence notre vitesse de réaction aux changements dans notre environnement.

L’étude a révélé que certaines personnes, lorsqu’on leur présentait une lumière qui clignotait environ 35 fois par seconde (35 fps), la voyaient comme constamment allumée – en d’autres termes, elles ne pouvaient pas percevoir les clignotements – tandis que d’autres pouvaient voir la lumière clignoter, même lorsque la fréquence des clignotements était supérieure à 60 fps. De la même manière que les jeux vidéo peuvent tourner à 30 ou 60 fps, cette recherche suggère que les yeux de certaines personnes peuvent voir les signaux visuels à 30 ou 60 frames par seconde (fps).

Et cela a un impact spécifique sur les athlètes et les joueurs, comme l’a déclaré Clinton Haarlem, doctorant au Trinity College de Dublin puisque les personnes qui ont une résolution temporelle visuelle supérieure à la moyenne « ont accès à un peu plus d’informations visuelles par unité de temps » que les autres. Haarlem et ses collègues ont mené leurs tests de résolution temporelle visuelle sur 80 hommes et femmes âgés de 18 à 35 ans, et ont constaté peu de différence dans les résultats entre les sexes. Il existe cependant des preuves que votre résolution temporelle diminue avec l’âge.

C’est peut-être pour cela que les joueurs d’esports et les athlètes professionnels prennent parfois leur retraite si jeunes. C’est peut-être aussi la raison pour laquelle votre jeune cousin vous explose sur des jeux comme Fortnite ou Valorent. Ils ont comme un GPU dans le cerveau qui est capable de traiter plus de FPS que le commun des mortels. C’est trop injuuuuste, et ça ressemble à un cheat pour moi ^^ !

Alors la prochaine fois que vous vous demanderez comment certains gamers peuvent être aussi bons, c’est peut-être tout simplement parce qu’il ont cet avantage biologique. Mais rassurez-vous, avec suffisamment de pratique (et peut-être quelques implants cybernétiques d’Elon), vous aussi, vous pourrez un jour atteindre le statut de légende de l’esport battre votre neveu à Mario Kart.

Source

Kobold Letters ou quand les emails HTML deviennent dangereux

Par : Korben

Les emails HTML, c’est vraiment la plaie. Les clients mails ne les gèrent pas forcement bien et en plus, ils peuvent carrément être dangereux pour votre sécurité.

Histoire de vous expliquer ça plus clairement, on va prendre un exemple assez courant en entreprise. Votre chef reçoit un email tout a fait anodin, du style qu’il n’y a plus d’encre dans l’imprimante et vous le transfère pour que vous vous en occupiez. Vous recevez son mail, il est bien envoyé depuis la boite mail de ce dernier, et il est même signé cryptographiquement… Tout va bien. Sauf qu’une fois qu’il arrive dans votre boite mail, le contenu inoffensif disparait pour laisser place à un bon vieux mail de phishing, genre demande de changement de mot de passe sur un serveur, un certificat à installer, voire une demande de virement… On peut tout imaginer.

Cette mauvais surprise est possible grâce au CSS contenu dans les emails HTML. Ainsi, quand un mail est transféré, sa position dans le DOM change, ce qui permet d’appliquer des règles CSS spécifiques. Un petit malin peut alors planquer dedans des éléments qui n’apparaitrons que dans certaines conditions. C’est ce qu’on appelle des « kobold letters« , en référence à ces bestioles mythologiques fourbes et insaisissables.

Malheureusement, quasiment tous les clients mails qui supportent le HTML sont vulnérables à ce genre de coup fourré. Par exemple, Thunderbird se fait avoir en beauté. Il suffit de jouer avec les sélecteurs CSS en fonction de la position de l’email dans le DOM après transfert. Hop, l’attaquant planque le kobold letter avec un display: none, et quand le mail est transféré, il le fait apparaître à nouveau avec un display: block !important.

Et voilà, le piège est tendu !

<!DOCTYPE html>
<html>

<head>
    <style>
        .kobold-letter {
            display: none;
        }

        .moz-text-html>div>.kobold-letter {
            display: block !important;
        }
    </style>
</head>

<body>
    <p>This text is always visible.</p>
    <p class="kobold-letter">This text will only appear after forwarding.</p>
</body>

</html>

Côté Outlook en version web app (OWA), c’est un poil plus tordu vu que c’est un webmail. Mais en bricolant un peu les sélecteurs CSS en fonction des classes ajoutées par OWA, on arrive à nos fins de la même manière. Comme pour Thunderbird, le kobold letter ne se pointera alors qu’après un transfert d’email, ni vu ni connu je t’embrouille !

Gmail, quand à lui, a une parade intéressante : il vire tout le CSS quand on transfère un mail. Donc techniquement, pas de kobold letters possibles. Enfin presque… on peut quand même planquer un kobold letter en CSS, et il apparaîtra directement après transfert vu que le style sera dégagé. Par contre, impossible de faire l’inverse, càd afficher un truc dans le mail original et le planquer après transfert. C’est déjà ça de pris !

Voilà… ce genre de failles n’est pas nouveau puisque des trucs similaires ont déjà été signalés mais l’idée des kobold letters, c’est de se concentrer sur un scénario d’attaque spécifique en observant plusieurs clients mails qui pourraient laisser passer ce type de phishing.

Alors, que faire ? Bah déjà, si vous pouvez vous passer complètement des emails HTML ou les afficher dans un mode restreint, foncez ! Sinon, les clients mails pourraient faire des compromis à la Gmail comme virer le CSS au transfert. Ça casserait pas mal de trucs niveau mise en page mais ça limiterait bien les risques.

Voilà, y’a pas vraiment de remède miracle tant que les clients mail n’auront pas évolué. Donc soyez extrêmement vigilant car ce genre d’attaque de phishing ciblée n’arrive pas qu’aux autres.

Source

Faille de sécurité dans les terminaux de check-in IBIS – les codes d’accès aux chambres exposés

Par : Korben

C’est vachement pratique de pouvoir récupérer sa chambre d’hôtel après une grosse journée, simplement en passant par le terminal qui se trouve dans l’entrée de l’hôtel. On tape son nom, on paye et paf, on récupère son numéro de chambre et le code pour y accéder. Sauf que ce que vous ignorez peut-être, c’est que ce même terminal vient potentiellement d’exposer votre code d’accès à des personnes mal intentionnées…

C’est exactement ce qui s’est passé dans un hôtel IBIS Budget à Hambourg, en Allemagne. Lors d’un congrès de hackers, la société Pentagrid a remarqué une faille de sécurité pour le moins inquiétante dans le terminal de check-in. Ainsi, en entrant une série de tirets à la place du numéro, le terminal liste toutes les réservations avec leur numéro, la date d’arrivée prévue et le prix total du séjour. Puis en sélectionnant une réservation, on accède directement au numéro de chambre et au code d’accès de la porte.

Dans l’hôtel en question, pas moins de 87 réservations étaient ainsi exposées, soit près de la moitié des 180 chambres de l’établissement !

Vous imaginez le désastre si ces codes tombaient entre de mauvaises mains ? Adieu vos effets personnels, surtout dans un hôtel bas de gamme comme celui-ci qui n’est pas équipé de coffres-forts dans les chambres. Et je vous parle pas des agressions en pleine nuit ! C’est la porte ouverte à toutes les fenêtres comme dirait l’autre.

Fort heureusement, Pentagrid a immédiatement signalé cette faille à la chaîne hôtelière Accor, propriétaire des hôtels IBIS. Le problème a depuis été corrigé, mais il aura fallu quand même plusieurs échanges et relances de la part des hackers pour que des actions soient entreprises de la part d’Accor.

Mais comment une telle faille a-t-elle pu se produire ? Et bien d’après les informations fournies par Pentagrid sur leur blog, il semblerait que le terminal de check-in ait une fonction de recherche des réservations qui nécessite uniquement le numéro de réservation pour afficher le numéro de chambre et le code d’accès. Donc c’est pas un bug, c’est une feature qui a mal tournée…

Le pire dans tout ça, c’est que de base, les numéros de réservation ne sont pas une donnée très sécurisée puisqu’on les retrouve sur toute la paperasse comme les factures…etc qui peuvent ensuite être récupérées dans une poubelle par exemple. Donc n’importe qui pourrait mettre la main dessus et accéder à votre chambre.

C’est pourquoi les auteurs de cette découverte recommandent aux hôtels de mettre en place une vérification supplémentaire pour accéder aux informations de réservation, comme un code PIN qui serait communiqué séparément au client. Les terminaux devraient aussi supprimer automatiquement les réservations dès que les informations ont été imprimées ou consultées.

En attendant, si vous séjournez dans un hôtel IBIS Budget prochainement, n’allez pas vous amuser à vérifier que la faille a été corrigée sur le terminal de check-in parce que vous ne voulez pas finir en prison pour piratage (lol).

En tout cas, sachez-le, la prochaine fois que je dors à l’IBIS, je vous attendrais de pied ferme en embuscade dans mon peignoir façon biopic DSK par Liam Neeson.

Source

ChatGPT est maintenant accessible sans compte

Par : Korben

Ça y est, c’est officiel ! ChatGPT, le célèbre agent conversationnel développé par OpenAI, est désormais accessible à tous sans qu’on ait besoin de se créer un compte. C’est une nouvelle qui devrait ravir les curieux qui souhaitaient tester les capacités de cette intelligence artificielle révolutionnaire sans avoir à s’embêter avec la création d’un énième compte en ligne.

Pour profiter de ChatGPT sans compte, rien de plus simple ! Il vous suffit de vous rendre sur l’application web chat.openai.com ou de télécharger l’application officielle ChatGPT sur votre smartphone, que vous soyez sur iPhone ou Android. Et vous pourrez directement commencer à discuter avec l’IA sans aucune autre formalité.

Par contre, ici en France, ça n’a pas encore l’air actif. J’ai du passer par un VPN via les États-Unis pour en profiter sans avoir à me créer un compte.

Et il faut quand même noter quelques petites limitations par rapport à la version avec compte. Déjà, vous ne pourrez pas sauvegarder ni consulter l’historique de vos conversations, et encore moins les partager avec d’autres utilisateurs. Vous n’aurez pas non plus accès aux conversations vocales ou aux instructions personnalisées. Et surtout, vous serez limité au modèle standard GPT-3.5, comme pour les comptes gratuits. Si vous voulez profiter de la puissance du modèle GPT-4, il faudra alors passer à la caisse et souscrire à l’abonnement payant ChatGPT Plus.

Mais bon, pour une utilisation basique de ChatGPT, la version sans compte est largement suffisante. Vous pourrez poser toutes vos questions, demander des conseils, générer du contenu, et même avoir des conversations à l’infini avec l’IA. Parfait pour découvrir le potentiel de l’IA conversationnelle et vous familiariser avec cet outil fascinant si ce n’est pas encore fait.

D’ailleurs, OpenAI a précisé avoir mis en place des « garde-fous supplémentaires » pour l’utilisation de ChatGPT sans compte. Donc ne soyez pas surpris si l’IA refuse de répondre à certaines de vos questions un peu trop sensibles ou sur des thèmes controversées.

N’oubliez pas que ChatGPT reste un outil imparfait, avec ses limites et ses défauts et qu’il peut parfois se tromper, inventer des choses ou tenir des propos biaisés. Donc gardez toujours votre esprit critique et ne prenez pas tout ce qu’il dit pour argent comptant. Et par pitié, ne l’utilisez pas comme un oracle infaillible ou comme si c’était Wikipédia. Voyez plutôt ça comme un outil permettant de retravailler du texte.

Amusez-vous bien !

Source

Justine Tunney booste encore une fois les performances de llama.cpp

Par : Korben

La révolution de l’IA est en marche depuis un bon moment maintenant mais faire tourner les derniers modèles de langage comme llama.cpp sur votre bécane, demande de la puissance. C’est là qu’intervient Justine Tunney, hackeuse et ex-programmeuse de chez Google, qui vient de pondre de nouveaux kernels d’algèbre linéaire pour booster les perfs de llama.cpp.

Concrètement, elle a réécrit les routines qui font les multiplications de matrices, c’est à dire les opérations au cœur des réseaux de neurones et en utilisant les dernières instructions vectorielles AVX-512 et ARM dotprod, elle a réussi à multiplier par 5 la vitesse d’exécution sur les processeurs récents d’Intel, AMD et ARM.

Mais ce n’est pas tout, elle a aussi bossé sur l’optimisation mémoire. Fini le temps où les calculs étaient ralentis par les accès à la RAM. Grâce à une utilisation intelligente du cache L2 et du prefetching, elle arrive maintenant à diviser par 2 le temps de chargement des données.

Résultat, llama.cpp et les autres modèles compatibles tournent comme des horloges, même sur des configs modestes. Fini les CUDA cores hors de prix, un bon vieux processeur avec un peu de RAM suffit. De quoi démocratiser l’accès à l’IA sans se ruiner surtout que son code est dispo sur son GitHub. Il est écrit en C++ avec zéro dépendance externe et peut être compilé sur Linux, macOS, Windows, FreeBSD et même SerenityOS.

Mais Justine ne compte pas s’arrêter là. Elle planche déjà sur le support de nouveaux formats de données comme le FP16 et le BF16 pour réduire encore l’empreinte mémoire. À terme, elle espère faire tourner les IA les plus gourmandes sur un Raspberry Pi ! Chouette non ?

D’un côté on a donc les géants comme Nvidia qui misent tout sur leurs accélérateurs graphiques propriétaires et de l’autre les hackers et les libristes qui veulent garder le contrôle de leur machine avec du code ouvert et optimisé.

En attendant, je vous invite à tester ses kernels par vous-même et à voir la différence. C’est peut-être ça le véritable sens du progrès technologique : permettre au plus grand nombre d’accéder à des outils auparavant réservés à une élite.

Source

Rust chez Google – Une productivité doublée et du code plus fiable

Par : Korben

Ça y est, la vague Rust déferle sur la Silicon Valley et même le géant Google n’y échappe pas ! Le langage de programmation qui monte, qui monte, s’installe peu à peu dans les couloirs de la firme de Mountain View et visiblement, il fait des ravages… mais dans le bon sens du terme !

Lors de la récente conférence Rust Nation UK, Lars Bergstrom, directeur de l’ingénierie chez Google, a lâché une petite bombe : les équipes de dev qui sont passées à Rust ont vu leur productivité doubler par rapport à celles qui utilisent encore C++ !

On savait déjà que Rust était prometteur, avec sa gestion de la mémoire ultra safe et son système de « ownership » qui évite les erreurs de segmentation. Mais de là à imaginer des gains de productivité pareils, personne n’osait en rêver !

Et pourtant, c’est bien réel puisque quand une équipe Google migre un projet C++ vers Rust, elle divise par deux le temps nécessaire pour le développer et le maintenir. C’est énorme ! Surtout quand on sait à quel point le développement en C++ peut être chronophage et complexe. Mais alors comment expliquer un tel boost de performance ?

D’après Lars Bergstrom, c’est très simple : Rust inspire confiance. Les développeurs se sentent plus sereins quand ils codent en Rust, car ils savent que le compilateur va les aider à éviter toute une classe de bugs vicieux liés à la gestion de la mémoire. Résultat, ils passent moins de temps à débugger et plus de temps à ajouter des fonctionnalités. Et ça, c’est bon pour le moral des troupes et pour la vélocité des projets !

Autre avantage de Rust : sa courbe d’apprentissage. Contrairement à ce qu’on pourrait penser, les développeurs Google ne mettent pas des mois à être opérationnels en Rust. En moyenne, il leur faut environ 2 mois pour se sentir à l’aise et 4 mois pour retrouver leur niveau de productivité C++.

C’est sûr, Rust n’est pas le langage le plus simple à prendre en main, avec ses concepts de ownership et de borrowing qui peuvent paraître abstraits au début. Mais une fois franchie cette étape, on découvre un langage puissant, expressif et fiable. Et puis, il faut bien l’avouer, il y a un petit côté « hype » à coder en Rust en ce moment. C’est un langage qui a le vent en poupe et tout le monde en parle !

Source

Smartphone Xiaomi – Dites adieu à cette option que vous adorez

Par : Korben

— Poisson d’avril ! —

Dans une annonce surprenante, le géant chinois Xiaomi a décidé de supprimer la fonctionnalité « Appel » de ses smartphones, affirmant que cette option n’est plus utilisée par la majorité de ses clients. Cette décision radicale a suscité de nombreuses réactions parmi les utilisateurs de la marque.

Xiaomi affirme que les appels passent désormais par les messageries instantanées

Selon un communiqué officiel de Xiaomi, la fonctionnalité « Appel » sera progressivement retirée de tous les modèles de smartphones de la marque à partir de la prochaine mise à jour. L’entreprise justifie cette décision en expliquant que la plupart des utilisateurs préfèrent désormais passer leurs appels via des applications de messagerie instantanée telles que WhatsApp, Facebook Messenger ou encore WeChat.

« Nos études montrent que moins de 5% de nos clients utilisent encore la fonction d’appel classique via le réseau de l’opérateur« , indique le porte-parole de Xiaomi. « Il nous a donc semblé logique de supprimer cette option devenue obsolète afin d’optimiser les performances de nos appareils. »

Des avantages et des inconvénients pour les utilisateurs

Si cette décision peut sembler radicale, Xiaomi met en avant plusieurs avantages pour ses clients. Tout d’abord, la suppression de la fonctionnalité « Appel » permettra de libérer de l’espace de stockage sur les smartphones, offrant ainsi plus de place pour les photos, vidéos et applications. De plus, l’entreprise promet une amélioration significative de l’autonomie de la batterie, les appels via les messageries consommant moins d’énergie que les appels traditionnels.

Cependant, certains utilisateurs s’inquiètent des conséquences de cette décision. En effet, les appels via les messageries nécessitent une connexion internet stable, ce qui n’est pas toujours le cas dans certaines zones géographiques. De plus, les personnes âgées ou moins à l’aise avec la technologie pourraient se retrouver dans l’incapacité de passer des appels depuis leur smartphone Xiaomi.

Vers une suppression de l’application SMS ?

Suite à cette annonce, des rumeurs circulent quant à une possible suppression de l’application SMS dans un futur proche. En effet, Xiaomi aurait également constaté une baisse significative de l’utilisation des SMS au profit des messageries instantanées.

Si cette information venait à se confirmer, cela marquerait un tournant majeur dans l’histoire de la téléphonie mobile. Les smartphones deviendraient alors de véritables « appareils de messagerie », délaissant progressivement les fonctions de communication traditionnelles.

Quoi qu’il en soit, cette annonce a eu l’effet d’une bombe dans le monde de la tech, suscitant de nombreux débats sur l’avenir de la téléphonie mobile et une fool en colère. Reste à voir si d’autres fabricants emboîteront le pas à Xiaomi dans cette « pêche » aux fonctionnalités obsolètes.

Voice Engine – Les voix synthétiques bluffantes d’OpenAI

Par : Korben

Vous avez vu Voice Engine d’OpenAI ? C’est un modèle d’IA qui est capable de générer des voix synthétiques ultra-réalistes à partir d’un simple échantillon audio de 15 secondes. Seulement 15 secondes, oui !

Concrètement, ça veut dire qu’avec cette IA, on peut créer des voix qui ressemblent à s’y méprendre à celles de vraies personnes. Genre on donne un petit extrait de notre voix, et hop, l’IA peut générer un discours entier qui sonne exactement comme nous. C’est à la fois fascinant et un peu flippant, vous trouvez pas ?

OpenAI sont à la pointe de la recherche dans le domaine et ils nous pondent régulièrement des trucs de malade comme Sora. Concernant Voice Engine, ils ont développé la techno fin 2022 et l’ont intégré dans leur API de synthèse vocale ainsi que dans les fonctionnalités vocales de ChatGPT.

Voici les 15 secondes de vraie voix :

Et voici l’audio qui a été généré à partir de ça :

Mais attention, comme un grand pouvoir implique de grandes responsabilités (coucou Peter !), OpenAI joue la carte de la prudence. Ils sont bien conscients que cette technologie pourrait être utilisée à des fins pas très catholiques, genre pour créer des deepfakes audio et induire les gens en erreur. Du coup, ils la déploient pour l’instant à petite échelle, juste auprès de quelques partenaires de confiance.

Et ces partenaires, ils en font quoi de Voice Engine ?

Eh bien figurez-vous qu’ils développent des applications plutôt cools ! Par exemple, Age of Learning l’utilise pour générer des contenus audio éducatifs avec des voix naturelles et expressives. Ou encore HeyGen qui s’en sert pour traduire des vidéos dans différentes langues en conservant la voix du locuteur d’origine. D’ailleurs c’est ce que j’utilise pour ma chaine Youtube en anglais et je peux vous dire que ça coûte une couille. Ça peut aussi aider les personnes non-verbales à communiquer avec une voix unique grâce à Livox. Et même redonner la parole à des patients ayant perdu l’usage de la voix, comme le fait l’institut Norman Prince Neurosciences de Lifespan.

Rassurez-vous, OpenAI a mis en place des garde-fous, comme l’interdiction d’utiliser Voice Engine pour imiter quelqu’un sans son consentement, l’obligation d’obtenir l’accord explicite du locuteur original, ou encore le watermarking des contenus générés pour pouvoir en tracer l’origine. Ils suggèrent également d’abandonner progressivement l’authentification vocale comme mesure de sécurité, mais également d’explorer des réglementations qui permettraient de protéger l’usage des voix dans l’IA, de sensibiliser le public aux deepfakes et de développer des techniques pour tracer l’origine des contenus audio et visuels.

Bref, Voice Engine c’est à la fois excitant et inquiétant. Ce que je vois, c’est que ça ouvre des perspectives folles en termes d’applications, mais ça soulève aussi pas mal de questions sur l’avenir.

Je vous invite à checker l’article d’OpenAI qui détaille leur approche avec plein d’exemples.

Source

L’outrage en ligne – Une nouvelle connerie qui menace notre liberté d’expression

Par : Korben

Tremblez, chers lecteurs, Big Brother arrive et il n’a pas le sens de l’humour !

Figurez-vous que nos honorables députés s’apprêtent, le 10 avril prochain, à adopter définitivement une loi qui risque de transformer le web français en cimetière de la liberté d’expression. Le projet de loi « visant à sécuriser et réguler l’espace numérique« , aussi rassurant que le sourire d’un crocodile, nous promet en effet une toute nouvelle terreur juridique : le délit de, je cite, « outrage en ligne« .

Ainsi, si jamais vous osez publier un contenu créant une « situation intimidante, hostile ou offensante » envers un quidam (mais surtout envers une personne de pouvoir, j’imagine), vous voilà bon pour un an de vacances à l’ombre et 3750 euros d’amende ! Et quand on vous dit « en ligne« , c’est large : réseaux sociaux, forums, et même les groupes WhatsApp privés, tout y passe ! À ce tarif, autant fermer Twitter.

Par contre, pas de panique si vos propos relèvent déjà d’infractions comme le harcèlement, les menaces ou les injures raciales. Ce nouveau délit exclut bizarrement ces cas-là… Cherchez l’erreur.

À l’origine de ce chef-d’œuvre, on retrouve donc notre champion Loïc Hervé, sénateur centriste autoproclamé grand pourfendeur du cyberharcèlement.

mdrrrrr…. il a l’air de kiffer Wikipédia en tout cas.

Et son idée géniale c’est de s’inspirer de l’outrage sexiste, déjà en vigueur, mais en retirant allègrement le côté sexuel. Résultat, un propos isolé un peu taquin ou un trait d’humour acide pourra vous valoir de goûter au régime des prisons françaises. Vive la proportionnalité et la bouffe de merde !

Mais le pire, c’est que la notion d’outrage en ligne est tellement vague et subjective qu’elle pourrait s’appliquer à peu près à tout et n’importe quoi. Et « Situation intimidante, hostile ou offensante« , ça vous parle ? Non ?

Normal, c’est du grand n’importe quoi juridique, comme le soulignent les avocats Tewfik Bouzenoune et Arié Alimi. Ce dernier qualifie d’ailleurs cette loi de « nouvel outil extrêmement lourd de restriction de la liberté d’expression« .

Et pour couronner le tout, sachez que les flics pourront vous mettre direct une prune de 300 euros, façon amende forfaitaire, sans passer par la case tribunal. La team Police / Politique de Twitter va kiffer. Plus besoin d’aller chouiner dans les jupes d’Elon dès qu’ils sont vexés. Un petit signalement et hop !

Super pratique pour embastiller les emmerdeurs sans s’embarrasser de la présomption d’innocence. La Défenseure des droits elle-même, Claire Hédon, s’alarme de ce « pouvoir considérable » confié aux forces de l’ordre et des risques « d’arbitraire » et « d’erreurs ». Mais bon, comme dit Robert, « pas vu, pas pris » !

Le plus savoureux dans tout ça ?

C’est que les députés avaient déjà courageusement supprimé ce délit liberticide lors de l’examen du texte. Mais c’était sans compter sur les sénateurs qui l’ont réintroduit en force en Commission mixte paritaire tel un zombie législatif. Internet, ça leur fait tellement peur ^^, faut les comprendre.

Alors oui, certains diront qu’il faut bien lutter contre les trolls et autres harceleurs du web. C’est certain, mais fallait-il vraiment pour cela pondre un texte aussi mal fichu et potentiellement ravageur pour la liberté d’expression ? Fallait-il sacrifier notre liberté de ton, notre droit à l’humour même acide ? J’ai comme un doute.

Toutefois, une petite lueur d’espoir subsiste : le Conseil constitutionnel pourrait bien censurer cet article 5 bis mal embouché, et ce pour deux raisons. D’abord parce qu’il porte une atteinte disproportionnée à notre droit fondamental de dire ce qu’on pense. Ensuite parce que ces fameuses « amendes forfaitaires » sont normalement réservées aux délits « aisément constatables ». Autant dire qu’avec une infraction aussi nébuleuse et piégeuse, ça risque de coincer sévère.

En attendant, si ce texte indigne devait entrer en vigueur en l’état, je vous parie que l’autocensure deviendra la règle sur les réseaux sociaux français. Plus personne n’osera égratigner le moindre puissant de peur de finir au trou. Formidable victoire de la liberté sur l’obscurantisme, n’est-ce pas ?

Merci en tout cas à Mediapart pour son article et espérons que cela contribuera à faire reculer nos élus avant qu’il ne soit trop tard. La démocratie s’accommode toujours très mal de ce genre de lois scélérates même quand elles sont maquillées en croisade vertueuse.

❌