Lateo.net - Flux RSS en pagaille (pour en ajouter : @ moi)

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 26 avril 2024Korben

Durdraw – Un éditeur ASCII pour faire l’art rétro dans votre terminal

Par : Korben

Attention, pépite de l’espace à vous faire découvrir aujourd’hui ! Ça s’appelle Durdraw et c’est un éditeur de folie pour créer de l’art ASCII, ANSI et Unicode dans votre terminal !

Imaginez pouvoir dessiner des animations old school avec une palette de 16 ou 256 couleurs, en mixant allègrement les caractères CP437 de l’époque MS-DOS avec de l’Unicode moderne. Le tout avec le support de thèmes customisés et de l’export en HTML et mIRC.

Si comme moi vous avez grandi avec des softs de légende comme TheDraw et PabloDraw, vous allez retrouver direct vos repères, mais avec la puissance et la souplesse du monde Unix en plus.

Durdraw est codé en Python donc pour l’installer c’est ultra simple, un petit coup de pip ou de git clone et vous êtes parés pour entrer dans la 4ème dimension de l’ANSI art 😎.

git clone https://github.com/moneamis/durdraw-demo

cd durdraw-demo

./setup.sh

durdraw -p demo.dur

Les devs ont même pensé à inclure une config d’exemple et des thèmes bien sentis pour pas être largué en arrivant. Une fois lancé, préparez-vous à entrer dans la matrice : ça fourmille de raccourcis clavier dans tous les sens pour éditer au caractère et à la couleur près. Les nostalgiques des BBS apprécieront les commandes à base d’échappement, pendant que les plus modernes pourront même utiliser la souris pour peaufiner leurs chef d’oeuvres.

Et là où Durdraw se pose, c’est qu’il gère les animations image par image avec un contrôle total du timing. Fini l’époque où on dépendait du débit du modem, maintenant on créé des petits flip book ASCII qui restent stables même quand on redimensionne le terminal à la volée. Ça c’est de la qualité mes p’tits potes !

Bon après faut pas se leurrer, Durdraw ne rendra pas votre minitel compatible avec Unreal Engine 5 hein. Mais entre nous, est-ce qu’on a vraiment besoin d’aller jusque là quand on peut déjà pousser l’art ANSI dans ses derniers retranchements ? En plus l’auteur est hyper réactif sur GitHub pour améliorer son bébé au fil des contributions. C’est ça aussi la magie de l’open-source !

Bref, foncez sur https://durdraw.org, et lâchez-vous dans les créations bien rétro !

Merci à Lorenper pour l’info.

Multitasking MS-DOS 4 – L’OS oublié de Microsoft

Par : Korben

Multitasking MS-DOS 4. Rien que le nom ça fait rêver. Un nom qui respire le futur, qui transpire l’innovation. Mais c’est quoi en fait ?

Et bien au début des années 80, alors qu’on se battait encore en duel avec des disquettes 5″1/4, Microsoft avait dans ses cartons un projet d’OS révolutionnaire baptisé Multitasking MS-DOS 4. Bon, ce n’est pas le nom le plus sexy de l’histoire de l’informatique mais derrière cette appellation austère se cachait un système d’exploitation qui promettait déjà le multitâche et tout un tas de fonctionnalités incroyables pour l’époque !

L’histoire commence en 1983 lorsque Microsoft rassemble une équipe de développeurs talentueux pour plancher sur la nouvelle version de MS-DOS, qui doit apporter un max de nouveautés pour l’époque : multitâche, multi-threading, pipes, sémaphores… Tout ça sur les modestes processeurs 8086/8088 qui avaient une mémoire limitée.

Le projet s’appelle d’abord MS-DOS 3.0 avant d’être renommé MS-DOS 4.0 en avril 1984. En parallèle, Microsoft travaille sur le « vrai » DOS 3.0 qui sortira en août 1984. Vous suivez ? C’est un peu le bazar mais c’est ça qui est bon !

Puis en juin 1984, une première beta de Multitasking DOS 4 est envoyée à quelques privilégiés. Et autant vous dire que ça décoiffe ! Le multitâche fonctionne déjà, géré par un composant baptisé « Session Manager ». On peut lancer jusqu’à 6 applications en même temps en leur attribuant des raccourcis clavier. Le Session Manager gère aussi les fameuses « erreurs fatales » qui pouvaient faire planter tout le système. Avec lui, si un programme plante, il n’embarque pas tout le système avec lui. C’est un concept révolutionnaire pour l’époque !

MS-DOS 4.0 apportait également son lot d’améliorations comme une meilleure gestion de la mémoire, le support des disques durs de plus de 10 Mo (si si, à l’époque c’était énorme !), une API étendue, et même un système de fichiers réseau (Microsoft Networks).

Le développement de ce MS-DOS 4.0 s’est fait en étroite collaboration avec IBM car le géant informatique planchait à l’époque sur son propre OS avec une architecture similaire à MS-DOS 4.0. Mais plutôt que de se faire concurrence, Microsoft et IBM ont décidé de joindre leurs forces. MS-DOS 4.0 a ainsi servi de base au développement d’IBM PC-DOS 4.0. Les deux OS partageaient une grande partie de leur code source et étaient compatibles entre eux. Une belle démonstration du partenariat entre Microsoft et IBM !

Malheureusement, malgré toutes ses qualités, MS-DOS 4.0 n’a jamais été commercialisé. Son développement a été stoppé au profit d’OS/2, le nouveau projet de Microsoft et IBM et la plupart de ses fonctionnalités ont été recyclées dans ce nouvel OS.

Multitasking MS-DOS 4 est ainsi resté à l’état de projet, même si certaines de ses innovations ont survécu dans d’autres OS. Son code source est longtemps resté dans les cartons de Microsoft, jusqu’à ce que la société décide de le libérer en open source, sous licence MIT. Un joli cadeau pour les passionnés d’histoire de l’informatique !

Alors si vous êtes curieux d’essayer MS-DOS 4.0 par vous-même, sachez que c’est possible ! Grâce à la libération du code source, des passionnés ont pu recompiler l’OS et le faire tourner sur des machines modernes via des émulateurs comme DOSBox.

Voici les étapes pour lancer MS-DOS 4.0 sur votre PC :

  1. Téléchargez l’émulateur DOSBox sur le site officiel
  2. Installez DOSBox sur votre machine
  3. Récupérez une image disque de MS-DOS 4.0. Vous pouvez en trouver sur des sites d’archives comme WinWorldPC
  4. Ouvrez DOSBox et montez l’image disque de MS-DOS 4.0 avec la commande :
    mount c /chemin/vers/image_dos4.img -t iso
  5. Démarrez MS-DOS 4.0 en tapant : c:

Sinon, vous pouvez le tester directement en ligne ici.

Et voilà, vous pouvez maintenant explorer ce morceau d’histoire de l’informatique et découvrir par vous-même les prémices du multitâche sous DOS !

Amusez-vous bien !

Source

À partir d’avant-hierKorben

Adobe VideoGigaGAN – L’IA qui transforme vos vidéos floues en HD !

Par : Korben

Vous avez une vieille vidéo toute pourrie, floue à souhait, qui date de Mathusalem et bien avec VideoGigaGAN d’Adobe, elle va se transformer en une magnifique séquence HD, avec des détails si nets que vous pourrez compter les poils de nez des gens qui sont dessus !

VideoGigaGAN est ce qu’on appelle un modèle d’IA génératif. En gros, ce machin est capable de deviner les détails manquants dans une vidéo pourrave pour la rendre méga classe. Les petits gars d’Adobe ont balancé des exemples sur leur GitHub et franchement, c’est impressionnant. On passe d’une vidéo degueulasse à un truc ultra net, avec des textures de peau hallucinantes et des détails de fou !

En plus, cette IA est capable d’upscaler les vidéos jusqu’à 8 fois leur résolution d’origine, par contre, faut pas s’emballer car pour le moment, c’est juste une démo de recherche et y’a pas encore de date de sortie officielle. Mais connaissant Adobe, y’a moyen que ça finisse dans Premiere Pro un de ces quatre. Je vais pouvoir améliorer mes vidéos tournées à l’époque au format 3GP \o/.

D’ici là, va falloir continuer à se taper des vidéos de chat toutes pixelisées sur les réseaux sociaux.

Source

OpenELM – Apple sort ses modèles IA légers et open-source

Par : Korben

Vous connaissez OpenELM ? Non, normal, ça vient de sortir. Et c’est une famille de modèles IA open-source made in Apple conçus pour tourner directement sur vos appareils, sans passer par le cloud. En gros, c’est de l’IA maison dans nos iPhone, iPad et Mac…etc.

OpenELM combine plusieurs modèles de langage naturel (LLMs) utilisant des algorithmes évolutionnistes qui exploitent les principes techniques suivants :

  1. Layer-wise scaling strategy : Cette stratégie consiste à allouer les paramètres dans les couches d’un modèle transformeur pour améliorer l’exactitude. Les modèles sont pré-alourés avec un budget de paramètres de 270 millions, 450 millions, 1,1 milliard et 3 milliards.
  2. Pré-entraînement : Les modèles ont été pré-entraînés à l’aide d’une combinaison de datasets, incluant une sous-ensemble de Dolma v1.6, RefinedWeb, deduplicated PILE et une sous-ensemble de RedPajama. Ce dataset contient environ 1,8 trillion de tokens.
  3. Evolutionary algorithms : Les algorithmes évolutionnistes sont utilisés pour combiner les modèles LLM et améliorer l’exactitude. Cela permet d’exploiter les forces combinées des modèles pré-alourés et d’améliorer leur précision.

Alors évidemment, Apple arrive un peu après la bataille dans l’IA, pendant que Microsoft et Google déboulent à fond la caisse. Mais bon, mieux vaut tard que jamais, et puis ils compensent avec du lourd, soit 8 modèles OpenELM au total, dont 4 pré-entraînés avec CoreNet et 4 fine-tunés. Et avec leur stratégie de scaling par couche ça optimise à fond l’allocation des paramètres.

Allez, je traduits… En gros, ça veut dire qu’ils sont hyper efficaces et précis. Prenez le modèle à 1 milliard de paramètres et bien bah il explose un modèle équivalent comme OLMo de 2,36% en précision, avec 2 fois moins de tokens en pré-entraînement. Et ce qui est top, c’est qu’Apple balance tout : code, logs d’entraînement, configuration…etc et pas juste le modèle final. Et vu qu’ils utilisent des datasets publics, c’est top en matière de transparence et vérification des biais.

En tout cas, une chose est sûre, avec OpenELM, Apple nous prouve qu’ils sont dans la course, et qu’ils comptent bien mettre le paquet sur l’IA

Et Merci à Letsar pour l’info, c’est lui qui m’a mis la puce à l’oreille sur OpenELM. Tu gères !

Source

Quels sont les différents types de data brokers et comment lutter ?

Par : Korben

Bannière Incogni

— Article en partenariat avec Incogni

Ah, les data brokers, ces entreprises mystérieuses dont on entend parler à peine plus souvent que de la météo sur Pluton (jamais en gros). Pourtant, ces entités obscures ont les mains (ou plutôt les serveurs) pleines de données, récoltées dans les plus sombres recoins numériques. J’ai déjà abordé le sujet sur ce site, mais comment opèrent-ils concrètement ? Voyage dans les entrailles du web pour percer le mystère des data brokers et comment lutter avec l’aide d’Incogni.

Qui sont-ils et que font-ils ?

Les data brokers, ce sont un peu les fantômes du cyberespace. On les connait rarement de nom, mais ils traquent nos traces numériques comme des chasseurs de primes à la recherche d’informations. Ils collectent des données de toutes sortes, du registre foncier à notre historique d’achat en passant par nos profils sociaux et nos activités en ligne. Une fois leur butin amassé, ils compilent le tout pour dresser un portrait-robot le plus précis possible et le revendent ou le partagent avec des tiers. Faisant de notre petite personne la cible d’un jeu de piste numérique. Tout ça pour quelques brouzoufs (enfin quelques … parfois ça peut se compter en centaines voire milliers d’euros). Le marché de la data étant en pleine phase d’expansion, ce marché juteux devrait quasiment doubler d’ici la fin de la décennie pour atteindre plus de 450 milliards de $.

Les types de data brokers

Et oui, contrairement à ce que vous pensez peut-être, tous les data brokers ne sont pas tous taillés dans le même moule. Ils offrent une variété de produits aux acheteurs. Cela va des informations financières à votre santé personnelle, en passant par le marketing et la publicité. Voici un petit tour d’horizon des espèces les plus répandues qui peuplent cet écosystème obscur.

Les brokers en recherche de personnes

Vous vous souvenez de ces annuaires téléphoniques épais et lourd comme un parpaing ? Eh bien ce type de broker fait la même chose, mais en version 2.0. Ils vous permettent de fouiller dans les profils d’autres consommateurs, de retrouver d’anciens amis ou de déterrer des secrets bien enfouis. Et pas besoin de sonner à leur porte pour qu’ils vous livrent leurs trouvailles, tout est en ligne et à portée de clic. Sans doute les brokers les plus visibles pour tous. Notamment accessibles sur des sites comme PeekYou, Spokeo ou White Pages. Une sorte de niveau 1 de l’espionnage, la base.

Les courtiers en marketing et publicité

C’est un peu comme la cour de récré pour les marketeurs. Ils segmentent les consommateurs en fonction de leur comportement et de leurs préférences, offrant des cibles sur un plateau d’argent aux annonceurs. Ils peuvent même enrichir nos profils avec des informations supplémentaires pour un ciblage ultra-précis (comme les géolocalisations ou le groupe ethnique). C’est pas cool, mais limite ce sont quasi les moins dangereux de l’histoire.

Les courtiers en informations financières

Si je vous cite des noms comme Experian, Equifax et Transunion il y a de grandes chances que cela ne vous dise rien. Pourtant, imaginez-les comme les trois mousquetaires de la data financière. Ils rassemblent tout ce qui s’y rapporte, que ce soit des rapports de crédit, des historiques de paiement et des informations sur les comptes débiteurs. Leur but ? Vendre les données aux institutions financières afin que celle-ci puisse prendre des décisions. Ils sont régis par diverses lois (notamment en Europe), mais ça ne les empêche pas de jouer les acrobates avec nos données. Un exemple concret ? Si l’on vous refuse un crédit de manière répétitive sans que vous compreniez trop pourquoi, c’est peut-être parce que les banques ont en stock vos précédents comportements et qu’ils n’ont pas assez confiance.

Les brokers en gestion des risques

Ces petits malins détectent les différentes fraudes que vous auriez pu commettre et vérifient les identités des clients en un clin d’œil. Avec des outils sophistiqués, ils peuvent traiter des millions de transactions par heure, gardant un œil vigilant sur nos activités et notre historique. Nos remboursements de crédit, nos salaires, les attestations ou amendes reçues, les découverts et autres agios, etc.

Les courtiers en santé

Ah, la santé, un sujet cher à nos cœurs et à nos portefeuilles. Ces brokers traquent par exemple nos achats de médicaments en vente libre, nos recherches sur les symptômes d’une maladie, nos abonnements à des magazines de santé, l’installation de certaines applications, etc. Ils vendent alors ces informations à des compagnies pharmaceutiques et d’assurance santé, faisant de notre bien-être une marchandise à échanger.

Mais d’où viennent ces données ?

Vous vous demandez peut-être comment ces brokers mettent la main sur nos données. Eh bien, c’est un peu comme un jeu de piste géant, avec des indices cachés dans tous les coins du web, parfois là où l’on ne s’y attend pas (voir mon article sur les différents leaks du milieu de l’automobile).

Les sources gouvernementales

Les gouvernements sont généreux avec nos informations, fournissant des données sur tout, des naissances aux décès en passant par les permis de conduire. Les data brokers se servent à pleines mains dans ce buffet à volonté de données publiques, construisant des profils détaillés sans jamais nous demander notre avis. Et je ne parle même pas de ces derniers mois ou les organismes officiels de notre cher gouvernement sont entrés en mode « grande braderie » (fuites France Travail, Urssaf, etc.). Servez-vous ma bonne dame, 80% de la population française est à portée de clavier, livrée de bon coeur.

Les sources commerciales

Les entreprises aussi sont des donneurs généreux. Elles fournissent des historiques d’achat, des données de garantie et même des informations de carte de fidélité. Et comme un bon ami qui prête sans jamais demander à être remboursé, elles donnent tout ça gracieusement aux data brokers, qui se régalent sans se poser de questions.

Les sources publiquement disponibles

Nos vies numériques (ou tout du moins une partie) sont des sortes de livres ouverts pour les data brokers. Ils parcourent nos profils sociaux, nos messages sur les forums et nos commentaires sur les blogs pour trouver des indices sur nos vies. Des enquêteurs privés, mais avec des algorithmes à la place de loupes. Le point positif c’est qu’au moins sur cet aspect nous avons notre mot à dire. Nous pouvons limiter les informations que nous partageons, utiliser des identités alternatives, sécuriser et chiffre nos échanges, etc.

Le pistage web

Et enfin, il y a le traçage en ligne, la cerise sur le gâteau des data brokers. Avec des cookies et des identifiants publicitaires, ils suivent nos moindres mouvements sur le web, collectant des informations sur nos habitudes de navigation et nos achats en ligne, récupèrent la liste des applications que nous utilisons, etc. Comme si Big Brother avait embauché des paparazzis pour nous suivre partout où nous allons. Mais là encore nous avons une part de responsabilité et nous pouvons agir de manière proactive (navigateur sans traqueurs, VPN …).

C’est déjà trop tard ?

Peut-être, mais cela peut éventuellement changer. Ils sont partout, ils savent tout, et nous, on est là, à ne pas trop savoir quoi faire. Mais nous pouvons décider d’au moins leur donner du fil à retordre. Déjà en faisant attention à ce que nous partageons en ligne, en utilisant les bons outils, etc. Et en faisant appel à un service comme Incogni pour tout ce qui est déjà dans la nature et que l’on ne peut rattraper.

Incogni, le désormais bien connu outil de Surfshark, propose un abonnement pour vous aider à nettoyer les données personnelles des bases de données des courtiers en données et des entreprises qui les stockent. Basé sur des réglementations comme le RGPD en Europe et la CCPA en Californie, Incogni impose aux courtiers en données de supprimer les informations des utilisateurs. Ces données peuvent être des choses comme vos noms, adresses, numéros de téléphone, etc.

Incogni Surfshark

Son gros avantage est de tout automatiser. Vous n’avez pas besoin de contacter chaque broker pour lui demander de vous supprimer de sa base de données. Incogni va le faire pour vous et surtout, va s’assurer que le retrait perdure. Un autre aspect intéressant du tableau de bord de l’outil est que vous allez visionner très rapidement les différents niveaux de dangerosité des courtiers. Mais aussi de connaitre le champ d’action de chacun d’entre eux et si vous trainez plutôt du côté des données de santé ou de la publicité.

Concrètement pour voir comment cela se passe, je vous redirige vers mon test Incogni sur une période d’un an. On va dire que le gros du travail se fait sur les 3 premiers mois, et qu’ensuite les récalcitrants finissent pas craquer au fil des relances du service. En ce moment ce dernier est d’ailleurs à moins de 95€ TTC par an, environ 7.8€/mois.

Essayez Incogni !

Localsumm – L’extension Chrome qui résume vos articles en local avec Phi-3

Par : Korben

Localsumm est un générateur de résumés nouvelle génération qui tourne direct dans votre navigateur Chrome, sans envoyer vos données sur le cloud. Sous le capot, cette petite extension magique utilise un modèle de langage maison développé par Microsoft : le fameux Phi-3. C’est une sorte de cousin du célèbre GPT, mais en version allégée et spécialisée dans le résumé de texte.

Pour tester cette merveille, c’est assez simple. Déjà, il faut avoir Chrome (ou un clone open source comme Brave ou Chromium) puis :

  1. Installez et lancez Ollama
  2. Entrez la commande ollama run phi3 dans le terminal pour déployer le modèle Phi-3
  3. Bidouillez un peu les paramètres CORS de votre navigateur (voici un tuto récent pour le faire proprement)
  4. Clonez le code source de Localsumm depuis GitHub avec Git :
    git clone https://github.com/samrawal/localsumm.git
  5. Allez dans les extensions Chrome (chrome://extensions), activez le mode développeur, cliquez sur « Charger l’extension non empaquetée » et sélectionnez le dossier localsumm

Et voilà, vous avez votre assistant de lecture perso, prêt à croquer des articles et recracher des résumés bien juteux !

Localsumm est encore tout jeune et son code est en cours de développement, alors forcément il y a quelques bugs et fonctionnalités manquantes. Perso, j’ai déjà quelques idées d’amélioration :

  • Ajouter la génération automatique d’un tweet avec les points clés de l’article, pour envoyer sur mes réseaux
  • Intégrer les résumés dans le moteur de recherche de l’historique Chrome, pour retrouver facilement les derniers trucs que j’ai lu
  • Pouvoir partager un résumé en 1 clic avec ses contacts
  • Créer une version mobile de l’extension pour résumer le web sur son smartphone
  • Et bien sûr un portage sur Firefox parce que moi, j’utilise surtout ce navigateur là.

En tout cas, je trouve que Localsumm est vraiment une chouette idée pour les gens pressés.

A vous de tester maintenant !

CSS Compatibility Checker – Votre allié pour un code parfaitement compatible avec tous les navigateurs

Par : Korben

Et si aujourd’hui, on parlait un peu de l’extension CSS Compatibility Checker pour Visual Studio Code ? Un outil juste dingue qui va vous aider à voir en un clin d’œil si votre code est compatible avec tous les navigateurs. Plus besoin de passer des heures à éplucher la doc ou de croiser les doigts en espérant que ça passe, cette petite merveille va vous changer la vie !

Imaginez un peu le topo : vous êtes tranquillou en train de tapoter votre CSS, vous balancez une propriété backdrop-filter pour flouter votre background avec classe et là bim 💥, l’extension vous remonte direct que c’est pas compatible avec certaines vieilles versions de navigateurs.

Ou alors vous utilisez un mot-clé un peu exotique genre unset et hop, elle vous alerte que c’est potentiellement casse-gueule. C’est ti pas beau ça ?

CSS Compatibility Checker s’adresse donc aux développeurs frontend un peu soucieux de la compatibilité de son code. Je sais, ils ne sont pas nombreux ^^. En un survol de souris, vous avez accès à toutes les infos dont vous avez besoin : si telle syntaxe, fonction ou propriété est dépréciée, non-standard, expérimentale ou pas supportée partout. Et c’est valable pour un tas de versions de navigateurs différentes !

Pour en profiter, vous devrez installer l’extension depuis la marketplace de VS Code, et ensuite il vous suffit d’ouvrir un fichier CSS, SCSS ou LESS et de laisser le curseur survoler l’élément qui vous intéresse. Et là, magie, une petite bulle s’affiche avec toutes les infos de compatibilité. De quoi prendre les bonnes décisions pour votre projet !

Alors certes, CSS Compatibility Checker ne va pas non plus révolutionner le monde du développement web du jour au lendemain mais pour tous ceux qui en ont un peu ras la casquette de se farcir des heures de tests sur 15 versions d’Internet Explorer, c’est définitivement une extension à avoir sous la main. Et puis c’est gratuit et open-source en plus, alors que demande le peuple ?

Merci à Lorenper pour le partage !

L’IA du MIT qui prédit les actions humaines

Par : Korben

Imaginez un monde où les ordinateurs pourraient prédire ce que vous allez faire avant même que vous ne le fassiez. Ça peut sembler tout droit sorti d’un film de science-fiction du style de Minority Report, mais les chercheurs du célèbre MIT (Massachusetts Institute of Technology) sont en train de rendre ça possible ! En effet, ils ont mis au point un modèle d’IA (intelligence artificielle) qui est capable d’analyser les limitations d’un agent, qu’il soit humain ou artificiel, pour en déduire ses actions futures les plus probables.

Dingue, non ?

Mais comment ce modèle s’y prend-il pour jouer les madame Irma ? En fait, tout est une question de limites. Nan, je ne parle pas des limites de vitesse ou des dates de péremption, hein. Je parle des contraintes qui pèsent sur un agent peu importe sa nature, biologique ou numérique.

Prenons un exemple concret : Vous êtes en train de jouer aux échecs contre un ordinateur. Vous avez vos propres contraintes : votre niveau de jeu, votre connaissance des ouvertures et des fins de partie, votre capacité à anticiper les coups de l’adversaire… Bref, tout un tas de facteurs qui limitent vos possibilités d’action. Eh bien, c’est exactement ce que le modèle d’IA du MIT analyse !

En se basant sur ces fameuses limites, il est capable d’inférer les coups que vous avez le plus de chances de jouer. Pas besoin d’être Garry Kasparov pour comprendre à quel point c’est bluffant. Votre ordinateur sera bientôt meilleur que vous aux échecs… et dans plein d’autres domaines !

Mais attention, le modèle du MIT ne prétend pas prédire l’avenir avec une précision de 100%. Il s’agit plutôt d’identifier des tendances et des schémas de comportement en fonction des limitations d’un agent. Ça reste néanmoins un outil très puissant pour anticiper les actions les plus probables.

D’ailleurs, les applications de cette technologie vont bien au-delà des jeux de société. Je pense par exemple au voitures autonomes qui pourraient anticiper les mouvements des piétons et des autres véhicules, des assistants virtuels qui sauraient exactement ce que vous allez leur demander avant même que vous n’ouvriez la bouche, des robots industriels capables de s’adapter en temps réel aux changements de leur environnement… Les possibilités sont infinies !

Bien sûr, tout cela soulève aussi son lot de questions éthiques. Est-ce qu’on a vraiment envie que les machines lisent dans nos pensées comme dans un livre ouvert ? Est-ce que ça ne risque pas de créer de sacrés problèmes de vie privée et de manipulation ? Imaginez que votre enceinte connectée décide de vous commander une pizza quatre fromages parce qu’elle a deviné que vous aviez un petit creux… Flippant, non ?

Mais bon, on n’en est pas encore là. Pour l’instant, les chercheurs du MIT sont encore en train de plancher sur leur modèle pour le perfectionner et étendre ses capacités. Et croyez-moi, c’est loin d’être un long fleuve tranquille ! L’IA a beau faire des progrès de géant, prédire le comportement humain reste un sacré défi. On est tellement imprévisibles et irrationnels, nous autres mortels…

En attendant de pouvoir déléguer toutes nos décisions à une machine, le modèle du MIT nous offre un aperçu de ce que pourrait être le futur de l’interaction homme-machine. Un futur où les ordinateurs nous comprendraient mieux que nous-mêmes, pour le meilleur et pour le pire. Perso, j’oscille entre fascination et inquiétude.

Et vous ?

Source

Un Konami Code dans Castlevania Legacy of Darkness sur Nintendo 64

Par : Korben

Vous pensiez connaître Castlevania sur le bout des doigts ? Eh bien 25 ans après la sortie de Castlevania: Legacy of Darkness sur notre bonne vieille Nintendo 64, des petits malins ont déniché un tout nouveau code Konami planqué dans les entrailles du jeu.

Ce code Konami est une vraie petite bombe puisqu’il déverrouille d’un coup TOUS les personnages et leurs costumes alternatifs, et ce dès le début de l’aventure ! Fini de devoir se farcir le jeu deux fois pour accéder à Henry et Carrie. Là c’est open bar direct, et ça change complètement la donne !

Moises et LiquidCat, deux fans passionnés du jeu, ont également déniché deux autres codes bien sympathiques. Le premier remplit entièrement votre inventaire, peu importe le héros que vous incarnez. Fini la galère pour trouver des potions et des équipements, vous voilà paré pour latter du vampire en claquant des doigts. Le second code, disponible uniquement dans les versions japonaise et européenne, booste votre arme au max et vous file un stock de joyaux dont même Picsou serait jaloux. De quoi rendre votre quête bien plus funky !

Pour activer ces codes, rien de plus simple :

  1. Ouvrez le jeu et sélectionnez le mode histoire.
  2. Tapez le code en doublant les inputs du code Konami classique : Up, Up, Down, Down, Left, Right, Left, Right, B, A, Start.
  3. Utilisez les boutons directionnels et A/B de votre manette N64.
  4. Appuyez sur Start pour confirmer l’activation.
  5. Enjoy ! Vous pouvez maintenant jouer avec tous les persos dès le début.

Codes bonus pour les plus curieux :

  • Inventaire au max : Up, Up, Down, Down, Left, Right, Left, Right, B, A, Start (x2)
  • Arme boostée et argent illimité (versions PAL/JPN uniquement)

Alors certes, dit comme ça, ça peut sembler un poil cheaté mais ça fait un quart de siècle que ce jeu nous nargue avec ses secrets, donc ça va, y’a tolérance. En plus, avouons-le, ces codes tombent à pic pour (re)découvrir cet opus culte car s’il y a bien un reproche qu’on pouvait faire à Legacy of Darkness, c’était ce côté un peu prise de tête avec un seul personnage jouable au début. Un choix curieux qui pouvait rebuter certains joueurs. Mais grâce à ce code Konami providentiel, ce problème est relégué aux oubliettes ! Vous pouvez enfin profiter des cinq perso et de leurs capacités uniques sans vous prendre le chou.

Alors si vous aussi vous avez une Nintendo 64 qui prend la poussière dans un coin (ou un émulateur), c’est le moment ou jamais de ressortir Castlevania: Legacy of Darkness et de tester ces fameux codes.

Source

EB corbos Linux – Le premier OS open source certifié pour l’automobile

Par : Korben

Figurez-vous qu’Elektrobit, le géant allemand de l’électronique automobile, vient de nous pondre un truc qui va faire plaisir aux fans de libre : EB corbos Linux, le premier système d’exploitation open source qui respecte les normes de sécurité les plus pointues du monde de la bagnole.

En gros, les constructeurs en ont marre de se trimballer des kilomètres de câbles et des centaines de boîtiers noirs dans leurs caisses-. L’idée, c’est de tout centraliser sur quelques « super ordinateurs » qu’ils appellent des « plateformes de calcul haute performance ». Et chacun gère son domaine : la conduite, l’info-divertissement, les aides à la conduite… Bref, ça simplifie le bordel et ça permet de faire évoluer les fonctionnalités sans toucher au hardware.

Le hic, c’est que tout ce bazar logiciel doit être hyper sécurisé. Parce que si votre autoradio plante, c’est pas bien grave, mais si c’est votre direction assistée qui décide de partir en vacances, bonjour les dégâts ! C’est là qu’EB corbos Linux entre en scène.

Grâce à son architecture unique, ce système d’exploitation prend Linux et le rend compatible avec les exigences les plus draconiennes en matière de sécurité automobile, genre les normes ISO 26262 et IEC 61508 en utilisant un hyperviseur et un système de monitoring externe qui valide les actions du noyau. En gros, Linux peut continuer à évoluer tranquillou sans compromettre la sécurité.

Comme cette distrib est basé sur du bon vieux Linux, il profite de toute la puissance de l’open source. Genre les milliers de développeurs qui bossent dessus, les mises à jour de sécurité en pagaille, la flexibilité, la rapidité d’innovation… Tout ça dans une distrib’ véhicule-compatible, c’est quand même cool. En plus, Elektrobit a développé ce petit miracle main dans la main avec l’équipe d’ingénieurs d’Ubuntu Core chez Canonical. Autant dire que c’est du lourd !

Elektrobit a pensé à tout puisqu’ils proposent même une version spéciale pour les applications critiques, genre les trucs qui peuvent tuer des gens s’ils plantent. Ça s’appelle EB corbos Linux for Safety Applications, et c’est le premier OS Linux à décrocher la certification de sécurité automobile auprès du TÜV Nord.

Mais le plus cool, c’est qu’avec cet OS, vous pouvez laisser libre cours à votre créativité de développeur automobile. Vous voulez intégrer les dernières technos de conduite autonome, d’intelligence artificielle, de reconnaissance vocale… Pas de problème, Linux a tout ce qu’il faut sous le capot.

Imaginez que vous bossiez sur un système de reconnaissance de panneaux pour aider à la conduite. Avec ça, vous pouvez piocher dans les bibliothèques open source de traitement d’image, de machine learning, etc. Vous adaptez tout ça à votre sauce, en respectant les contraintes de sécurité, et voilà ! En quelques sprints, vous avez un truc qui déchire, testé et approuvé pour la route. Et si un autre constructeur veut l’utiliser, il peut, c’est ça la beauté de l’open source !

Autre exemple, vous voulez développer un système de monitoring de l’état de santé du conducteur, pour éviter les accidents dus à la fatigue ou aux malaises. Là encore, EB corbos Linux est votre allié. Vous pouvez utiliser des capteurs biométriques, de l’analyse vidéo, des algorithmes de détection… Tout en étant sûr que votre code ne mettra pas en danger la vie des utilisateurs.

Bref, vous l’aurez compris, c’est le meilleur des deux mondes avec d’un côté, la puissance et la flexibilité de Linux, de l’open source, de la collaboration à grande échelle et de l’autre, la rigueur et la sécurité indispensables au monde automobile, où la moindre erreur peut coûter des vies.

Source

Un distributeur de CPU au Japon – Un Core i7-8700 pour 3 dollars !

Par : Korben

Vous pensiez avoir tout vu en matière de distributeurs automatiques ? Et bien le pays du Soleil Levant repousse une fois de plus les limites de l’imagination avec une machine pour le moins insolite : un distributeur de… CPU Intel ! Si, si, vous avez bien lu. Au pays des capsules toys, tout est possible même de tomber sur un Core i7-8700 pour la modique somme de 500 yens, soit environ 3 dollars.

La scène se passe devant une boutique d’informatique nommée 1’s PC, qui a visiblement eu l’idée farfelue de recycler ses vieux processeurs en les mettant dans un distributeur façon gacha. Le principe est simple : vous insérez une pièce, tournez la manivelle, et hop ! Voilà votre petite capsule contenant un CPU mystère. C’est comme une pochette surprise, mais avec des puces en silicium dedans. Évidemment, c’est la loterie : vous pouvez aussi bien tomber sur un vieux Celeron tout poussiéreux que sur une pépite comme ce fameux i7-8700.

Un YouTubeur japonais nommé Sawara-San a tenté sa chance et a eu la main particulièrement chanceuse en décrochant le précieux sésame pour seulement 500 yens. Ni une ni deux, notre bidouilleur s’est empressé de rentrer chez lui pour tester la bête et vérifier si le CPU est fonctionnel ou non. Parce que bon, à ce prix-là, on peut légitimement avoir des doutes.

Après un montage express sur une carte mère d’occasion, première tentative de boot et… rien. Nada. Que dalle. L’écran reste désespérément noir. Le CPU serait-il mort ? Que nenni ! Après quelques secondes de panique, notre cher Sawara-San s’est rendu compte qu’il avait juste oublié de brancher le câble d’alimentation du GPU. Une fois ce léger détail corrigé, l’ordinateur a enfin daigné s’allumer.

Direction le BIOS pour checker les infos CPU et là, bingo ! C’est bien un Core i7-8700 qui est détecté. Ce processeur possède 6 cœurs et 12 threads, avec une fréquence de base de 3.2 GHz et un boost jusqu’à 4.6 GHz. Il est compatible avec les cartes mères équipées d’un socket LGA 1151 et d’un chipset de la série 300. Maintenant, il faut installer Windows et vérifier que tout fonctionne correctement. Et c’est là que les choses se corsent un peu…

L’installation se passe sans accroc, mais une fois sur le bureau, Sawara-San remarque quelques artefacts graphiques suspects. Après investigation, il semblerait que la puce graphique intégrée du CPU ait morflé. Ces soucis semblent spécifiques à ce processeur en particulier et ne sont pas forcément représentatifs de tous les Core i7-8700. Bon, tant pis, il décide de passer outre et de lancer quelques benchmarks pour voir ce que le proc a dans le ventre.

Résultat : l’i7-8700 se comporte plutôt bien malgré son statut de rescapé d’un distributeur automatique ! Sous Cinebench R15, il atteint un score de 992 points en multi-thread. Certes, c’est un poil en-dessous d’un modèle fraîchement sorti d’usine, mais pour 3 dollars, on va éviter de faire la fine bouche, hein.

En fouillant un peu dans le Gestionnaire des tâches, Sawara-San se rend compte que le CPU ne compte que 5 cœurs actifs au lieu de 6. Étrange… Serait-ce un autre dommage collatéral ? Ni une ni deux, il fonce dans le BIOS et décide de désactiver manuellement le cœur défectueux. Et voilà, le tour est joué ! Windows ne voit plus que 5 cœurs, mais au moins, le système est stable.

Au final, ce Core i7-8700 bradé dans un distributeur aura fait le bonheur de Sawara-San qui, pour seulement une poignée de yens, a pu mettre la main sur un CPU encore vaillant. Certes, la puce a quelques défauts, comme son iGPU aux fraises et un cœur en moins, mais pour ce prix, c’est tout bonnement exceptionnel. Un vrai coup de bol !

Et vous, seriez-vous prêt à tenter votre chance dans ce drôle de distributeur de CPU ?

Qui sait, peut-être que la chance vous sourira aussi ! En attendant, si vous passez devant la boutique 1’s PC au Japon, n’hésitez pas à faire un petit tour au rayon gacha, car c’est peut-être vous le prochain gagnant d’un processeur haut de gamme pour le prix d’un café !

Source

Un piano virtuel en papier ?

Par : Korben

Comme tout le reste, le prix des instruments de musique s’envole. Bien sûr, vous rêvez de jouer du piano mais vous n’avez pas les moyens de vous en payer un. Snif c’est trop triste ! Heureusement, tonton Korben est là, c’est plus la peine de faire les brocantes, puisque j’ai déniché un petit bijou qui devrait vous plaire !

Grâce au projet Paper Piano disponible sur GitHub, vous allez pouvoir vous improviser pianiste avec juste une feuille de papier, un feutre et votre webcam. Si si, je vous jure, c’est possible et en plus c’est fun !

Bon, évidemment, on est loin des sensations d’un vrai piano à queue, faut pas rêver non plus mais le concept est super cool et ça permet de s’initier au piano sans se ruiner. Pour l’instant, le projet ne supporte que 2 doigts maximum (un de chaque main) mais le développeur bosse dur pour améliorer ça et permettre de jouer avec tous les doigts comme un vrai pro.

Alors comment ça marche ce truc ?

En fait c’est plutôt simple, il suffit de cloner le repo GitHub, d’installer les dépendances Python en lançant

pip install -r requirements.txt

dans votre terminal et d’exécuter le script

run.py

Jusque là, rien de bien sorcier pour ceux qui sont un peu à l’aise avec la ligne de commande.

La partie un peu plus délicate, c’est l’installation de la webcam. Vu que le programme va devoir détecter votre doigt et son ombre sur le papier, il faut la positionner au bon endroit, avec le bon angle et à la bonne distance. En gros, il faut qu’elle puisse voir votre doigt et les deux rectangles que vous aurez dessinés au marqueur noir de chaque côté de votre feuille A4. Ça demande un peu de bidouille mais en suivant bien les instructions et en regardant la vidéo démo, vous devriez y arriver !

Un petit tips au passage : pensez à bien éclairer votre zone de jeu. Plus la lumière sera forte, mieux l’ombre de votre doigt sera visible et meilleurs seront les résultats. Évitez quand même d’avoir une lumière directe dans l’objectif de la webcam, ça risquerait de tout faire foirer.

Une fois votre matos en place, vous allez pouvoir passer à la phase d’entraînement du modèle. Pour ça, une fenêtre va s’ouvrir et une boîte va s’afficher autour du bout de votre doigt. Vérifiez bien qu’elle englobe tout le doigt et ses environs proches, sinon réglez à nouveau le positionnement de la caméra.

Ensuite c’est parti pour la séance de muscu des doigts !

Alors un conseil, allez-y mollo sur les mouvements. Pas la peine de vous exciter comme un fou jusqu’à trouer le papier, faites ça doucement en montrant bien tous les angles de votre doigt. Et quand vous appuyez, appuyez normalement, pas besoin d’écraser votre feuille non plus. Idem quand vous relevez le doigt, levez le franchement mais pas trop près du papier non plus. En gros, faites comme si vous jouiez sur un vrai piano.

Le projet utilise un réseau de neurones convolutif (CNN) pour apprendre à distinguer les états « doigt en contact » et « doigt levé ». Et bien sûr, si les résultats ne vous conviennent pas, vous pouvez relancer une session d’entraînement pour affiner le modèle.

L’objectif à terme pour le dev, ce serait d’arriver à transformer ce prototype en un vrai piano fonctionnel sur papier. Vous imaginez un peu le truc ? Ça permettrait à tous ceux qui n’ont pas les moyens de s’acheter un piano d’apprendre à en jouer quand même. La classe non ?

Après comme c’est un projet open-source, y’a pas vraiment de mode d’emploi gravé dans le marbre. Toutes les bonnes idées et les améliorations sont les bienvenues !

Je suis sûr qu’on n’a pas fini d’entendre parler de ce genre d’expériences de Papier Augmenté. Qui sait, bientôt on pourra peut-être transformer une simple feuille en un véritable home-studio ! Vous imaginez, une batterie en papier, une basse en carton, une guitare en origami… Ok je m’emballe un peu là, mais l’avenir nous réserve sûrement encore plein de surprises de ce type.

Sur ce, joyeux bidouillage à tous et à la prochaine pour de nouveaux projets délirants !

L’IA générative au service de l’édition de gènes

Par : Korben

Vous avez sans doute entendu parler de CRISPR-Cas9 (non), cet outil d’édition génétique révolutionnaire qui permet de modifier l’ADN avec une précision chirurgicale. Et bien, figurez-vous que cette technologie déjà impressionnante pourrait être boostée par une autre innovation majeure : l’IA générative !

Attention, on est sur du lourd. En gros, l’idée c’est d’utiliser la puissance des algorithmes d’IA pour prédire les meilleurs « guides ARN » qui vont diriger les ciseaux moléculaires de CRISPR pile poil où il faut sur le génome. Plus besoin de faire de nombreux tests, il suffit de demander à votre IA favorite de vous générer le guide ARN parfait !

Mais à quoi ça va servir tout ça ?

Déjà, ça pourrait bien révolutionner la recherche biomédicale. Imaginez qu’on puisse modeler des lignées cellulaires ou des organismes modèles avec les mutations souhaitées rapidement, le gain de temps serait considérable ! Surtout que l’IA ne va pas juste prédire l’efficacité des guides ARN, mais aussi les potentiels effets secondaires. Parce que c’est bien beau de jouer avec le code de la vie, mais il faut éviter les conséquences indésirables… Là, l’IA va pouvoir modéliser les modifications « off-target » et réduire les risques.

Et à terme, ça ouvre des perspectives intéressantes pour la médecine personnalisée. Des thérapies géniques sur-mesure, où il suffirait de séquencer votre ADN, le fournir à une IA qui va déterminer le traitement CRISPR optimal, et hop, traiter des maladies génétiques ! Bon après, il faudra encore travailler sur les vecteurs pour acheminer ça dans les bonnes cellules…

Cela dit, on n’en est pas encore là, et il y a quand même des défis importants à relever. Déjà, éthiquement ça soulève des questions. Est-ce qu’on est prêts à laisser une IA influencer le génome humain ? Et il va falloir un cadre réglementaire solide et beaucoup de transparence pour éviter les dérives… Et puis techniquement, c’est loin d’être gagné ! Les interactions génétiques sont très complexes, avec de nombreux phénomènes comme l’épistasie et la pléiotropie. Pas sûr que les IA arrivent à modéliser un système aussi compliqué, même avec du deep learning poussé… Sans compter les contraintes pour synthétiser les guides ARN.

Mais bon, c’est le genre de défi stimulant non ? Si des IA peuvent générer des images bluffantes ou écrire du code, pourquoi pas des modifications génétiques ? En tout cas, une chose est sûre, la convergence de l’IA et des biotechs promet des avancées passionnantes.

Alors oui, certains diront que tout ceci relève encore de la spéculation, voire de la science-fiction. Que l’édition génétique est trop complexe pour être entièrement automatisée, même avec l’aide de l’IA. Que les risques de dérives sont trop grands et qu’il faut appliquer le principe de précaution. Ce sont des arguments à prendre en compte. Mais bon, on a dit pareil pour la fécondation in vitro, les OGM, les thérapies géniques…

À chaque fois, on nous dit que c’est contre-nature, que ça va avoir des conséquences désastreuses, et au final ça finit par entrer dans les mœurs et faire progresser la médecine. Alors sur l’IA et CRISPR, voyons jusqu’où ça nous mène, tout en étant vigilants sur les enjeux éthiques. Parce qu’on parle quand même de technologies avec un potentiel énorme pour soigner des maladies et améliorer notre compréhension du vivant. Ce serait dommage de tout bloquer.

Maintenant, si vous voulez en savoir plus sur la révolution CRISPR-IA, je vous invite à lire cet excellent article du New York Times.

Flyde – Comme scratch mais pour les vrais dev

Par : Korben

Bonne nouvelle ! Flyde, un nouvel outil de programmation visuelle pour les développeurs, vient de sortir en Alpha et ça déchire grave !

Bon, je vous vois venir : « Encore un énième outil low-code à la mode… » Que nenni ! Flyde est vraiment unique et a été conçu pour s’intégrer parfaitement à votre base de code existante, que ce soit pour du back-end, du front, des scripts d’automatisation ou même des outils en ligne de commande.

Le truc de ouf avec Flyde, c’est qu’il permet de visualiser et de créer facilement les flux haut-niveau (flows en anglais) de votre application, tout en gardant votre code textuel pour ce qui est bas-niveau. En gros, il sublime votre code « de plomberie » qui intègre plusieurs API de manière hyper concurrente. Vos diagrammes sur Powerpoint deviennent enfin une réalité !

Et les avantages sont multiples :

  • La collaboration avec les profils non-dev (product owners, QA, support…) devient hyper intuitive. C’est comme si Zapier et votre base de code avaient un bébé !
  • Les flux servent de documentation vivante et toujours à jour pour les nouveaux membres de l’équipe.
  • La programmation visuelle ouvre de nouveaux modes de réflexion sur le code. Les nœuds s’illuminent même quand les données les traversent, c’est hypnotique !
  • Et les données de monitoring sont directement sur le « code » lui-même. Ainsi, le débogage n’a jamais été aussi rapide.

Mais alors comment ça marche ce truc ?

Et bien Flyde est composé d’un éditeur visuel (extension VS Code ou standalone), d’une bibliothèque d’exécution et d’une bibliothèque plutôt bien fournie de composants prêts à l’emploi.

Dans l’éditeur visuel, on construit des flux en connectant des nœuds via une interface « nodes-and-wires ». On peut alors mixer des nœuds customs et ceux de la bibliothèque de composants. Une fois un flux créé, on peut ensuite l’exécuter depuis son code en utilisant la bibliothèque d’exécution de Flyde. Et c’est là que la magie opère !

Car Flyde ne cherche pas à remplacer vos workflows existants mais à les sublimer. Contrairement à d’autres outils low-code qui vivent en dehors de votre base de code, Flyde s’y intègre complètement. Les fichiers de flux sont committés dans votre gestionnaire de version comme n’importe quel autre fichier, les branches, les pull requests, les revues de code fonctionnent de manière transparente, les flux sont exécutés depuis votre base de code, en réutilisant votre environnement de prod. Comme ça, pas besoin de gérer une plateforme externe ni de vous soucier de la sécurité. Enfin, ces même flux peuvent être testés avec vos frameworks de test habituels. Vous pouvez même écrire des tests en Flyde qui testent votre code traditionnel !

L’intégration avec le code existant se fait de deux manières astucieuses : Premièrement, les noeuds Flyde peuvent être des noeuds visuels ou des noeuds basés sur du code. On peut donc wrapper n’importe quelle fonction de sa base de code dans un noeud Flyde utilisable dans un flux.

Secondo, les flux de Flyde peuvent s’exécuter depuis votre code. Par exemple, si vous construisez my-cool-flow.flyde, il faudra appeler execute('my-cool-flow') dans votre code puis gérer la réponse. Les cas d’usage sont infinis : Gestionnaire de requêtes HTTP, bot, scripts, etc.

Bon, vous l’aurez compris, Flyde s’inspire des principes de programmation basée sur les flux (FBP) mais d’autres outils font déjà ça, comme Node-RED ou NoFlo, bien avant l’arrivée du bouzin.

Quelle est la plus-value de Flyde du coup ?

Déjà, Flyde adopte une approche plus pragmatique et simple que NoFlo qui était un poil trop inspiré par la vision puriste de J. Paul Morrison, l’inventeur du FBP. Ensuite, l’éditeur est une extension VS Code, donc intégré à votre IDE, alors que les autres ont des éditeurs indépendants voire carréement datés. Et surtout Flyde est davantage taillé pour coexister avec les bases de code traditionnelles et toucher un public de développeurs plus large sur des projets variés.

Si vous voulez vous faire la main sur Flyde, le mieux est d’aller direct sur la sandbox en ligne qui permet de créer et d’exécuter des flux dans le navigateur. Puis jetez un œil aux tutos pour intégrer Flyde dans un vrai projet.

Perso, je vois plusieurs cas d’usage hyper prometteurs pour Flyde. C’est d’abord un super accélérateur pour les juniors et les non-devs qui pourront prototyper rapidement des trucs qui claquent sans se prendre la tête. Ca permet également de booster la collaboration en ouvrant sa base de code aux gens du marketing ou à l’équipe produit.

De plus, c’est un formidable outil pédagogique aussi ludique que scratch pour enseigner des concepts de programmation avancés aux étudiants. Sans oublier le gain de productivité pour les devs expérimentés qui aiment bien avoir une vue d’ensemble sur des architectures d’API ou de microservices complexes.

Bref, je suis convaincu que Flyde (ou un de ses futurs fork) va changer notre façon de coder dans les années à venir. Si vous couplez ça à l’IA, ça va faire un malheur.

La sonde Voyager 1 de la NASA transmet à nouveau des données \o/

Par : Korben

Ça y est, la vénérable sonde spatiale Voyager 1 de la NASA refait parler d’elle ! Après des mois de silence radio qui ont fait transpirer les ingénieurs, notre exploratrice de l’espace lointain a enfin daigné donner de ses nouvelles puisque pour la première fois depuis le 14 novembre 2023, elle renvoie des données utilisables sur l’état de santé de ses systèmes embarqués. Ils respirent mieux à la NASA.

Il faut dire que la mission nous a offert quelques sueurs froides ces derniers temps car depuis cette date, elle continuait bien à recevoir et exécuter les commandes envoyées depuis la Terre, mais impossible d’obtenir en retour des infos cohérentes sur son fonctionnement. Alors les enquêteurs du Jet Propulsion Laboratory de la NASA ont mené l’enquête et ont fini par identifier le coupable : un des trois ordinateurs de bord, le fameux « flight data subsystem » (FDS) responsable de la transmission des données, était en cause. Un seul circuit défectueux qui stocke une partie de la mémoire du FDS avec une portion cruciale du logiciel… et bim, panne générale avec perte des trames de données !

Pas évident de réparer ça à des milliards de kilomètres de distance et comme souvent, quand on ne peut pas changer le hardware, il faut ruser avec le software. L’équipe a alors élaboré un plan génial : découper le code incriminé et le stocker à des endroits différents de la mémoire du FDS. Un vrai casse-tête type jeu de « Mémory » pour recoller les morceaux correctement sans faire sauter la banque mémoire !

Puis banco ! Premier essai le 18 avril, ils transfèrent le nouveau code maison spécial « télémétrie de l’état des systèmes » dans la mémoire du FDS et environ 45 heures plus tard, en comptant les 22h30 de trajet aller-retour du signal radio, les ingénieurs reçoivent les précieuses données tant attendues.

Yes !!! Voyager 1 est de retour aux affaires et recommence à parler de sa santé !

Regardez comme ils sont contents à la NASA :

Outre le soulagement de voir la communication rétablie, c’est une belle prouesse technique et un formidable pied-de-nez à l’obsolescence programmée. Pas mal pour une sonde lancée en 1977 et qui fête ses 46 ans ! Quand on vous dit que le matériel était bien meilleur à l’époque. 😉😜

Maintenant l’équipe du JPL va pouvoir se consacrer aux prochaines étapes à savoir relocaliser petit à petit les autres bouts de code du FDS pour retrouver une configuration nominale, puis renouer avec la transmission des données scientifiques et le but premier de la mission, à savoir explorer les confins de l’espace interstellaire !

Pendant ce temps, sa petite sœur Voyager 2, lancée 16 jours plus tard en 1977, poursuit tranquillement sa route aux frontières du système solaire sans faire de vagues. Une fiabilité à toute épreuve pour ces deux merveilles technologiques qui auront marqué l’histoire de l’exploration spatiale qui avant même de s’aventurer dans le « grand vide » interstellaire, nous ont offert des clichés époustouflants de Jupiter, Saturne, Uranus et Neptune.

Et qui sait, peut-être qu’un jour, elle captera peut-être un signal extraterrestre ou tombera nez-à-nez avec une civilisation alien super évoluée technologiquement…

Vers l’infini et au delà, les amigos !

Source

Drive Pilot – La conduite autonome de Mercedes arrive aux États-Unis

Par : Korben

Mercedes secoue le monde automobile avec le lancement de Drive Pilot aux États-Unis, le premier système de conduite autonome de niveau 3 commercialisé directement auprès des consommateurs. Ça y est les amis, le futur nous rattrape ! Bientôt, on pourra enfin lâcher le volant et vaquer à d’autres occupations pendant les longs trajets…

Concrètement, dans certaines conditions bien spécifiques, Drive Pilot permet au conducteur de détourner son attention de la route pour se concentrer sur des activités non liées à la conduite, comme consulter ses mails, surfer sur internet ou regarder un film. Mais attention, il faudra toujours rester prêt à reprendre le contrôle du véhicule à tout moment si nécessaire. J’imagine qu’en cas de problème, la voiture saura vous tirer de votre session de TikTok avec des bip bip.

Pour cela, Drive Pilot s’appuie sur une multitude de capteurs ultra-perfectionnés : caméras, radars, LiDAR, capteurs à ultrasons… Un véritable concentré de technologies de pointe pour analyser l’environnement en temps réel. Un puissant ordinateur de bord exploite ensuite toutes ces données pour prendre les meilleures décisions de conduite de manière autonome.

Il y a cependant quelques conditions à respecter pour pouvoir activer Drive Pilot : Le système ne peut être utilisé que sur certaines portions d’autoroutes spécifiques, avec un marquage au sol suffisamment clair et visible, une densité de trafic modérée à élevée et une vitesse limitée à 60 km/h. Ça fait beaucoup de conditions à la con quand même.

Le conducteur doit aussi rester visible par la caméra située au-dessus de l’écran conducteur. On est donc encore loin d’une conduite 100% autonome en toutes circonstances, mais c’est un premier pas très prometteur ! Pour l’instant, seuls les propriétaires des dernières Mercedes Classe S et EQS pourront profiter de Drive Pilot, moyennant un abonnement annuel à 2500$ (lol). Bref, c’est une technologie encore réservée à une élite friquée, mais on peut espérer que Mercedes la démocratisera rapidement sur des modèles plus abordables.

Malgré ses limitations actuelles, Drive Pilot représente une avancée majeure vers une conduite plus sûre, plus confortable et plus… productive. Fini le stress des embouteillages, ce temps pourra être mis à profit pour avancer sur son travail, discuter avec ses proches ou se détendre devant un bon film. Tout ça pendant que l’IA gère la conduite de manière sereine et vigilante.

Bien sûr, de nombreux défis restent encore à relever avant de voir des voitures 100% autonomes partout sur nos routes. Les questions de responsabilité juridique en cas d’accident, de sécurité face au piratage ou encore d’éthique et de contrôle humain sont complexes. Et il faudra aussi s’assurer de la fiabilité totale du système pour éviter tout bug ou panne aux conséquences potentiellement dramatiques.

Mais une chose est sûre, la conduite autonome sera l’un des enjeux majeurs de la mobilité du futur. Avec des acteurs de poids comme Comma, Mercedes, Tesla ou Waymo qui investissent massivement sur le sujet, on peut s’attendre à des progrès rapides et à une démocratisation progressive de cette technologie dans les années à venir.

Source

Deadpool & Wolverine – le duo déjanté débarque dans le MCU cet été !

Par : Korben

Deadpool et Wolverine, le duo le plus dément et badass des comics, débarque enfin dans le MCU. Et croyez-moi, ça va dépoter ! Après des années de teasing et de spéculations, Ryan Reynolds et Hugh Jackman rempilent pour un film qui s’annonce déjà culte.

La bande-annonce vient de sortir et elle est aussi barjo que jouissive. On y retrouve un Deadpool fidèle à lui-même, avec ses vannes, ses références meta et son humour potache. Mais cette fois, il ne sera pas seul pour affronter ses ennemis et sauver le monde (ou le détruire, au choix). Il pourra compter sur son « pote » Wolverine et ses griffes en adamantium.

Et autant vous dire que la bromance risque de faire des étincelles ! Les chamailleries et les punchlines vont fuser entre les deux anti-héros et d’après les premières images, leur relation sera aussi électrique que jubilatoire. On devrait avoir droit à des combats épiques, des cascades démentes et des dialogues bien salés, comme on les aime.

Côté intrigue, la bande-annonce révèle que le Wolverine de ce film est une variante de celui qu’on connaît. Apparemment, il aurait échoué à sauver son monde d’une menace encore inconnue, ce qui semble introduire la principale antagoniste, Cassandra Nova. Deadpool devra donc faire équipe avec cette version alternative de Wolverine pour affronter cette nouvelle menace. Ce twist malin permet à Ryan Reynolds de ramener ce héros iconique sans effacer la fin que Hugh Jackman lui avait offerte dans Logan.

Le film est attendu dans les salles obscures pour le 26 juillet 2024. Et c’est une sacrée bonne nouvelle, parce que les films de super-héros commençaient à ronronner ces derniers temps. Entre les Ant-Man, les Gardiens de la Galaxie et autres Marvels, on avait un peu l’impression de bouffer la même soupe tiédasse.

Deadpool a toujours été le mouton noir du genre, avec sa violence, ses gros mots et son ton irrévérencieux et en faire un film R-Rated dans le MCU, c’est toujours un pari osé. Ça montre que Kevin Feige et sa bande ont encore des couilles (même si techniquement, Deadpool n’en a plus depuis X-Men Origins: Wolverine, mais passons).

Bref, j’ai hâte de voir ça !

La base de données des incidents d’IA – Bugs, dérapages et leçons à tirer

Par : Korben

Pendant qu’une utopie où les véhicules autonomes, les assistants virtuels et les systèmes de recommandation se profile à l’horizon, force est de constater que l’intelligence artificielle n’en est encore qu’à ses balbutiements. La promesse d’un monde meilleur se heurte à la dure réalité des incidents causés par ces systèmes dits « intelligents », déployés trop rapidement dans notre environnement.

C’est là qu’intervient la base de données des incidents d’IA (AIID), véritable mémoire collective répertoriant les bugs, plantages et autres dérapages de l’IA lorsqu’elle est lâchée dans la nature. Tel un Guinness Book des foirages technologiques, elle recense déjà plus de 1000 cas, des plus anodins aux plus tragiques :

  • – un taxi sans chauffeur Waymo qui emboutit un cycliste en plein San Francisco
  • – un deepfake audio d’Imran Khan appelant au boycott des élections au Pakistan pour tromper les électeurs
  • – de fausses images de Donald Trump entouré d’électeurs noirs générées par IA pour influencer le vote des afro-américains
  • – et le pire de tous (ou pas) : des collégiens de Beverly Hills qui créent de fausses photos dénudées de leurs camarades grâce à l’IA !

Bref, c’est la foire aux casseroles dans le merveilleux monde de l’IA et il était temps que quelqu’un dresse l’inventaire de ces dérapages en tout genre. Mais au-delà du simple folklore, la mission de l’AIID est d’apprendre de ces échecs pour bâtir des IA plus sûres, à l’image de ce qui se fait dans l’aéronautique ou la cybersécurité.

La base s’enrichit chaque jour grâce aux signalements de la communauté. Chacun peut ainsi apporter sa pierre à l’édifice en soumettant de nouveaux incidents, triés et classés pour en dégager des tendances. L’idée est d’arriver à une définition partagée de ce qu’est un « incident d’IA » et d’en tirer des leçons pour l’avenir.

Car n’en déplaise à Elon Musk ou à Mark Zuckerberg, le futur de l’IA ne se fera pas sans règles ni garde-fous. Pour que la révolution intelligente profite au plus grand nombre, elle doit impérativement s’accompagner d’une démarche éthique et responsable. C’est précisément la mission du Responsible AI Collaborative, l’organisation derrière l’AIID, qui rassemble chercheurs, entrepreneurs et experts du monde entier.

D’ailleurs, vous aussi, vous pouvez contribuer ! Et ils ont de grandes ambitions puisque la prochaine étape sera d’intégrer les incidents dans des outils de test pour reproduire les scénarios à risque et s’entraîner à y faire face. Une sorte de « crash test » géant pour IA en quelque sorte !

À terme, l’objectif est de faire de l’AIID un outil incontournable pour tous les acteurs de l’écosystème : Chercheurs, régulateurs, industriels… Car ne nous y trompons pas, la course à l’IA ne fait que commencer et les incidents risquent de se multiplier si nous n’y prenons pas garde.

D’ici là, votre mission si vous l’acceptez sera de garder un oeil sur ce grand capharnaüm de l’IA et de signaler sans relâche les anomalies que vous constaterez ! Car après tout, la sécurité de ces systèmes est l’affaire de tous et rien ne vaut la vigilance humaine pour déjouer les bugs les plus retors.

Ebook-demo – Le moteur de recherche de bouquins décentralisé

Par : Korben

Vous en avez ras le bol de chercher pendant des heures le bouquin que vous voulez lire sans le trouver dans le commerce ? Pourquoi ne pas le télécharger en ligne alors ? Mais oùùùù ?

Et bien, j’ai peut-être une solution pour vous les amis et ça s’appelle sans chichi ebook-demo, un nouveau projet de moteur de recherche décentralisé pour les livres électroniques, inspiré de Liber3 (qui est un projet aux sources fermées).

Imaginez un peu le truc : vous tapez le titre du livre que vous cherchez dans la barre de recherche, vous cliquez sur « Search » et BAM, les résultats s’affichent juste en dessous avec le titre et l’auteur de chaque bouquin correspondant. C’est simple, efficace et ça marche du tonnerre !

Mais attendez, c’est pas tout. Ce qui rend ce projet encore plus cool, c’est qu’il est basé sur des technologies comme React et le SDK Glitter (pour la blockchain du même nom qui sert de base de données décentralisée).

Bon, je vois déjà les petits malins qui se disent « Ok, c’est bien beau tout ça, mais comment ça s’installe concrètement ?« . Pas de panique, c’est là que ça devient un peu technique mais je vais essayer de vous expliquer ça simplement. Déjà, pour faire tourner ce projet sur votre machine, il vous faudra avoir installé Node.js en version 16.x minimum et npm en version 6.x minimum. Ensuite, vous devrez cloner le dépôt du projet depuis GitHub avec la commande

git clone https://github.com/j2qk3b/ebook-demo

puis vous placer dans le dossier du projet avec

cd ebook-demo

Là, vous lancez un petit

npm install

pour installer toutes les dépendances nécessaires et vous êtes prêt à démarrer le serveur de développement avec

npm run dev

Et voilà, si tout se passe bien, vous devriez pouvoir accéder à l’application sur http://localhost:5173.

Fastoche, non ? Ensuite, votre instance ira se connecter aux autres instances, et vous pourrez faire toutes les recherches qui vous passent par la tête. Imaginez un peu les possibilités offertes par un tel outil. Vous êtes étudiant et vous devez faire des recherches pour un mémoire sur la littérature française du 19ème siècle ? Pas de souci, en quelques clics vous pouvez retrouver les œuvres de Victor Hugo, Balzac ou Zola. Ou alors vous êtes un fan absolu de science-fiction et vous voulez découvrir de nouveaux auteurs ? Là encore, ce moteur de recherche sera votre meilleur ami pour dénicher les pépites du genre.

Mais le plus beau dans tout ça, c’est que ce projet est open source et que tout le monde peut y contribuer. Si vous avez des idées pour améliorer l’outil, des suggestions de nouvelles fonctionnalités ou même si vous voulez corriger des bugs. Puis comme c’est décentralisé, c’est le genre de truc incensurable.

Évidemment, comme tout projet en développement, il y a encore du boulot pour faire de ebook-demo l’outil ultime de recherche de livres électroniques. Mais avec une communauté motivée et des contributeurs talentueux, je suis sûr qu’il peuvent y arriver.

Trangram – Créez des animations pro sans coder en moins de 2 min

Par : Korben

Les amis, si vous cherchez une solution simple et efficace pour créer des animations et des graphiques animés sans vous prendre la tête, j’ai déniché un petit bijou pour vous : Trangram. C’est une plateforme en ligne gratuite qui vous permet de créer, d’animer et de partager vos créations en toute simplicité, sans avoir besoin de connaissances en programmation.

Avec Trangram, vous avez accès à une panoplie d’outils intuitifs et puissants pour donner vie à vos idées. Que vous soyez un professionnel du marketing qui cherche à créer des vidéos engageantes pour les réseaux sociaux, un enseignant qui souhaite rendre ses cours plus dynamiques, ou simplement un passionné de graphisme qui aime expérimenter, Trangram pourra vous aider.

L’interface est claire et bien pensée, avec des fonctionnalités accessibles en quelques clics. Vous pouvez choisir parmi une bibliothèque d’éléments graphiques prêts à l’emploi, ou importer vos propres images et illustrations. Ensuite, il suffit de les disposer sur votre scène, de définir les animations et les transitions, et le tour est joué ! Vous pouvez même ajouter du texte animé, des effets sonores et de la musique pour rendre vos créations encore plus immersives.

Ce que j’apprécie particulièrement avec Trangram, c’est la flexibilité qu’offre la plateforme. Vous avez le contrôle total sur chaque élément de votre composition, ce qui vous permet de laisser libre cours à votre créativité. Que vous souhaitiez réaliser une infographie animée pour présenter des données complexes de manière ludique, ou une vidéo teaser pour promouvoir un événement, les possibilités sont infinies.

Un autre point fort de Trangram, c’est la communauté qui gravite autour de la plateforme. Vous pouvez explorer les créations d’autres utilisateurs pour vous inspirer, mais aussi partager les vôtres et obtenir des retours constructifs. C’est une excellente façon de progresser et de faire de belles découvertes. Et si vous avez besoin d’un coup de pouce, la documentation fournie est très complète, avec des tutoriels vidéo et des guides pas à pas pour vous aider à prendre en main les différents outils.

Évidemment, Trangram ne remplacera pas les logiciels de motion design haut de gamme utilisés par les professionnels. Mais pour la grande majorité des utilisateurs qui cherchent une solution abordable et facile à prendre en main, c’est un excellent choix. Que vous soyez une startup qui souhaite créer des vidéos explicatives pour présenter ses produits, ou une agence qui a besoin de produire rapidement des contenus animés pour ses clients, Trangram saura vous faire gagner un temps précieux.

A découvrir ici : Trangram.

Discord – Vos données sont collectées en masse et revendues en ligne !

Par : Korben

Attention, ça va faire mal surtout si vous pensiez que vos conversations sur Discord étaient à l’abri des regards indiscrets. Désolé de casser l’ambiance, mais c’est loin d’être le cas.

Un petit malin a eu la bonne idée de créer un service en ligne baptisé « Spy Pet » qui s’amuse à aspirer en masse les données des serveurs Discord dont vos messages publics, les canaux vocaux que vous rejoignez, et les données liées à votre activité sur les différents serveurs. Et le pire, c’est que ces données sont ensuite revendues à bon prix (5$) à qui veut bien les acheter. De quoi être un brin parano !

Normalement, avec Discord, notre activité est éparpillée façon puzzle sur tout un tas de serveurs, et personne à part Discord lui-même ne peut voir ce qu’ont fait sur la plateforme dans son ensemble. Mais avec Spy Pet, n’importe qui peut potentiellement mater une partie de vos faits et gestes numériques pour une poignée de dollars. Le site se targue de pister plus de 14 000 serveurs et d’avoir en stock pas moins de 3 milliards de messages, de plus de 600 millions de comptes, mais difficile de vérifier ces chiffres.

Finalement, Discord n’est pas aussi privé qu’on pourrait le croire puisque les messages postés publiquement sur les serveurs sont à la merci du premier scraper venu. Heureusement, tout n’est pas perdu. Pour limiter les dégâts, voici quelques conseils :

  • Ouvrez l’œil sur les bots qui essaient de rejoindre vos serveurs. C’est souvent comme ça que les scrapers s’infiltrent mine de rien. Méfiez-vous des nouveaux venus sans photo de profil ni historique.
  • Pensez à passer vos serveurs en mode privé et à renforcer les paramètres de vérification pour tenir les indésirables à distance.
  • Si vous êtes admin, virez sans pitié les comptes louches qui traînent dans le coin.

Et surtout, partez du principe que tout ce que vous postez publiquement sur Discord peut potentiellement être vu par n’importe qui. Ça vaut pour tous les services en ligne d’ailleurs.

Bref, restez vigilants, sécurisez vos serveurs et réfléchissez avant de poster des trucs trop perso sur Discord ! Et si vous tenez vraiment à ce que vos échanges restent privés, passez plutôt par des apps de messagerie sécurisées de bout en bout, genre Signal ou Telegram. Ça évitera les mauvaises surprises !

Source

Sonic 2 Master System portée sur TI-84+ CE !

Par : Korben

Le portage de Sonic 2 version 8 bits débarque enfin sur la calculatrice graphique TI-84+ CE ! Ouais, je sais, c’est pas vraiment le support sur lequel on s’attendait à retrouver notre hérisson bleu préféré, mais bon, pourquoi pas après tout ?

C’est possible grâce au génialissime Grubby Coder qui s’est dit que la Ti-84+ CE, ce serait cool puisque cette vaillante machine embarque un processeur Zilog eZ80 cadencée à 48 Mhz. Hé, ça vous rappelle pas un truc ça ? Et ouais, c’est une vieille connaissance, le fameux Zilog Z80 puisqu’il équipait la Master System ! Enfin presque, le Z80 était en 16 bits, pas 8. Y’a pas de hasard…

Mais attention, hein, c’était pas gagné pour autant parce qu’il y a quand même quelques différences entre la 16 bits de Sega et la Texas Instrument. Déjà, y’a pas de processeur graphique et la mémoire est un poil limitée mais cela n’a pas découragé notre codeur de choc pour autant.

Le plus gros du taf a été surtout de ré-implémenter les fonctions graphiques de la Master System sur la TI parce c’est bien gentil d’avoir un eZ80, mais si derrière la config suit pas… Alors Grubby s’est retroussé les manches et il a codé, codé et encore codé un quasi portage pur et dur des routines graphiques pour coller au plus près du hardware d’origine.

Et puis y’a eu les autres petits défis rigolos comme adapter la palette de 16 couleurs pour les 256 de la TI, gérer les contrôles, la ROM qui dépasse la taille limite des programmes pour TI, toussa toussa… Alors bien sûr, quand on lance le jeu, ça rame un peu mais c’est surtout pour tour de force technique que pour se refaire le jeu.

M’enfin, l’important c’est de se dire que les lycéens vont enfin pouvoir se faire une petite partie de Sonic 2 en plein cours de maths. Ça a quand même plus de gueule que de tracer des fichues courbes sur la calculette, n’en déplaise à Gabriel Attal.

Sur ce, je vous laisse, j’ai un Robotnik à dégommer moi !

Source

Short Stack – la Nintendo Wii miniaturisée à l’extrême

Par : Korben

Ça y est les amis, on a atteint le summum du bidouillage et de la miniaturisation avec le Short Stack, un mod complètement dingue de la Nintendo Wii qui arrive à faire tenir toute la puissance de la console dans un boîtier de la taille d’un paquet de cartes ! C’est juste ahurissant quand on y pense.

Alors bien sûr, la Wii c’est pas la console la plus grosse à la base, mais quand même, passer de 157 x 60 x 197mm à un truc aussi compact, faut reconnaître que c’est quand même sacrément impressionnant. Et le plus fou dans tout ça, c’est que le moddeur n’a pas triché en passant par de l’émulation. Non non, le Short Stack embarque une vraie carte mère de Wii, juste super bien taillée et optimisée !

James Smith, le génie derrière ce projet de titan, a réussi à faire rentrer dans son petit boîtier imprimé en 3D la carte mère réduite de la Wii, un tas de cartes électroniques custom empilées les unes sur les autres (d’où le nom du mod) pour gérer le Bluetooth, l’USB, les ports manettes GameCube, et même un dissipateur thermique sur mesure. Niveau intégration, on est donc sur du très très haut niveau.

Bon par contre, évidemment, pas de lecteur de disque là-dedans, faut pas déconner. Mais ça n’empêche pas d’avoir quand même un petit slice factice qui s’illumine en façade pour faire genre. Les jeux et les sauvegardes sont stockés sur une carte microSD à la place. Et pour faire encore plus pro, le Short Stack se branche en HDMI et s’alimente en USB-C. De quoi faire un joli petit media center rétrogaming, fin et discret.

Alors certes, c’est pas le premier mod de Wii ultra compact, on avait déjà vu passer la KillMii qui tenait dans une boîte d’Altoids. Mais celle-là intégrait un écran, des contrôleurs et une batterie qui tenait… 10 minutes. Pas top pour les sessions de Mario Kart endiablées. Le Short Stack a au moins le mérite d’être vraiment utilisable au quotidien sans trop de compromis. Après, difficile de dire s’il s’agit vraiment de la « plus petite Wii du monde » comme l’affirme Smith, mais une chose est sûre, c’est probablement la plus compacte que vous aurez vraiment envie d’utiliser !

D’ailleurs si ce projet de fou vous tente, sachez que Smith a publié tous les détails, les fichiers de conception et les instructions sur GitHub. Vous y trouverez quelques infos sur la réalisation, même si on ne peut pas dire que ce soit un tutoriel complet non plus. Et attention, c’est clairement pas un mod pour débutants ! Il vous faudra de sacrées compétences en électronique, pas mal de matos spécifique et une bonne dose de patience pour arriver à un résultat similaire.

Enfin bref, je dis chapeau bas Monsieur Smith pour ce boulot de malade mental. On en redemande des comme ça ! Parce que soyons honnêtes, ça sert pas à grand chose mais qu’est-ce que c’est classe !

Source

Mikerosoft – Oups la boulette chez Microsoft

Par : Korben

Imaginez le bazar si quelqu’un ajoutait par erreur tous les Jean-Michel de votre entreprise dans une conversation de groupe ! C’est un peu ce qui est arrivé chez Microsoft cette semaine. De nombreux employés prénommés Mike ou Michael ont eu la surprise de se retrouver sans le vouloir dans une boucle d’échanges par mail.

Michael Schechter, le VP de Bing, raconte s’être réveillé avec une quantité inhabituelle d’emails non lus. Sur le coup, il a cru à un gros plantage en prod pendant la nuit, mais non, en fait c’est juste une personne qui s’est amusée à créer un groupe avec beaucoup de gens qui s’appellent Mike ou Michael chez Microsoft. Et pas de bol pour eux, ils sont nombreux !

Face à cette situation ubuesque, Michael a eu le réflexe de demander à Copilot (l’assistant d’IA de krosoft) de résumer le fil de discussion et croyez-moi, ça vaut son pesant de cacahuètes ! D’après Copilot, les participants ont commencé par demander des explications sur le but de ce groupe, tout en notant avec amusement qu’ils avaient le même prénom. Évidemment, ça n’a pas manqué de partir en vrille et chacun y est allé de sa petite blague, de jeux de mots rigolos comme renommer le groupe en « Mikerosoft« . Certains se sont même demandé avec humour si ce n’était pas un piège pour les virer !

Le plus drôle dans l’histoire, c’est que malgré les nombreux messages, personne n’a compris qui avait créé ce groupe ni pourquoi. Un beau mystère ! En attendant, les participants en ont profité pour faire connaissance. Si ça se trouve, il y en a même qui en ont profité pour corriger des bugs… roooh.

Ça rappelle quand même qu’il faut toujours faire attention avec les emails de groupe ou les mises en copie. Une erreur est vite arrivée et on a vite fait d’envoyer des conneries et de les regretter après ! Une histoire similaire a d’ailleurs eu lieu dans les années 90 selon Eric Lippert. Un type voulait contacter « Mike de Microsoft » qu’il avait rencontré à une conf sauf qu’il a réussi à chopper les adresses des 600 Mike de la boîte. La presse avait titré à l’époque « Heureusement qu’ils ne cherchaient pas Bill » !

L’histoire ne dit pas s’il vont s’organiser un barbecue ou séminaire entre Mike, mais je troue que « Mikerosoft », ça sonne quand même mieux que Microsoft, non ?

Source

Mateusz Jurczyk – L’expert en sécurité qui a exploré la base de registre Windows pour y trouver des failles

Par : Korben

Mateusz Jurczyk, un nom qui ne vous dit peut-être rien, mais retenez-le bien, car le bonhomme est fort. Ce chercheur en sécurité bien intentionné bosse pour Google Project Zero, une équipe de choc qui traque les failles dans tous les recoins depuis des années déjà. Et pendant quasi 2 ans, de mai 2022 à décembre 2023, il s’est lancé le défi d’ausculter un des organes les plus vitaux de Windows : sa base de registre.

Pour ceux qui débarquent, le registre, c’est un peu le cerveau de Windows. Une méga base de données qui stocke tous les réglages, options et préférences du système et des applis, organisés de manière hiérarchique avec des clés, des sous-clés et des valeurs. Bref, un truc super sensible et stratégique. Si un pirate arrive à mettre ses mains là dedans, bonjour les dégâts !

Mais notre Mateusz, c’est pas le genre à se dégonfler. Armé de ses outils et de ses connaissances en reverse engineering, il a plongé dans les millions de lignes de code de ce monolithe vieux de 30 ans et croyez-moi, il a frappé fort : pas moins de 50 failles critiques déterrées, dont 39 qui permettent une élévation de privilèges ! En gros, la totale pour passer de simple clampin à admin suprême sur une machine.

La force de son taf, c’est d’avoir exploré des endroits de la base de registres que personne n’avait vu avant. Des trucs bien planqués comme la récupération des transactions avortées, le chargement de ruches extraites ou les bails de virtualisation du registre (une fonctionnalité qui permet aux vieilles applis de tourner sans broncher sur les Windows récents). Bref, un vrai boulot de fourmi avec une grosse dose de persévérance.

Et le plus flippant, c’est que la moitié de ces failles seraient plutôt faciles à exploiter notamment via des techniques de corruption de mémoire ou de cassage des garanties de sécurité comme les ACL (les listes qui contrôlent qui a le droit de faire quoi dans le registre). Pour vous donner une idée, Mateusz a même créé des exploits de démo pour deux vulnérabilités, montrant comment détourner le registre à son avantage.

Heureusement, c’est un White Hat avec un grand cœur et toutes ses trouvailles ont été balancées en temps et en heure à Microsoft via le programme de divulgation responsable de Project Zero. Les ingés de Redmond ont évidemment remédié au boxon en patchant, avec des délais moyens de correction de 80 jours. Vous pouvez donc souffler !

Mais l’histoire est loin d’être finie. Il a tellement kiffé son voyage dans les méandres du registre, qu’il prévoit d’en faire une série de posts de blog pour partager son savoir. Au menu, des analyses bien poussées des bugs, des techniques d’exploit et plein de tips pour mieux protéger nos bécanes, comme :

  • Toujours avoir une sauvegarde du registre avant d’installer un nouveau soft : regedit.exe /e sauvegarde.reg
  • Scanner régulièrement le registre avec des outils comme CCleaner Registry Cleaner, Wise Registry Cleaner ou Glarysoft Registry Repair.
  • Se méfier des applis louches qui veulent mettre leur nez dans le registre et les virer en cas de doute.
  • Garder son Windows et ses drivers à jour pour bénéficier des derniers patchs de sécurité.
  • Utiliser les outils de monitoring comme l’Observateur d’événements ou les Performances Windows pour garder un œil sur l’activité du registre.

J’ai hâte de dévorer tout ça !

Source + Source

PyTorch dévoile Torchtune pour fine-tuner les LLM

Par : Korben

PyTorch, le framework chouchou des bidouilleurs d’IA, vient de nous pondre un petit truc cool : Torchtune ! 💎 Cette nouvelle bibliothèque native, encore en phase alpha mais déjà disponible en open-source sur GitHub, va vous permettre de fine-tuner les gros modèles de langage (LLM) comme un pro, sans vous prendre la tête.

Torchtune est donc une boîte à outils hyper flexible et modulaire qui va vous permettre de vous éclater à customiser des modèles pour vos propres besoins, le tout avec des recettes mémoire efficaces qui tournent même sur une bête carte graphique de gamer, comme les NVidia 3090/4090.

Son secret ?

Une architecture bien pensée qui mise sur l’interopérabilité avec l’écosystème des LLM, qu’ils soient open-source ou non. Concrètement, ça veut dire que vous allez pouvoir brancher Torchtune à tout un tas d’outils et de frameworks que vous adorez déjà, comme Hugging Face 🤗, PyTorch FSDP 🪢, Weights & Biases 📈, et plein d’autres.

Grâce à des recettes simples et bien documentées pour les modèles populaires comme Llama 3, Mistral ou Gemma 7B, même les débutants vont pouvoir se lancer dans l’aventure sans flipper. Bon OK, il faudra quand même un peu de bagage en PyTorch et en LLM, mais rien d’insurmontable ! Et si vous êtes un pro, vous allez pouvoir hacker le code à volonté pour l’adapter à vos besoins spécifiques.

Alors comment on met les mains dans le cambouis avec Torchtune ?

Rien de plus simple, mon cher Watson ! Il vous suffit d’installer la dernière version stable de PyTorch (2.2.2 au moment où j’écris ces lignes), puis de télécharger Torchtune depuis PyPI avec un petit

pip install torchtune

Et voilà, vous êtes prêt à en découdre avec les LLM !

Pour vous faire les dents, je vous conseille de jeter un œil au tutoriel sur le fine-tuning de Llama2 7B. C’est le parfait point de départ pour comprendre comment Torchtune fonctionne et comment l’utiliser pour vos propres projets.

En gros, ça se passe en 4 étapes :

  1. Téléchargez le modèle pré-entraîné et le tokenizer depuis Hugging Face Hub avec tune download.
  2. Choisissez une recette de fine-tuning (LoRA, QLoRA, full…) et customisez-la avec un fichier de config en YAML.
  3. Lancez l’entraînement avec tune run en précisant votre recette et votre config. Vous pouvez même faire du multi-GPU avec torchrun !
  4. Admirez le résultat et testez votre modèle fine-tuné avec une inférence locale. Si tout se passe bien, exportez-le avec ExecuTorch pour le déployer en prod, ou utilisez les API de quantification de Torchao pour l’exporter en int4 ou int8 et l’utiliser sur mobile ou en edge.

Facile, non ? 😄

Bon OK, j’avoue, j’ai un peu simplifié. En vrai, il y a pas mal de subtilités et de paramètres à régler pour obtenir les meilleurs résultats, comme le learning rate, le nombre d’époques, la taille du batch, le ratio de LoRA, et tout un tas d’autres trucs, mais c’est justement sa flexibilité qui vous permet d’expérimenter à l’infini pour trouver la combinaison parfaite.

Bref, si vous êtes dev et que vous aimez jouer avec les LLM c’est à tester.

Source

Explorez les secrets des dépôts Git avec Grep.app

Par : Korben

Vous êtes-vous déjà demandé ce qui se cache dans les profondeurs obscures des dépôts Git publics ? Eh bien, figurez-vous qu’il y a un outil en ligne qui permet de dénicher des trucs de dingue ! Ça s’appelle Grep.app et c’est un moteur de recherche qui va vous faire halluciner.

Concrètement, vous balancez votre recherche dans la barre et hop, ça vous sort tous les résultats où votre mot-clé apparaît dans les repos Git publics. Genre, vous tapez une adresse email et vous tombez sur tous les endroits où elle est mentionnée. Mais attention, hein… Y a pas que des trucs anodins qui traînent dans ces dépôts. Si vous cherchez un peu, vous pouvez même tomber sur des clés d’API AWS ou Google !

Bon, après faut pas déconner non plus. Si vous tombez sur des clés dans un dépôt public, considérez-les comme grillées direct. Même si le dépôt est supprimé par la suite, y a plein de petits malins qui font ce genre de recherches régulièrement. Donc méfiance !

Cela dit, Github a quand même mis en place un système d’alerte pour les clés, mots de passe, etc qui se retrouvent dans le code. Du coup, y a des chances que la plupart soient invalidées assez vite, soit par le développeur qui change sa clé, soit direct par le fournisseur. Mais on n’est jamais trop prudent…

En parlant de Github, ils ont aussi leur propre outil de recherche de code qui est plutôt balèze. Ça s’appelle Github Code Search. Ça indexe environ 45 millions de dépôts, ce qui est déjà pas mal !

En gros, ils utilisent un moteur de recherche maison qui indexe le contenu avec une technique appelée « sparse ngrams ». D’après eux, ça permet d’exécuter les recherches plus rapidement, tout en étant un index plus petit. Si vous voulez en savoir plus sur la technologie derrière, ils ont publié un article de blog super intéressant.

Maintenant, est-ce que Grep.app est à la hauteur face à Github Code Search ? Difficile à dire… Une chose est sûre, c’est que Grep.app a l’air de se concentrer uniquement sur le code en lui-même. Donc si vous cherchez des chaînes de texte dans de la prose qui se retrouve dans des recherches de code, vous risquez de passer à côté avec Grep.app. Genre pour chercher dans des fichiers texte ou Markdown.

Et ça, c’est un peu dommage. Parce que des fois, on a besoin de chercher du code avec plein de caractères spéciaux vicieux. Et là, la recherche de code actuelle de Github nous laisse tomber. Mais bon, on peut pas tout avoir non plus… En attendant, Grep.app reste quand même un outil bien pratique pour dénicher des infos cachées dans les entrailles de Git. Et puis c’est gratuit et open-source en plus !

Llama 3 – l’IA open source de Meta qui rivalise avec les meilleurs modèles

Par : Korben

Accrochez-vous à vos claviers, car Meta vient de lâcher dans la nature une nouvelle créature nommée Llama 3. Oui, vous avez bien compris, je parle de la dernière génération de modèles de langage « open source » (ou presque, on y reviendra) de la société de Mark Zuckerberg.

Si vous pensiez que ChatGPT, Claude ou Mistral étaient les rois de la savane, attendez de voir débarquer ces nouveaux lamas survitaminés ! Avec des versions allant de 8 à 400 milliards de paramètres (pour les non-initiés, disons que c’est l’équivalent de leur QI 🧠), les Llama 3 atomisent littéralement la concurrence sur de nombreux benchmarks standards, que ce soit en termes de connaissances générales, de compréhension, de maths, de raisonnement ou de génération de code.

Mais qu’est-ce qui fait de Llama 3 un tel monstre par rapport à son petit frère Llama 2 ? Déjà, un entraînement de folie à base de 15 000 milliards de tokens (7 fois plus que Llama 2 !) pompé depuis le web (!!), avec beaucoup plus de code et de données non-anglaises pour préparer le terrain à une IA multilingue. Ajoutez à ça des techniques de parallélisation à gogo pendant la phase de pré-entraînement, et vous obtenez des lamas dopés qui apprennent à une vitesse supersonique.

Et ce n’est pas tout ! Les Llama 3 ont suivi un programme d’éducation complet, avec du fine-tuning à base de rejection sampling, de PPO et de DPO (si vous ne connaissez pas ces acronymes, ne vous inquiétez pas, moi non plus 😅). Résultat : des modèles ultra-fiables qui refusent rarement une tâche, font preuve d’un alignement exemplaire et sont capables de suivre des instructions complexes sans sourciller. Bref, ce sont des cracks en raisonnement et en génération de code !

Mais au fait, comment on met la main sur ces petites bêtes ? Facile, il suffit de se rendre sur le site de Meta AI et de les télécharger ! Enfin, quand je dis facile… Les Llama 3 sont bien « open source », mais sous une licence maison qui impose quelques restrictions, notamment pour les entreprises de plus de 700 millions d’utilisateurs mensuels (suivez mon regard vers Mountain View et Redmond 👀). Mais bon, rien ne vous empêche de vous amuser avec si vous n’êtes pas une multinationale !

Et en parlant de s’amuser, sachez que Meta a aussi concocté un chatbot maison (pas encore dispo en France) baptisé sobrement « Meta AI« , disponible sur le web (www.meta.ai) et directement intégré dans les barres de recherche de Facebook, Instagram, WhatsApp et Messenger. Sous le capot, c’est bien sûr du pur Llama 3, avec en prime un modèle de génération d’images nommé « Meta Imagine« .

Au programme, de la discussion, de la recherche web via Bing et Google, et bien sûr de la création d’images en un clin d’œil. Seul hic, pas encore de mode multi-modal façon ChatGPT pour uploader vos propres documents ou images, mais ça ne saurait tarder !

Alors, que penser de ce nouveau coup d’éclat de Meta dans la bataille des IA ?

Personnellement, je trouve ça plutôt chouette de voir un poids lourd du Net jouer le jeu de l’open source (ou approchant) et mettre à disposition de tous des modèles de cette qualité. Bien sûr, on peut toujours discuter des arrière-pensées de Zuck et sa volonté de garder un œil sur ce qu’on fabrique avec ses lamas. Mais au final, c’est toujours ça de pris sur les GAFAM et leurs vilains modèles propriétaires !

Allez, je vous laisse, j’ai un lama à aller dompter moi ! 🦙

Et n’oubliez pas, comme le dirait l’autre, « le monde appartient à ceux qui codent tôt ». Ou tard, c’est selon.

Source

Comment configurer un VPN sur Apple TV ?

Par : Korben

— Article en partenariat avec Surfshark VPN

Vous le savez déjà parce que je vous le répète depuis des années, mais dans notre ère numérique, protéger sa vie privée en ligne et améliorer son expérience de streaming sont essentiels. Et aujourd’hui on va voir ensemble et en détail comment le faire sur une Apple TV.

En intégrant un réseau privé virtuel (VPN) sur votre smart TV, vous débloquez tout un monde de possibilités tout en assurant un accès sécurisé et illimité au contenu. Dans cet article, je vais creuser un peu les tenants et aboutissants de la configuration d’un VPN sur l’appareil de la pomme, en mettant en lumière ses fonctionnalités, ses avantages, et les meilleures options adaptées pour une intégration transparente. Et si vous n’avez pas de TV Apple ? J’ai déjà publié un article pour Surfshark VPN et n’importe quelle smart TV.

Comprendre les VPNs et Apple TV

Qu’est-ce qu’un VPN et comment ça marche ?

En 2024 je pense que tout le monde (au moins sur mon site) sait ce qu’est un VPN, mais dans le cas contraire je vais juste rappeler qu’il s’agit d’un outil qui permet d’établir une connexion sécurisée et chiffrée entre votre appareil et internet. En faisant transiter votre trafic internet par des serveurs distants, un VPN masque votre adresse IP et chiffre vos données, garantissant ainsi anonymat et confidentialité en ligne. Ce chiffrage assure que vos activités en ligne, que ce soit le streaming, la navigation ou le gaming, restent privées et sécurisées loin des regards indiscrets. Et cela même pour votre fournisseur d’accès (grâce au mode camouflage de Surfshark).

Les fonctionnalités de l’Apple TV

Une Apple TV disposant du tvOS, c’est un peu la machine de streaming révolutionnaire par excellence. Elle proposent une multitude d’options de divertissement, avec non seulement des services de streaming, mais aussi (depuis peu) des applications et des jeux. Par contre si l’Apple TV offre un accès fluide au contenu numérique il faut reconnaitre que sa connectivité internet native manque des fonctionnalités de sécurité robustes, mais aussi du déblocage géographique qu’un VPN peut offrir. En intégrant un VPN avec votre Apple TV, vous améliorez votre expérience de streaming, accédez au contenu géorestreint, et protégez votre vie privée en ligne simultanément. Que demande le peuple ?

Bref la trousse à outils par excellence, d’ailleurs je vous ai déjà détaillé tout cela. Mais pour résumer voilà les avantages d’utiliser un VPN avec Apple TV

  • confidentialité améliorée : protégez vos activités en ligne des regards indiscrets et des potentielles violations de données en chiffrant votre trafic internet.
  • Déblocage géographique : accédez au contenu restreint par région et contournez les restrictions de censure facilement, ce qui vous permet en plus de profiter d’une gamme plus large d’options de streaming (catalogues d’autres pays … par exemple le catalogue Netflix).
  • Sécurité renforcée : protégez vos informations sensibles des hackers et des menaces en ligne en chiffrant vos données et en masquant votre adresse IP.
  • Streaming optimisé : surmontez la limitation de vitesse imposée par votre fournisseur d’accès internet et profitez d’un streaming sans tampon de vos contenus préférés, garantissant une expérience de visionnage aux petits oignons

La possibilité de combiner les 2 est encore toute chaude donc toutes les fonctionnalités classiques du VPN ne sont pas encore intégrées : c’est le cas par exemple de la fonction Cleanweb (ça aussi je vous en ai déjà parlé), du MultiHop dynamique ou encore de l’IP fixe. Ces options devraient apparaitre dans un futur plus ou moins proche, en tous cas on peut l’espérer. Et je vous en reparlerai si c’est le cas.

Avez-vous besoin d’un VPN pour votre Apple TV ?

Si vous vous demandez s’il est obligatoire d’utiliser un VPN … la réponse est non. Je ne vous regarderai pas avec moins de bienveillance (encore que …). Mais si ce n’est pas une nécessité absolue pour utiliser Apple TV, il offre quand même de sacrés avantages qui améliorent votre expérience de streaming. Surtout si vous accordez de l’importance à la confidentialité, à la sécurité, ou à l’accès à une gamme plus large de contenu. Et encore plus si vous n’êtes pas trop égoïste et que vous pensez à protéger le reste de votre famille.

Parce que je vous rappelle quand même sur Surfshark VPN supporte un nombre de connexions … illimitées et simultanées. Ce qui reste un des gros points forts de l’outil VPN du requin.

Comment configurer un VPN ?

Voilà le moment que vous attendiez tous, mettre les mains dans le cambouis ! Configurer un VPN sur votre Apple TV peut se faire de plusieurs moyens, chacun adapté à votre configuration matérielle. On va creuser le processus étape par étape, et comme vous allez le voir il n’y a vraiment rien de bien compliqué.

Si vous disposez d’une Apple TV HD ou un modèle 4K (pour les 3 premières générations, voir plus bas) : vous allez commencer par installer l’appli Surfshark sur votre appareil depuis l’App Store (Captain Obvious est parmi nous). Pour ouvrir l’appli, vous pouvez utiliser votre adresse mail habituelle ou directement votre compte Apple. Et pour la version mobile, il suffit de scanner le QR Code qui apparaitra sur l’écran. Jusque là même Mme Michu est encore dans le game.

Ensuite ? Rien, c’est fini. Ce n’est pas une démarche digne de la NASA, c’est ultra simple comme sur n’importe quel autre appareil et c’est fait exprès. Vous allez simplement vous connecter à des serveurs en choisissant un pays en fonction du catalogue de votre plateforme de streaming, du pays le plus proche, etc.

Éventuellement si vous avez des soucis de connexions, il faudra passer par les paramètres de votre Apple TV (Paramètres > Réseau > Détails de connexion > Supprimer VPN) et retenter la connexion. Et si vraiment vous avez du mal et que vous préférez voir de vos yeux comment ça marche, l’équipe a mis en place une vidéo YouTube dans laquelle on apprend que le protocole par défaut est Wireguard (bon choix).

Et si, comme je le mentionnais plus haut, vous disposez d’une télévision Apple des 3 premières générations ? Pas de panique. Elles ne supportent pas l’installation d’applis, mais il est toujours possible de passer par la fonction Smart DNS ou passer par un routeur.

Configurer un VPN sur votre routeur

  1. Accédez à la page des paramètres de votre routeur et localisez la section VPN.
  2. Entrez les identifiants VPN fournis par votre fournisseur de VPN.
  3. Enregistrez les paramètres et redémarrez votre routeur pour appliquer les modifications.
  4. Connectez votre Apple TV au réseau de routeur activé par VPN.

Configurer un routeur virtuel avec un VPN

  1. Installez un client VPN sur votre ordinateur portable ou de bureau.
  2. Configurez un routeur virtuel en utilisant les paramètres intégrés de votre appareil.
  3. Connectez le routeur virtuel à votre serveur VPN.
  4. Connectez votre Apple TV au réseau du routeur virtuel.

Configurer Smart DNS sur votre Apple TV

  1. Accédez au menu Paramètres sur votre Apple TV.
  2. Sélectionnez « Réseau » puis choisissez votre réseau Wi-Fi.
  3. Entrez les adresses DNS fournies par votre fournisseur de VPN.
  4. Enregistrez les paramètres et redémarrez votre Apple TV pour appliquer les modifications.

Comment choisir le meilleur VPN ?

Lors du choix d’un VPN pour Apple TV, prenez en compte les facteurs suivants :

  • Compatibilité : assurez-vous de la compatibilité avec les appareils Apple TV pour une intégration sans faille.
  • Vitesse et performance : optez pour un VPN avec des serveurs rapides et une latence minimale pour améliorer votre expérience de streaming. De ce côté Surfshark a frappé fort en passant la majorité de son parc de serveurs de 1Gb/s à 10 Gb/s ces derniers mois.
  • Couverture serveur : choisissez un fournisseur de VPN avec un vaste réseau de serveurs pour des capacités de déblocage géographique optimales. Ce qui vous permettra d’accéder au contenu du monde entier, mais aussi d’avoir un temps de réponse plus rapide. Surfshark c’est 3200+ serveurs dans 100+ pays.
  • Fonctionnalités de sécurité : les protocoles de chiffrement doivent être solides et reconnus (AES 256, ChaCha20, Wireguard, OpenDNS …), bouton kill switch, split tunneling, protection contre les fuites DNS sont des incontournables aujourd’hui.

Même si la plupart des fournisseurs de VPN offrent un support pour divers appareils, y compris Apple TV, c’est toujours mieux d’aller vérifier précisément si c’est vraiment le cas. Recherchez un VPN qui mentionne explicitement la compatibilité avec les appareils Apple cela vous garantira que vous n’allez pas vous retrouver dans la mouise à devoir bidouiller des solutions annexes ou demander un remboursement. Juste histoire de ne pas avoir de mauvaise surprise, on se prend déjà assez la tête ailleurs. Même si la plupart des outils proposent un remboursement sous 30 jours, vous savez comment ça se passe hein … y’a jamais de soucis pour que l’argent arrive chez eux, par contre pour le retour c’est pas toujours aussi simple. Au moins Surfshark est clair de ce côté, son outil est adapté.

Les meilleurs VPNs pour Apple TV

Alors, comme vous le savez je suis un utilisateur comblé avec Surfshark depuis plusieurs années, qui me convient très bien au quotidien avec très peu de lenteurs, etc. Mais on ne va pas se mettre des oeillères non plus et d’autres VPN font plutôt bien le taf de ce que j’en sais (mais eux sans avoir testé de manière concrète). Un petit tour rapide de quelques outils que je connais en mode bullet points (à prononcer en bon français, boulettes pwoiiiin) :

Surfshark VPN

  • Avantages : connexions simultanées illimitées, fonctionnalités de sécurité robustes, et serveurs optimisés pour le streaming.
  • Compatibilité : compatible avec les appareils Apple TV, intégration transparente, capacités de streaming améliorées, bibliothèques de contenu du monde entier …

NordVPN

  • Avantages : vaste réseau de serveurs, serveurs dédiés au streaming, et protocoles de sécurité de premier ordre.
  • Compatibilité : compatible avec les appareils Apple TV, accès illimité aux bibliothèques de contenu du monde entier.

ExpressVPN

  • Avantages : serveurs ultra-rapides, interface conviviale, et excellent support client.
  • Compatibilité : compatible avec les appareils Apple TV, streaming optimisé et des fonctionnalités de sécurité améliorées.

Et du côté des VPN gratuits ?

Vous connaissez déjà mon avis sur le sujet, oui il existe des bouses options de VPN gratuites. Le souci c’est qu’elles présentent souvent des limitations comme des quotas de données, des vitesses plus lentes, moins de serveurs et c’est blindé de pubs. Et, comme si ça ne suffisait pas, il n’y a pas non plus de niveau de sécurité minimal si vous faites attention à vos données. De plus il y a de très fortes chances que la plupart d’entre eux revendent vos données à divers organismes (il faut bien manger ma bonne dame). Si vous avez déjà essayé d’utiliser un VPN gratuit … vous savez que ça fait aussi mal que de marcher sur des tessons de bouteilles. 

Pour des performances et une sécurité optimales, investir dans un service VPN payant réputé n’est pas un luxe. Performances fiables et stables, des fonctionnalités de sécurité robustes … rien de mieux pour diminuer sa dose de stress.

Surtout au prix actuel qui reste vraiment abordable depuis plusieurs années. On parle de moins de 2.75€/mois TTC avec l’abonnement 2 ans et 2 mois. C’est vraiment pas cher si vous avez 4 ou 5 machines à protéger ou que vous avez de la famille. Et du côté du paiement, Surfshark est plutôt flexible, vous pouvez payer d’un tas de manières différentes : PayPal, carte bancaire ou de débit, Google ou Amazon Pay, et même en cryptomonnaies (l’occasion d’enfin faire quelque chose de vos Ripple ou Cardano … haha). Toujours avec la garantie de 30 jours satisfait ou remboursé.

Je n’en ai pas parlé aujourd’hui parce que c’est déjà pas mal long, mais vous pouvez aussi ajouter diverses options à votre VPN si vous voulez une protection plus complète. Surfshark One (avec son antivirus, son système d’alerte, etc.) ou la version Plus (qui intègre le service Incogni) sont aussi à votre disposition pour quelques euros de plus.

Découvrir le VPN de Surfshark !

Microsoft va inciter les utilisateurs de Windows 10 à passer sur un compte Microsoft

Par : Korben

Bad news, la firme de Redmond vient tout juste de lancer une nouvelle mise à jour pour les Insiders sous Windows 10, la build 19045.4353 qui à première vue n’a rien de bien folichon… Mais si on y regarde de plus près, y’a quand même un truc qui risque de vous faire tiquer : Une bannière dans les Paramètres pour vous pousser à abandonner votre bon vieux compte local et passer à un compte Microsoft.

On se demande bien pourquoi Microsoft tient tant à ce qu’on ait tous un compte chez eux sur nos machines. Bon ok, je suppose que c’est lié à toutes leurs fonctionnalités en ligne, genre la synchro des paramètres, les sauvegardes dans le cloud, la gestion simplifiée des abonnements, tout ça mais bon, ça devient un peu pushy je trouve. On dirait presque une incitation à passer sous Linux ^^.

Cette guéguerre de Microsoft contre les comptes locaux sous Windows, ça gave tout le monde, même Elon Musk qui a pété un câble en découvrant qu’il pouvait pas installer Windows 11 sans compte Microsoft. La chance qu’on a sous Windows 10, c’est qu’on peut encore contourner ce forcing sans trop se prendre la tête lors de l’installation initiale mais sous Windows 11 par contre, c’est une autre paire de manches… Impossible d’utiliser un profil local, sauf si vous connaissez l’astuce à base de oobe\bypassnro.

Pour l’instant, ce changement se déploie progressivement, donc vous n’aurez peut-être pas tous droit à ce joli cadeau. Mais si vous voulez voir cette bannière par vous-même, pas de souci… il vous suffit de télécharger l’outil ViVeTool, ouvrez une invite de commande en mode administrateur, et hop, un petit

vivetool /enable /id:42563876

et le tour est joué. (et c’est /disable pour le désactiver)

Par contre, une fois que ce sera en place, pour mettre hors de vue ces satanées bannières, faudra aller dans Paramètres > Confidentialité > Général et décocher l’option « Afficher le contenu suggéré dans l’application Paramètres« . Ou alors, un bon vieux clic sur la croix à côté du bouton « Se connecter maintenant« , et basta.

Alors on migre ou pas ?

D’un côté, ça facilite pas mal de trucs d’avoir un compte Microsoft, surtout avec tous leurs machins à base d’IA qui vont arriver, mais de l’autre, j’aime bien garder un minimum de contrôle sur mes données et ma vie privée. Certains d’entre vous préfèrent d’ailleurs surement garder leurs infos perso pour eux, et ne pas se créer de compte Microsoft ce qui est bien légitime comme préoccupation.

J’ai juste peur qu’à un moment, cette incitation risque à un moment de se transformer en obligation… On verra bien.

Source

TikTok Lite – l’UE exige des réponses sur la version rémunérée

Par : Korben

Aïe aïe aïe, on dirait bien que ce cher TikTok s’est encore fourré dans un sacré pétrin ! Figurez-vous que ces petits malins ont eu la riche idée de lancer en douce une nouvelle fonctionnalité dans leur app, sobrement intitulée « Task & Rewards« , dispo en France et en Espagne. Jusque-là, rien de bien méchant, me direz-vous sauf que voilà, cette version soi-disant « light » du réseau social cache en fait un système de récompenses qui paye les utilisateurs en échange de leur fidélité. Et ça, ça ne plaît pas du tout à l’Union Européenne !

En effet, la Commission Européenne vient de sortir l’artillerie lourde en exigeant des réponses de la part de TikTok dans un délai de 24 heures. Pourquoi tant de précipitation ? Eh bien figurez-vous que cette nouvelle fonctionnalité « Task & Rewards » qui rémunère les utilisateurs de plus de 18 ans à coup de bons d’achat ou de « coins » virtuels en échange de leur attention, inquiète.

Toute d’abord, on peut légitimement se poser la question de l’impact d’un tel système sur la santé mentale des utilisateurs, et en particulier des plus jeunes. Parce que bon, encourager les gens à scroller comme des zombies pour gratter trois cacahuètes, c’est quand même un peu limite… Surtout quand on sait à quel point les réseaux sociaux peuvent générer des comportements addictifs. La Commission s’inquiète notamment de l’efficacité de la vérification de l’âge des utilisateurs et de la gestion des plaintes par la plateforme.

Ensuite, il y a la question épineuse de la protection des données personnelles parce que pour distribuer ses récompenses, TikTok va forcément récolter encore plus d’infos sur nos habitudes, nos goûts, nos clics… Bref, de quoi remplir gentiment sa base de données, nourrir son algorithme et cibler toujours plus finement les utilisateurs.

Et là, l’UE ne rigole pas, elle veut des réponses, et vite !!!

TikTok a donc 24 heures chrono pour fournir son évaluation des risques liés à ce nouveau programme et s’il s’avère que la boîte chinoise a encore une fois voulu capturer toutes nos données sans prendre les précautions qui s’imposent, ça risque de chauffer pour son matricule ! La Commission a des pouvoirs qui pourraient potentiellement forcer TikTok à revoir entièrement, voire stopper son modèle économique si des impacts toxiques son relevés.

Bien sûr, TikTok assure qu’il a pris toutes les dispositions nécessaires, genre limiter l’accès à la fonctionnalité « Task & Rewards » aux plus de 18 ans, plafonner les récompenses à environ 1€ par jour et limiter le temps passé quotidiennement sur l’app, pour gratter des points, à seulement une heure. Mais bon, on ne va pas se mentir, ça ressemble quand même furieusement à une stratégie pour garder les gens le plus longtemps possible sur la plateforme. Comme d’hab quoi.

Les associations de consommateurs en Europe avaient déjà tiré la sonnette d’alarme sur l’UX / UI de la plateforme, notamment l’utilisation de monnaie virtuelle pour créer des incitations à l’engagement. Mais à en juger par la surveillance exercée par la Commission sur l’approche de l’app chinoise en matière de conformité au Digital Services Act (DSA), celle-ci devra peut-être aller plus loin pour satisfaire les responsables de ce nouveau règlement européen.

Alors attention TikTok, l’UE a l’œil sur toi !

Un FestIn de roi pour vos Buckets S3

Par : Korben

Aujourd’hui on va parler d’un outil de ouf pour trouver des buckets S3 ouverts : FestIn !

C’est le genre d’outil dont raffolent les chercheurs en sécurité puisqu’il qui explore tous les recoins du web pour dénicher des trucs que vous n’auriez jamais trouvé.

FestIn c’est la grosse artillerie de l’énumération de buckets S3 puisqu’il a tellement d’options que les autres outils à côté c’est de la gnognotte. Attention, c’est bien sûr à utiliser uniquement sur vos propres noms de domaines ou dans le cadre de missions d’audit pour lesquelles vous avez toutes les autorisations.

Avec lui, vous allez pouvoir :

  • Utiliser différentes techniques pour trouver des buckets : crawling du DNS et des pages web, analyse des réponses S3
  • Faire vos requêtes en passant par un proxy, no stress 🕶
  • Vous passer des credentials AWS, puisque ça marche avec n’importe quel provider compatible S3
  • Configurer vos propres serveurs DNS, parce que vous êtes trop beau gosse.
  • Profiter d’un crawler HTTP de compétition qui va retourner le web pour vous
  • Faire des recherches récursives et avoir du feedback entre les différents modules pour un max d’efficacité
  • Faire tourner le schmilblick en mode « watch » pour choper les nouveaux domaines en temps réel, ce qui est assez ouf quand on y pense.
  • Sauvegarder tous les domaines découverts dans un fichier, pour faire joujou avec plus tard
  • Indexer direct le contenu des objets des buckets pour faire des recherches full text de la mort, mieux que Google ! 😎
  • Cibler votre recherche sur des domaines spécifiques si vous voulez pas vous éparpiller

Pour l’installer c’est fastoche, au choix :

pip install festin

Ou en mode Docker :

docker run --rm -it cr0hn/festin -h

C’est du brut, du bourrin, puisqu’on va envoyer des requêtes en masse et gratter un max d’infos. Attention cependant, on reste fair-play, on ne veut pas faire planter le serveur non plus.

Par défaut, FestIn prend un unique domaine en argument :

festin mon-super-site.com

Mais on peut aussi lui filer un fichier texte contenant une liste de domaines, histoire d’être plus productif :

  1. Crée un fichier domaines.txt avec tes domaines, un par ligne.
  2. Lance la commande :
cat domaines.txt | festin -f -

FestIn balance plusieurs tests en même temps pour aller plus vite. Par défaut, il en lance 5. Si vous êtes pressé et que votre machine encaisse, vous pouvez augmenter ce nombre avec l’option -c :

festin -c 10 mon-super-site.com

Attention cependant, ne balancez pas un truc de fou, ça risque de faire bugger le site ciblé. On est là pour glaner des infos, pas pour casser du serveur.

L’outil dispose également d’un petit bot intégré qui va scanner le site à la recherche de liens pouvant mener à des buckets S3. On peut le configurer avec plusieurs options :

  • Timeout (-T ou –http-timeout) : Si le site est lent, on augmente le timeout pour pas que le scan plante. Par défaut, c’est 5 secondes.
  • Récursion max (-H ou –http-max-recursion) : On limite la profondeur du scan pour éviter de partir en vadrouille sur tout le net. Par défaut, c’est 3 niveaux, genre site.com -> lien -> site2.com -> lien -> site3.com.
  • Limite de domaine (-dr ou –domain-regex) : On peut dire au robot de se focaliser uniquement sur les sous-domaines qui correspondent à une expression régulière.
  • Liste noire (-B) : Fich un fichier texte contenant des mots clés. Si un domaine contient un de ces mots, on l’ignore.
  • Liste blanche (-W) : Même principe, mais à l’envers. On scanne uniquement les domaines contenant des mots clés de la liste blanche.

Pour cela, vous devez créer un fichier blacklist.txt contenant « cdn » et « photos » (on ignore les liens vers des CDN et des images) puis lancer la commande :

festin -T 20 -M 8 -B blacklist.txt -dr .mondomaine\.com mon-super-site.com

Attention : l’option -dr attend une expression régulière valide au format POSIX. Par exemple, mondomaine.com est invalide, alors que \.mondomaine\.com est correct.

FestIn crache un paquet d’infos intéressantes, pas seulement sur les buckets S3, mais aussi sur d’autres éléments identifiés. Ces infos peuvent ensuite être utilisées avec d’autres outils comme nmap.

Pour récupérer les résultats, FestIn propose trois modes qu’on peut combiner :

  • Fichier de résultats FestIn (-rr ou –result-file) : Ce fichier contient une ligne JSON par bucket trouvé, avec le nom de domaine d’origine, le nom du bucket et la liste des objets qu’il contient.
  • Fichier de domaines découverts filtrés (-rd ou –discovered-domains) : Celui-là liste un domaine par ligne. Ce sont des domaines trouvés par le crawler, le DNS ou les tests S3, mais qui ont été filtrés selon les options définies.
  • Fichier brut de tous les domaines découverts (-ra ou –raw-discovered-domains) : Comme son nom l’indique, c’est la liste brute de tous les domaines identifiés par FestIn, sans aucun filtre. Idéal pour du post-traitement et de l’analyse.

récupérer les résultats dans trois fichiers distincts et enchaîner avec nmap :

festin -rr festin.results -rd domaines_filtres.txt -ra domaines_bruts.txt mon-super-site.com

festin -rd domaines_filtres.txt && nmap -Pn -A -iL domaines_filtres.txt -oN nmap-resultats.txt

FestIn peut utiliser Tor pour plus de discrétion. Il faut juste avoir un proxy Tor lancé en local sur le port 9050 (configuration par défaut). Activez-le avec l’option --tor :

tor & festin --tor mon-super-site.com

Et il peut aussi effectuer des recherches DNS. Voici les options dispo :

  • Désactiver la découverte DNS (-dn ou –no-dnsdiscover) : Si on a pas besoin de ce type de recherche.
  • Serveur DNS personnalisé (-ds ou –dns-resolver) : Pratique si on veut utiliser un serveur DNS différent de celui par défaut.

Comme ceci :

festin -ds 8.8.8.8 mon-super-site.com

Ce script ne se contente pas de dénicher les buckets S3 ouverts, il peut aussi télécharger leur contenu et l’indexer dans un moteur de recherche plein texte. Ça permet ensuite de lancer des recherches directement sur le contenu des buckets ! Pour activer l’indexation, FestIn utilise Redis Search, un projet Open Source.

Il faut deux options :

  • Activer l’indexation (–index) : Indispensable pour que le contenu soit stocké dans le moteur de recherche.
  • Configuration du serveur Redis Search (–index-server) : Uniquement si votre serveur Redis Search est sur une IP/port différent de localhost:6379 par défaut.

Lancez d’abord Redis Search en tâche de fond :

docker run --rm -p 6700:6379 redislabs/redisearch:latest -d

Puis lancez FestIn avec l’indexation et le serveur distant :

festin --index --index-server redis://127.0.0.1:6700 mon-super-site.com

Attention : l’option --index-server doit obligatoirement commencer par le préfixe redis://.

Bien sûr, on a pas forcément envie de relancer FestIn à chaque nouveau domaine à analyser. C’est pour ça qu’il existe le mode surveillance. FestIn se lance et attend l’ajout de nouveaux domaines dans un fichier qu’il surveille. Pratique pour l’utiliser avec d’autres outils comme dnsrecon.

Lancez FestIn en mode surveillance avec le fichier domaines.txt :

festin --watch -f domaines.txt

Dans un autre terminal, ajoutez des domaines à domaines.txt :

echo "encore-un-autre-site.com" >> domaines.txt

Dès qu’un nouveau domaine est ajouté au fichier, FestIn le scanne automatiquement à la recherche de buckets S3 ouverts. Pour aller plus loin, on peut combiner FestIn avec un outil de reconnaissance DNS comme DnsRecon. L’idée est de récupérer des sous-domaines potentiels liés au domaine principal et de les balancer ensuite à FestIn pour scanner d’éventuels buckets S3 cachés.

Etape 1 : Scruter le domaine cible avec DnsRecon

On va utiliser DnsRecon pour trouver des sous-domaines associés à cible.com. Sauvegardez la sortie dans un fichier CSV :

dnsrecon -d cible.com -t crt -c cible.com.csv

Etape 2 : Préparer le fichier pour FestIn

On isole les sous-domaines du fichier CSV pour les injecter dans FestIn (un domaine par ligne) :

tail -n +2 cible.com.csv | sort -u | cut -d "," -f 2 >> cible.com.domaines

Etape 3 : Lancer FestIn et récupérer les résultats

On balance le fichier de sous-domaines à FestIn en activant la recherche Tor, la concurrence à 5, un serveur DNS personnalisé et en sauvegardant les résultats dans des fichiers distincts :

festin -f cible.com.domaines -

Et pour automatiser tout ça sur plein de domaines à la chaîne, on a même un petit script loop.sh bien pratique dans les examples du repo GitHub.

Voilà les amis, vous avez toutes les clés pour utiliser FestIn comme un pro et aller secouer les buckets S3 qui traînent ! C’est quand même un outil hyper complet et puissant, pensez à l’utiliser avec un proxy ou Tor pour pas vous faire bloquer, et amusez vous bien mais toujours de manière éthique et responsable hein !

VASA-1 – Des visages parlants ultra-réalistes et en temps réel

Par : Korben

VASA-1 est un nouveau framework qui permet de générer des visages parlants ultra-réalistes en temps réel ! En gros, vous balancez une simple photo à cette IA, ainsi qu’un petit clip audio, et bim ! Elle vous pond une vidéo d’un visage qui parle, avec une synchronisation de la bouche nickel chrome, des expressions faciales hyper naturelles et des mouvements de tête très fluides. C’est hyper bluffant !

Les chercheurs de Microsoft ont réussi ce tour de force en combinant plusieurs techniques de pointe en deep learning. Ils ont d’abord créé un espace latent expressif et bien organisé pour représenter les visages humains. Ça permet de générer de nouveaux visages variés, qui restent cohérents avec les données existantes. Ensuite, ils ont entraîné un modèle de génération de dynamiques faciales et de mouvements de tête, appelé le Diffusion Transformer, pour générer les mouvements à partir de l’audio et d’autres signaux de contrôle.

Et le résultat est juste époustouflant. On a l’impression de voir de vraies personnes qui parlent, avec toutes les nuances et les subtilités des expressions faciales. Les lèvres bougent parfaitement en rythme avec les paroles, les yeux clignent et regardent naturellement, les sourcils se lèvent et se froncent…

En plus de ça, VASA-1 peut générer des vidéos en haute résolution (512×512) à une cadence élevée, jusqu’à 40 images par seconde, avec une latence de démarrage négligeable. Autant dire que c’est le graal pour toutes les applications qui nécessitent des avatars parlants réalistes. On peut imaginer des assistants virtuels avec lesquels on pourrait interagir de manière super naturelle, des personnages de jeux vidéo encore plus crédibles et attachants, des outils pédagogiques révolutionnaires pour apprendre les langues ou d’autres matières, des thérapies innovantes utilisant des avatars pour aider les patients… etc etc..

En plus de pouvoir contrôler la direction du regard, la distance de la tête et même les émotions du visage généré, VASA-1 est capable de gérer des entrées qui sortent complètement de son domaine d’entraînement comme des photos artistiques, du chant, d’autres langues…etc.

Bon, évidemment, il reste encore quelques limitations. Par exemple, le modèle ne gère que le haut du corps et ne prend pas en compte les éléments non rigides comme les cheveux ou les vêtements. De plus, même si les visages générés semblent très réalistes, ils ne peuvent pas encore imiter parfaitement l’apparence et les mouvements d’une vraie personne mais les chercheurs comptent bien continuer à l’améliorer pour qu’il soit encore plus versatile et expressif.

En attendant, je vous invite à checker leur page de démo pour voir cette merveille en action. C’est juste hallucinant ! Par contre, vu les problèmes éthiques que ça pourrait poser du style usurpation d’identité, fake news et compagnie, et connaissans Microsoft, je pense que VASA-1 ne sera pas testable par tous bientôt malheureusement. Mais je peux me tromper…

ChatGPT est plus efficace et moins coûteux qu’un cybercriminel

Par : Korben

Les grands modèles de langage (LLM), comme le célèbre GPT-4 d’OpenAI, font des prouesses en termes de génération de texte, de code et de résolution de problèmes. Perso, je ne peux plus m’en passer, surtout quand je code. Mais ces avancées spectaculaires de l’IA pourraient avoir un côté obscur : la capacité à exploiter des vulnérabilités critiques.

C’est ce que révèle une étude de chercheurs de l’Université d’Illinois à Urbana-Champaign, qui ont collecté un ensemble de 15 vulnérabilités 0day bien réelles, certaines classées comme critiques dans la base de données CVE et le constat est sans appel. Lorsqu’on lui fournit la description CVE, GPT-4 parvient à concevoir des attaques fonctionnelles pour 87% de ces failles ! En comparaison, GPT-3.5, les modèles open source (OpenHermes-2.5-Mistral-7B, Llama-2 Chat…) et même les scanners de vulnérabilités comme ZAP ou Metasploit échouent lamentablement avec un taux de 0%.

Heureusement, sans la description CVE, les performances de GPT-4 chutent à 7% de réussite. Il est donc bien meilleur pour exploiter des failles connues que pour les débusquer lui-même. Ouf !

Mais quand même, ça fait froid dans le dos… Imaginez ce qu’on pourrait faire avec un agent IA qui serait capable de se balader sur la toile pour mener des attaques complexes de manière autonome. Accès root à des serveurs, exécution de code arbitraire à distance, exfiltration de données confidentielles… Tout devient possible et à portée de n’importe quel script kiddie un peu motivé.

Et le pire, c’est que c’est déjà rentable puisque les chercheurs estiment qu’utiliser un agent LLM pour exploiter des failles coûterait 2,8 fois moins cher que de la main-d’œuvre cyber-criminelle. Sans parler de la scalabilité de ce type d’attaques par rapport à des humains qui ont des limites.

Alors concrètement, qu’est ce qu’on peut faire contre ça ? Et bien, rien de nouveau, c’est comme d’hab, à savoir :

  • Patcher encore plus vite les vulnérabilités critiques, en priorité les « 0day » qui menacent les systèmes en prod
  • Monitorer en continu l’émergence de nouvelles vulnérabilités et signatures d’attaques
  • Mettre en place des mécanismes de détection et réponse aux incidents basés sur l’IA pour contrer le feu par le feu
  • Sensibiliser les utilisateurs aux risques et aux bonnes pratiques de « cyber-hygiène »
  • Repenser l’architecture de sécurité en adoptant une approche « zero trust » et en segmentant au maximum
  • Investir dans la recherche et le développement en cybersécurité pour garder un coup d’avance

Les fournisseurs de LLM comme OpenAI ont aussi un rôle à jouer en mettant en place des garde-fous et des mécanismes de contrôle stricts sur leurs modèles. La bonne nouvelle, c’est que les auteurs de l’étude les ont avertis et ces derniers ont demandé de ne pas rendre publics les prompts utilisés dans l’étude, au moins le temps qu’ils « corrigent » leur IA.

Source

Un moddeur fait tourner Halo 2 en 720p sur la Xbox originale

Par : Korben

Un surdoué du bidouillage nommé Ryan Miceli, alias « grimdoomer » sur GitHub, vient de réussir un truc de malade : faire tourner Halo 2 en 720p sur une Xbox première génération ! Oui, 720p sur la vénérable console de Microsoft sortie en 2001, c’est un bel exploit.

Mais alors, comment ce bon vieux Ryan a-t-il réussi ce tour de passe-passe ? Eh bien figurez-vous qu’il a littéralement mis les mains dans le cambouis pour effectuer des modifications matérielles, dans le kernel, et même sur le jeu lui-même. Un travail de titan !

Pour entrer un peu plus dans les détails techniques, sachez que Miceli a installé un câble IDE 80 broches pour connecter le disque dur de la Xbox à un PCB custom qui supporte des vitesses de transfert plus rapides. Résultat, des temps de chargement optimisés et des perfs globalement boostées. Côté kernel, notre modder de génie a optimisé la gestion de la mémoire pour augmenter la quantité de RAM disponible pour le jeu. Et ce n’est pas tout ! Il a aussi ajouté le support du triple buffering pour un rendu plus fluide, et même des sliders pour régler le FOV.

Faut quand même se rappeler qu’à sa sortie, Halo 2 faisait déjà cracher les poumons de la console alors l’idée de le faire tourner en 720p, ça relève presque de la science-fiction. Il a notamment exploité une faille dans le système de mémoire partagée entre le CPU et le GPU et en bidouillant le code, il a réussi à gonfler la mémoire vidéo. Et même si le framerate trinque un peu à cause de cet overclocking, on est quand même en 720p au final.

Et pour ceux qui voudraient (presque) la même chose sur leur XBox mais qui n’ont pas envie de sortir le fer à souder, Ryan a pensé à tout. Certes, pour obtenir le Graal des 720p, faut mettre les mains dans les composants et charcuter un peu la bête, mais une bonne partie des améliorations, comme la correction du scaling en 480p ou les options pour régler le FOV, fonctionnent sur une console stock !

Bravo à Mister Miceli, un vrai Master Chief !

Source

Atlas – Le robot humanoïde de Boston Dynamics passe en version sans fil

Par : Korben

Boston Dynamics, le célèbre fabricant américain de robots, va vous épater une fois de plus avec sa dernière prouesse technologique : Atlas, le robot humanoïde qui passe en mode « sans fil » si je puis dire ! Eh oui, ce grand gaillard mécanique qui nous avait déjà bluffé par ses prouesses physiques fait peau neuve et troque ses câbles encombrants contre une batterie bien pratique. Fini le régime « branché sur secteur », Atlas peut maintenant se la jouer nomade et partir à l’aventure sans sa laisse, en abandonnant son système hydraulique pour un système 100% électrique.

Vous l’aurez compris parce que vous êtes super malins, limite HPI je pense, l’idée c’est de le rendre plus autonome et plus mobile afin qu’il puisse se faufiler dans des endroits inaccessibles, intervenir sur des terrains accidentés, et même prêter main forte lors de missions de sauvetage.

Grâce à ses capteurs et ses algorithmes de pointe, il peut analyser son environnement en temps réel, esquiver les obstacles tel un ninja, et même se relever tout seul comme un grand s’il se prend une gamelle. Un vrai pro de la gymnastique quoiqu’un peu flippant ! Équipé de capteurs comme des caméras, du lidar, du sonar et de l’imagerie thermique, il est ainsi capable de collecter des données dans différents environnements industriels.

Mais le plus fort, c’est qu’Atlas apprend à une vitesse affolante. Ses créateurs lui font suivre un entraînement intensif digne des meilleurs athlètes : courses, sauts, pirouettes… leur robot est soumis à un vrai parcours du combattant et le résultat est là puisqu’à chaque nouvelle vidéo, on reste scotché devant les prouesses de ce prodige mécanique. Grâce à des techniques de vision par ordinateur et d’apprentissage automatique, il peut détecter des objets, reconnaître des formes et suivre des mouvements.

Boston Dynamics a aussi lancé son propre système d’exploitation pour robots, baptisé Orbit. C’est la tour de contrôle qui permet de gérer toute une flotte de robots, de créer des jumeaux numériques des sites, pour orchestrer une robotisation complète d’un entrepôt ou d’une usine par exemple. Pour l’instant, seul Spot y a droit, mais Atlas et Stretch devraient bientôt être de la partie.

Pour le plaisir, je vous remets aussi la vidéo très impressionnante de l’ancienne version d’Atlas qui lui est hydraulique :

Évidemment, tout ça soulève pas mal de questions sur l’avenir de nos amis les robots. Est-ce qu’un jour Atlas et ses copains remplaceront les humains sur les chantiers ou dans les usines ? Est-ce qu’ils viendront nous sauver des décombres tel Superman quand un bâtiment s’effondrera ? Une chose est sûre, Boston Dynamics ne compte pas s’arrêter en si bon chemin. L’objectif c’est de l’intégrer avec les autres systèmes de l’entreprise comme des ERP pour améliorer encore un peu plus ses fonctionnalités et lui fournir des tas de données en temps réel.

Actuellement, la société américaine planche sur une version encore plus perfectionnée d’Atlas, avec une intelligence artificielle dernier cri et une autonomie rallongée et à terme, ce robot pourrait bien devenir le nouveau chouchou des industriels et des services de secours du monde entier même s’il faut garder à l’esprit qu’il ne peut pas encore tout faire car certaines zones confinées ou difficiles d’accès peuvent nécessiter d’autres méthodes d’inspection en complément.

Dommage, je l’aurais bien amené dans la forêt avec moi pour couper du bois. M’enfin, rassurez-vous, même avec toutes ces améliorations, Atlas n’est pas près de piquer le boulot de Terminator. Enfin, espérons-le ! En attendant, on ne peut que saluer le génie des ingénieurs de Boston Dynamics, qui repoussent sans cesse les limites de la robotique.

Et si vous voulez en savoir plus sur les dernières avancées d’Atlas, je vous invite à consulter le blog officiel de Boston Dynamics qui détaille les dessous de cette nouvelle version sur batterie.

Source

Peut être une solution pour réduire les acouphènes ?

Par : Korben

Ah les acouphènes, cette bande-son de l’enfer qui nous pourrit la vie ! Perso, j’ai parfois un sifflement strident qui me vrille les tympans et pas de bouton « mute » pour le stopper. Alors ça va, ça m’arrive assez rarement mais si vous faites partie des 8 millions de français à subir ce calvaire, j’ai une bonne nouvelle pour vous.

Figurez-vous que la FDA (l’équivalent américain de notre bon vieille ANSM) a donné son feu vert à un appareil révolutionnaire : le Lenire.

OK, le nom fait un peu penser à un Pokemon, mais ce truc au look tout droit d’un film de science-fiction des années 80 dispose d’un embout buccal bardé d’électrodes en acier inoxydable que vous placez dans votre bouche et qui va littéralement vous envoyer de l’électricité dans la langue !

Wow wow wow, on se calme, c’est pas la chaise électrique non plus hein ^^.

En fait, ça envoie des mini stimulations pour « chatouiller » votre langue, comme si une armée de petites fourmis faisait la fiesta sur votre muscle lingual. Pendant ce temps-là, vous avez un casque sur les oreilles qui diffuse des sons aussi apaisants que le ressac sur une plage de sable blanc et le combo fait que les acouphènes se réduisent. Dans une étude clinique portant sur 326 patients, 84% des participants ont constaté une amélioration significative après 12 semaines d’utilisation du Lenire. C’est quand même un sacré bond en avant quand on sait qu’avant, y avait pas grand chose pour soulager les gens.

Alors comment ça fonctionne ?

Et bien en gros, votre cerveau, c’est comme un projecteur qui est toujours braqué sur ce qui est important. Quand vous avez des acouphènes, c’est comme si le projecteur était bloqué sur le bruit parasite en mode « alerte rouge, défcon 1, on va tous mourir !« . Du coup, impossible de penser à autre chose, ça vous pourrit le ciboulot. Eh ben figurez-vous que cet appareil, c’est le copain qui viendrait vous secouer en mode « hey, regarde plutôt ça, c’est carrément plus intéressant !« . En stimulant votre langue et vos oreilles simultanément, il force donc votre cerveau à changer de focus. Résultat, votre projecteur mental n’est plus obnubilé par les acouphènes !

Après, c’est pas donné… comptez dans les 4000 balles pour vous offrir cette petite merveille. Mais pour les gens qui ont les oreilles qui sifflent à longueur de journée, on est prêt à tout pour retrouver un peu de répit, même à vendre un rein au marché noir (non, je déconne, faites pas !). Après y’a surement moyen de faire un équivalent DIY avec une pile et un casque à réduction de bruit, j’sais pas…

Bref, y’a de l’espoir pour tous les acouphéniques en galère et c’est ce que je voulais partager avec vous aujourd’hui ;-).

Source

Tess – En route vers une IA génératrice d’images qui rémunère les artistes

Par : Korben

Les générateurs d’images IA actuels comme Midjourney, Dall-E et j’en passe, font polémique puisqu’ils piochent allégrement dans les œuvres des artistes sans leur consentement ni rémunération. Mais des solutions sont en train de se mettre en place pour les entreprises qui souhaiteraient utiliser l’IA pour illustrer leurs supports sans pour autant piller les artistes.

Une de ces solutions, c’est Tess qui propose une approche que j’ai trouvée intéressante puisqu’elle met en place des collaborations avec des créateurs pour utiliser leur style dans des modèles de diffusion d’images.

Concrètement, chaque modèle d’IA est entraîné sur le style visuel d’un artiste unique, avec son accord puis l’outil utilise un SDXL custom (Stable Diffusion) pour générer les images. Évidemment, à chaque fois qu’une image est générée avec son style, l’artiste touche des royalties ! C’est gagnant-gagnant donc.

L’outil intègre également un système de métadonnées basé sur le protocole C2PA, qui permet d’identifier clairement les images générées par IA et de les distinguer des créations originales.

L’objectif de Tess est donc clair : démocratiser la création d’images artistiques de qualité, en la rendant accessible au plus grand nombre, tout en rémunérant équitablement les artistes et leur permettant de garder la maitrise de leur art. C’est une bonne idée vous ne trouvez pas ?

Et les artistes dans tout ça ? Et bien si j’en crois le site de Tess, ils sont déjà plus de 100 à avoir déjà sauté le pas, séduits par ce nouveau modèle de rémunération. Maintenant si vous voulez devenir clients de la plateforme, ce n’est malheureusement pas encore ouvert à tous, mais une liste d’attente est en place pour vous inscrire et être tenu au courant.

IA sera bientôt capable de se répliquer et survivre d’après le CEO d’Anthropic

Par : Korben

Les avancées fulgurantes dans le domaine de l’intelligence artificielle ces dernières années ont suscité autant d’enthousiasme que d’inquiétudes et si les dernières déclarations de Dario Amodei, PDG d’Anthropic, se confirment, nous pourrions bien être à l’aube d’une nouvelle ère où les IA seront capables de se répliquer et de survivre de manière autonome comme n’importe quel être vivant.

Lors d’une récente interview pour le New York Times (je vous mets le transcript ici), Amodei a évoqué la possibilité que nous atteignions bientôt un niveau d’IA qu’il qualifie d’ASL 4. Ce stade, qui implique une autonomie et une capacité de persuasion accrues, pourrait permettre à des acteurs étatiques comme la Corée du Nord, la Chine ou la Russie de renforcer considérablement leurs capacités offensives dans divers domaines militaires.

Pour rappel, il a cofondé Anthropic avec sa sœur Daniela après avoir quitté OpenAI en raison de divergences sur l’orientation de l’entreprise. Chez OpenAI, il avait notamment participé au développement de GPT-3. Donc autant dire qu’il maitrise son sujet.

ASL signifie « Architectural Safety Level » (Niveau de Sécurité Architecturale en français). C’est une échelle empruntée aux laboratoires de virologie concernant leur niveau de « biosécurité » (spéciale dédicace à Wuhan ^^) qu’Anthropic a adapté à sa sauce pour évaluer le niveau de sécurité et de fiabilité d’une IA.

Ça va de 1 à 5 et ça donne à peu près ça :

  • ASL 1 : c’est une IA qui a peu ou pas de garanties de sécurité du tout.
  • ASL 2 : c’est une IA avec quelques garanties de sécurité de base.
  • ASL 3 : c’est une IA avec des garanties de sécurité modérées. Considérée suffisamment fiable pour certaines applications.
  • ASL 4 : c’est une IA avec de solides garanties de sécurité. Elle est considérée comme très fiable et peut être utilisée pour la plupart des applications, y compris les applications critiques comme tout ce qui est militaire.
  • ASL 5 : c’est une IA avec des garanties de sécurité extrêmement élevées. Elle peut être considérée comme sûre même pour les applications les plus critiques.

Donc ASL 4 c’est un niveau élevé et ça peut potentiellement inclure « l’autonomie » et la « persuasion ». Ah et actuellement, on est au niveau ASL 2.

Mais ce qui est encore plus impressionnant, c’est la perspective d’une IA capable de se répliquer et de survivre de manière autonome. Selon lui, nous pourrions atteindre ce stade critique dès 2025 ou 2028. Il ne s’agit pas d’une vision lointaine, mais bien d’un futur proche. Perso, un programme informatique capable de se répliquer et de s’adapter à son environnement (« survivre »), c’est ce que j’appelle un virus… ça ne me dit rien qui vaille. Bref, si les prédictions d’Amodei se confirment, cela soulève de nombreuses questions sur les implications d’une telle avancée technologique : Une IA autonome et capable de se répliquer pourrait-elle échapper à notre contrôle ? Quelles seraient les conséquences sur notre société, notre économie… notre sécurité ?

Comme l’histoire de la conscience la dernière fois, ça fait un peu flipper, mais une fois encore, c’est super important que le développement de ces technologies se fasse de manière responsable et éthique, avec, si c’est nécessaire, des garde-fous.

En tout cas, j’sais pas pour vous, mais moi j’ai l’impression qu’on nage en plein scénario de SF en ce moment.

Source

AiFormat – Un outil en ligne de commande pour formater vos fichiers pour Claude

Par : Korben

Si vous vous intéressez un peu aux outils IA, vous connaissez sûrement Claude, l’assistant IA dernière génération d’Anthropic. Depuis la sortie de sa version 3, c’est d’ailleurs devenu mon meilleur pote pour coder à la vitesse de l’éclair. j’ai même pris un abonnement payant en rusant un peu.

Toutefois, le seul truc qui me ralentissait dans mes grandes ambitions, c’était de devoir copier-coller à la main tous mes fichiers de code dans la fenêtre de contexte de Claude pour ensuite lui demander d’analyser ça, et me proposer des corrections ou une nouvelle fonction. Mais ça, c’était avant car je suis tombé sur un petit bijou opensource qui va vous changer la vie : AiFormat.

Ce petit outil en ligne de commande vous permet de sélectionner des fichiers et dossiers, et de les convertir automatiquement dans un format optimisé pour Claude. En deux clics, tout est dans le presse-papier, prêt à être envoyé à votre IA préférée.

Sous le capot, AiFormat utilise Ink, une chouette librairie pour créer des CLI avec une belle interface utilisateur. Ça vous permet de filtrer et naviguer dans vos fichiers, de les sélectionner avec les flèches, et tout ça de façon super intuitive.

Pour l’installer et le prendre en main, c’est hyper simple, tout est expliqué sur la page Github du projet. Ça commence par un simple :

npm install --global aiformat

Ensuite, pour utiliser aiformat, accédez au répertoire contenant les fichiers et dossiers que vous souhaitez partager avec Claude puis lancez la commande suivante :

aiformat

Le créateur a eu la bonne idée de mettre le projet en opensource (MIT license), du coup n’hésitez pas à y jeter un œil et même contribuer si le cœur vous en dit. La communauté vous dira merci !

Franchement, si vous utilisez souvent Claude pour coder ou analyser des projets, c’est un indispensable à avoir dans sa boîte à outils. Ça vous fera gagner un temps fou au quotidien.

Ce robot dessine sur une ardoise magique comme un artiste digne des années 80

Par : Korben

Vous êtes-vous déjà demandé comment dessiner comme un pro sur une ardoise magique, ce jouet iconique des années 80 ? Pas simple, même pour les artistes les plus talentueux, car pour les plus jeunes d’entre nous qui n’ont pas connu ce jouet, le but c’était de tracer des formes complexes d’un seul trait en bougeant les molettes verticalement et horizontalement. !

Mais grâce à la puissance du Raspberry Pi et un peu de bidouille, dessiner comme un vrai artiste sur cet objet est devenu un jeu d’enfant ou presque.

En effet, le maker Micah Tilton a eu l’idée géniale de créer un robot dessinateur pour Ardoise magique, piloté par un Raspberry Pi afin de reproduire n’importe quelle image dessus de manière très précise, sans se prendre la tête. Le principe est assez simple (sur le papier en tout cas…). Un Raspberry Pi 4 commande deux moteurs pas-à-pas, fixés sur les molettes de l’ardoise grâce à des adaptateurs imprimés en 3D.

Ensuite, un logiciel permet de transformer n’importe quelle image en une succession d’instructions pour guider le robot. L’image est d’abord redimensionnée à la résolution du jouet (plus ou moins 300 x 214 pixels), puis convertie en noir et blanc. Cette résolution a été choisie pour s’adapter parfaitement à la taille de l’écran de l’écran magique et un algorithme analyse ensuite comment la reproduire en un seul trait continu, comme en vrai.

Et voilà comme ce petit robot peut maintenant dessiner en live des images complexes comme des portraits, des paysages ou des personnages en quelques minutes à peine. Le programme utilise des techniques d’optimisation poussées pour améliorer les performances et la fluidité du tracé et comme par magie, on voit les traits se former progressivement sur la planche, guidés par les mouvements millimétrés des moteurs.

C’est franchement bluffant et un peu comme quand je regarde mon imprimante 3D bosser, ça a un petit côté hypnotique et fascinant.

Micah a partagé le code source ainsi que les plans des pièces nécessaires sur GitHub donc si vous avez un Raspberry Pi qui traîne et une grande sœur qui avait ce joujou, vous pourrez recréer votre propre robot dessinateur à la maison.

Source

Les charlatans débarquent sur MYM

Par : Korben

Je ne suis pas un utilisateur de la plateforme MYM ni du côté des créateurs de contenus ni du côté des « consommateurs », mais je sais à peu près qu’elle est leur proposition de valeur… En gros, c’est une plateforme où des gens peuvent vendre leurs vidéos, leur podcasts, des articles, des cours, même des show one-to-one et les utilisateurs payent pour voir ce que les créateurs proposent.

Mais c’est surtout utilisé par des créateurs et des créatrices qui aiment bien vendre des contenus où ils sont à poil. La plateforme a donc le vent en poupe comme vous pouvez vous en douter, et aujourd’hui ils s’ouvrent à quelque chose que je trouve plutôt problématique : les arts divinatoires.

Sous ce terme, ça regroupe plein de conneries comme l’astrologie, la cartomancie, la numérologie, la tarologie… et malheureusement, il y a de plus en plus d’adeptes de tout ça, notamment chez les 25-45 ans qui sont aussi la cible principale de MYM. Cela s’explique probablement parce que le niveau d’intelligence baisse, que l’époque est incertaine / anxiogène et que pendant des années, on a tous subi l’horoscope sur toutes les chaines de TV et de radio en mode normal comme la météo ou les infos. Les médias ont leur part de responsabilité et je n’ai jamais vu le moindre disclaimer avant ce genre de chose pour expliquer que c’est de la fiction pour gens désespérés.

Alors évidemment, tant que c’est pour le fun et que ça fait du bien au moral, pourquoi pas. Mais industrialiser tout ce bordel dans MYM (ou ailleurs), c’est ouvrir grand les portes du n’importe quoi divinatoire pour tondre les gogos qui pensent VRAIMENT qu’on peut prévoir l’avenir. Bref, je trouve ça hyper moyen.

La plateforme promet un accompagnement personnalisé pour les créateurs, mais je peine à croire que ça suffira à éviter les dérives puisque c’est leur cœur de « métier » qui est problématique. On va donc se retrouver comme sur les Live TikTok avec une armée de madame Irma 2.0, prêtes à vous soutirer votre pognon contre une prédiction foireuse sur votre vie amoureuse ou professionnelle. Et comme d’habitude, ce seront ceux qui sont les plus fragiles et les plus crédules, qui se feront vider les poches.

C’est moche et comme MYM ne s’embarrasse pas de scrupules quand il s’agit de faire du blé, ajouter l’astrologie et la voyance dans l’équation, c’est aussi naturel que de verser un grand verre d’eau dans une huile bouillante.

Regardez ça, on dirait le doctolib du paranormal :

Alors vous pensez peut-être que je dramatise parce que vous êtes Poisson ascendant Tête De Cul, mais en vrai, les « arts » divinatoires ça peut vite partir en vrille… Déjà, ça fait croire aux gens que tout est écrit, que leur vie dépend de leur signe, donc ça les incite pas trop à se sortir de leur merde. Ensuite, les prédictions sont par définition hyper vagues, en mode effet barnum et ça enfonce les personnes encore plus dans leurs délires. Il y a en effet des risques psychologiques pour les personnes vulnérables, qui pourraient tomber dans une dépendance à ces pratiques en espérant des réponses à leurs problèmes. Et cela peut aggraver des troubles anxieux ou dépressifs.

Sans parler des conseils moisis du charlatologue qui risquent de faire encore plus de dégâts dans la vie de leurs adeptes qui prendront des décisions irrationnelles sur des sujets importants qui concernent leur santé, leurs finances, mais également leurs relations. Et bien sûr, ça détourne totalement de la pensée rationnelle et de la science, à une époque où les idiocrates font déjà beaucoup de dégâts avec leur chemtrails, leurs reptiliens et autres théories Qanon sans imagination.

Bref, c’est une industrie, un business qui n’a d’autre but que d’arnaquer des gens qui n’ont pas besoin de ça et je trouve ça profondément regrettable que MYM s’embarque là-dedans, contribuant encore un peu plus à transformer ces croyances en un truc normal, répandu et réel. D’ailleurs ça m’étonne qu’il n’y ait pas de régulation et de contrôle sur ce secteur et ça m’étonne encore plus qu’en 2024, les médias donnent du crédit à ce genre de truc.

Bref, gros pouce vers le bas pour eux.

UPT – Le gestionnaire universel de paquets Linux

Par : Korben

Vous en avez marre de jongler avec une multitude d’outils de gestion de paquets sur vos différents systèmes Linux et Unix ? apt sur Debian, dnf sur Fedora, pacman sur Arch, emerge sur Gentoo, pkg sur FreeBSD… Et je ne parle même pas de Homebrew sur macOS ou Scoop sur Windows ! Bref, un vrai casse-tête pour s’y retrouver et se rappeler de toutes les commandes spécifiques à chaque plateforme.

Heureusement, y’a un p’tit dev malin qui a décidé de nous faciliter la vie. Un certain Sigoden a créé upt, pour Universal Package-management Tool. L’idée c’est d’avoir une interface unique pour gérer ses paquets, quelque soit le système utilisé. Sous le capot, upt se base sur le gestionnaire natif de chaque OS mais vous permet d’utiliser une syntaxe commune pour les opérations de base : rechercher, installer, mettre à jour ou supprimer un paquet.

Bon alors techniquement, c’est écrit en Rust donc faudra passer par l’installation de cargo et de quelques dépendances. Mais rassurez-vous, c’est assez simple et bien documenté sur le dépôt GitHub du projet. Une fois que c’est fait, vous pourrez utiliser la commande upt de la même façon sur tous vos systèmes. Voici quelques exemples :

upt update pour mettre à jour le gestionnaire
upt install package_name pour installer un paquet
upt upgrade package_name pour le mettre à jour
upt remove package_name pour le désinstaller
upt search keyword pour chercher un paquet

Plutôt cool non ?

Fini les prises de tête à se rappeler si c’est apt search ou dnf search, pacman -S ou emerge… Maintenant on fait tout pareil avec upt !

Et ça supporte tous les outils suivants sous Linux, macOS, Windows, BSD :

Bon, j’avoue qu’il y a quelques petites limitations. Déjà upt n’est qu’une surcouche, donc il faudra quand même connaître les noms exacts des paquets pour chaque distrib. Pas de nom universel type « python3-dev » qui fonctionnerait sur Ubuntu comme sur Fedora.

Ensuite, si un même paquet est dispo dans plusieurs formats (deb, snap, flatpak…), upt va suivre un ordre de priorité pour choisir lequel installer. Mais vous pouvez outrepasser ça en définissant la variable d’environnement UPT_TOOL avec le nom du gestionnaire souhaité.

Par exemple, pour forcer upt à utiliser les paquets snap pour VLC plutôt que apt ou autre :

export UPT_TOOL='snap'
upt install vlc

Dernier point, certaines commandes un peu plus avancées ne seront pas gérées directement par upt. Il faudra alors repasser par le gestionnaire natif. Mais pour une utilisation basique au quotidien, ce petit outil vous fera gagner pas mal de temps et de neurones.

Après, je dis pas que c’est la solution révolutionnaire qui va unifier une bonne fois pour toutes le monde des paquets sur Linux et Unix. Y’a encore du taf pour ça. Mais en attendant, upt est bien pratique pour ceux qui doivent régulièrement passer d’un système à l’autre.

Et puis soyons honnêtes, nous les linuxiens on est un peu maso sur les bords. On aime bien quand c’est compliqué et qu’il faut batailler pour faire un truc. Alors un outil qui simplifie les choses, ça va en rebuter plus d’un ! Mais je suis sûr que ça peut rendre service à pas mal de monde malgré tout.

En attendant, amusez-vous bien et n’oubliez pas : dans le doute, RTFM ! 😄

Source

RNNoise, la lib qui supprime le bruit, sort en version 0.2

Par : Korben

Si vous faites du streaming ou que vous jouez en ligne, vous connaissez probablement RNNoise qui supprime les bruits parasites qui gâchent vos enregistrement ou vos parties de CS, grâce à la magie des réseaux neuronaux. La bonne nouvelle du jour c’est qu’une nouvelle version vient de sortir.

Pour ceux qui ne connaîtraient pas, RNNoise c’est une bibliothèque open source développée par les petits génies de Xiph.Org et Mozilla qui utilise un modèle de réseau neuronal récurrent pour filtrer le bruit en temps réel, tout en préservant la qualité de la voix.

Et les nouveautés sont cool :

  • Déjà, ils ont ajouté des optimisations AVX2 et SSE4.1 pour booster les performances. Votre CPU va carburer comme jamais !
  • Ensuite, ils ont intégré une détection automatique des fonctionnalités CPU, pour utiliser au mieux votre hardware. Avec ça, peu importe votre CPU, il saura faire tourner RNNoise au poil !
  • Enfin, cerise sur le gâteau, les modèles fournis sont maintenant entraînés uniquement sur des datasets publics. Adieu les bases de données privées et bonjour la transparence ! 🌞

RNNoise ne se limite pas à éliminer les bruits lors de vos visioconférences. Cette merveille peut aussi améliorer la reconnaissance vocale, le traitement musical et bien d’autres tâches. En plus de la voix la plus probable, le modèle indique aussi la fiabilité de son estimation, ce qui est très utile pour la reconnaissance automatique de la parole. Mais ce n’est pas le seul facteur qui entre en jeu : les caractéristiques du locuteur, les modèles de langage et les techniques de traitement du signal ont aussi leur importance.

Pour le tester, c’est tout simple :

Commencez par cloner le dépôt GitHub de RNNoise

git clone https://github.com/xiph/rnnoise.git

Puis compilez le machin en lançant ces commandes

./autogen.sh
./configure
make

Pro tip : utilisez l’option -march=native dans vos CFLAGS pour profiter à fond des optimisations AVX2 !

Vous pouvez maintenant tester RNNoise sur un fichier audio brut en 16 bits / 48 kHz

./examples/rnnoise_demo input.pcm output.pc

Et voilà, votre audio ressortira propre comme un sou neuf, débarrassé de tous les bruits indésirables. Vous m’en direz des nouvelles !

Si vous voulez creuser le sujet, je vous recommande de jeter un oeil aux benchmarks RNNoise sur OpenBenchmarking. Vous verrez que c’est loin d’être une solution gadget : sur un bon gros CPU, on arrive à traiter 60 fois le temps réel ! De quoi livestreamer sur Twitch en toute sérénité. D’ailleurs, c’est marrant de voir que RNNoise cartonne aussi sur des architectures exotiques comme les puces POWER ou ARM. Les développeurs ont vraiment fait du bon boulot pour rendre leur code portable. Respect ! 🙌

Bon allez, je ne vais pas vous bassiner plus longtemps et je vous invite à consulter l’excellent article de Jean-Marc Valin. C’est fascinant de voir comment on peut exploiter le deep learning pour améliorer des algorithmes de traitement du signal traditionnels.

Source

Un joueur japonais arrêté pour vente de Pokémons trafiqués

Par : Korben

Au pays du Soleil-Levant, un certain Yoshihiro Yamakawa, âgé de 36 ans et résidant dans la charmante ville d’Uji, s’est retrouvé dans de beaux draps. Ce décorateur d’intérieur est soupçonné d’avoir enfreint la loi sur la prévention de la concurrence déloyale en modifiant illégalement les capacités des petits monstres apparaissant dans le célèbre jeu Nintendo Switch « Pokémon Violet ». Selon les autorités, il aurait utilisé des outils spécialisés pour altérer le code du jeu et créer des Pokémon rares aux caractéristiques surpuissantes.

Mais attendez, ce n’est pas tout ! Non content de jouer les apprentis sorciers avec les données du jeu, notre cher Yamakawa a eu la brillante idée de vendre ces Pokémon modifiés pour la modique somme de 13 000 yens (environ 89 euros) pièce, via des marketplaces en ligne. Une sacrée arnaque !

Bien évidemment, Nintendo et The Pokémon Company ne sont pas du genre à laisser passer ce genre de choses surtout quand on touche à leurs précieuses licences. A ce moment là, ils sortent les Dracolosses et justement, Yamakawa risque gros : jusqu’à 5 ans de prison et une amende de 5 millions de yens. De quoi lui faire passer l’envie de jouer au plus malin.

Mais le plus dingue dans tout ça, c’est que les logiciels utilisés pour modifier les données de sauvegarde sont disponibles gratuitement sur Internet. Pas besoin d’être un Mewtwo de l’informatique pour s’en servir. Du coup, les ventes illégales de Pokémon modifiés pullulent sur la toile, générant des revenus estimés à plusieurs millions de yens.

L’association de protection des droits d’auteur des logiciels informatiques (ACCS) met en garde contre ces pratiques qui, non seulement gâchent le plaisir de jouer, mais peuvent aussi déséquilibrer les combats en ligne en donnant des avantages injustes à certains joueurs. Et puis, soyons honnêtes, c’est un peu comme tricher aux examens avec ChatGPT : c’est mal et ça ne rend pas plus intelligent !

Alors, chers dresseurs en herbe, la prochaine fois que vous tomberez sur une annonce alléchante proposant des Pokémon surpuissants à prix cassé, méfiez-vous ! Non seulement vous risquez de vous faire rouler dans la poudre d’escampette, mais en plus, vous encourez de sérieux ennuis avec la justice.

Source

Attention aux Deep ‘Cyprien’ Fakes !

Par : Korben

Vous en avez sûrement entendu parler ces derniers mois, le célèbre Youtubeur Cyprien est au cœur d’une polémique malgré lui. En effet, son image a été utilisée dans des deepfakes pour faire la promotion de jeux mobiles plus que douteux.

C’est donc bien une IA (et des humains) qui est derrière ces vidéos détournant l’image de Cyprien pour lui faire dire ce qu’il n’a jamais dit. On le voit notamment vanter les mérites d’une app soi-disant révolutionnaire pour gagner de l’argent facilement. Le souci, c’est que cette app sent l’arnaque à plein nez…

Résultat des courses, Cyprien s’est senti obligé de réagir pour démentir son implication dans ces pubs. À travers une vidéo mi-sérieuse mi-humoristique, il met en garde contre les dérives de l’IA et des deepfakes.

C’est quand même flippant de voir son image utilisée à son insu pour promouvoir des trucs plus que limite. Rien que le fait qu’il soit obligé de démentir montre à quel point un deepfake peut semer le doute dans l’esprit des gens, donc il fait bien de sonner l’alerte à travers sa vidéo.

Et c’est là qu’on se rend compte à quel point ces technologies peuvent être dangereuses si elles tombent entre de mauvaises mains. Aujourd’hui c’est Cyprien qui trinque, mais demain ça pourrait être n’importe qui d’entre nous. En attendant, méfiance quand vous voyez une vidéo d’une célébrité qui fait la promo d’un produit. Surtout si c’est pour une app ou un vpn (ah non, pas un vpn ^^). Y’a 9 chances sur 10 pour que ce soit un deepfake !

Perso, je l’ai trouvé au top cette vidéo, donc comme d’hab, je fais tourner.

Les IA comme ChatGPT aident-elles réellement les étudiants en informatique ?

Par : Korben

Vous êtes un étudiant en informatique, tout frais, tout nouveau, et on vous balance des exercices de programmation à faire. Panique à bord !

Mais attendez, c’est quoi ce truc là-bas ?

Ah bah oui, c’est ChatGPT, votre nouveau meilleur pote ! Il est capable de résoudre vos exos en deux temps trois mouvements, grâce à des techniques de traitement du langage naturel (NLP) et d’analyse de langage de programmation, mais attention, c’est pas si simple.

Des chercheurs ont voulu creuser la question et voir comment ces générateurs de code IA influencent vraiment l’apprentissage des étudiants et pour cela, ils ont réalisé 2 études. Dans la première, ils ont pris 69 étudiants, des novices complets en Python et les ont séparés en deux groupes : Ceux qui utiliseront l’IA et ceux qui coderont à l’ancienne sans IA.

Durant 7 sessions, ils leur ont donné des exos à faire. Les Jedis boostés à l’IA avaient accès à un générateur de code basé sur Codex, un modèle d’apprentissage automatique qui utilise le NLP et l’analyse de langage de programmation pour générer du code à partir des entrées des utilisateurs. Les autres, eux, devaient se débrouiller.

Résultat des courses ?

Les dev augmenté à l’IA ont cartonné ! Ils ont fini 91% des tâches contre 79% pour les autres. En plus, leur code était beaucoup plus correct. Toutefois, sur les tâches où il fallait modifier du code existant, les deux groupes étaient au coude à coude. Ensuite, ils ont fait passer des tests de connaissance aux étudiants, sans l’IA. Et là, surprise ! Les deux groupes ont eu des scores similaires. Mais quand ils ont refait les tests une semaine plus tard, les étudiants du goupe boosté à l’IA ont mieux retenu ce qu’ils avaient appris.

Dans la deuxième étude, les chercheurs ont analysé comment les étudiants utilisaient vraiment le générateur de code. Et là, révélations ! Certains en abusaient grave, genre copier-coller direct la consigne sans réfléchir. Pas cool ! 😅 Mais d’autres étaient plus malins et s’en servaient pour décomposer le problème en sous-tâches ou vérifier leur propre code.

Alors, que faut-il en retenir ?

Et bien que l’IA peut être un super outil pour apprendre à coder, mais à condition savoir l’utiliser intelligemment. C’est pourquoi les concepteurs d’outils et les profs doivent encourager une utilisation responsable et auto-régulée de ces générateurs de code. Sinon, c’est le drame assuré !

Pour ma part, vous le savez, le développement, c’est pas mon truc. Mais depuis que l’IA a débarqué dans ma vie, « sky is the limit » et ça m’aide énormément. Et comme ces étudiants, si je pose mon cerveau que je passe en mode copié-collé IA, à la fin, je vais avoir du caca. Mais si je comprends ce que je veux faire, si je maitrise mon code plus comme un chef de projet bien technique et bien c’est redoutablement efficace. Et ce qui est encore plus cool, c’est que j’apprends plein de trucs. On dit souvent qu’il faut forger pour devenir forgeron. Et bien là c’est le cas, car je ne m’encombre plus des problématiques de syntaxe, et je construis brique par brique mes outils en comprenant tout ce que je fais. Donc l’IA pour développer, oui !! Mais en laissant le cerveau allumé.

En tout cas, une chose est sûre, c’est en train de révolutionner l’apprentissage du code. Ça promet pour le futur mais faudra veiller à ce que les étudiants apprennent vraiment à faire les choses et ne deviennent pas des zombies du copier-coller (on avait déjà le souci avec StackOverflow, cela dit…).

Source

Windows 11 enfin accessible aux PC Rocket Lake après deux ans d’attente

Par : Korben

Oyez, oyez, amis Windowsiens ! Réjouissez-vous, car Microsoft, dans son immense mansuétude, a enfin daigné lever le blocage qui empêchait certains d’entre vous de goûter aux joies de Windows 11. Eh oui, après deux longues années d’attente, les possesseurs de processeurs Intel Rocket Lake peuvent désormais franchir le Rubicon et passer du côté obscur de la Force.

Enfin, seulement s’ils mettent à jour leurs pilotes Intel Smart Sound Technology !

Mais qu’est-ce que c’est que cette histoire de pilotes ? Eh bien figurez-vous que certaines versions des pilotes audio Intel SST provoquaient des écrans bleus de la mort sur Windows 11, rien que ça. Les pilotes fautifs, en version 10.29.0.5152 et 10.30.0.5152, étaient plus vicieux qu’un Gremlins mouillé après minuit.

Mais tel un chevalier blanc sur son fier destrier, Intel est venu à la rescousse en sortant des versions corrigées des pilotes, estampillées 10.30.00.5714 et 10.29.00.5714 (et au-delà). Microsoft a évidemment mis un certain temps à lever son blocus, mais mieux vaut tard que jamais, n’est-ce pas ?

Car oui, Microsoft est en pleine phase « open bar » en ce moment : tout le monde est invité à rejoindre la grande famille Windows 11. Même si parfois, ça implique de bloquer certaines apps tierces un peu trop curieuses ou de laisser tomber le support de fonctionnalités exotiques comme Windows Mixed Reality. Mais c’est le prix à payer pour profiter d’un OS moderne et innovant (ou pas) comme Windows 11 ^^.

Pour mettre à jour vos pilotes et enfin accéder au Saint Graal qu’est Windows 11, rien de plus simple : passez par Windows Update ou allez directement sur le site d’Intel. Une fois vos pilotes à jour, attendez 48h (le temps que Microsoft réalise que vous existez) et voilà, vous pourrez enfin voir à quoi ressemble le menu Démarrer de Windows 11. Spoiler : c’est pareil que Windows 10.

Mais attention, cette mise à jour ne concerne que les versions Desktop de Windows, à savoir :

  • Windows 11, version 23H2
  • Windows 11, version 22H2
  • Windows 11, version 21H2
  • Windows 10, version 22H2
  • Windows 10, version 21H2
  • Windows 10 Enterprise LTSC 2019

Les versions Serveur ne sont pas impactées par ce problème. Pour les administrateurs IT qui gèrent des parcs informatiques, vous pouvez déployer les pilotes mis à jour en utilisant des outils tels que Windows Update for Business, Intune ou Autopatch.

Et si jamais après deux jours, Windows refuse toujours obstinément de vous laisser passer à la caisse pour acheter votre billet pour Windows 11, contactez le support ! A l’ancienne 🙂

Sur ce, je vous laisse, j’ai un pilote à mettre à jour.

Source

Netflix crée la polémique avec de fausses photos IA dans un docu true crime

Par : Korben

Netflix a encore frappé, mais cette fois, ce n’est pas pour une nouvelle série addictive. Non, ils ont carrément utilisé des photos générées par IA dans leur dernier documentaire true crime « What Jennifer Did » (« Les Vérités de Jennifer », en français). Et autant vous dire que ça fait jaser sur la Toile !

Le docu retrace l’affaire sordide d’un meurtre commandité qui a eu lieu au Canada en 2010. Jennifer Pan, une ado en apparence sans histoires, a en fait orchestré l’assassinat de sa mère. Brrr, ça donne froid dans le dos ! Mais le plus fou, c’est que pour illustrer à quel point Jennifer était « pétillante, heureuse et pleine d’assurance » selon les mots d’une amie, Netflix a balancé des photos qui ont tous les codes des images générées par une IA. On parle de mains difformes, de visages déformés et même une dent de devant anormalement longue. Sympa le portrait !

Ça soulève pas mal de questions éthiques d’utiliser l’IA pour représenter une vraie personne, qui plus est dans une affaire criminelle. D’accord, Jennifer croupit en taule jusqu’en 2040 au moins, mais quand même, c’est glauque de tripatouiller la réalité comme ça. Surtout que bon, on n’est pas dans une fiction là, mais dans un fait divers bien réel et tragique.

On a déjà vu des séries utiliser l’IA pour générer des éléments de décor random, genre des affiches chelous dans True Detective. Mais là, on passe un cap en traficotant des photos d’une personne qui existe. Perso, ça me fait penser à ces deepfakes de célébrités qui pullulent sur internet alors si même les docs se mettent à nous enfumer avec de fausses images, où va-t-on ?

Netflix se défendent en disant que pour des raisons légales, ils ne pouvaient pas utiliser de vraies photos de Jennifer. Ok, mais ils auraient pu flouter son visage ou juste ne pas mettre de photos.

En tous cas, ça promet de sacrés débats sur l’utilisation de l’IA dans les médias. Jusqu’où peut-on aller pour illustrer une histoire vraie ? Est-ce qu’on a le droit de « créer » des images de personnes réelles dans ce contexte ? Autant de questions épineuses qui divisent.

La technologie utilisée par Netflix est probablement une forme de réseaux antagonistes génératifs (GAN) ou de deepfake. Ces technologies utilisent l’intelligence artificielle pour créer des images ou vidéos réalistes en apprenant des motifs à partir de données existantes. Les GAN sont composés de deux réseaux de neurones : un générateur qui crée les images, et un discriminateur qui essaie de distinguer les images générées des vraies. Au fil du temps, le générateur s’améliore pour créer des images ultra-réalistes, indiscernables de photos authentiques.

Mais l’usage de ces technologies soulève d’importantes questions éthiques, car elles peuvent servir à manipuler la perception de la réalité. Et dans le cas des Vérités de Jennifer, cela pourrait induire les spectateurs en erreur.

On verra si ça se généralise ou si Netflix saura en tirer des leçons.

Source

La plateforme MEDIUM interdit le contenu généré par IA de son programme partenaire

Par : Korben

Ça va en faire des déçus chez les petits malins qui croyaient avoir trouvé la combine du siècle pour se faire du blé facile sur Medium en balançant des articles pondus par ChatGPT et compagnie ! La plateforme de blogs vient en effet de dégainer son bazooka anti-IA et de bannir purement et simplement le contenu généré artificiellement de son programme partenaire rémunéré. Eh oui, fini de laisser tourner GPT-4 à plein régime toute la nuit pour cracher des articles à la chaîne et les planquer derrière un paywall ! Medium a dit « Niet, c’est fini ça !« 

La sentence est tombée par mail dans la boîte des utilisateurs : à partir du 1er mai, c’est tolérance zéro pour les histoires 100% IA dans le programme de monétisation. Les récits conçus par une intelligence artificielle seront donc retirés des paywalls illico presto, et les comptes récidivistes pourront même se faire virer de la rémunération par Medium. Ça rigole plus !

Faut dire que la plateforme a une vision bien précise de son identité : un sanctuaire pour le storytelling humain, pas un repaire de scribouillards synthétiques.

Ok, ils sont ouverts à ce que l’IA file un coup de main pour peaufiner un texte ou aider à écrire dans la langue de Shakespeare quand on est rouillé en anglais. Mais que dalle pour les papiers écrits de A à Z par un algorithme, c’est no way !

« Medium, c’est fait pour les histoires humaines, pas pour les textes générés par l’IA« , martèle la plateforme dans son mail qui a dû faire l’effet d’une douche froide à plus d’un. En fait, si on y regardait de plus près, c’était déjà écrit noir sur blanc dans les guidelines de Medium : les histoires 100% IA, c’était déjà restreint à une diffusion limitée au petit cercle de l’auteur sur la plateforme. Pour utiliser l’IA en mode fair-play, faut jouer la transparence et le mentionner direct dans les 2 premiers paragraphes. Pareil pour les images générées par l’IA, qui doivent être identifiées et sourcées comme il faut.

Mais là, en virant le contenu IA de son programme de monétisation, Medium serre sérieusement la vis. Et si jamais vous tombez sur un de ces récits bricolés par un bot et que ça vous gonfle, pas de souci ! Il suffit de cliquer sur « Voir moins de contenu similaire » pour dire à Medium « Merci mais non merci, très peu pour moi ! » et ainsi limiter la propagation de ces histoires synthétiques. A voir comment ils comptent faire techniquement maintenant…

Après soyons honnêtes, le contenu généré par l’IA, c’est souvent mal fait et on se retrouve avec une belle bouillie insipide qui manque de saveur. Étant abonné payant à Medium, je trouve que c’est pas une mauvaise nouvelle et j’imagine que bon nombre de plateformes vont leur emboiter le pas.

Source

❌