Lateo.net - Flux RSS en pagaille (pour en ajouter : @ moi)

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierKorben

Ebook-demo – Le moteur de recherche de bouquins décentralisé

Par : Korben

Vous en avez ras le bol de chercher pendant des heures le bouquin que vous voulez lire sans le trouver dans le commerce ? Pourquoi ne pas le télécharger en ligne alors ? Mais oùùùù ?

Et bien, j’ai peut-être une solution pour vous les amis et ça s’appelle sans chichi ebook-demo, un nouveau projet de moteur de recherche décentralisé pour les livres électroniques, inspiré de Liber3 (qui est un projet aux sources fermées).

Imaginez un peu le truc : vous tapez le titre du livre que vous cherchez dans la barre de recherche, vous cliquez sur « Search » et BAM, les résultats s’affichent juste en dessous avec le titre et l’auteur de chaque bouquin correspondant. C’est simple, efficace et ça marche du tonnerre !

Mais attendez, c’est pas tout. Ce qui rend ce projet encore plus cool, c’est qu’il est basé sur des technologies comme React et le SDK Glitter (pour la blockchain du même nom qui sert de base de données décentralisée).

Bon, je vois déjà les petits malins qui se disent « Ok, c’est bien beau tout ça, mais comment ça s’installe concrètement ?« . Pas de panique, c’est là que ça devient un peu technique mais je vais essayer de vous expliquer ça simplement. Déjà, pour faire tourner ce projet sur votre machine, il vous faudra avoir installé Node.js en version 16.x minimum et npm en version 6.x minimum. Ensuite, vous devrez cloner le dépôt du projet depuis GitHub avec la commande

git clone https://github.com/j2qk3b/ebook-demo

puis vous placer dans le dossier du projet avec

cd ebook-demo

Là, vous lancez un petit

npm install

pour installer toutes les dépendances nécessaires et vous êtes prêt à démarrer le serveur de développement avec

npm run dev

Et voilà, si tout se passe bien, vous devriez pouvoir accéder à l’application sur http://localhost:5173.

Fastoche, non ? Ensuite, votre instance ira se connecter aux autres instances, et vous pourrez faire toutes les recherches qui vous passent par la tête. Imaginez un peu les possibilités offertes par un tel outil. Vous êtes étudiant et vous devez faire des recherches pour un mémoire sur la littérature française du 19ème siècle ? Pas de souci, en quelques clics vous pouvez retrouver les œuvres de Victor Hugo, Balzac ou Zola. Ou alors vous êtes un fan absolu de science-fiction et vous voulez découvrir de nouveaux auteurs ? Là encore, ce moteur de recherche sera votre meilleur ami pour dénicher les pépites du genre.

Mais le plus beau dans tout ça, c’est que ce projet est open source et que tout le monde peut y contribuer. Si vous avez des idées pour améliorer l’outil, des suggestions de nouvelles fonctionnalités ou même si vous voulez corriger des bugs. Puis comme c’est décentralisé, c’est le genre de truc incensurable.

Évidemment, comme tout projet en développement, il y a encore du boulot pour faire de ebook-demo l’outil ultime de recherche de livres électroniques. Mais avec une communauté motivée et des contributeurs talentueux, je suis sûr qu’il peuvent y arriver.

PyTorch dévoile Torchtune pour fine-tuner les LLM

Par : Korben

PyTorch, le framework chouchou des bidouilleurs d’IA, vient de nous pondre un petit truc cool : Torchtune ! 💎 Cette nouvelle bibliothèque native, encore en phase alpha mais déjà disponible en open-source sur GitHub, va vous permettre de fine-tuner les gros modèles de langage (LLM) comme un pro, sans vous prendre la tête.

Torchtune est donc une boîte à outils hyper flexible et modulaire qui va vous permettre de vous éclater à customiser des modèles pour vos propres besoins, le tout avec des recettes mémoire efficaces qui tournent même sur une bête carte graphique de gamer, comme les NVidia 3090/4090.

Son secret ?

Une architecture bien pensée qui mise sur l’interopérabilité avec l’écosystème des LLM, qu’ils soient open-source ou non. Concrètement, ça veut dire que vous allez pouvoir brancher Torchtune à tout un tas d’outils et de frameworks que vous adorez déjà, comme Hugging Face 🤗, PyTorch FSDP 🪢, Weights & Biases 📈, et plein d’autres.

Grâce à des recettes simples et bien documentées pour les modèles populaires comme Llama 3, Mistral ou Gemma 7B, même les débutants vont pouvoir se lancer dans l’aventure sans flipper. Bon OK, il faudra quand même un peu de bagage en PyTorch et en LLM, mais rien d’insurmontable ! Et si vous êtes un pro, vous allez pouvoir hacker le code à volonté pour l’adapter à vos besoins spécifiques.

Alors comment on met les mains dans le cambouis avec Torchtune ?

Rien de plus simple, mon cher Watson ! Il vous suffit d’installer la dernière version stable de PyTorch (2.2.2 au moment où j’écris ces lignes), puis de télécharger Torchtune depuis PyPI avec un petit

pip install torchtune

Et voilà, vous êtes prêt à en découdre avec les LLM !

Pour vous faire les dents, je vous conseille de jeter un œil au tutoriel sur le fine-tuning de Llama2 7B. C’est le parfait point de départ pour comprendre comment Torchtune fonctionne et comment l’utiliser pour vos propres projets.

En gros, ça se passe en 4 étapes :

  1. Téléchargez le modèle pré-entraîné et le tokenizer depuis Hugging Face Hub avec tune download.
  2. Choisissez une recette de fine-tuning (LoRA, QLoRA, full…) et customisez-la avec un fichier de config en YAML.
  3. Lancez l’entraînement avec tune run en précisant votre recette et votre config. Vous pouvez même faire du multi-GPU avec torchrun !
  4. Admirez le résultat et testez votre modèle fine-tuné avec une inférence locale. Si tout se passe bien, exportez-le avec ExecuTorch pour le déployer en prod, ou utilisez les API de quantification de Torchao pour l’exporter en int4 ou int8 et l’utiliser sur mobile ou en edge.

Facile, non ? 😄

Bon OK, j’avoue, j’ai un peu simplifié. En vrai, il y a pas mal de subtilités et de paramètres à régler pour obtenir les meilleurs résultats, comme le learning rate, le nombre d’époques, la taille du batch, le ratio de LoRA, et tout un tas d’autres trucs, mais c’est justement sa flexibilité qui vous permet d’expérimenter à l’infini pour trouver la combinaison parfaite.

Bref, si vous êtes dev et que vous aimez jouer avec les LLM c’est à tester.

Source

Llama 3 – l’IA open source de Meta qui rivalise avec les meilleurs modèles

Par : Korben

Accrochez-vous à vos claviers, car Meta vient de lâcher dans la nature une nouvelle créature nommée Llama 3. Oui, vous avez bien compris, je parle de la dernière génération de modèles de langage « open source » (ou presque, on y reviendra) de la société de Mark Zuckerberg.

Si vous pensiez que ChatGPT, Claude ou Mistral étaient les rois de la savane, attendez de voir débarquer ces nouveaux lamas survitaminés ! Avec des versions allant de 8 à 400 milliards de paramètres (pour les non-initiés, disons que c’est l’équivalent de leur QI 🧠), les Llama 3 atomisent littéralement la concurrence sur de nombreux benchmarks standards, que ce soit en termes de connaissances générales, de compréhension, de maths, de raisonnement ou de génération de code.

Mais qu’est-ce qui fait de Llama 3 un tel monstre par rapport à son petit frère Llama 2 ? Déjà, un entraînement de folie à base de 15 000 milliards de tokens (7 fois plus que Llama 2 !) pompé depuis le web (!!), avec beaucoup plus de code et de données non-anglaises pour préparer le terrain à une IA multilingue. Ajoutez à ça des techniques de parallélisation à gogo pendant la phase de pré-entraînement, et vous obtenez des lamas dopés qui apprennent à une vitesse supersonique.

Et ce n’est pas tout ! Les Llama 3 ont suivi un programme d’éducation complet, avec du fine-tuning à base de rejection sampling, de PPO et de DPO (si vous ne connaissez pas ces acronymes, ne vous inquiétez pas, moi non plus 😅). Résultat : des modèles ultra-fiables qui refusent rarement une tâche, font preuve d’un alignement exemplaire et sont capables de suivre des instructions complexes sans sourciller. Bref, ce sont des cracks en raisonnement et en génération de code !

Mais au fait, comment on met la main sur ces petites bêtes ? Facile, il suffit de se rendre sur le site de Meta AI et de les télécharger ! Enfin, quand je dis facile… Les Llama 3 sont bien « open source », mais sous une licence maison qui impose quelques restrictions, notamment pour les entreprises de plus de 700 millions d’utilisateurs mensuels (suivez mon regard vers Mountain View et Redmond 👀). Mais bon, rien ne vous empêche de vous amuser avec si vous n’êtes pas une multinationale !

Et en parlant de s’amuser, sachez que Meta a aussi concocté un chatbot maison (pas encore dispo en France) baptisé sobrement « Meta AI« , disponible sur le web (www.meta.ai) et directement intégré dans les barres de recherche de Facebook, Instagram, WhatsApp et Messenger. Sous le capot, c’est bien sûr du pur Llama 3, avec en prime un modèle de génération d’images nommé « Meta Imagine« .

Au programme, de la discussion, de la recherche web via Bing et Google, et bien sûr de la création d’images en un clin d’œil. Seul hic, pas encore de mode multi-modal façon ChatGPT pour uploader vos propres documents ou images, mais ça ne saurait tarder !

Alors, que penser de ce nouveau coup d’éclat de Meta dans la bataille des IA ?

Personnellement, je trouve ça plutôt chouette de voir un poids lourd du Net jouer le jeu de l’open source (ou approchant) et mettre à disposition de tous des modèles de cette qualité. Bien sûr, on peut toujours discuter des arrière-pensées de Zuck et sa volonté de garder un œil sur ce qu’on fabrique avec ses lamas. Mais au final, c’est toujours ça de pris sur les GAFAM et leurs vilains modèles propriétaires !

Allez, je vous laisse, j’ai un lama à aller dompter moi ! 🦙

Et n’oubliez pas, comme le dirait l’autre, « le monde appartient à ceux qui codent tôt ». Ou tard, c’est selon.

Source

AiFormat – Un outil en ligne de commande pour formater vos fichiers pour Claude

Par : Korben

Si vous vous intéressez un peu aux outils IA, vous connaissez sûrement Claude, l’assistant IA dernière génération d’Anthropic. Depuis la sortie de sa version 3, c’est d’ailleurs devenu mon meilleur pote pour coder à la vitesse de l’éclair. j’ai même pris un abonnement payant en rusant un peu.

Toutefois, le seul truc qui me ralentissait dans mes grandes ambitions, c’était de devoir copier-coller à la main tous mes fichiers de code dans la fenêtre de contexte de Claude pour ensuite lui demander d’analyser ça, et me proposer des corrections ou une nouvelle fonction. Mais ça, c’était avant car je suis tombé sur un petit bijou opensource qui va vous changer la vie : AiFormat.

Ce petit outil en ligne de commande vous permet de sélectionner des fichiers et dossiers, et de les convertir automatiquement dans un format optimisé pour Claude. En deux clics, tout est dans le presse-papier, prêt à être envoyé à votre IA préférée.

Sous le capot, AiFormat utilise Ink, une chouette librairie pour créer des CLI avec une belle interface utilisateur. Ça vous permet de filtrer et naviguer dans vos fichiers, de les sélectionner avec les flèches, et tout ça de façon super intuitive.

Pour l’installer et le prendre en main, c’est hyper simple, tout est expliqué sur la page Github du projet. Ça commence par un simple :

npm install --global aiformat

Ensuite, pour utiliser aiformat, accédez au répertoire contenant les fichiers et dossiers que vous souhaitez partager avec Claude puis lancez la commande suivante :

aiformat

Le créateur a eu la bonne idée de mettre le projet en opensource (MIT license), du coup n’hésitez pas à y jeter un œil et même contribuer si le cœur vous en dit. La communauté vous dira merci !

Franchement, si vous utilisez souvent Claude pour coder ou analyser des projets, c’est un indispensable à avoir dans sa boîte à outils. Ça vous fera gagner un temps fou au quotidien.

Graphite – l’éditeur graphique open source qui va bousculer la création graphique

Par : Korben

Vous êtes accros aux logiciels de retouche photo et de création graphique mais vous en avez marre de vider votre compte en banque pour des licences hors de prix ? Et si je vous disais qu’une solution très sympa open source et totalement gratuite était en train de voir le jour ? Laissez-moi vous présenter Graphite, un projet de dingue porté par une communauté de développeurs et d’artistes passionnés.

Alors, qu’est-ce que c’est que ce truc ? En gros, le but c’est de pondre une appli de graphics editing nouvelle génération qui coche toutes les cases : retouche photo, dessin vectoriel, peinture numérique, PAO, compositing, motion design… Rien que ça ! On est clairement sur un couteau suisse de la création 2D.

Bon, je vous vois venir avec vos gros sabots : « Ouais mais c’est encore un énième logiciel qui va essayer de faire comme Photoshop et cie mais en moins bien ! » Eh bah non, justement ! L’idée c’est pas de copier bêtement ce qui existe déjà mais d’innover en s’inspirant de ce qui se fait de mieux dans d’autres domaines, comme la 3D.

Le truc de malade dans Graphite, c’est qu’il est construit autour d’un node graph, une sorte de « compo visuel » où on branche des nœuds entre eux pour manipuler nos calques et leur appliquer des filtres et des effets à l’infini. Ça permet de garder la main à chaque étape et de pouvoir revenir en arrière sans perdre en qualité, ce qui est juste im-po-ssible dans les logiciels de retouche photo traditionnels. On appelle ça du non-destructif.

Autre point fort : Graphite gère aussi bien les images matricielles (bitmap) que vectorielles, et le tout avec une qualité d’affichage toujours au taquet, même si on zoom dans tous les sens ! Plus besoin d’avoir 36 000 applis et de jongler entre elles. C’est un peu le mix parfait entre le pixel et le vecteur (avec un soupçon de génération procédurale en plus).

Bon, alors, il sort quand ce petit bijou ? Figurez-vous que Graphite est déjà dispo en version alpha et qu’on peut le tester directement dans son navigateur. Pas besoin d’install, ça tourne full JavaScript côté client. Évidemment, à ce stade, c’est encore un peu brut de décoffrage et y’a pas mal de features prévues sur la roadmap qui ne sont pas encore implémentées. Mais ça donne déjà un bon aperçu du potentiel de la bête !

Et en parlant de potentiel, vous allez voir que les possibilités de création sont assez dingues. Vous pouvez par exemple générer des centaines de cercles de façon procédurale pour obtenir des motifs super stylés. Ou encore créer des structures complexes qui s’adaptent automatiquement, comme ces guirlandes de Noël dont les ampoules se replacent toutes seules quand on déforme le chemin. Magique !

Donc, si vous voulez voir ce projet de dingue prendre son envol, n’hésitez pas à mettre la main au portefeuille et à faire un don. C’est vous qui voyez, mais je pense que ça en vaut carrément le coup ! En tout cas, moi, j’ai déjà mis une étoile sur le repo Github 😉

Whomane – L’IA portable & open source

Par : Korben

Accrochez-vous bien à vos slips, parce que je vais vous parler d’un truc de ouf qui risque bien de révolutionner le monde de l’IA portable : Whomane ! Ouais, vous avez bien lu, c’est un projet open source de wearable avec une caméra intégrée.

Whomane, c’est un peu le rêve de tout maker qui se respecte : un appareil portatif bourré d’IA et de capteurs, le tout en mode open source pour pouvoir bidouiller et créer ses propres applications. La vision derrière ce projet, c’est de rendre l’IA embarquée accessible à tous, que ce soit pour l’utiliser ou pour développer dessus.

Concrètement, Whomane se présente sous la forme d’un petit boîtier à clipser sur soi, un peu comme une broche hi-tech. Mais attention, pas n’importe quelle broche ! Celle-là embarque une caméra, un micro et du logiciel capable d’analyser votre environnement en temps réel. Et le tout est propulsé par un raspberry pi Zero capable de faire tourner des modèles de deep learning directement sur l’appareil.

Maintenant, vous vous demandez sûrement ce qu’on peut bien faire avec un truc pareil ? Eh bien, les possibilités sont quasi infinies ! Imaginez par exemple une application qui reconnaît les visages et affiche des infos sur les gens que vous croisez. Ou encore un assistant personnel qui analyse vos conversations et vous souffle des réponses. Vous voyez le genre ?

Mais Whomane, c’est aussi et surtout une plateforme ouverte et collaborative. Le code source est dispo sur GitHub, avec une licence GPL pour les projets open source et une licence commerciale pour ceux qui veulent l’intégrer dans des produits fermés.

Alors okay, je vous vois venir avec vos grands chevaux : « Oui mais la vie privée dans tout ça ? C’est Big Brother ton truc ! » Alors oui, évidemment, dès qu’on parle de caméra et d’IA, ça soulève des questions. Mais justement, l’avantage d’un projet open source comme Whomane, c’est la transparence. Tout est là, à disposition de la communauté pour auditer le code et s’assurer qu’il n’y a pas de dérive. Et puis bien sûr, il faudra toujours veiller à respecter les lois et réglementations en vigueur.

Bref, vous l’aurez compris, Whomane c’est le genre de projet geek et utopiste qui fait vibrer la corde du bidouilleur qui sommeille en nous. Après, on ne va pas se mentir, c’est encore un prototype avec sûrement plein de bugs et de limitations. Mais quand bien même, qu’est-ce que c’est excitant de voir émerger ce genre d’initiatives !

Donnez une seconde jeunesse à votre vieux Mac avec OpenCore Legacy Patcher

Par : Korben

Si vous en avez assez de voir votre vieux Mac prendre la poussière dans un coin parce qu’il ne peut plus faire tourner les dernières versions de macOS, et bien j’ai une bonne nouvelle pour vous.

Il s’agit d’un outil nommé OpenCore Legacy Patcher (OCLP) qui est là pour redonner une seconde jeunesse à nos fidèles compagnons en aluminium ! Grâce au bootloader OpenCore et tout un tas de kexts et de patchs du noyau, OCLP permet d’installer et de faire tourner macOS Big Sur, Monterey, Ventura et même la toute nouvelle version Sonoma sur des Mac qui ne sont officiellement plus supportés par Apple, et ce jusqu’aux modèles sortis en 2007 ! Rien que ça.

Mais ce n’est pas tout, en plus de permettre de profiter des dernières fonctionnalités de macOS comme Sidecar, Contrôle Universel ou AirPlay vers Mac, OpenCore restaure aussi le support de pas mal de matériel que Apple a abandonné au fil des versions comme de vieilles cartes graphiques ou d’anciens chipsets Wi-Fi.

Alors bien sûr, tout n’est pas rose non plus et selon les modèles il y a quelques limitations, notamment au niveau des performances graphiques avec l’API Metal qui n’est pas supportée partout. Mais globalement, l’expérience utilisateur reste très bonne une fois OCLP installé.

La grande force d’OpenCore Legacy Patcher, c’est que contrairement aux outils de patch précédents comme DOSDude1 ou Patched Sur, il n’a pas besoin de modifier le système installé sur le disque. Au lieu de ça, il injecte ses modifications à la volée pendant le démarrage, ce qui permet de garder un système macOS « vanilla » (d’origine quoi) et de continuer à recevoir les mises à jour d’Apple directement depuis les préférences système, comme sur un Mac officiellement supporté.

Et le tout sans bidouiller le firmware ou désactiver des protections comme SIP, ça c’est la classe ! Évidemment, un Mac récent fera toujours mieux qu’un vieux coucou, mais pour tous ceux qui n’ont pas les moyens de changer de machine tous les 4 matins, OCLP est une super solution pour continuer à profiter de son Mac le plus longtemps possible.

Bien sûr, tout ça ne serait pas possible sans la super communauté de développeurs et bidouilleurs passionnés qui gravitent autour du projet. Alors je le tire mon chapeau pour leur boulot de dingue. Et aussi à Apple pour macOS, hein, faut pas déconner non plus ^^.

Après, attention, installer un OS non supporté c’est toujours un peu casse-gueule et ça demande un minimum de connaissances techniques. Donc si vous n’êtes pas sûr de vous, renseignez-vous bien avant de vous lancer. Les documentations du projet sont très complètes, et en cas de souci la communauté sur le Discord d’OCLP saura sûrement vous dépanner.

Bon, c’est pas tout ça mais je crois que je vais ressortir mon vieux MacBook Pro de 2005 moi, j’espère juste que la batterie n’a pas trop morflé !

Modrinth – La plateforme Minecraft open-source redevient indépendante

Par : Korben

Modrinth, la plateforme open-source dédiée aux mods Minecraft, vient de prendre une décision aussi inattendue que courageuse : rendre l’argent à ses investisseurs pour redevenir indépendante ! Ça c’est ce que j’appelle avoir des couilles en vibranium !

Figurez-vous qu’il y a un an et demi, Modrinth avait levé 1,2 million de dollars auprès d’investisseurs. Ça leur a permis d’embaucher des développeurs à plein temps, de lancer plein de nouvelles fonctionnalités comme la monétisation pour les créateurs, l’authentification, les analytics, les collections… Bref, de faire grimper le nombre d’utilisateurs de manière exponentielle !

Mais voilà, cette croissance à tout prix a fini par leur faire perdre de vue l’essentiel. Les bugs se sont accumulés, la modération a pris du retard… Et surtout, ils ont réalisé que le modèle des startups financées par des investisseurs n’était pas compatible avec leurs valeurs. Parce que les investisseurs, aussi sympas soient-ils, attendent forcément un retour sur investissement. Et ça pousse à prioriser le profit et la croissance plutôt que la communauté et les créateurs.

Alors Modrinth a décidé de prendre son destin en main. Ils ont rendu 800 000 dollars aux investisseurs, et ont réduit drastiquement la taille de l’équipe pour revenir à un rythme de développement plus durable. Ça n’a pas été facile, ils ont dû se séparer de plusieurs personnes qui avaient beaucoup apporté au projet, mais c’était nécessaire pour rester fidèles à leurs principes.

Maintenant, Modrinth est de nouveau entre les mains de la communauté. Ils peuvent se concentrer sur ce qui compte vraiment : offrir la meilleure expérience possible aux joueurs et aux créateurs de mods, sans pression pour faire du chiffre à tout prix. Bien sûr, il faut quand même que le projet soit viable économiquement, mais ça, ils savent faire. L’hébergement est déjà rentable, et ils travaillent à rendre le développement durable aussi.

Pour ça, ils misent sur une meilleure infrastructure de modération (avec de l’automatisation et des outils pour les modos), plus de transparence sur l’avancement du projet, et plus de facilité pour contribuer au code. Le but, c’est que la communauté puisse vraiment s’approprier Modrinth, et que ça devienne un bien commun géré collectivement.

Et là, moi je dis chapeau bas ! Dans un monde où la plupart des boîtes ne jurent que par la croissance, quitte à vendre leur âme au diable, ce genre de prise de position fait un bien fou. Ça prouve qu’on peut faire des choses géniales sans se compromettre, en restant fidèle à ses valeurs et à sa communauté.

Alors si vous êtes un joueur Minecraft, un créateur de mods, ou juste quelqu’un qui croit à l’importance de l’open-source et des projets communautaires, je vous invite à soutenir Modrinth dans cette nouvelle étape de sa vie.

Source

MoOde – Le lecteur audio Raspberry Pi préféré des audiophiles

Par : Korben

Vous cherchez un lecteur audio open source de qualité pour votre Raspberry Pi ? Ne cherchez plus, moOde audio est là pour vous !

Ce lecteur audio totalement gratuit et distribué sous licence GPL permet d’avoir un véritable serveur musical sur votre Rpi pour en faire profiter toute la famille. C’est un peu comme Volumio dont je vous ai déjà parlé, mais en beaucoup plus abouti. En plus, les gars derrière moOde sont des vrais. Pas de pubs intrusives, pas d’abonnements à la noix, zéro cookies ou tracking à la Google. Toutes vos données restent bien au chaud sur votre Raspberry Pi, et ne sont refilées à personne d’autre. Bon, après si vous voulez les soutenir, vous pouvez toujours faire un petit don…

Pour installer moOde, c’est facile. Vous chopez l’img et vous allez suivre le guide d’installation qui est juste là. En gros, vous préparez votre image avec le Raspberry Pi Imager, vous pouvez même configurer le SSH et le WiFi direct, et après vous balancez le tout sur votre carte SD. C’est du classique pour les utilisateurs de Raspberry Pi. Rien de plus simple !

La dernière version, la 8.3.9, est dispo pour les modèles 3B, 3B+, 3A+, 4, 400, les Compute Module 3, 3+ et 4, et même le petit dernier le Zero 2 W et elle tourne sur une debian Bullseye 64 bits. Autant dire que ça va envoyer du lourd côté performances audio.

D’ailleurs, parlons-en de l’audio. moOde gère une flopée de périphériques compatibles avec les Raspberry Pi. Que vous ayez une enceinte Bluetooth ou quelque chose de plus « filaire » comme un DAC USB (Digital Audio Converter), une carte d’extension Hat ou carrément un streamer réseau, y a de fortes chances que ça fonctionne direct. Et niveau réglages, les audiophiles vont être aux anges puisqu’il y a de quoi faire du réglage fin sur votre son comme jamais !

Le top du top, c’est l’interface web. Super bien foutue, responsive, elle s’adapte parfaitement à votre appareil, que ce soit un pc, une tablette, un smartphone ou même une TV. Pas besoin d’installer quoi que ce soit, un simple navigateur suffit. Vous pourrez lancer la lecture d’un album, écouter la radio, taguer vos morceaux, accéder à des partages de fichiers via SMB et NFS, balancer le son en AirPlay ou avec Spotify Connect, faire du multiroom synchronisé et profiter de fonctionnalités audiophiles comme le support des formats hi-res, un égaliseur paramétrique, et divers algorithmes de rééchantillonnage. Pour les devs, y a même une API REST pour faire mumuse.

Et si vous avez besoin d’aide ou que vous voulez causer son entre passionnés, le forum moOde est là pour vous. Les devs sont ultra réactifs et la communauté est au taquet. Vous pouvez même choper les dernières news sur le développement du player.

Côté technique, si vous voulez mettre les mains dans le cambouis, un guide du développeur est dispo. Vous pourrez gérer les paquets et générer vos propres images.

Ah et j’allais oublier, les gars de moOde vous ont même concocté un petit DAC NOS (Non-Oversampling) à monter vous-même : le ProtoDAC. Il paraît que le son est d’enfer, surtout si vous utilisez des composants de qualité. Les plans et le guide sont dispos, vous avez juste à commander vos PCB et sortir votre fer à souder.

Bref, vous l’aurez compris, moOde c’est que du bon fait par des pro du son pour les audiophiles geeks qui aiment faire les choses eux-mêmes. Alors, n’attendez plus, foncez sur le site, chopez l’img et transformez votre Raspberry Pi en un lecteur audio de compèt’ !

Merci à François pour le partage !

FFmpeg vs Microsoft – Le choc

Par : Korben

Figurez-vous que le géant Microsoft, oui oui, le monstre de Redmond, se retrouve à genoux devant la communauté open source de FFmpeg.

Et pourquoi donc ? Parce que ces satanés codecs multimédias leur donnent du fil à retordre !

Mais attention, ne croyez pas que Microsoft va gentiment demander de l’aide comme tout le monde. Non non non, eux ils exigent, ils ordonnent, ils veulent que les petites mains de FFmpeg réparent illico presto les bugs de leur précieux produit Teams. Bah oui, faut pas déconner, c’est pour un lancement imminent et les clients râlent !

Sauf que voilà, les gars de FFmpeg ils ont pas trop apprécié le ton. Ils sont là, tranquilles, à développer leur truc open source pour le bien de l’humanité, et là Microsoft débarque en mode « Eho les mecs, faudrait voir à bosser un peu plus vite là, on a besoin de vous là, maintenant, tout de suite ». Super l’ambiance.

Alors ok, Microsoft a daigné proposer quelques milliers de dollars pour les dédommager. Mais bon, les développeurs FFmpeg ont un peu de fierté quand même et souhaitent un vrai contrat de support sur le long terme, pas une aumône ponctuelle balancée comme on jette un os à un chien.

Et là, c’est le choc des cultures mes amis ! D’un côté Microsoft, habitué à régner en maître sur son petit monde propriétaire, à traiter les développeurs comme de la chair à code. De l’autre, la communauté open source, des passionnés qui bouffent du codec matin midi et soir, qui ont la vidéo dans le sang et le streaming dans les veines.

Microsoft fait moins le malin maintenant puisqu’ils réalisent que leur précieux Teams, ça marche pas terrible sans FFmpeg et que leurs armées de développeurs maison, n’y connaissent pas grand chose en codecs multimédia. Et surtout que la communauté open source, bah elle a pas trop envie de se faire exploiter comme ça.

Moralité de l’histoire : faut pas prendre les gars de FFmpeg pour des poires. Ils ont beau être « open », ils ont leur dignité et Microsoft va devoir apprendre à respecter ça, à collaborer d’égal à égal, à lâcher des billets et des contrats de support au lieu de jouer au petit chef.

Parce que sinon, Teams risque de sonner un peu creux sans codecs qui fonctionnent. Et là, ça va être dur d’expliquer aux clients que la visio ça sera en version mime, parce que Microsoft a pas voulu mettre la main au portefeuille pour avoir de l’audio qui marchent.

Et, si vous voulez en savoir plus sur ce choc des titans, foncez sur https://sopuli.xyz/post/11143769 , vous n’allez pas être déçu du voyage !

StickerBaker – Créez des stickers IA personnalisés en quelques clics

Par : Korben

Vous aimez créer des stickers pour épater vos amis sur les réseaux sociaux ? Mais vous en avez marre de passer des heures sur Photoshop pour un résultat pas toujours au top ? J’ai ce qu’il vous faut !

Le site web StickerBaker est une vraie petite pépite pour générer des stickers personnalisés en quelques clics grâce à l’intelligence artificielle.

Concrètement, vous uploadez une photo de votre trombine, vous entrez une petite description façon prompt et bim, l’IA vous génère un sticker sur-mesure avec un rendu digne des plus grands graphistes. Pas besoin d’être un crack en dessin ou en retouche d’image, StickerBaker s’occupe de tout !

Mais alors StickerBaker, ça peut servir à quoi concrètement ? Et bien comme je le disais, créer des stickers complètement barrés à partir de vos photos pour amuser la galerie et mettre l’ambiance dans la conversation WhatsApp du jeudi soir ! Mais ça peut aussi permettre à des artistes, graphistes ou même des marques de prototyper rapidement des designs de stickers avant une prod plus poussée. Plutôt que de partir d’une feuille blanche, autant utiliser l’IA pour générer des premiers jets et itérer à partir de là. Ça peut faire gagner un temps fou.

Sous le capot, le site utilise le modèle Albedo XL et des techniques de machine learning comme les LoRA (Learning Rate Adaptation) pour comprendre votre prompt et générer un visuel qui déchire. Les plus geeks d’entre vous apprécieront les performances de l’engin : un sticker généré en 10 secondes max grâce aux cartes graphiques Nvidia A40. Ça envoie du lourd !

Et le must du must, c’est que StickerBaker est un projet open source, le code est dispo sur GitHub. Ça veut dire que la communauté peut mettre la main à la pâte pour améliorer l’outil. Vous pouvez par exemple bidouiller le code pour modifier les styles de stickers générés. Un vrai bonheur pour les devs qui veulent comprendre comment ça marche derrière.

Autre bon point, vos photos sont supprimées direct après le traitement. Pas de stockage chelou des données ou d’utilisations douteuses derrière, StickerBaker est clean de ce côté là. C’est toujours appréciable de nos jours.

Après, faut pas se leurrer, on est encore loin d’une app grand public. L’interface est rudimentaire et il faut un minimum biberonné à l’anglais et à l’univers des IA générative pour pas être largué. Mais c’est un premier pas encourageant vers la démocratisation de ces technologies.

Au final, StickerBaker c’est une chouette démo techno qui montre tout le potentiel de l’IA générative appliquée au domaine des stickers et du graphisme. Le projet n’en est qu’à ses débuts mais mérite clairement d’être suivi de près. Ça pourrait bien révolutionner notre manière de créer des visuels à l’avenir, qui sait ? En tout cas, moi j’ai hâte de voir les prochaines évolutions de ce genre d’outils !

Merci à Lorenper pour l’info.

ChatGPT est maintenant accessible sans compte

Par : Korben

Ça y est, c’est officiel ! ChatGPT, le célèbre agent conversationnel développé par OpenAI, est désormais accessible à tous sans qu’on ait besoin de se créer un compte. C’est une nouvelle qui devrait ravir les curieux qui souhaitaient tester les capacités de cette intelligence artificielle révolutionnaire sans avoir à s’embêter avec la création d’un énième compte en ligne.

Pour profiter de ChatGPT sans compte, rien de plus simple ! Il vous suffit de vous rendre sur l’application web chat.openai.com ou de télécharger l’application officielle ChatGPT sur votre smartphone, que vous soyez sur iPhone ou Android. Et vous pourrez directement commencer à discuter avec l’IA sans aucune autre formalité.

Par contre, ici en France, ça n’a pas encore l’air actif. J’ai du passer par un VPN via les États-Unis pour en profiter sans avoir à me créer un compte.

Et il faut quand même noter quelques petites limitations par rapport à la version avec compte. Déjà, vous ne pourrez pas sauvegarder ni consulter l’historique de vos conversations, et encore moins les partager avec d’autres utilisateurs. Vous n’aurez pas non plus accès aux conversations vocales ou aux instructions personnalisées. Et surtout, vous serez limité au modèle standard GPT-3.5, comme pour les comptes gratuits. Si vous voulez profiter de la puissance du modèle GPT-4, il faudra alors passer à la caisse et souscrire à l’abonnement payant ChatGPT Plus.

Mais bon, pour une utilisation basique de ChatGPT, la version sans compte est largement suffisante. Vous pourrez poser toutes vos questions, demander des conseils, générer du contenu, et même avoir des conversations à l’infini avec l’IA. Parfait pour découvrir le potentiel de l’IA conversationnelle et vous familiariser avec cet outil fascinant si ce n’est pas encore fait.

D’ailleurs, OpenAI a précisé avoir mis en place des « garde-fous supplémentaires » pour l’utilisation de ChatGPT sans compte. Donc ne soyez pas surpris si l’IA refuse de répondre à certaines de vos questions un peu trop sensibles ou sur des thèmes controversées.

N’oubliez pas que ChatGPT reste un outil imparfait, avec ses limites et ses défauts et qu’il peut parfois se tromper, inventer des choses ou tenir des propos biaisés. Donc gardez toujours votre esprit critique et ne prenez pas tout ce qu’il dit pour argent comptant. Et par pitié, ne l’utilisez pas comme un oracle infaillible ou comme si c’était Wikipédia. Voyez plutôt ça comme un outil permettant de retravailler du texte.

Amusez-vous bien !

Source

Voice Engine – Les voix synthétiques bluffantes d’OpenAI

Par : Korben

Vous avez vu Voice Engine d’OpenAI ? C’est un modèle d’IA qui est capable de générer des voix synthétiques ultra-réalistes à partir d’un simple échantillon audio de 15 secondes. Seulement 15 secondes, oui !

Concrètement, ça veut dire qu’avec cette IA, on peut créer des voix qui ressemblent à s’y méprendre à celles de vraies personnes. Genre on donne un petit extrait de notre voix, et hop, l’IA peut générer un discours entier qui sonne exactement comme nous. C’est à la fois fascinant et un peu flippant, vous trouvez pas ?

OpenAI sont à la pointe de la recherche dans le domaine et ils nous pondent régulièrement des trucs de malade comme Sora. Concernant Voice Engine, ils ont développé la techno fin 2022 et l’ont intégré dans leur API de synthèse vocale ainsi que dans les fonctionnalités vocales de ChatGPT.

Voici les 15 secondes de vraie voix :

Et voici l’audio qui a été généré à partir de ça :

Mais attention, comme un grand pouvoir implique de grandes responsabilités (coucou Peter !), OpenAI joue la carte de la prudence. Ils sont bien conscients que cette technologie pourrait être utilisée à des fins pas très catholiques, genre pour créer des deepfakes audio et induire les gens en erreur. Du coup, ils la déploient pour l’instant à petite échelle, juste auprès de quelques partenaires de confiance.

Et ces partenaires, ils en font quoi de Voice Engine ?

Eh bien figurez-vous qu’ils développent des applications plutôt cools ! Par exemple, Age of Learning l’utilise pour générer des contenus audio éducatifs avec des voix naturelles et expressives. Ou encore HeyGen qui s’en sert pour traduire des vidéos dans différentes langues en conservant la voix du locuteur d’origine. D’ailleurs c’est ce que j’utilise pour ma chaine Youtube en anglais et je peux vous dire que ça coûte une couille. Ça peut aussi aider les personnes non-verbales à communiquer avec une voix unique grâce à Livox. Et même redonner la parole à des patients ayant perdu l’usage de la voix, comme le fait l’institut Norman Prince Neurosciences de Lifespan.

Rassurez-vous, OpenAI a mis en place des garde-fous, comme l’interdiction d’utiliser Voice Engine pour imiter quelqu’un sans son consentement, l’obligation d’obtenir l’accord explicite du locuteur original, ou encore le watermarking des contenus générés pour pouvoir en tracer l’origine. Ils suggèrent également d’abandonner progressivement l’authentification vocale comme mesure de sécurité, mais également d’explorer des réglementations qui permettraient de protéger l’usage des voix dans l’IA, de sensibiliser le public aux deepfakes et de développer des techniques pour tracer l’origine des contenus audio et visuels.

Bref, Voice Engine c’est à la fois excitant et inquiétant. Ce que je vois, c’est que ça ouvre des perspectives folles en termes d’applications, mais ça soulève aussi pas mal de questions sur l’avenir.

Je vous invite à checker l’article d’OpenAI qui détaille leur approche avec plein d’exemples.

Source

GPT-3.5 champion de Street Fighter III

Par : Korben

J’espère que vous êtes en forme et prêts à en découdre, car aujourd’hui on va parler d’un sujet marrant : GPT-3.5 Turbo d’OpenAI est devenu le nouveau champion toutes catégories de Street Fighter III !

Non, j’ai rien fumé, il y a bien une IA qui a mis la pâtée à tous ses adversaires lors d’un tournoi un peu spécial.

En effet, la semaine dernière, lors du Mistral AI Hackathon à San Francisco, une équipe de passionnés a eu l’idée de génie d’organiser un tournoi un peu particulier. : Faire s’affronter différents modèles de langage sur le cultissime jeu de baston Street Fighter III, pour voir lequel allait sortir vainqueur.

Parce que bon, c’est bien beau de savoir faire la conversation ou générer des images moches, mais quand il s’agit d’envoyer des tatanes dans la tronche, il faut être un peu plus réactif !

Et c’est là que notre pote GPT-3.5 sort les muscles et s’en sort très bien. Contrairement aux algorithmes d’apprentissage par renforcement (deep learning) qui se contentent bêtement d’accumuler des points en fonction de leurs actions, les modèles de langage comme GPT sont capables de comprendre un contexte et d’agir en conséquence.

En gros, ils analysent ce qu’il se passe à l’écran, les mouvements des personnages, leur barre de vie… Et en fonction de ça, ils décident quelle attaque lancer. Un peu comme un joueur humain en fait, sauf qu’eux n’ont pas besoin de café pour rester concentrés.

Les premières bagarres ont opposé différentes versions du modèle Mistral, dans des combats endiablés dignes des plus grands shōnens. Mais très vite, l’équipe a décidé de corser un peu les choses en invitant OpenAI et ses modèles GPT-3.5 et GPT-4 dans l’arène. Et là, mes amis, ça a commencé à sentir le roussi pour la concurrence !

Les poings ont volé, les combos se sont enchaînés, les contres se sont succédés à un rythme infernal. Un vrai feu d’artifice d’uppercuts, de coups spéciaux et de provocations bien senties. Mais au final, après des dizaines de combats acharnés, c’est bien GPT-3.5 (et plus précisément sa dernière version « Turbo ») qui est ressorti vainqueur ! La médaille d’argent revient à Mistral-small-2042, qui a réussi l’exploit de coiffer sur le poteau un modèle GPT-4 en accès anticipé.

Tout ça pour dire que si vous voulez vous mesurer à ces champions, c’est tout à fait possible ! Le code source du projet est disponible sur Github, et vous n’avez même pas besoin d’un supercalculateur pour faire tourner tout ça. Il vous faudra juste dénicher une ROM de jeu de baston 2D ou 3D old school, et le tour est joué. Perso j’ai hâte de voir ce que ça donne sur un bon vieux Tekken 3…

Pour installer et tester LLM Colosseum :

  1. Suivez les instructions de la documentation DIAMBRA, l’outil qui permet de faire jouer les LLM
  2. Téléchargez la ROM et placez-la dans ~/.diambra/roms
  3. Clonez le dépôt de llm coloseum et installez les paquets Python requis avec la commande pip3 install -r requirements.txt
  4. Créez un fichier nommé .env et copiez-y le contenu du fichier .env.example
  5. Lancez le programme avec la commande make run

Blague à part, cette expérience montre bien le potentiel hallucinant des modèles de langage pour les jeux vidéo. On peut tout à fait imaginer des PNJ avec lesquels on pourrait interagir de façon totalement naturelle et immersive, des adversaires capables de s’adapter à votre style de jeu et de vous surprendre… Bref, de quoi révolutionner complètement notre façon de jouer ! Après, faudra quand même faire gaffe à pas trop les énerver, on a bien vu ce que ça donnait quand on laissait GPT-3.5 jouer à des wargames… Boum, plus de planète !

Allez, je vous laisse, faut que je retourne taper Zangief moi.

Merci à Lorenper pour l’info et à très vite pour de nouvelles aventures.

Jan – Le « ChatGPT » local et open source à installer sur votre machine

Par : Korben

Afin de rendre l’IA accessible à tous, y compris gratuitement puisque la plupart des modèles fonctionnent sur un système open source, une équipe de développeurs talentueux a créé Jan un outil pour les développeurs et les utilisateurs souhaitant profite d’une alternative à ChatGPT, totalement indépendante, fonctionnant hors ligne, open source et libre.

Il faut donc voir Jan comme un client de chat qui permet de télécharger des modèles comme Trinity, Mistral, Llama, OpenChat…etc. et de les faire tourner 100% hors ligne. Comme ça, pas de fuite de conversations privées ni de réutilisation de vos données pour entrainer de nouvelles IA. Et si comme moi, vous êtes accro à l’IA d’OpenAI, vous pourrez toujours y ajouter votre clé API et discuter avec ChatGPT (au tarif fixé par OpenAI évidemment).

Jan fonctionne sous Linux (Appimage et .deb dispo), sous Windows et macOS (Intel / Silicon) et propose une prise en charge des modèles open source tels que GGUF via llama.cpp, TensorRT via TensorRT-LLM ou des API externes. Jan utilise également le moteur d’inférence Nitro, des mêmes développeurs, qui se veut être rapide et léger.

Je teste ici le modèle Trinity 1.2 7B Q4 :

Et ici un modèle spécialisé en code Python nommé Wizard Coder Python 13B Q5.

Un truc cool avec Jan c’est que toutes les conversations sont conservées sur votre disque au format JSON, donc si le coeur vous en dit, vous pourrez ensuite les exploiter comme bon vous semble dans vos outils.

Jan propose également un serveur REST qui permet d’interroger via une API compatible OpenAI n’importe quel modèle que vous y feriez tourner. Ça permet de brancher vos outils ou vos scripts directement sur le LLM ouvert de votre choix.

Dans la lignée de Ollama ou LM Studio, Jan rempli ses promesses et vous permettra de vous éclater avec l’IA (abus de langage, je sais…) sans mettre en péril vos données personnelles.

Pour en savoir plus, rendez-vous sur le site de Jan ou sur leur page Github pour les sources et la doc.

Merci à Lorenper

LocalAI – L’alternative open source puissante à OpenAI

Par : Korben

Aujourd’hui, j’aimerais vous présenter LocalAI, une alternative open source à OpenAI. En tout cas, c’est comme ça que le créateur du projet le présente. Il s’agit d’une solution idéale pour tous ceux qui cherchent une API REST compatible avec les spécifications de l’API OpenAI pour l’inférence locale.

Grâce à LocalAI, vous pouvez exécuter des modèles linguistiques, générer des images, de l’audio et bien d’autres choses encore, localement ou sur site avec du matériel grand public, et ce, sans avoir besoin d’un GPU ! Le projet a pour principal objectif de rendre l’IA accessible à tous.

Pour résumer, voici les principales caractéristiques de LocalAI :

  • Une API REST locale, alternative à OpenAI. Comme ça, vous gardez bien au chaud vos propres données.
  • Pas besoin de GPU. Pas besoin d’accès internet non plus. Toutefois, l’accélération GPU est possible en option.
  • Prise en charge de plusieurs modèles.
  • Dès qu’ils sont chargés une première fois, les modèles restent en mémoire pour une inférence plus rapide.
  • N’utilise pas de shell, mais des liaisons directes pour une inférence plus rapide et de meilleures performances.

En termes de fonctionnalités, LocalAI offre une large gamme d’options, parmi lesquelles :

  • La génération de texte avec les modèles GPT (comme llama.cpp ou gpt4all.cpp).
  • La conversion de texte en audio.
  • La transcription audio en texte avec whisper.cpp.
  • La génération d’images avec Stable Diffusion.
  • Les dernières fonctionnalités d’OpenAI récemment ajoutées comme l’API Vision par exemple.
  • La génération d’embeddings pour les bases de données vectorielles.
  • Les grammaires contraintes.
  • Le téléchargement de modèles directement à partir de Huggingface.

LocalAI est bien sûr un projet communautaire donc n’hésitez pas si vous souhaitez vous impliquer !

Pour commencer rapidement avec LocalAI, vous pouvez consulter leur guide Getting Started qui décrit les différentes méthodes d’installation et les exigences matérielles ou aller consulter les guides de la communauté. Je vous ferais aussi probablement un tutoriel prochainement si mon emploi du temps me le permet.

LocalAI est disponible sous forme d’image conteneur et de binaire, compatible avec divers moteurs de conteneurs tels que Docker, Podman et Kubernetes. Les images de conteneurs sont publiées sur quay.io et Docker Hub, et les binaires peuvent être téléchargés à partir de GitHub.

Concernant les exigences matérielles, ça varie en fonction de la taille du modèle et de la méthode de quantification utilisée mais pour choper quelques repères de performance avec différents backends, comme llama.cpp, vous pouvez consulter ce lien.

Maintenant pour en savoir plus, vous pouvez explorer le site localai.io. Vous y trouverez de nombreuses informations et des exemples d’utilisation pour vous aider à tirer le meilleur parti de LocalAI.

Merci à Lorenper

Raspberry Pi NAS – Du stockage réseau DIY performant et économique !

Par : Korben

Je ne sais pas si ça va vous motiver pour aujourd’hui ou si on contraire, ça va vous faire poser des congés, mais j’ai découvert grâce à Lorenper, un projet plutôt dingue qui allie la magie du Raspberry Pi et le côté pratique d’un NAS (Network Attached Storage). En gros, imaginez pouvoir créer votre propre espace de stockage en réseau à la maison, à moindre coût et avec une petite bête électronique qui consomme très peu d’énergie.

Hé bien c’est possible grâce au Raspberry Pi NAS qui est un projet DIY dont toutes les étapes sont décrites chez Printables.

Le Raspberry Pi, pour ceux qui ne connaissent pas encore, est un mini-ordinateur à bas coût qui permet de réaliser de nombreux projets DIY (Do It Yourself) à la fois ludiques et utiles. Il est devenu très populaire pour la création de serveurs en tous genres, et notamment pour mettre en place un NAS.

Le truc, c’est que les NAS sont généralement assez chers, et leurs performances ne sont pas toujours à la hauteur de leur prix. J’ai un Synology à la maison et j’en suis très content. Mais grâce au Raspberry Pi, il est maintenant possible de créer un NAS sur mesure, avec des fonctionnalités adaptées à nos besoins, et ce, pour une somme modique.

La première étape pour créer un Raspberry Pi NAS consiste à rassembler le matériel nécessaire. Vous aurez besoin d’un Raspberry Pi (de préférence de dernière génération pour bénéficier de performances accrues), d’une carte microSD pour le système d’exploitation, d’un disque dur externe ou d’une clé USB pour le stockage, d’une alimentation adaptée et de deux ou trois autres petites choses telles qu’un écran OLED. Je vous laisse vous référer à la liste du matos sur le site Printables.

Une fois le matériel rassemblé, il faudra préparer la carte microSD avec le système d’exploitation. La distribution la plus populaire pour ce genre de projet est Raspbian. Une alternative intéressante est OpenMediaVault qui intègre déjà de nombreuses fonctionnalités pour un NAS.

Le disque dur externe ou la clé USB que vous choisirez pour le stockage devra être formaté et monté sur le Raspberry Pi. Il est possible d’utiliser différents systèmes de fichiers tels que NTFS, FAT32 ou EXT4. À noter qu’il est également possible de configurer un RAID (Redundant Array of Independent Disks) pour augmenter la capacité de stockage et garantir la sécurité des données. Plus y’a de plus, plus on est à l’aise, blaiz !

En ce qui concerne le partage des fichiers et dossiers sur le réseau, plusieurs protocoles sont disponibles et peuvent être configurés selon vos besoins. Le plus commun est le protocole Samba (non, pas de Janeiro…) qui est compatible avec les systèmes Windows, macOS et Linux. Un autre protocole intéressant est NFS (Network File System) qui fonctionne principalement avec les systèmes Linux et UNIX. Pour ceux qui souhaitent accéder à leurs fichiers depuis le Web, il est possible de mettre en place un serveur FTP (File Transfer Protocol) ou d’utiliser des applications de cloud personnel telles que Nextcloud ou Owncloud.

Mis à part les fonctionnalités de base d’un NAS, le Raspberry Pi permet d’ajouter d’autres services supplémentaires tels que la sauvegarde automatisée de vos données, la synchronisation entre plusieurs dispositifs, l’accès à distance sécurisé via VPN ou encore la diffusion de contenus multimédias en streaming grâce à des logiciels tels que Plex ou Kodi. Vous avez de quoi vous éclater techniquement, ne vous inquiétez pas.

Bref, créer un NAS avec un Raspberry Pi est un projet plutôt cool qui permet d’obtenir un système de stockage en réseau sur mesure, économique et performant. Les possibilités sont presque infinies, et vous pourrez adapter votre NAS à vos besoins spécifiques grâce à la flexibilité offerte par le Raspberry Pi.

Puis si vous voulez faire d’autres trucs avec votre Raspberry Pi, mais que vous n’avez pas d’idées, je vous ai compilé une super liste de projets ici.

Merci à Lorenper

LLM4Decompile – Quand l’IA se met à décompiler du binaire

Par : Korben

Imaginez un monde merveilleux où les secrets enfermés dans les binaires compilés ne seraient plus inaccessibles aux simples mortels que nous sommes…

C’est exactement ce que LLM4Decompile, le premier LLM (Large Language Model) open-source dédié à la décompilation, promet de réaliser. Fruit d’un travail de recherche innovant mené par une équipe de chercheurs passionnés, ce modèle révolutionnaire ouvre de nouvelles perspectives dans le domaine du reverse engineering.

Jusqu’à présent, la décompilation, c’est-à-dire le processus qui consiste à retrouver le code source à partir d’un exécutable compilé, restait un défi de taille. Les outils existants peinaient à produire un code lisible et compréhensible par les humains, ce qui est logique puisqu’il y a une grosse perte d’informations lors de la compilation. Mais ça, c’était avant l’arrivée de LLM4Decompile !

Entraîné sur un énorme dataset de 4 milliards de tokens de code C et d’assembleur x86, ce modèle de langage surpuissant a appris à décoder les secrets des binaires. Grâce à son architecture basée sur les Transformers et ses milliards de paramètres, il est donc capable de capturer les patterns et la sémantique du code à un niveau inédit.

Mais les chercheurs ne se sont pas arrêtés là. Ils ont aussi développé le premier benchmark standardisé pour la décompilation baptisé Decompile-Eval. Basé sur des problèmes de programmation réels, il permet d’évaluer la capacité des modèles à regénérer un code recompilable et ré-exécutable. Exit les métriques de similarité de tokens, place à des critères solides et pertinents ! LLM4Decompile parvient à recompiler 90% des binaires décompilés (oui oui, je me suis pas trompé) !

Mieux encore, 21% du code re-généré réussit tous les tests unitaires, démontrant une préservation de la logique du programme. C’est 50% de plus que GPT-4, pourtant considéré comme l’état de l’art.

Cerise sur le gâteau, LLM4Decompile est entièrement open-source. Les modèles pré-entraînés de 1,3 à 33 milliards de paramètres sont disponibles sur Hugging Face, prêts à être utilisés et améliorés par la communauté. Le code, les données d’entraînement et le benchmark sont aussi accessibles sur GitHub.

Bien sûr, LLM4Decompile n’est qu’un premier pas vers la décompilation par l’IA. Il reste limité au langage C et à l’assembleur x86, et ne gère pour l’instant que des fonctions isolées. Mais les perspectives sont immenses ! On peut imaginer étendre son champ d’action à d’autres langages et architectures, voire carrément l’utiliser pour transpiler automatiquement du code entre différents langages.

Les applications potentielles sont nombreuses : reverse engineering de logiciels legacy (ça veut dire obsolète mais encore utilisé.. .argh !), analyse de malware, portage de vieux jeux vidéos, etc. Même les vieux binaires qui sentent la naphtaline n’auront bientôt plus de secrets pour nous !

Adeus – L’assistant IA DIY qui vous accompagne partout

Par : Korben

Si vous lisez mon site depuis longtemps, vous savez que j’apprécie tous ces petits projets de DIY (Do It Yourself), alors maintenant qu’on peut y coller un peu d’IA, j’ai l’impression que tout devient possible. Tenez par exemple ce projet baptisé Adeus.

C’est un dispositif portable d’intelligence artificielle open source capable de vous accompagner à chaque instant. Cette technologie, bien plus qu’un simple gadget, deviendra possiblement de standard des années qui arrivent. La preuve avec le succès du Rabbit R1 qui n’a pour d’autres buts que de remplacer les smartphones.

Alors comment fonctionne Adeus ?

Hé bien, ce système se compose de trois éléments clés qui interagissent les uns avec les autres :

Il y a tout d’abord une application mobile / web qui n’est ni plus ni moins qu’une interface qui permet à l’utilisateur d’interagir avec son IA personnelle et ses données par le biais d’un chat.

Côté matos, il y a le dispositif portable qui enregistrera tout ce que l’utilisateur dit ou entend, et l’enverra au backend pour être traité. Pour le moment, c’est possible à déployer sur un Raspberry Pi Zero W ou un appareil CoralAI.

Et ce backend basé sur Supabase, avec sa base de données, sera capable de traiter et stocker les données que nous échangeons avec les LLM (Large Language Model).

Toutefois, pour garantir le respect de nos données et notre propriété intellectuelle, Adeus a choisi la voie de l’open source. Grâce à cette philosophie, il est possible de garder un œil sur le fonctionnement de l’IA et de s’assurer qu’aucun tiers ne peut accéder à notre précieux contenu. Pour un objet à qui on confie toute sa vie perso, je trouve ça plutôt sain.

Pour en savoir plus, vous pouvez consulter la page GitHub d’Adeus qui regorge d’informations détaillées sur le projet.

Merci à Lorenper

ytDownloader – Télécharger des vidéos à partir d’une simple URL

Par : Korben

Hé les amis, aujourd’hui laissez-moi vous présenter un outil génial qui vous facilitera la vie en vous permettant de télécharger des vidéos et d’extraire des pistes audios de différents formats à partir de centaines de sites, dont, YouTube, Facebook, Tiktok, Twitch, Twitter, Instagram et bien d’autres…

Cet outil s’appelle ytDownloader et vous l’aurez compris, c’est YoutubeDL derrière sauf que là, y’a une interface minimaliste facile à prendre en main. L’outil est bien sûr entièrement gratuit et Open Source.

Disponible sous Linux, Windows et macOS, cet utilitaire dispose de nombreuses fonctionnalités comme un mode clair/sombre, la possibilité de choisir un thème pour pas flinguer vos petits yeux, ainsi que la possibilité de télécharger une plage spécifique d’une vidéo si vous le souhaitez, ce qui est pratique pour extraire un morceau précis. Vous pouvez évidemment, après avoir entré l’URL de votre vidéo, choisir le format et la qualité de la vidéo et de l’audio que vous voulez récupérer, ce qui est super pratique pour faire par exemple des MP3 à partir de clips vidéos.

Cet outil prend également en charge le téléchargement des sous-titres et est disponible en plusieurs langues. Vous pouvez bien sûr configurer l’emplacement où enregistrer vos fichiers récupérés et il n’y a ni pubs ni traqueur dans l’application.

Pour résumer, ytDownloader est un outil super utile pour tous ceux qui ont besoin de récupérer des vidéos et/ou extraire des audios de différents formats à partir de différents sites. Je vous le conseille !

Rendez-vous sur leur site pour télécharger ytDownloader.

Merci à Lorenper pour le partage.

Copilot passe à GPT-4 Turbo gratuit pour tous sur Windows 11

Par : Korben

Vous en avez entendu parler, peut-être même que vous l’avez déjà testé, mais cette news devrait quand même vous intéresser si vous faites partie des chanceux qui ont accès à Copilot, l’assistant IA de Microsoft. Car hier, la firme de Redmond a annoncé une sacrée mise à jour pour son chatbot intégré à Windows 11. En effet, d’après cette news parue sur Neowin.net, Microsoft vient de booster les performances de Copilot en y intégrant le tout dernier modèle de langage GPT-4 Turbo développé par OpenAI.

Auparavant, pour pouvoir utiliser GPT-4 Turbo dans Copilot, il fallait souscrire à l’abonnement Copilot Pro à 20$ par mois. Pas donné quand même. Mais bonne nouvelle, Mikhail Parakhin, le grand chef de la pub et des services web chez Microsoft, a annoncé sur son compte X (ex-Twitter) que GPT-4 Turbo était désormais disponible gratuitement pour tous les utilisateurs de Copilot, après pas mal de boulot apparemment.

On va tous pouvoir en profiter !

Pour rappel, GPT-4 Turbo c’est le dernier cri en matière de modèle de langage IA. Il a été dévoilé par OpenAI en novembre dernier et il permet notamment de traiter des prompts beaucoup plus longs, jusqu’à 300 pages, grâce à une fenêtre de contexte élargie à 128 000 tokens (128L). Autant dire que ça ouvre pas mal de possibilités pour les utilisateurs.

Microsoft avait promis d’intégrer le support de GPT-4 Turbo en décembre, mais jusqu’à présent c’était réservé aux abonnés Copilot Pro. Ceux-ci pourront d’ailleurs toujours choisir d’utiliser l’ancien modèle GPT-4 s’ils le préfèrent, via une option dans les paramètres.

En parlant de Copilot Pro, Microsoft a aussi annoncé cette semaine que les abonnés pouvaient maintenant accéder à Copilot GPT Builder, un nouvel outil permettant de créer ses propres chatbots personnalisés sans aucune connaissance en programmation. Plutôt balèze. Et le top, c’est que ces chatbots pourront ensuite être partagés avec n’importe qui, même ceux qui n’ont pas Copilot Pro.

Bref, vous l’aurez compris, ça bouge pas mal du côté de Copilot en ce moment. Et visiblement, ce n’est pas fini. Selon une fuite repérée dans des documents promotionnels de Samsung, de nouvelles fonctionnalités devraient bientôt arriver, notamment une meilleure intégration entre Copilot et l’app Phone Link de Microsoft pour les smartphones Galaxy.

Alors perso, j’ai hâte de tester tout ça. Déjà que Copilot était plutôt impressionnant, avec GPT-4 Turbo ça promet de nouvelles possibilités assez dingues. Et puis le fait que ce soit désormais gratuit pour tous les utilisateurs, c’est quand même un sacré argument. Pas besoin d’être un pro ou de casquer tous les mois pour avoir accès au top de l’IA conversationnelle.

Suyu – le nouvel émulateur Switch open source qui ose défier Nintendo après la mort de Yuzu

Par : Korben

Vous avez entendu parler de Suyu ? C’est le nouvel émulateur Nintendo Switch open source qui fait pas mal parler de lui en ce moment. Faut dire qu’après la descente en flammes de son prédécesseur Yuzu, qui s’est pris un méchant procès de Nintendo et a dû mettre la clé sous la porte, les fans d’émulation se demandaient bien qui allait prendre le relais.

Bah c’est Suyu qui s’y colle, avec une équipe de développeurs passionnés qui ont repris le code source de Yuzu pour continuer à faire évoluer l’émulation Switch. Mais attention, les gars ont retenu la leçon et font super gaffe à pas se mettre Nintendo à dos comme Yuzu ! Déjà, fini la monétisation du projet, Suyu c’est 100% bénévole. Ils l’annoncent clairement sur leur page GitLab, zéro profit, que dalle, nada. Normal, vu que c’était un des points qui avaient bien énervé Nintendo dans le procès contre Yuzu.

Pareil pour les guides pas à pas pour expliquer comment jouer à des jeux piratés, c’est terminé. Les mecs veulent pas entendre parler de warez, au point que c’est devenu le sujet tabou numéro 1 sur leur Discord. Suyu joue la carte de la prudence à fond et refuse d’être associé de près ou de loin au piratage. Sachant que c’était un autre gros point de crispation de Nintendo contre Yuzu, ça me parait logique.

Après est-ce que ça suffira à éviter les foudres des avocats de Big N, ça c’est une autre histoire. Car même en jouant profil bas, Suyu n’en reste pas moins un émulateur Switch, avec tout ce que ça implique légalement, notamment le fait de devoir extraire la clé de sécurité d’une Switch pour pouvoir jouer aux jeux, ce qui ne plait pas non plus à la firme japonaise. D’ailleurs, les dévs le disent eux-mêmes, ils évoluent pour l’instant dans une « zone grise », le temps de trouver une solution pour en sortir. Wait and see comme on dit.

Mais en attendant, force est de constater que Suyu fait du bon boulot. Enfin un émulateur Switch puissant, open source et qui en plus est plutôt user-friendly. De quoi donner envie d’y jeter un œil et pourquoi pas de filer un coup de main si vous vous y connaissez un peu en dev. Le code est dispo sur le GitLab, avis aux amateurs ! Je vous ferait pas de tuto, hein ^^.

Bon après, bien que l’émulation soit LÉGALE, n’empêche que c’est quand même un peu couillu comme projet. Rien que le nom, Suyu, qui se prononce comme « sue you » (traduisez « attaquez-moi en justice » pour les anglophobes), ça montre bien que les mecs ont de l’humour et qu’ils sont conscients de jouer avec le feu. On peut pas leur enlever ça.

Et puis c’est cool de voir que malgré les menaces, la communauté de l’émulation continue de faire vivre ce hobby de passionnés. Avec tous les projets qui se sont fait dégommer ces derniers temps, on aurait pu croire le milieu complètement plombé. Mais heureusement, y a encore des irréductibles pour prendre la relève et faire perdurer la tradition, même si ça devient de plus en plus tendu.

Donc voilà, un petit coup de projecteur sur Suyu qui le mérite bien. Si vous voulez en savoir plus, je vous invite à faire un tour sur leur site, y a toutes les infos nécessaires. Et n’hésitez pas non plus à rejoindre leur serveur Discord pour suivre l’actu du projet et échanger avec les dévs et la communauté.

Sur ce, je retourne jouer à Zelda BOTW sur mon PC, vu que maintenant c’est possible grâce à Suyu 😉 J’déconne, j’déconne… Quoique !

Source

Grok d’Elon Musk bientôt open-source pour défier ChatGPT

Par : Korben

Ça y est les amis, c’est la grande nouvelle de la semaine dans le monde de l’IA ! Elon Musk, le grand patron de xAI, a balancé sur Twitter que son chatbot Grok va passer en open-source dans les prochains jours. Et ça, c’est pas rien, surtout quand on sait que ce petit bijou est capable, selon ses dires, de rivaliser avec ChatGPT !

Faut dire que depuis sa sortie l’an dernier, Grok a pas chômé. Il a été boosté avec des fonctionnalités de fou, comme l’accès à des infos en temps réel et la possibilité de s’exprimer sans filtre, même si ça plait pas à tout le monde. 😅 Pour l’instant, seuls les abonnés premium de X (anciennement Twitter) peuvent en profiter pour la modique somme de 16 dollars par mois. Mais ça, ça risque bien de changer !

Parce que voilà, Elon est pas content. Il y a quelques jours, il a carrément attaqué OpenAI en justice, l’accusant d’avoir trahi ses principes d’ouverture et de transparence. Faut savoir qu’à la base, Musk avait co-fondé OpenAI avec Sam Altman il y a presque 10 ans, justement pour contrer la domination de Google dans l’IA. Mais depuis, OpenAI est passé en mode closed-source et s’est rapproché de Microsoft, son nouveau meilleur pote. Forcément, ça passe mal auprès d’Elon qui n’hésite pas à balancer : « OpenAI est devenu une filiale de facto de Microsoft, la plus grande entreprise technologique au monde ». Aïe, ça pique ! 😬

Résultat, ça a foutu un sacré bordel dans le milieu. Des pointures comme Vinod Khosla (un des premiers investisseurs d’OpenAI) et Marc Andreessen (co-fondateur d’Andreessen Horowitz) s’en sont mêlés, alimentant le débat sur les avantages et les risques de l’open-source dans l’IA. Pendant ce temps-là, Elon persiste et signe : « OpenAI est un mensonge », a-t-il tweeté lundi. Ambiance ! 🔥

Mais revenons-en à nos moutons. Si Grok passe effectivement en open-source comme promis, ça va faire du bruit. xAI rejoindrait ainsi le club select des boîtes comme Meta et Mistral qui ont déjà publié le code de leurs modèles. Et c’est pas la première fois qu’Elon joue la carte de la transparence : Tesla a déjà open-sourcé plein de brevets, et même X (ex-Twitter) a rendu publics certains de ses algorithmes l’an dernier.

Alors, qu’est-ce que ça va donner concrètement ? 🤔

On peut imaginer que des développeurs du monde entier vont pouvoir mettre les mains dans le cambouis de Grok, l’améliorer, le customiser à leur sauce. Ça pourrait donner lieu à des utilisations vraiment cool, comme par exemple intégrer Grok à des apps ou des sites web pour proposer une assistance ultra-performante aux utilisateurs. Ou encore s’en servir comme base pour créer des chatbots spécialisés dans des domaines pointus, type médecine, droit, finance… Les possibilités sont quasi infinies !

Après, faudra quand même rester vigilant. Parce que l’open-source, c’est chouette, mais ça peut aussi ouvrir la porte à des dérives si c’est mal encadré. Genre des mecs mal intentionnés qui se serviraient du code de Grok pour créer des chatbots malveillants, des spambots, ou pire encore. 😱 Espérons qu’Elon et son équipe ont prévu des garde-fous solides pour éviter ça (j’en doute…).

En attendant, on a hâte de voir ce que ça va donner ! Et vous, vous en pensez quoi ? Vous croyez que l’open-source peut vraiment révolutionner le monde de l’IA, ou bien c’est juste un énième coup de com’ de notre cher Elon ?

Allez, je vous laisse cogiter là-dessus, et rdv très vite pour la suite des aventures ! 😉

Source

Geppetto – ChatGPT et Dall-e dans votre Slack

Par : Korben

Aujourd’hui, je vais vous parler d’un projet innovant qui vaut le détour. Il s’agit de Geppetto, qui n’a rien à voir avec l’autre naze de Pinocchio, mais qui est un bot avancé utilisant la technologie d’OpenAI pour amener une touche d’intelligence dans votre Slack.

Geppetto intègre ChatGPT-4 et DALL-E-3, ce qui permet d’avoir de la production d’écrits, mais également de la génération d’images. Une fois déployé, Geppetto s’intègre à votre espace de travail Slack et améliore la communication au sein de vos équipes en ajoutant des salutations automatisées, des réponses cohérentes et, bien sûr, ces fameuses visualisations créatives. Comme ça, plus besoin de perdre du temps à chercher les mots justes ou les images parfaites, Geppetto s’en charge pour vous.

En gros, si vous avez un truc urgent à dire à votre équipe sur Slack, mais vous ne trouvez pas les mots pour la formuler de manière claire et concise, plutôt que de perdre du temps à chercher comment exprimer maladroitement votre pensée, vous pouvez simplement demander à Geppetto de vous aider à formuler par exemple une question ou à y répondre. Tout ça dans la limite des connaissances du bot évidemment.

La génération d’image peut également vous aider à illustrer un concept complexe ou simplement pour ajouter un peu de fun à la conversation.

Alors, elle n’est pas belle la vie avec un bot comme Geppetto ? C’est vachement plus pratique qu’un pantin en bois trop con.

Si ce projet vous intrigue et que vous souhaitez en savoir plus, je vous invite à consulter le dépôt GitHub à l’adresse suivante : https://github.com/Deeptechia/geppetto.

Merci à Lorenper

OpenHue CLI – Contrôlez vos Philips Hue depuis votre terminal

Par : Korben

Y’a pas très longtemps, je vous ai présenté le projet libre OpenHue pour contrôler vos ampoules Philips Hue via une API REST. Et bien Thibault, le développeur du projet m’a contacté pour me présenter OpenHue CLI

Comme son nom l’indique, il s’agit d’interface en ligne de commande, conçue pour interagir avec vos ampoules Philips Hue, directement depuis votre terminal.

Avec OpenHue CLI, vous pourrez vous connecter sans effort aux bridges Philips Hue, détecter l’ensemble de vos ampoules et vérifier leur état actuel. Bien sûr, vous pourrez les allumer ou les éteindre, ajuster leur luminosité et modifier les couleurs, le tout avec de simples commandes à entrer dans le terminal.

OpenHue CLI fonctionne sous macOS, Linux et Windows et si ça vous dit d’essayer, vous aurez besoin de Homebrew ou de Docker.

Ainsi pour l’installer sous macOS :

brew tap openhue/cli
brew install openhue-cli

Puis lancez la commande setup pour découvrir le bridge openhue :

openhue setup

Et si c’est via Docker :

docker pull openhue/cli
docker run -v "${HOME}/.openhue:/.openhue" --rm --name=openhue -it openhue/cli setup -b 192.168.1.x -k xxxxx

Vous pourrez ensuite lister les ampoules disponibles comme ceci :

docker run -v "${HOME}/.openhue:/.openhue" --rm --name=openhue -it openhue/cli lights list 

Bref, que vous soyez un développeur cherchant à intégrer l’éclairage Philips Hue dans ses projets ou un passionné de domotique souhaitant améliorer son installation, OpenHue CLI est l’outil qu’il vous faut.

OpenHue CLI est disponible sur GitHub à l’adresse suivante : https://github.com/openhue/openhue-cli

Merci à Lorenper

De4Py – Le toolkit idéal pour faire de l’analyse de programmes Python (malwares ou autre)

Par : Korben

A tous les fondus d’analyse de code, aujourd’hui, j’aimerais vous présenter De4Py, un déobfuscateur Python avancé qui s’est donné pour mission de révolutionner le domaine pour les analystes de malwares et les experts en reverse engineering.

Développé par le duo Fadi002 et AdvDebug, cet outil se distingue non seulement par son interface conviviale, mais aussi par un ensemble de fonctionnalités avancées conçues pour, entre autres, déchiffrer les fichiers Python.

Ce toolkit prend en charge toute une gamme d’obfuscateurs populaires, incluant Jawbreaker, BlankOBF, PlusOBF, Wodx, Hyperion et l’obfuscateur de pyobfuscate.com. Cette polyvalence vous assure de pouvoir décoder un large éventail de fichiers obfusqués avec une grande facilité.

L’une des fonctionnalités phares de l’outil est sa capacité d’exécution de code. Cela permet aux utilisateurs d’exécuter du code Python au sein de l’outil. Par exemple, ils expliquent sur le Github, que grâce à ça, si un programme demande une licence pour fonctionner dans son intégralité, De4py permet d’accéder directement aux fonctionnalités principales de l’outil, et par conséquent de contourner les restrictions liées à la licence.

La fonction de Dump de chaînes de caractères est un autre atout crucial. Elle facilite l’extraction de textes du processus Python et les sauvegarde dans un fichier, rendant plus aisée l’extraction de données de la mémoire, y compris des informations sensibles comme les webhooks. Il est capable également d’identifier les chaines de caractères « interessantes » comme les IP, les sites web et les mots-clés liés à des informations sensibles.

De4py aborde également le défi que représentent ces programmes Python qui tentent de s’auto-terminer lorsqu’ils détectent un débogueur ou une machine virtuelle. En supprimant la fonction de sortie, il vous permettra de ne plus galérer avec des sorties de programme surprises. De4py dispose aussi d’une fonctionnalité qui permet de récupérer et d’accéder à toutes les fonctions se trouvant dans le processus, ce qui est pratique si on veut modifier certaines fonctions en mémoire de manière plus précise.

Il y a également un analyseur de fichiers pour détecter si un programme Python est « packé ». Il tente alors d’extraire les programmes qui s’y trouvent en utilisant pyinstaller. Enfin, De4Py est capable de surveiller le comportement du programme sur votre système à savoir tout ce qui est manipulations de fichiers, activités de processus, interactions avec la mémoire, et même les communications via socket, avec détail de la taille des données transmises / reçues et des adresses IP. Cette fonctionnalité permet également l’extraction du contenu des sockets et le déchiffrement du contenu chiffré OpenSSL directement dans un fichier.

Bref, que ce soit via son interface graphique ou en mode terminal, De4Py est un super outil pour tous les amateurs de reverse engineering qui font notamment de l’analyse de malware.

Vous en saurez plus ici sur leur Github et le site officiel est ici.

JXL et AVIF – Les nouveaux champions des formats d’image

Par : Korben

On est tous là avec nos formats d’images d’avant la guerre, à savoir le JPEG, le PNG et le WebP alors qu’il existe des trucs beaucoup plus efficaces aujourd’hui en 2024. L’objectif de cet article est donc de vous les présenter.

Le premier s’appelle AVIF (AV1 Image File Format) qui est basé sur le codec vidéo AV1, très connu pour son efficacité en termes de compression. L’AVIF est très adapté pour tout ce qui est images pour les sites web, mais également pour tout ce qui est images animées. Ça en fait donc une bonne alternative aux GIF animés et surtout, de très nombreux navigateurs modernes le supportent déjà.

L’autre format c’est le JXL qui n’est ni plus ni moins que la contraction de JPEG et de XL. Celui-ci est conçu pour compresser efficacement les photos avec ou sans perte selon ce que vous choisissez, tout en préservant une très haute résolution (au-delà du milliard de pixels si ça vous chante) avec plein dé détails. L’algo qui permet d’encoder les images en JXL est d’ailleurs jusqu’à 10 fois plus rapide que celui d’AVIF.

Ces deux formats qui supportent tous les deux la transparence, sont sortis vers 2019 et sont open source et non commerciaux. Alors c’est bien beau tout ça, mais comment on fait pour convertir nos images dans ces formats ? Et bien logiquement, n’importe quel outil de traitement d’image un peu récent peu le faire, mais autrement, y’a des outils.

Pour l’AVIF, vous pouvez utiliser les outils cavif-rs ou encore FFMPEG. Cavif-rs ce sera plus pour les images statiques et FFMPEG pour les gifs animés.

Prenons cette image PNG pour un beau fond d’écran de 1,9 Mo et d’une résolution de 1456 × 816 pixels :

En la convertissant en AVIF à l’aide de la commande suivante :

cavif Downloads/wallpaper.png -o Downloads/wallavif.avif -f

On obtient la même image, avec la même résolution sauf qu’elle pèse maintenant 77 ko. Je vous l’intégre dans mon WordPress pour que vous voyiez que c’est bien supporté par votre navigateur, mais comme WordPress ne supporte pas encore nativement ce format, le rendu est un peu cra-cra :

Je ne vous avais pas menti, c’est sacrément efficace. Dommage pour moi, ce format n’est pas supporté par mon WordPress, donc je ne peux pas encore l’intégrer à mon article.

Passons maintenant à une image animée avec FFMPEG. Je prends ce GIF de 1,1 Mo :

Avec FFMPEG, je dois d’abord convertir le format des pixels en yuv420p qui est un format de couleur très utilisé pour la vidéo et compatible AVIF :

ffmpeg -i happy.gif -pix_fmt yuv420p -f yuv4mpegpipe happy.y4m

Ensuite, il faut installer la lib avif comme ceci sous Linux :

sudo apt install libavif-bin

Comme ça sous mac :

brew install libavif

Ensuite armé de ce fichier y4m, je peux alors appeler l’outil d’encodage avifenc qui va alors le convertir en AVIF animé :

avifenc happy.y4m happy.avif

Et voilà, je me retrouve avec la même image animée sauf qu’elle pèse 45 ko. C’est magique.

Pour le format JXL c’est encore plus simple, puisqu’il y a un outil officiel à télécharger ici. Si vous êtes sous mac, vous pouvez même l’installer comme ceci :

brew install jpeg-xl

Ensuite, y’a plus qu’à appeler la commande comme ceci avec le paramètre lossless afin de n’avoir aucune perte :

cjxl wallpaper.png wallpaper.jxl --lossless_jpeg=0

Je passe donc d’un fond d’écran de 1,9 Mo en PNG au même fond d’écran de 202 Ko. Voici l’incrustation de ce JXL :

Après si vous avez la flemme de jouer avec tous ces outils sachez que ezgif dont je vous ai déjà parlé ici, propose des convertisseurs pour l’AVIF et le JXL.

D’ailleurs, si vous vous demandez comment je l’ai intégré, et bien, il existe une astuce qui permet d’avoir un rendu de JXL ou d’AVIF avec une image PNG en secours pour les anciens navigateurs qui ne supporteraient ni le AVIF ni le JXL.

Voici le code :

<picture>
      <source type="image/jxl" srcset="https://korben.info/wallpaper.jxl" />
      <img src="https://korben.info/wallpaper.png" />
</picture>

Et pour de l’AVIF ce sera comme ça :

<picture>
      <source type="image/avif" srcset="https://korben.info/wallpaper.avif" />
      <img src="https://korben.info/wallpaper.png" />
</picture>

Bref, tout ça pour dire que les résultats en matière de qualité et de compression avec JXL et AVIF sont assez phénoménaux que ce soit avec perte ou non de qualité. Je vous encourage fortement à adopter ces futurs standards même si pour le moment, c’est encore un peu roots, mais c’est déjà bien supporté sur les navigateurs récents du marché, donc pourquoi s’en priver. J’espère que WordPress le supportera également nativement rapidement, comme ils l’ont fait pour le webp.

LiteLLM – Pour discuter avec toutes les API LLM en utilisant la syntaxe OpenAI

Par : Korben

Si vous codez en Python autour d’API de LLM comme celle d’OpenAI, d’Anthropic ou encore de Huggingface…etc., je vous présente LiteLLM qui risque de vous faire gagner pas mal de temps.

Il s’agit d’une lib Python capable d’interagir avec tout un tas d’API en utilisant le format de celle d’OpenAI. Elle fournit une interface simple et uniformisée pour appeler ces modèles , ce qui va vous faciliter leur utilisation pour des choses comme de la génération de texte, de la traduction ou encore du chat…

Pour l’installer, rien de plus simple :

pip install litellm

Ensuite, y’a plus qu’à créer un objet LiteLLM dans votre code, en lui fournissant l’ID et le nom du modèle à utiliser. Par exemple pour vous connecter à OpenAI, le code sera le suivant :

from litellm import completion
import os

## set ENV variables
os.environ["OPENAI_API_KEY"] = "your-api-key"

response = completion(
  model="gpt-3.5-turbo", 
  messages=[{ "content": "Hello, how are you?","role": "user"}]
)

Pour Claude 2, ça sera ça :

from litellm import completion
import os

## set ENV variables
os.environ["ANTHROPIC_API_KEY"] = "your-api-key"

response = completion(
  model="claude-2", 
  messages=[{ "content": "Hello, how are you?","role": "user"}]
)

Pour utiliser Ollama, ça donnerait également ça :

from litellm import completion

response = completion(
            model="ollama/llama2", 
            messages = [{ "content": "Hello, how are you?","role": "user"}], 
            api_base="http://localhost:11434"
)

Donc pas grand-chose qui change.

Vous l’aurez donc compris, LiteLLM permet de pondre un seul et unique code, mais pour discuter avec tous les fournisseurs d’IA du moment (et les logiciels libres existants)

Y’a la possibilité d’avoir du stream sur les réponses (c’est à dire, le texte qui s’affiche au fur et à mesure), de la gestion des exceptions, du log, sans oublier du calcul de coût et l’usage que vous pouvez avoir de ces API afin de ne pas éclater votre compte en banque.

LiteLLM intègre également un proxy OpenAI pour rediriger vos requêtes vers le modèle de votre choix. Pour l’installer :

pip install 'litellm[proxy]'

Lancez ensuite le proxy avec le modèle de votre choix :

litellm --model huggingface/bigcode/starcoder

Et lui passer vos requêtes dans le code python directement :

import openai # openai v1.0.0+
client = openai.OpenAI(api_key="anything",base_url="http://0.0.0.0:8000") # set proxy to base_url
# request sent to model set on litellm proxy, `litellm --model`
response = client.chat.completions.create(model="gpt-3.5-turbo", messages = [
    {
        "role": "user",
        "content": "this is a test request, write a short poem"
    }
])

print(response)

Si LiteLLM vous intéresse, vous trouverez toutes les infos sur la page Github ainsi que les endpoints ici.

OSS Insight – Explorez et comparez les dépôts GitHub en un clin d’oeil

Par : Korben

Vous le savez, je suis un grand amateur et un grand défenseur des logiciels libres et Open Source. Et je n’ai pas peur de le dire, GitHub est l’un de mes sites préférés.

On y trouve des pépites comme des scripts incroyables, des outils géniaux et j’adore ça ! Mais ce n’est pas forcément toujours simple de suivre tout ce qui se passe dans cet univers.

Enfin, ça, c’était avant parce qu’il existe un site génial qui s’appelle OSS Insight et qui offre des informations très détaillées et des tendances sur le monde de l’open source en analysant plus de 5 milliards de lignes d’événements GitHub.

Il fournit une nouvelle façon d’explorer les données GitHub en posant simplement des questions en langage naturel, ce qui est extrêmement pratique quand on veut comparer les choses.

Par exemple, OSS Insight vous permet de comparer deux dépôts à partir des mêmes indicateurs, tels que les étoiles, les forks, les issues, les commits, les pull requests, le nombre de contributeurs, les langages de programmation utilisés ou encore les lignes de code modifiées.

Imaginez que vous travaillez sur un projet et que vous souhaitez comparer deux bibliothèques open source pour déterminer laquelle est la plus populaire et la mieux maintenue. Et bien il suffit de lui demander.

Mais ça ne s’arrête pas à ça. Voici quelques exemples de questions que les gens posent à l’outil :

En plus de cela, OSS Insight offre des informations sur les tendances techniques mensuelles avec des listes de dépôts à découvrir.

Comme ça, vous pouvez suivre de près certains types d’outils populaires, comme les bases de données, les frameworks JavaScript ou encore les outils liés aux LLM. Vous pouvez également obtenir des analyses sur la productivité des développeurs et les statistiques des dépôts.

Pour tester le OSS Insight, il vous suffit de vous rendre sur leur site web et de plonger dans cet océan de données.

OSTE – Le scanner de vulns qui combine Nikto, ZAP, Nuclei, SkipFish, et Wapiti

Par : Korben

Si vous vous intéressez un peu à la sécurité informatique, je vous présente aujourd’hui OSTE qui est ce qu’on pourrait appeler un Metascanner.

Alors qu’est-ce qu’un Metascanner ?

Eh bien il s’agit d’un scanner de vulnérabilité web qui combine différents outils tels que Nikto, zap de l’OWASP, Nucléi, SkipFish ou encore Wapiti.

L’intérêt de cet outil c’est qu’il offre une interface graphique très user friendly qui permet de consulter les rapports de scan, mais également de les lancer. Injections SQL, XSS, XML, HTML ou encore des injections liées à des commandes spécifiques au système d’exploitation visé. Chacun des scanners DAST (Dynamic Application Security Testing) intégrés fournit des listes de vulnérabilités pour vous aider à identifier et corriger les problèmes potentiels.

Pour l’installer, vous aurez besoin de tous les outils que je viens de vous citer, mais si vous utilisez Kali Linux vous n’aurez pas de soucis puisque tout ça est déjà présent dans la distrib. Sinon il faudra les installer manuellement.

Ensuite il ne vous restera plus qu’à cloner le dépôt sur votre machine et à lancer la commande

python3 metascan.py

Vous pourrez alors lancer des scans, charger les résultats, les exporter, les consulter directement depuis l’interface graphique.

Vous l’aurez compris, OSTE est un outil fantastique pour simplifier l’évaluation de la cyber sécurité. N’oubliez pas quand même que c’est destiné à usages éducatifs ou dans le cadre de mission d’audits pour lesquelles vous avez été mandaté.

Si vous voulez en savoir plus, cliquez ici.

ShellGPT – Boostez votre utilisation du terminal grâce

Par : Korben

Je me lasse pas de tous ces petits softs qui utilisent de l’IA et qui simplifient quand même grandement la vie. Hier on a vu un plugin VS Code pour coder plus rapidement. Et aujourd’hui, je vous propose Shell GPT, un assistant personnel qui utilise ChatGPT pour vous aider à générer des commandes shell, des bouts de code et même de la documentation.

Pour l’installer, c’est easy :

pip install shell-gpt

Il faudra quand même faire un export OPENAI_API_KEYcomme d’habitude dans votre .zshrc ou .bashrc pour lui indiquer votre clé API OpenAI. Et redémarrez votre terminal pour que les modifications prennent effet.

export OPENAI_API_KEY="votre_clé_API_OpenAI"

Une fois installé, ça fait plein de trucs cool. Vous pouvez simplement exécuter la commande sgpt suivie de votre requête pour lui demander tout ce que vous voulez. Par exemple, pour rechercher les couleurs d’un arc-en-ciel, vous pouvez exécuter la commande suivante :

sgpt "quelles sont les couleurs d'un arc-en-ciel ?"

Mais vous pouvez surtout lui demander des commandes que vous ne sauriez pas construire. Par exemple :

sgpt "VOTRE DEMANDE"

Ou pour avoir une réponse plus directe avec uniquement du code, il suffit d’ajouter le paramètre –code :

sgpt --code "VOTRE DEMANDE"

Pour ceux qui veulent, vous pouvez même lancer votre demande en mode shell pour pouvoir l’exécuter de suite :

sgpt --shell "VOTRE DEMANDE"

Et pour aller encore plus loin, vous pouvez aussi le lancer en mode « chat ». S’engagera alors une discussion sur le long cours, avec possibilité de créer des fichiers, de les modifier, de lancer des commandes, etc… Remplacez NOM_SESSION par le titre à donner à votre chat, pour pouvoir ensuite y retourner en gardant le contexte.

sgpt --chat NOM_SESSION "VOTRE DEMANDE"

ShellGPT offre aussi d’autres fonctionnalités avancées, notamment le REPL mode qui permet d’interagir avec ShellGPT dans un mode interactif pour générer du code et exécuter des commandes (en appuyant sur la touche « e »

sgpt --shell --repl NOM_SESSION

Et vous pouvez aussi créer des rôles personnalisés pour personnaliser le comportement de ShellGPT dans des scénarios spécifiques, selon vos envies. Je vous invite à vous plonger dans la doc pour exploiter tout ça. Ça fait beaucoup de choses mais c’est super pratique et ça vous aidera à automatiser pas mal de choses.

Enfin, et je terminerai avec ça, il est possible d’installer une intégration dans votre shell.

sgpt --install-integration

En gros, ça va ajouter quelques lignes dans votre .bashrc ou .zshrc pour simplement en appuyant sur

CTRL + l

transformer ce que vous avez écrit dedans en commande exécutable.

Voilà, j’ai à peu pres fait le tour de cet outil merveilleux !

L’IA c’est cool mais quand c’est bien intégré dans nos outils du quotidien, c’est encore meilleur !

ShellGPT est à découvrir ici.

Continue – L’extension Visual Studio Code qui code à votre place

Par : Korben

Cursor est à ce jour l’éditeur de Code que je préfère, car il est basé sur Visual Studio et totalement boosté à l’IA. Cela me permet pour moi qui suis une quiche en dev, de mener à bien mes projets de conquête du monde.

Toutefois, c’est payant. Et si vous ne voulez pas lâcher un peu de thunasse, et que vous voulez payer uniquement ce que vous consommez, c’est possible dans Cursor avec une clé OpenAI, mais également en installant ce plugin open source baptisé « Continue » directement dans un bon vieux Visual Studio Code d’origine ou un JetBrains.

Concrètement, ce truc vous permet en surlignant un bout de code, de discuter avec l’IA pour mieux le comprendre, le compléter ou le corriger. Vous pouvez même apporter des modifs directement à votre code simplement en demandant ce que vous voulez en langage naturel du genre :

/edit réécrire ceci pour retourner une liste aplatie à partir d'une matrice 3x3
/edit refactoriser cela en une mise en page flex angulaire sur une seule ligne
/edit définir ici un type pour une liste de listes de dictionnaires

Continue permet aussi de générer des fichiers from scratch, c’est-à-dire de zéro ou de générer des tests unitaires, des commandes Shell ou des recherches sur StackOverflow pour en extraire uniquement le nécessaire.

Continue est compatible avec GPT-4 et GPT-3.5-turbo via l’API OpenAI. Et si vous voulez esquiver OpenAI, vous pouvez toujours la connecter sur un autre LLM en utilisant par exemple LM Studio ou Ollama.

Une fois installé, pour l’activer, il suffit de faire un CMD + M (ou ALT + M).

Amusez-vous bien et codez-moi des trucs de ouf !

ShortGPT – Pour automatiser la création de vidéos pour TikTok et Instagram

Par : Korben

Si vous trainez sur TikTok (pour les jeunes d’esprit) ou encore Instagram (pour les boomers d’esprit), vous êtes sans doute déjà tombé sur des vidéos avec des « facts », c’est à dire des faits historiques, scientifiques ou encore des trucs tirés tout droit de Reddit, qui vous ont captivé avec une petite musique de merde et un gameplay de jeu vidéo quelconque en fond.

Ce genre de format est calibré pour endormir ce qui vous reste de matière grise fondue et vous faire rester sur la vidéo. Là où ça devient drôle, c’est que vous allez pouvoir générer ce genre de format vidéo grâce à ShortGPT. Cet outil open source (décliné également en site payant) supporte de nombreuses langues et peu aller chercher automatiquement des « faits » random ou sur le sujet de votre choix, ainsi que des sujets sur Reddit et compiler tout ça dans une vidéo avec une voix OFF.

Vous pouvez lui demander autant de shorts que vous voulez. Il vous faudra juste une clé API OpenAI, Pexels (pour les images) et pour avoir une voix de qualité, vous pouvez aussi ajouter votre clé ElevenLabs (mais pas obligatoire puisque c’est payant).

Voici techniquement comment c’est gaulé :

Vous avez deux choix pour installer ShortGPT. Si vous êtes du genre à aimer avoir tout sur votre ordinateur, vous pouvez installer les pré-requis localement en suivant la doc du Github. Cependant, si vous êtes comme moi et que vous préférez ne pas vous embêter avec des installations interminables, vous pouvez utiliser Google Colab. C’est gratuit et sans installation.

Evidemment, y’a assez de contenu merdique sur Internet pour pas en rajouter, mais ça peut-être une bonne base de départ, de reprendre ce code, pour le modifier et en faire un outil de génération de vidéos un peu plus sympa et mieux adapté à votre public.

A découvrir ici.

WebDB – Vos bases de données enfin accessibles facilement

Par : Korben

Alexandre, lecteur de Korben.info depuis une bonne dizaine d’années, m’a fait le plaisir de me contacter pour me montrer l’outil qu’il développe depuis maintenant un an. J’ai trouvé ça très cool alors je vais le partager avec vous. Il s’agit d’un IDE totalement open source dédié aux bases de données. Cet outil libre simplifie les interactions que nous avons avec nos bases de données, ce qui rend leur administration et la gestion des données plus intuitives et surtout beaucoup plus facile. Vous allez voir !

Tout d’abord, WebDB simplifie la découverte de serveurs et la connexion à ces derniers, grâce à un système de scan intelligent. Il détecte les ports utilisés pour chaque base de données et permet d’ajouter des hôtes spécifiques à analyser. Cela élimine la corvée de récupérer des mots de passe, car WebDB teste automatiquement des identifiants populaires. Pensez quand même à les changer à un moment pour des questions de sécurité 🙂

En explorant plus profondément WebDB, on découvre que l’exploration de données est beaucoup plus facile et agréable que dans n’importe quel PhpMyAdmin ou autre. En seulement trois clics, on peut comme ça parcourir, mettre à jour ou supprimer des données. Le filtrage des données SQL et NoSQL se fait directement depuis l’explorateur, avec un design optimisé pour les clés étrangères et les ObjectID relationnels. Et ce n’est pas tout : WebDB permet de mettre à jours vos données par lots en utilisant des fichiers JSON. Pratiquement quand vous avez de la quantité à mettre à jour.

Le cœur de l’IDE WebDB réside dans son éditeur de requêtes. Avec de l’autocomplétion pour SQL et les structures spécifiques au serveur, rédiger des requêtes se fait en un clin d’œil. Les requêtes CRUD (create, read, update, and delete) pré-construites sont sauvegardées automatiquement et peuvent être marquées comme favorites.

La modification de colonnes SQL ou de champs NoSQL est également plus intuitive grâce à WebDB. Le logiciel propose tous les types possibles en fonction de la base de données et facilite la modification des colonnes avec des fonctions de casting intelligentes, applicables tant aux bases de données SQL qu’à NoSQL. Cette fonctionnalité permet une grande flexibilité et s’adapte à divers contextes linguistiques.

Voilà… Sinon, WebDB gère également des éléments complexes comme les procédures SQL, les fonctions, et les types de données spécifiques. Il prend en charge les validateurs MongoDB et les contraintes SQL, offrant une compréhension complète de la base de données.

La gestion des relations SQL dans WebDB est également totalement transparente grâce à une vue intuitive. L’outil déduit les relations pour aider à générer des données étrangères et à comprendre la structure de la base de données avec une facilité déconcertante. En plus, le versioning de base de données est une autre caractéristique clé de WebDB. Suivant les modifications et intégrant Git, il permet de revenir facilement à n’importe quelle version antérieure.

L’intégration de ChatGPT dans WebDB apporte également un peu de « cerveau » à l’outil. ChatGPT offre des réponses précises en fonction de la structure de la base de données. Cette fusion entre intelligence artificielle et gestion de données ouvre de nouvelles perspectives pour les utilisateurs, surtout pour les débutants.

Le module ERD de WebDB permet également de visualiser la structure et les relations de la base de données de manière moderne et intuitive. L’exportation de ces diagrammes au format PNG ou SVG se fait en un clic, ce qui vous permettra d’illustrer vos préz ou sites web / documentation super facilement.

Enfin, l’importation et l’exportation de données avec WebDB sont simplifiées, que ce soit au format natif ou JSON, garantissant une compatibilité et des performances optimales.

Vous l’aurez compris, Alexandre a bien bossé et WebDB se présente vraiment comme une solution complète et avant-gardiste pour la gestion des bases de données, accessible et efficace pour tous, que vous soyez total noob ou super expert en base de données.

Je vous invite à tester ça. C’est auto-hébergeable, ça tourne dans Docker, et y’a même une démo en ligne.

PR-Agent – Pour automatiser l’analyse des Pull Requests et bien d’autres choses sur vos projets Github, Gitlab…etc

Par : Korben

Si vous contribuez à des projets open source sur Github, Gitlab ou encore Bitbucket et que vous devez vous palucher tous les jours des tonnes d’issues, de questions et des pull requests, voici un outil propulsé avec de l’IA qui devrait bien vous rendre service.

Cet outil c’est PR-Agent et c’est développé par CodiumAI. Il s’agit d’un agent IA utilisant GPT-4 capable de vous soulager en générant des descriptions de pull request claires et concises de manière automatique, de faire de la revue automatique de code, ou tout simplement répondre aux questions que les gens posent et reposent sans cesse.

PR-Agent est également capable, un peu à la manière d’un Github Copilot, de faire des suggestions pour améliorer le code qui se trouve sur votre dépôt, et bien sûr d’écrire les commits si besoin.

Pour cela, une fois que PR-Agent est lancé, il suffit d’employer les commandes suivantes :

  • Description automatique (/describe) : Génère automatiquement une description du PR (Pull Request) – titre, type, résumé, description du code et étiquettes.
  • Auto Review (/review) : Feedback ajustable sur le thème principal du PR, son type, les tests pertinents, les problèmes de sécurité, le score, et diverses suggestions pour le contenu du PR.
  • Réponse aux questions (/ask …) : Réponse à des questions en texte libre sur le PR.
  • Suggestions de code (/improve) : Suggestions de code committable pour améliorer le PR.
  • Mise à jour du Changelog (/update_changelog) : Mise à jour automatique du fichier CHANGELOG.md avec les changements du PR.
  • Trouver un problème similaire (/similar_issue) : Récupère et présente automatiquement les problèmes similaires.
  • Ajouter de la documentation (/add_docs) : Ajoute automatiquement de la documentation aux fonctions/classes non documentées dans le PR.
  • Générer des étiquettes personnalisées (/generate_labels) : Suggère automatiquement des étiquettes personnalisées basées sur les changements de code du PR.

Bref, gros, gros gain de temps. Si vous voulez le tester avant de le déployer sur vos dépôts, c’est possible sur le dépôt public de Codium AI en appelant l’agent comme ceci : @CodiumAI-Agent /COMMAND

À vous de jouer maintenant !

PR Agent est disponible ici et ça peut s’installer directement via Docker.

Plane – Une bonne alternative à JIRA, Asana ou Linear pour mener vos projets à bien !

Par : Korben

Vous êtes vous déjà demandé pourquoi tous vos projets partaient en couille ?

C’est probablement parce que vous n’avez pas encore trouvé le bon outil pour les planifier ! C’est pourquoi aujourd’hui, je tiens à vous présenter un projet open source à autohéberger qui s’appelle Plane !

Oui, comme l’avion. Bien qu’encore en développement, cet outil, est déjà suffisamment cool pour vous donner envie de l’utiliser afin de suivre vos tâches, vos sprints et autres feuilles de route.

L’interface est plutôt agréable et vous permettra d’afficher les projets, d’y ajouter des pièces jointes, de créer des workflows maison, mais également d’importer toutes les tâches directement depuis d’autres outils comme Github ou Jira. Et bien sûr recevoir des notifs dans Slack, Discord et vos propres outils puisqu’il y a même une API.

Vous pouvez également utiliser des cycles pour planifier des sprints, diviser les projets en modules et créer des filtres personnalisés pour trier les informations comme bon vous semble. Plane offre également la possibilité de faire de la documentation directement au fur et à mesure du développement de votre projet et tout s’intègre parfaitement à Github pour conserver à la fois votre code et vos issues synchronisées avec Plane.

Vous verrez, Plane est assez plaisant à prendre en main puisqu’il y a même Command K, un genre d’interface rapide à Spotlight pour chercher des tâches, créer de nouvelles actions….etc. sans oublier un petit bloc-notes propulsé à base de ChatGPT pour les grosses feignasses qui n’aiment pas écrire.

Si ça vous branche, il n’y a plus qu’à découvrir Plane et kiffer la vie de projets ! Pour apprendre à l’installer avec Docker, c’est par ici.

Tinfoleak – Un outil OSINT / SOCMINT pour Twitter (X)

Par : Korben

Twitter, ou devrais-je dire X est un réseau social qui permet d’en apprendre beaucoup sur les gens qui l’utilisent. Mais avec autant de données, c’est difficile de faire des analyses correctes sans aucun outil.

Heureusement, il y a Tinfoleak, un outil d’OSINT / SOCMINT open source capable d’automatiser l’extraction d’informations à partir de X et de faciliter l’analyse qui en découle.

Ainsi, à partir d’un identifiant utilisation, de coordonnées géographiques ou d’un simple mot clé, Tinfoleak est capable d’extraire l’ensemble des informations depuis Twitter (pour peu que vous ayez une clé Oauth) et de vous cracher de la donnée structurée.

Tinfoleak excelle donc dans l’extraction d’une large gamme d’informations de Twitter, notamment :

  • Informations sur le compte : ID utilisateur, nom d’utilisateur, description du profil, emplacement et date de création
  • Activité des utilisateurs : Tweets, retweets, likes, abonnements et abonnés
  • Mesures de protection : Tweets protégés, comptes vérifiés et paramètres de géolocalisation
  • Relations entre utilisateurs : Abonnés, amis, mentions et réseaux de retweets
  • Applications sources : Dispositifs et plateformes utilisés pour accéder à Twitter
  • Fréquence d’utilisation : Fréquence de publication de tweets, modèles d’activité quotidienne et tendances d’utilisation
  • Hashtags et mentions : Analyse des sujets tendance, des hashtags pertinents et des utilisateurs engagés
  • Analyse du texte : Analyse du sentiment, fréquence des mots et thèmes clés
  • Médias et métadonnées : Analyse des médias intégrés, des images et du contenu vidéo
  • Emplacements des utilisateurs : Lieux visités, itinéraires et principaux emplacements
  • Réseaux sociaux et identités numériques : Liens vers d’autres profils de médias sociaux et présence en ligne
  • Utilisateurs géolocalisés et utilisateurs tagués : Identification des utilisateurs par emplacement et des individus tagués
  • Abonnés et amis : Analyse des réseaux d’abonnés et d’amis, des relations et du comportement
  • Listes et collections : Enquête sur les listes et collections sélectionnées et l’adhésion
  • Conversations : Compréhension des discussions en cours, des interactions et des dynamiques de groupe

Si vous utilisez Kali ou ce genre de distrib Linux spécialisée en sécurité, vous le connaissez peut-être puisque c’est inclu dedans.

Sinon, pour l’installer, ouvrez un terminal et installez tout ce qu’il faut :

sudo apt install python-pip python-dev build-essential python2.7-dev python-pyexiv2 python-openssl
sudo pip install --upgrade pip 
sudo pip install --upgrade virtualenv 
sudo pip install --upgrade tweepy
sudo pip install --upgrade pillow
sudo pip install --upgrade exifread
sudo pip install --upgrade jinja2 
sudo pip install --upgrade oauth2

Ainsi, vous pourrez mieux comprendre les tendances sociales et l’opinion publique en analysant les hashtags populaires, les mentions…etc. Vous pourrez également identifier les influenceurs cl&s dans les domaines que vous ciblez, voire évaluer les menaces en fonction des mentions de sujets sensibles. Et si c’est plutôt la guerre commerciale qui vous intéresse, vous pourrez analyser la concurrence.

Bref, plein d’usages très cool pour peu que vous preniez le temps de vous y intéresser…

Open Interpreter – ChatGPT pour exécuter du code en local

Par : Korben

Si vous êtes un peu barbu et que vous kiffez l’IA, vous allez adorer Open Interpreter. Cet outil je l’utilise depuis des mois et des mois, et je n’avais jamais pris le temps d’en faire un post.

Il s’agit d’une implémentation open-source et locale qui permet au LLM (locale ou d’OpenAI – ChatGPT) d’exécuter du code (Python, JavaScript, Shell, etc.) directement sur votre ordinateur. L’idée c’est d’aller encore plus loin que de simplement discuter avec l’IA.

Dans le cas d’Open Interpréter, elle est capable de produire du code, de l’exécuter, de récupérer le résultat de cette exécution et éventuellement de s’auto-corriger avant de passer à la suite.

Pour l’installer, c’est simple. Il vous faudra Python 3.10 ou 3.11. Dans votre terminal, tapez :

pip install open-interpreter

Puis lancez l’outil avec la commande :

interpreter

Et concrètement, qu’est ce qu’on peut faire avec ?

Et bien le mieux c’est que le logiciel se présente lui-même, non ?

Pour résumer, il peut donc exécuter du code, installer des packages, gérer ses erreurs, utiliser de l’AppleScript pour interagir avec l’ensemble de macOS (genre lire vos emails, changer de fond d’écran…) etc.

Dans mon cas, je l’utilise avec GPT-4 mais vous pouvez aussi le lancer avec un LLM local (notamment via le serveur intégré à LM Studio) :

interpreter --local

Ou se connecter à d’autres modèles en ligne que GPT-4 :

interpreter --model gpt-3.5-turbo
interpreter --model claude-2
interpreter --model command-nightly

Pensez bien à exporter votre clé API sur votre système (vous pouvez caler ça dans votre .zshrc ou .bashrc) :

export OPENAI_API_KEY=XXXXXXXXXXXXXXXXXXXXXXXXXX

Au-delà du chat interactif proposé par l’outil interpreter, il y a également un paquet en Python qui vous donne encore plus de contrôle puisque vous pouvez l’appeler dans vos scripts.

import interpreter

interpreter.chat("Plot AAPL and META's normalized stock prices") # Executes a single command
interpreter.chat() # Starts an interactive chat
  • Ainsi, utilisez interpreter pour un chat interactif
  • Utilisez interpreter.chat() pour un chat programmatique
  • Utilisez interpreter.reset() pour réinitialiser la conversation
  • Puis sauvegardez et chargez des discussions avec interpreter.load(messages)

Je vous renvoie vers la documentation sur la page Github si évidemment vous voulez creuser un peu plus ce outil merveilleux.

Maintenant pour l’avoir utilisé énormément, ça rend pas mal de service, surtout pour tout ce qui se passe en ligne de commande. C’est un bon assistant à l’usage du Shell. Pour ce qui est génération de code, il faut souvent repasser derrière lui, mais rien de dramatique non plus. Bref, ce truc couplé à votre cerveau et c’est le duo parfait pour avancer dans la vie.

Et en cadeau, offert pour vous par les Patreons qui me soutiennent, une vidéo tuto sur Open Interpreter.

Whisper Web – La reconnaissance vocale directement accessible depuis votre navigateur

Par : Korben

Vous avez été impressionné par Whisper, cet outil d’OpenAI capable de transcrire en texte, n’importe quel enregistrement audio. Sauf que voilà, pas envie d’installer un modèle IA un peu lourd sur votre petite machine, qui de toute façon n’aurait pas assez de puissance pour faire tourner ça.

Mais ce n’est pas une raison pour passer à côté de ça. C’est pourquoi aujourd’hui, je vous propose de vous intéresser à Whisper Web. Il s’agit d’un portage de Whisper qui peut à partir d’un enregistrement de votre micro, d’une URL vers un fichier audio / vidéo ou d’un upload de fichier, décoder ce qui s’y raconter pour l’exporter ensuite au format texte.

Évidemment, vous pouvez choisir un modèle plus ou moins gros et activer le support multilingue pour décoder du français par exemple. Il est même possible de traduire à la volée un audio d’une langue de votre choix, vers de l’anglais. Impeccable pour faire des sous-titres facilement.

C’est idéal pour faire de la transcription d’interview, de podcast, de vidéo YouTube ou tout simplement écrire des documents à la voix.

Et le fait que ce soit accessible via un simple site web gratuit, en fait quelque chose de vraiment abordable.

À découvrir ici.

Screenshot To Code – Quand l’IA génère le code d’une page web à partir de sa capture écran

Par : Korben

Vous êtes développeur, mais vous n’êtes pas designer et encore moins spécialiste en UX / UI… Alors que faire ?

Et bien le mieux c’est encore de pomper ce qu’on fait les autres. Enfin, s’inspirer… Vous m’avez compris. Et pour cela, il existe un outil merveilleux qui s’appelle Screenshot To Code et qui comme son nom l’indique, est capable de convertir une simple capture écran d’interface web en HTML / CSS Tailwind.

Mais comment est-ce possible ? Et bien Screenshot To Code utilise simplement GPT-4 Vision pour analyser le code et Dall-E pour générer des images similaires.

Vous pouvez l’installer sur votre ordinateur en suivant les instructions du Github, voire le faire tourner sur un Docker. Mais si c’est juste pour tester, le plus simple c’est encore d’aller sur cette démo en ligne.

Pour l’avoir testé, la génération du code est impressionnante, mais niveau rendu, on est très loin de la copie parfaite. Cependant, comme on peut ajuster en discutant avec l’IA, il est possible de s’approcher du rendu voulu.

Ensuite y’a plus qu’à exporter le code et voilà ! Vous avez une maquette HTML / CSS d’un site à moindres frais (ça vous coûte l’utilisation de l’API d’OpenAI)

À découvrir ici.

Jazz² Resurrection, le retour de Jazz Jackrabbit 2

Par : Korben

Qui se souvient de Jazz Jackrabbit 2 ?

Ce jeu mythique sorti en 1998, avec son lapin vert, Jazz, qui se faufilait à travers des niveaux remplis de méchants pour sauver sa bien-aimée Eva ?

Et bien, mes amis, préparez-vous à revivre la nostalgie, car j’ai découvert un projet absolument fantastique appelé Jazz² Resurrection !

Le projet Jazz² Resurrection est une réimplémentation du jeu original, prenant en charge différentes versions et même certaines fonctionnalités de l’extension JJ2+ et MLLE. Si cela ne vous donne pas envie de ressortir vos vieilles manettes, je ne sais pas ce qui le fera !

Pour jouer, il est nécessaire de télécharger le logiciel via le site Jazz² Resurrection (dispo pour Windows, Linux, macOS, Android, Nintendo Switch, Web et Xbox) puis de copier le contenu du répertoire du jeu original de Jazz Jackrabbit 2. Si vous ne l’avez pas, pas de stress, il est livré avec la démo du jeu.

L’une des choses que j’adore dans Jazz² Resurrection, c’est qu’il prend en charge les navigateurs modernes. Oui, vous avez bien lu : vous pourrez jouer à Jazz Jackrabbit 2 directement dans votre navigateur, sans installation supplémentaire en cliquant ici !

Le projet est sous licence GNU General Public License v3.0. Cela signifie que vous pouvez le modifier et le partager comme bon vous semble, tant que vous respectez les termes de la licence.

C’est vraiment une occasion fantastique de revivre les bons vieux jours avec Jazz et sa bande, tout en profitant de la flexibilité et de la compatibilité des technologies modernes.

Allez, Je vous laisse, je vais moi-même affronter quelques tortues terroriste pour sauver ma dulcinée Eva.

Protégez votre application Android des curieux grâce à la lib ARTful

Par : Korben

Aujourd’hui, je vous présente ARTful, une bibliothèque Android native pour modifier l’Android Runtime (ART) sur Android 13 et 14. Ça va faire plaisir aux développeurs qui veulent mettre des bâtons dans les roues des curieux qui aiment jouer avec les apps Android en les analysant d’un peu trop près.

La magie de cette bibliothèque réside dans sa capacité à changer dynamiquement l’implémentation de n’importe quelle méthode statique, éliminant l’utilisation de références en clair et entravant l’ingénierie inverse.

Pour vous donner un aperçu concret de ce que ARTful peut faire pour vous, imaginez une application où les développeurs veulent éviter que les pirates ne mettent le nez dans leur code. Grâce à ARTful, ils peuvent modifier dynamiquement les méthodes statiques pour les rendre plus résistantes à l’ingénierie inverse. Et voilà, mission accomplie !

Et pour que tout le monde puisse profiter des bienfaits de cette bibliothèque, les concepteurs ont choisi de la rendre open source ici : Github ARTful.

Eclatez-vous bien !

Découvrez Gerry, l’enregistreur d’écran open-source pour Mac

Par : Korben

Y’a rien de plus parlant quand on crée du contenu, qu’un petit bout de vidéo ou qu’une image animée (GIF) pour illustrer un tuto. Sauf que la flemme, alors souvent on se content de captures écrans rapides.

Et bien, chers lecteurs, ça va changer !!

Je vous présente Gerry, un enregistreur d’écran open-source pour Mac, qui peut vous aider à capturer ce qui se passe sur votre Mac en un clin d’œil !

Que vous soyez un gamer souhaitant partager ses exploits en vidéo, ou un professionnel de l’informatique cherchant à créer des tutoriels, à base GIFs animés, pour aider les autres, Gerry est votre meilleur allié.

Parmi les principales fonctionnalités de Gerry, on trouve un enregistrement d’écran simple (full screen), le recadrage et le rognage, l’exportation en GIF et MP4, ainsi que la personnalisation de la résolution et du nombre d’images par secondes. Ces fonctionnalités vous permettront de capturer des séquences vidéo de haute qualité sans avoir besoin de compétences techniques particulières.

Voici un exemple de GIF capturé sur mon ordi :

Et comme Gerry est conçu pour être rapide et facile à utiliser, vous pourrez vous concentrer sur l’essentiel : Créer des contenus super quali !

Un des avantages de Gerry, c’est qu’il est très simple à utiliser. Pour commencer à enregistrer votre écran, il vous suffit de télécharger l’application sur leur site officiel. Une fois que vous l’avez installée, il faut sélectionner la région de l’écran que vous souhaitez enregistrer, choisir la qualité de rendu et de cliquer sur le bouton « Record » ou d’utiliser le raccourci clavier CMD + R.

Voilà, c’est aussi simple que cela !

Ensuite, lorsque vous aurez terminé, vous pourrez exporter vos enregistrements dans les formats de fichiers les plus courants, comme le GIF animé et le MP4.

Je vous encourage à vous rendre sur le site officiel de Gerry pour en savoir plus sur cette application fantastique et la télécharger. C’est open source, c’est gratuit et ça rend bien service !

3D to Photo – Une révolution dans la création d’images produit

Par : Korben

Et yo !

Aujourd’hui je vais vous parler d’un outil IA incroyable qui risque de bouleverser votre manière de créer des images pour vos produits.

Adieu les contraintes de studios photo traditionnels, des problèmes d’éclairage et j’en passe…

3D to Photo c’est un logiciel open source développé par Dabble, qui combine la puissance de ThreeJS et Stable Diffusion pour créer un studio photo virtuel dédié à la photographie de produits.

Cela vous permet de charger un modèle 3D dans votre navigateur et de le photographier virtuellement dans n’importe quel type de scène, sans avoir besoin de vous soucier de l’éclairage ou de la prise de vue. En gros, 3D to Photo vous offre la possibilité de mettre en scène vos produits de manière réaliste et professionnelle directement depuis votre PC et cela grâce à Stable Diffusion.

Je vous invite à regarder la démo pour comprendre la puissance du truc :

Alors, comment ça marche ?

Et bien c’est très simple : vous chargez un modèle 3D exemple (fichier .glb), vous le glissez dans la zone d’upload de 3D to Photo, vous orientez le modèle 3D selon vos désirs, puis vous saisissez une instruction pour décrire le décor et y’a plus qu’à cliquer sur « Generate Images ».

Et voilà ! Vous obtiendrez alors une image réaliste et d’excellente qualité de votre produit, prête à être utilisée sur votre site web, dans un catalogue ou dans votre portfolio. Trop incrrr !

La doc et le code source sont dispo sur Github.

LM Studio – Pour faire tourner des LLMs en local et les utiliser directement dans votre code

Par : Korben

Avec tout ce qui se passe côté OpenAI en ce moment, je suis en train de chercher des alternatives libres pour re-brancher sur mes scripts existants qui ne demandent pas trop de réécriture. C’est simplement un principe de précaution pour ne pas être pris au dépourvu si la qualité de service baisse côté ChatGPT.

Et pour ça, j’ai besoin d’un modèle de langage et d’un outil qui permette de transformer ce modèle en API que je peux appeler dans mon code.

Pour l’instant, tout ceci est en phase de R&D mais je me suis dit qu’un petit retour, ça vous ferait plaisir. Je suis donc parti sur un modèle OpenChat censé être aussi performant qu’un ChatGPT 3.5. Jusque là rien de compliqué.

J’ai donc fait tourner ce modèle dans llamacpp sans souci en mode discussion. Puis je suis parti en quête d’un bridge pour avoir des API. Je suis donc tombé sur Llama-cpp-python avec son option Server qui malheureusement n’a jamais voulu correctement fonctionner chez moi pour de sombres incompatibilités x64 / ARM64 même dans pyenv. Bref…

N’ayant pas le temps d’y passer des semaines, on m’a ensuite gentiment rappelé durant mon live Twitch, que je pouvais faire ça avec Ollama, ce que j’avais complètement zappé alors que j’ai fait une vidéo pour les Patreons à ce sujet (arf).

Puis Thoxy et LePopeye, lecteurs de Korben.info, m’ont recommandé un outil baptisé LM Studio dont je vais vous parler dans cet article.

LM Studio est un outil fonctionnant sous macOS, Windows et Linux qui permet très simplement de télécharger des LLMs (Large Language Models) et de les faire tourner en local. Ainsi vous pouvez discuter avec ces modèles via un chat comme vous le feriez avec ChatGPT.

Mais ce n’est pas tout puisque l’outil offre des tas de possibilités de réglages (y compris du support pour les Mac Silicon) pour optimiser le modèle. Et bien sûr, la fonctionnalité qui m’a le plus intéressé, c’est la possibilité de faire tourner un serveur local qui sert une API identique à celle de ChatGPT.

Cela permet, sans énormément de modifs dans votre code, de basculer des services d’OpenAI à une IA locale de manière transparente ou presque pour peut que vous utilisiez la lib OpenAI 0.28.1

pip install openai==0.28.1

Voici un code d’exemple qui montre comment l’appeler en Python :

import os
import openai

openai.api_base = "http://localhost:1234/v1" 
openai.api_key = "" 

completion = openai.ChatCompletion.create(
  model="local-model",
  messages=[
    {"role": "system", "content": "Always answer in rhymes."},
    {"role": "user", "content": "Introduce yourself."}
  ]
)

print(completion.choices[0].message)

Pas besoin de clé API donc. Et pas besoin de casser tout votre code. Suffit de migrer vers LM Studio. Puis c’est gratuit 🙂

Bref, j’ai fait mes tests comme ça et malheureusement pour le moment, c’est pas super concluant. L’outil répond correctement en version « chat » mais son paramétrage un peu différent en version serveur. Donc faut encore que je gratte un peu pour trouver le dressage optimale de mon IA. Mais j’y suis presque.

Si ça vous branche de tester LM Studio, c’est par ici que ça se passe.

Warp – Du bon transfert de fichiers rapide et sécurisé

Par : Korben

Avez-vous déjà entendu parler de Warp ?

Alors non, non, non, ce n’est pas un logiciel pour voyager dans le temps (quoi que, ce serait sympa…), mais je parie qu’il va vous faire plaisir !

Warp est un logiciel open-source comme la plupart des softs dont je parle ici, et sa mission est d’envoyer des fichiers en toute sécurité à vos amis, au travers d’Internet ou d’un réseau local, simplement en échangeant un code composé de mots.

Trêve de bla-bla, voici les principales fonctionnalités de Warp :

  • Transfert de fichiers entre plusieurs appareils
  • Chaque échange est chiffré
  • Possibilité de transfert direct sur le réseau local, quand c’est possible
  • Le support d’un QR Code pour récupérer le code
  • Et une compatibilité avec le client de ligne de commande Magic Wormhole et toutes les autres applications compatibles

Ce qui distingue Warp, vous l’aurez compris, c’est son protocole Magic Wormhole. Ce protocole détermine la meilleure méthode de transfert, y compris via le réseau local et vous garantit que vos fichiers sont transférés rapidement et en toute sécurité, quelle que soit la taille des fichiers et l’emplacement des machines.

Warp est dispo sous Windows et Linux (en flatpak), et vous trouverez toutes les infos à son sujet ici.

Cerebro – Le launcher open source qui vous fera gagner du temps

Par : Korben

En bon enfant du capitalisme, vous courez sans cesse après la moindre seconde. Tout est optimisé dans votre vie, y compris personnelle. Vous ne perdez pas de temps, car le temps, c’est de l’argent. Bref, vous êtes plus qu’En Marche. Vous êtes en stress !

Alors pour vous soulager un peu et remettre un peu d’huile dans les rouages de votre usage quotidien de l’ordinateur, je vous invite aujourd’hui à tester Cerebro. Il s’agit d’un launcher open source que vous pouvez télécharger gratuitement ici pour Windows, Mac et Linux.

Comme n’importe quel outil du genre, ça permet de trouver n’importe quels fichier, programme ou truc qui trainent sur votre disque dur…

Mais surtout, Cerebro dispose d’une chiée de plugins qui vont vous permettre d’augmenter vos super pouvoirs. Ainsi, vous pourrez directement trouver des torrents, explorer des cartes, visualiser directement vos photos, faire des traductions, naviguer dans un Google Drive, débusquer des APK via Aptoide, lancer des recherches sur Spotify, YouTube, Github…etc, convertir des valeurs cryptomonétaires…etc.

Vous n’aurez donc pas à vous soucier de jongler avec plusieurs applications ou onglets de navigateur pour accomplir vos tâches quotidiennes.

Cerebro-app est gratuit, open source et vous pouvez le télécharger ici !

Dites adieu à Postman grâce à Bruno qui vous aidera à concevoir les meilleurs API de l’univers

Par : Korben

Amis du côté obscur du dev, vous avez sûrement déjà utilisé Postman pour tester vos APIs. Et je ne vous en veux pas car c’est un outil vraiment puissant qui a su trouver sa place dans le cœur de beaucoup de développeurs.

Cependant, vous savez aussi à quel point il peut être un peu lourdingue, surtout lorsqu’il s’agit de l’utiliser pour collaborer sur un gros projet.

Heureusement, j’ai quelque chose de plutôt cool à partager avec vous : Bruno. Et contrairement au ministre de l’économie du même prénom, celui-ci vous sera utile puisqu’il s’agit d’un projet open source qui promet de révolutionner le monde des clients API.

Pour bien saisir l’intérêt de Bruno, imaginez un outil qui vous permet de stocker vos collections API pour ensuite pouvoir les conserver et les tester directement depuis votre dépôt de code source, grâce au langage Bru. Vous pouvez ainsi profiter d’un contrôle de version simple et dire adieu aux espaces de travail encombrants. Génial pour bosser en collaboration avec vos collègues sans prise de tête.

Pour commencer avec Bruno, il suffit d’installer l’outil en allant le télécharger pour Windows, macOS et Linux sur le site officiel. Ensuite vous n’avez plus qu’à y décrire toute l’API que vous êtes en train de concevoir. Je vous invite à regarder cette vidéo pour bien comprendre comment ça fonctionne :

Bruno est également disponible en ligne de commande. Vous pouvez l’installer en utilisant votre gestionnaire de paquets Node préféré, comme NPM :

npm install -g @usebruno/cli

Ensuite, avec Bruno CLI en main, vous pouvez exécuter des collections entières d’API via des commandes simples directement depuis votre terminal. Cela facilite grandement le processus de test et d’automatisation des API.

Pour utiliser la CLI, commencez par accéder au répertoire contenant votre collection d’API et exécutez la commande suivante :

bru run

Vous pouvez également exécuter une requête unique comme ceci :

bru run request.bru

Ou bien, si vous voulez exécuter toutes les requêtes d’un dossier, utilisez cette commande :

bru run folder

Pour spécifier un environnement, ajoutez simplement l’option --env :

bru run --env env_name

Notez que Bruno existe également sous la forme d’une extension pour Visual Studio Code.

En somme, Bruno est une alternative légère et polyvalente aux clients API traditionnels, qui propose une approche plus simple et plus efficace pour travailler avec des collections API. Avec son intégration transparente au dépôt de code source et à la ligne de commande, Bruno facilite le travail en équipe et rend le développement d’API agréable et sans tracas.

De quoi dire adieu à Postman, non ?

OpenHue – Maitrisez l’éclairage connecté de vos Philips Hue avec cette API open-source

Par : Korben

Perso, je n’en ai pas chez moi, mais je sais que les ampoules connectées Philips Hue sont un véritable succès et que vous êtes nombreux à en être équipé.

Seulement, voilà, pour profiter de ce système d’éclairage intelligent qui vous permet de contrôler l’ambiance de votre maison en un clin d’œil, vous avez besoin d’applications dédiées.

Mais avez-vous déjà rêvé de créer votre propre application pour contrôler vos ampoules Hue ? Si c’est le cas, alors ce projet open source est fait pour vous !

OpenHue offre une spécification OpenAPI complète pour l’API REST Philips Hue (CLIP API). Cela facilite l’intégration et le contrôle des systèmes d’éclairage Philips Hue dans ses diverses applications, améliorant ainsi les expériences utilisateur et vous faisant gagner du temps de développement.

Imaginons que vous vouliez créer une application pour automatiser les réglages d’un éclairage en fonction de l’heure de la journée, de votre humeur, ou même en fonction de la musique que vous écoutez. Grâce à OpenHue, vous pouvez intégrer Philips Hue dans votre application et créer des scénarios d’éclairage personnalisés qui répondent exactement à vos besoins.

Pour commencer à utiliser la spécification OpenAPI d’OpenHue, il vous suffit de vous rendre sur la page des versions GitHub et de télécharger le fichier openhue.yaml. Une fois que vous avez le fichier, importez-le dans Postman pour tester l’API et générer du code client avec des outils tels que openapi-generator-cli. Les specs sont également disponibles sur ce site : https://openhue.io

Avant de vous lancer dans l’aventure, assurez-vous d’avoir installé Node.js et NPM sur votre machine. Ensuite, faites une copie du projet depuis GitHub et configurez l’environnement de développement en installant Redocly CLI. Grâce à cet outil, vous pourrez valider et construire la spécification OpenAPI et créer la documentation HTML lié à votre projet.

OpenHue est sous licence Apache 2.0, ce qui rend son utilisation et sa contribution ouvertes et gratuites pour tous.

Voilà pour les grandes lignes. À vous maintenant de partir à la découverte d’OpenHue et de donner libre cours à votre créativité en matière d’éclairage connecté. Que vous soyez un développeur chevronné ou un débutant curieux, OpenHue est un outil formidable pour intégrer et contrôler Philips Hue dans vos applications.

Doctor Dignity – L’IA médicale open-source

Par : Korben

En France, on a un gros souci niveau santé. Dès qu’on doit voir un spécialiste, que ce soit un ophtalmo, un kiné, un dermato, passer une radio ou que sais-je, il y en a pour des mois et des mois d’attente, parfois une année. Si bien qu’au moment de passer l’examen, on est soit déjà guéri, soit en phase terminale.

Bref, c’est désespérant et ce n’est pas prêt de s’arranger.

Alors que peut-être qu’à terme, l’IA pourra nous aider un peu à soulager notre peine, notamment grâce à ce projet nommé Doctor Dignity qui est un LLM (un modèle de langage de grande capacité), open-source et surtout capable de réussir l’examen de licence médicale américain.

Incroyable, non ?

Ce logiciel utilise Llama2 de Meta, fine-tuné avec du lexique médical, et peut être utilisé sur iOS, Android ou en version Web. L’avantage, c’est que ce docteur de poche est gratuit, accessible instantanément et capable de garder le secret médical. Par contre, je ne sais pas où en sera le projet au moment de la publication de cet article, mais on est encore loin d’un truc facilement utilisable par le commun des mortels.

Et évidemment, on est encore loin d’un truc auquel vraiment confier sa santé ou sa vie (quoique quand on se fait soigner par certains internes aux urgences, c’est pas pire), mais vu que Doctor Dignity est capable de passer l’examen de licence médicale américain, on se dit qu’il connait quand même un peu son sujet. Et surtout, il peut apprendre grâce aux retours que lui font les humains en évaluant ses réponses.

Voilà, ce n’est que le début du « médecin virtuel« , peut-être de quoi diagnostiquer 90% des petits bobos habituels, pour ainsi soulager les vrais toubibs. Ou les remplacer s’ils sont moins bons que l’IA ^^. Allez savoir…

En tout cas, le fait d’avoir ce genre d’application accessible à tout moment pour n’importe quelle question médicale viendra soulager les plus hypocondriaques d’entre nous.

❌