Lateo.net - Flux RSS en pagaille (pour en ajouter : @ moi)

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierKorben

GPT-3.5 champion de Street Fighter III

Par : Korben

J’espère que vous êtes en forme et prêts à en découdre, car aujourd’hui on va parler d’un sujet marrant : GPT-3.5 Turbo d’OpenAI est devenu le nouveau champion toutes catégories de Street Fighter III !

Non, j’ai rien fumé, il y a bien une IA qui a mis la pâtée à tous ses adversaires lors d’un tournoi un peu spécial.

En effet, la semaine dernière, lors du Mistral AI Hackathon à San Francisco, une équipe de passionnés a eu l’idée de génie d’organiser un tournoi un peu particulier. : Faire s’affronter différents modèles de langage sur le cultissime jeu de baston Street Fighter III, pour voir lequel allait sortir vainqueur.

Parce que bon, c’est bien beau de savoir faire la conversation ou générer des images moches, mais quand il s’agit d’envoyer des tatanes dans la tronche, il faut être un peu plus réactif !

Et c’est là que notre pote GPT-3.5 sort les muscles et s’en sort très bien. Contrairement aux algorithmes d’apprentissage par renforcement (deep learning) qui se contentent bêtement d’accumuler des points en fonction de leurs actions, les modèles de langage comme GPT sont capables de comprendre un contexte et d’agir en conséquence.

En gros, ils analysent ce qu’il se passe à l’écran, les mouvements des personnages, leur barre de vie… Et en fonction de ça, ils décident quelle attaque lancer. Un peu comme un joueur humain en fait, sauf qu’eux n’ont pas besoin de café pour rester concentrés.

Les premières bagarres ont opposé différentes versions du modèle Mistral, dans des combats endiablés dignes des plus grands shōnens. Mais très vite, l’équipe a décidé de corser un peu les choses en invitant OpenAI et ses modèles GPT-3.5 et GPT-4 dans l’arène. Et là, mes amis, ça a commencé à sentir le roussi pour la concurrence !

Les poings ont volé, les combos se sont enchaînés, les contres se sont succédés à un rythme infernal. Un vrai feu d’artifice d’uppercuts, de coups spéciaux et de provocations bien senties. Mais au final, après des dizaines de combats acharnés, c’est bien GPT-3.5 (et plus précisément sa dernière version « Turbo ») qui est ressorti vainqueur ! La médaille d’argent revient à Mistral-small-2042, qui a réussi l’exploit de coiffer sur le poteau un modèle GPT-4 en accès anticipé.

Tout ça pour dire que si vous voulez vous mesurer à ces champions, c’est tout à fait possible ! Le code source du projet est disponible sur Github, et vous n’avez même pas besoin d’un supercalculateur pour faire tourner tout ça. Il vous faudra juste dénicher une ROM de jeu de baston 2D ou 3D old school, et le tour est joué. Perso j’ai hâte de voir ce que ça donne sur un bon vieux Tekken 3…

Pour installer et tester LLM Colosseum :

  1. Suivez les instructions de la documentation DIAMBRA, l’outil qui permet de faire jouer les LLM
  2. Téléchargez la ROM et placez-la dans ~/.diambra/roms
  3. Clonez le dépôt de llm coloseum et installez les paquets Python requis avec la commande pip3 install -r requirements.txt
  4. Créez un fichier nommé .env et copiez-y le contenu du fichier .env.example
  5. Lancez le programme avec la commande make run

Blague à part, cette expérience montre bien le potentiel hallucinant des modèles de langage pour les jeux vidéo. On peut tout à fait imaginer des PNJ avec lesquels on pourrait interagir de façon totalement naturelle et immersive, des adversaires capables de s’adapter à votre style de jeu et de vous surprendre… Bref, de quoi révolutionner complètement notre façon de jouer ! Après, faudra quand même faire gaffe à pas trop les énerver, on a bien vu ce que ça donnait quand on laissait GPT-3.5 jouer à des wargames… Boum, plus de planète !

Allez, je vous laisse, faut que je retourne taper Zangief moi.

Merci à Lorenper pour l’info et à très vite pour de nouvelles aventures.

Jan – Le « ChatGPT » local et open source à installer sur votre machine

Par : Korben

Afin de rendre l’IA accessible à tous, y compris gratuitement puisque la plupart des modèles fonctionnent sur un système open source, une équipe de développeurs talentueux a créé Jan un outil pour les développeurs et les utilisateurs souhaitant profite d’une alternative à ChatGPT, totalement indépendante, fonctionnant hors ligne, open source et libre.

Il faut donc voir Jan comme un client de chat qui permet de télécharger des modèles comme Trinity, Mistral, Llama, OpenChat…etc. et de les faire tourner 100% hors ligne. Comme ça, pas de fuite de conversations privées ni de réutilisation de vos données pour entrainer de nouvelles IA. Et si comme moi, vous êtes accro à l’IA d’OpenAI, vous pourrez toujours y ajouter votre clé API et discuter avec ChatGPT (au tarif fixé par OpenAI évidemment).

Jan fonctionne sous Linux (Appimage et .deb dispo), sous Windows et macOS (Intel / Silicon) et propose une prise en charge des modèles open source tels que GGUF via llama.cpp, TensorRT via TensorRT-LLM ou des API externes. Jan utilise également le moteur d’inférence Nitro, des mêmes développeurs, qui se veut être rapide et léger.

Je teste ici le modèle Trinity 1.2 7B Q4 :

Et ici un modèle spécialisé en code Python nommé Wizard Coder Python 13B Q5.

Un truc cool avec Jan c’est que toutes les conversations sont conservées sur votre disque au format JSON, donc si le coeur vous en dit, vous pourrez ensuite les exploiter comme bon vous semble dans vos outils.

Jan propose également un serveur REST qui permet d’interroger via une API compatible OpenAI n’importe quel modèle que vous y feriez tourner. Ça permet de brancher vos outils ou vos scripts directement sur le LLM ouvert de votre choix.

Dans la lignée de Ollama ou LM Studio, Jan rempli ses promesses et vous permettra de vous éclater avec l’IA (abus de langage, je sais…) sans mettre en péril vos données personnelles.

Pour en savoir plus, rendez-vous sur le site de Jan ou sur leur page Github pour les sources et la doc.

Merci à Lorenper

Najat Vallaud-Belkacem veut rationner Internet comme ta daronne !

Par : Korben

Vous avez entendu la dernière de Najat Vallaud-Belkacem ? Figurez-vous que notre ancienne ministre de l’Éducation nationale a chié une tribune dans Le Figaro pour nous dire que nous, le gueux, on allait devoir rationner notre Internet !

Si si, je vous jure, c’est pas une blague.

D’après elle, on serait tous devenus des gros accros aux écrans et en particulier au « porno Ultra HD« , incapables de décrocher de nos smartphones et de nos réseaux sociaux. On est vraiment trop des cons, j’vous raconte pas. Bon, c’est vrai que l’addiction aux écrans, c’est un vrai problème mais quand même, de là à vouloir nous couper Internet au bout de 3 Go par semaine, faut pas pousser mémé dans les orties !

Concrètement, sa brillante idée ce serait de nous filer un nombre limité de gigas à utiliser par jour. Comme ça, au bout de 3 vidéos YouTube et 2 stories Insta, bim, t’es déconnecté de force jusqu’au lendemain ! Merci qui ? Merci Najat !

Elle nous explique que c’est pour notre bien, que ça va nous permettre de nous « libérer » de tous les maux d’Internet : le cyberharcèlement, la désinformation, la dépendance, les dérives de l’IA… Rien que ça ! Avec des arguments pareils, on n’ose plus rien dire. Même Raël il avait pas osé !

Ah oui, elle a dit aussi, je cite : « On peut même, toute personne s’y connaissant un tant soit peu en programmation vous le dira, coder sans ordinateur, avec un crayon et un papier.« 

Bah ouais, et pour compiler le programme, on a qu’à chiffonner la feuille très très fort avant de l’insérer dans le port USB de notre ordinateur. T’es au top, Najat !

Sauf que bon, entre nous, est-ce qu’on a vraiment besoin que l’État vienne jouer à la nounou avec notre conso Internet ? Perso, j’ai passé l’âge. Et puis si on commence à accepter ça, où est-ce que ça s’arrête ? Bientôt ils vont aussi vouloir nous rationner l’oxygène pour lutter contre la pollution de l’air ?

Mince, je vais encore leur donner des idées.

Après, je dis pas, y a sûrement des trucs à faire pour que note usage du numérique parte moins en vrille. Mais de là à sortir l’artillerie lourde et nous imposer une cure de désintox forcée comme si on était tous des gosses, je trouve ça un poil extrême. Nous, avec Internet, on bosse, madame. Nous, on se divertit, on socialise, plus tout un tas de trucs auquel t’as pas songé. On n’a pas tous la chance d’avoir un larbin qui rédige et envoie nos emails à notre place pendant qu’on se fait un petit tour à cheval ou qu’on se boit un thé avec les keupines.

Cela dit, si jamais son délire de rationnement devient réalité, je propose qu’on commence par tester ça sur nos politiques. Juste pour voir leurs têtes au bout de 24h sans pouvoir lâcher un communiqué foireux dans Le Figaro ou un petit post Instagram genre on ça s’ambiance avec des people . Ça nous fera des vacances !

Najat, la prochaine fois, si t’as d’autres idées « progressistes » de ce genre, n’hésite pas à les garder pour toi. Nous on est très bien avec notre Internet, même si on en abuse un peu parfois.

C’est ça aussi la Liberté.

Allez, garde la pêche Najat !

Image d’illustration : Une femme random générée par IA, qui n’a rien à voir avec Najat

LocalAI – L’alternative open source puissante à OpenAI

Par : Korben

Aujourd’hui, j’aimerais vous présenter LocalAI, une alternative open source à OpenAI. En tout cas, c’est comme ça que le créateur du projet le présente. Il s’agit d’une solution idéale pour tous ceux qui cherchent une API REST compatible avec les spécifications de l’API OpenAI pour l’inférence locale.

Grâce à LocalAI, vous pouvez exécuter des modèles linguistiques, générer des images, de l’audio et bien d’autres choses encore, localement ou sur site avec du matériel grand public, et ce, sans avoir besoin d’un GPU ! Le projet a pour principal objectif de rendre l’IA accessible à tous.

Pour résumer, voici les principales caractéristiques de LocalAI :

  • Une API REST locale, alternative à OpenAI. Comme ça, vous gardez bien au chaud vos propres données.
  • Pas besoin de GPU. Pas besoin d’accès internet non plus. Toutefois, l’accélération GPU est possible en option.
  • Prise en charge de plusieurs modèles.
  • Dès qu’ils sont chargés une première fois, les modèles restent en mémoire pour une inférence plus rapide.
  • N’utilise pas de shell, mais des liaisons directes pour une inférence plus rapide et de meilleures performances.

En termes de fonctionnalités, LocalAI offre une large gamme d’options, parmi lesquelles :

  • La génération de texte avec les modèles GPT (comme llama.cpp ou gpt4all.cpp).
  • La conversion de texte en audio.
  • La transcription audio en texte avec whisper.cpp.
  • La génération d’images avec Stable Diffusion.
  • Les dernières fonctionnalités d’OpenAI récemment ajoutées comme l’API Vision par exemple.
  • La génération d’embeddings pour les bases de données vectorielles.
  • Les grammaires contraintes.
  • Le téléchargement de modèles directement à partir de Huggingface.

LocalAI est bien sûr un projet communautaire donc n’hésitez pas si vous souhaitez vous impliquer !

Pour commencer rapidement avec LocalAI, vous pouvez consulter leur guide Getting Started qui décrit les différentes méthodes d’installation et les exigences matérielles ou aller consulter les guides de la communauté. Je vous ferais aussi probablement un tutoriel prochainement si mon emploi du temps me le permet.

LocalAI est disponible sous forme d’image conteneur et de binaire, compatible avec divers moteurs de conteneurs tels que Docker, Podman et Kubernetes. Les images de conteneurs sont publiées sur quay.io et Docker Hub, et les binaires peuvent être téléchargés à partir de GitHub.

Concernant les exigences matérielles, ça varie en fonction de la taille du modèle et de la méthode de quantification utilisée mais pour choper quelques repères de performance avec différents backends, comme llama.cpp, vous pouvez consulter ce lien.

Maintenant pour en savoir plus, vous pouvez explorer le site localai.io. Vous y trouverez de nombreuses informations et des exemples d’utilisation pour vous aider à tirer le meilleur parti de LocalAI.

Merci à Lorenper

Raspberry Pi NAS – Du stockage réseau DIY performant et économique !

Par : Korben

Je ne sais pas si ça va vous motiver pour aujourd’hui ou si on contraire, ça va vous faire poser des congés, mais j’ai découvert grâce à Lorenper, un projet plutôt dingue qui allie la magie du Raspberry Pi et le côté pratique d’un NAS (Network Attached Storage). En gros, imaginez pouvoir créer votre propre espace de stockage en réseau à la maison, à moindre coût et avec une petite bête électronique qui consomme très peu d’énergie.

Hé bien c’est possible grâce au Raspberry Pi NAS qui est un projet DIY dont toutes les étapes sont décrites chez Printables.

Le Raspberry Pi, pour ceux qui ne connaissent pas encore, est un mini-ordinateur à bas coût qui permet de réaliser de nombreux projets DIY (Do It Yourself) à la fois ludiques et utiles. Il est devenu très populaire pour la création de serveurs en tous genres, et notamment pour mettre en place un NAS.

Le truc, c’est que les NAS sont généralement assez chers, et leurs performances ne sont pas toujours à la hauteur de leur prix. J’ai un Synology à la maison et j’en suis très content. Mais grâce au Raspberry Pi, il est maintenant possible de créer un NAS sur mesure, avec des fonctionnalités adaptées à nos besoins, et ce, pour une somme modique.

La première étape pour créer un Raspberry Pi NAS consiste à rassembler le matériel nécessaire. Vous aurez besoin d’un Raspberry Pi (de préférence de dernière génération pour bénéficier de performances accrues), d’une carte microSD pour le système d’exploitation, d’un disque dur externe ou d’une clé USB pour le stockage, d’une alimentation adaptée et de deux ou trois autres petites choses telles qu’un écran OLED. Je vous laisse vous référer à la liste du matos sur le site Printables.

Une fois le matériel rassemblé, il faudra préparer la carte microSD avec le système d’exploitation. La distribution la plus populaire pour ce genre de projet est Raspbian. Une alternative intéressante est OpenMediaVault qui intègre déjà de nombreuses fonctionnalités pour un NAS.

Le disque dur externe ou la clé USB que vous choisirez pour le stockage devra être formaté et monté sur le Raspberry Pi. Il est possible d’utiliser différents systèmes de fichiers tels que NTFS, FAT32 ou EXT4. À noter qu’il est également possible de configurer un RAID (Redundant Array of Independent Disks) pour augmenter la capacité de stockage et garantir la sécurité des données. Plus y’a de plus, plus on est à l’aise, blaiz !

En ce qui concerne le partage des fichiers et dossiers sur le réseau, plusieurs protocoles sont disponibles et peuvent être configurés selon vos besoins. Le plus commun est le protocole Samba (non, pas de Janeiro…) qui est compatible avec les systèmes Windows, macOS et Linux. Un autre protocole intéressant est NFS (Network File System) qui fonctionne principalement avec les systèmes Linux et UNIX. Pour ceux qui souhaitent accéder à leurs fichiers depuis le Web, il est possible de mettre en place un serveur FTP (File Transfer Protocol) ou d’utiliser des applications de cloud personnel telles que Nextcloud ou Owncloud.

Mis à part les fonctionnalités de base d’un NAS, le Raspberry Pi permet d’ajouter d’autres services supplémentaires tels que la sauvegarde automatisée de vos données, la synchronisation entre plusieurs dispositifs, l’accès à distance sécurisé via VPN ou encore la diffusion de contenus multimédias en streaming grâce à des logiciels tels que Plex ou Kodi. Vous avez de quoi vous éclater techniquement, ne vous inquiétez pas.

Bref, créer un NAS avec un Raspberry Pi est un projet plutôt cool qui permet d’obtenir un système de stockage en réseau sur mesure, économique et performant. Les possibilités sont presque infinies, et vous pourrez adapter votre NAS à vos besoins spécifiques grâce à la flexibilité offerte par le Raspberry Pi.

Puis si vous voulez faire d’autres trucs avec votre Raspberry Pi, mais que vous n’avez pas d’idées, je vous ai compilé une super liste de projets ici.

Merci à Lorenper

LLM4Decompile – Quand l’IA se met à décompiler du binaire

Par : Korben

Imaginez un monde merveilleux où les secrets enfermés dans les binaires compilés ne seraient plus inaccessibles aux simples mortels que nous sommes…

C’est exactement ce que LLM4Decompile, le premier LLM (Large Language Model) open-source dédié à la décompilation, promet de réaliser. Fruit d’un travail de recherche innovant mené par une équipe de chercheurs passionnés, ce modèle révolutionnaire ouvre de nouvelles perspectives dans le domaine du reverse engineering.

Jusqu’à présent, la décompilation, c’est-à-dire le processus qui consiste à retrouver le code source à partir d’un exécutable compilé, restait un défi de taille. Les outils existants peinaient à produire un code lisible et compréhensible par les humains, ce qui est logique puisqu’il y a une grosse perte d’informations lors de la compilation. Mais ça, c’était avant l’arrivée de LLM4Decompile !

Entraîné sur un énorme dataset de 4 milliards de tokens de code C et d’assembleur x86, ce modèle de langage surpuissant a appris à décoder les secrets des binaires. Grâce à son architecture basée sur les Transformers et ses milliards de paramètres, il est donc capable de capturer les patterns et la sémantique du code à un niveau inédit.

Mais les chercheurs ne se sont pas arrêtés là. Ils ont aussi développé le premier benchmark standardisé pour la décompilation baptisé Decompile-Eval. Basé sur des problèmes de programmation réels, il permet d’évaluer la capacité des modèles à regénérer un code recompilable et ré-exécutable. Exit les métriques de similarité de tokens, place à des critères solides et pertinents ! LLM4Decompile parvient à recompiler 90% des binaires décompilés (oui oui, je me suis pas trompé) !

Mieux encore, 21% du code re-généré réussit tous les tests unitaires, démontrant une préservation de la logique du programme. C’est 50% de plus que GPT-4, pourtant considéré comme l’état de l’art.

Cerise sur le gâteau, LLM4Decompile est entièrement open-source. Les modèles pré-entraînés de 1,3 à 33 milliards de paramètres sont disponibles sur Hugging Face, prêts à être utilisés et améliorés par la communauté. Le code, les données d’entraînement et le benchmark sont aussi accessibles sur GitHub.

Bien sûr, LLM4Decompile n’est qu’un premier pas vers la décompilation par l’IA. Il reste limité au langage C et à l’assembleur x86, et ne gère pour l’instant que des fonctions isolées. Mais les perspectives sont immenses ! On peut imaginer étendre son champ d’action à d’autres langages et architectures, voire carrément l’utiliser pour transpiler automatiquement du code entre différents langages.

Les applications potentielles sont nombreuses : reverse engineering de logiciels legacy (ça veut dire obsolète mais encore utilisé.. .argh !), analyse de malware, portage de vieux jeux vidéos, etc. Même les vieux binaires qui sentent la naphtaline n’auront bientôt plus de secrets pour nous !

Adeus – L’assistant IA DIY qui vous accompagne partout

Par : Korben

Si vous lisez mon site depuis longtemps, vous savez que j’apprécie tous ces petits projets de DIY (Do It Yourself), alors maintenant qu’on peut y coller un peu d’IA, j’ai l’impression que tout devient possible. Tenez par exemple ce projet baptisé Adeus.

C’est un dispositif portable d’intelligence artificielle open source capable de vous accompagner à chaque instant. Cette technologie, bien plus qu’un simple gadget, deviendra possiblement de standard des années qui arrivent. La preuve avec le succès du Rabbit R1 qui n’a pour d’autres buts que de remplacer les smartphones.

Alors comment fonctionne Adeus ?

Hé bien, ce système se compose de trois éléments clés qui interagissent les uns avec les autres :

Il y a tout d’abord une application mobile / web qui n’est ni plus ni moins qu’une interface qui permet à l’utilisateur d’interagir avec son IA personnelle et ses données par le biais d’un chat.

Côté matos, il y a le dispositif portable qui enregistrera tout ce que l’utilisateur dit ou entend, et l’enverra au backend pour être traité. Pour le moment, c’est possible à déployer sur un Raspberry Pi Zero W ou un appareil CoralAI.

Et ce backend basé sur Supabase, avec sa base de données, sera capable de traiter et stocker les données que nous échangeons avec les LLM (Large Language Model).

Toutefois, pour garantir le respect de nos données et notre propriété intellectuelle, Adeus a choisi la voie de l’open source. Grâce à cette philosophie, il est possible de garder un œil sur le fonctionnement de l’IA et de s’assurer qu’aucun tiers ne peut accéder à notre précieux contenu. Pour un objet à qui on confie toute sa vie perso, je trouve ça plutôt sain.

Pour en savoir plus, vous pouvez consulter la page GitHub d’Adeus qui regorge d’informations détaillées sur le projet.

Merci à Lorenper

ytDownloader – Télécharger des vidéos à partir d’une simple URL

Par : Korben

Hé les amis, aujourd’hui laissez-moi vous présenter un outil génial qui vous facilitera la vie en vous permettant de télécharger des vidéos et d’extraire des pistes audios de différents formats à partir de centaines de sites, dont, YouTube, Facebook, Tiktok, Twitch, Twitter, Instagram et bien d’autres…

Cet outil s’appelle ytDownloader et vous l’aurez compris, c’est YoutubeDL derrière sauf que là, y’a une interface minimaliste facile à prendre en main. L’outil est bien sûr entièrement gratuit et Open Source.

Disponible sous Linux, Windows et macOS, cet utilitaire dispose de nombreuses fonctionnalités comme un mode clair/sombre, la possibilité de choisir un thème pour pas flinguer vos petits yeux, ainsi que la possibilité de télécharger une plage spécifique d’une vidéo si vous le souhaitez, ce qui est pratique pour extraire un morceau précis. Vous pouvez évidemment, après avoir entré l’URL de votre vidéo, choisir le format et la qualité de la vidéo et de l’audio que vous voulez récupérer, ce qui est super pratique pour faire par exemple des MP3 à partir de clips vidéos.

Cet outil prend également en charge le téléchargement des sous-titres et est disponible en plusieurs langues. Vous pouvez bien sûr configurer l’emplacement où enregistrer vos fichiers récupérés et il n’y a ni pubs ni traqueur dans l’application.

Pour résumer, ytDownloader est un outil super utile pour tous ceux qui ont besoin de récupérer des vidéos et/ou extraire des audios de différents formats à partir de différents sites. Je vous le conseille !

Rendez-vous sur leur site pour télécharger ytDownloader.

Merci à Lorenper pour le partage.

Copilot passe à GPT-4 Turbo gratuit pour tous sur Windows 11

Par : Korben

Vous en avez entendu parler, peut-être même que vous l’avez déjà testé, mais cette news devrait quand même vous intéresser si vous faites partie des chanceux qui ont accès à Copilot, l’assistant IA de Microsoft. Car hier, la firme de Redmond a annoncé une sacrée mise à jour pour son chatbot intégré à Windows 11. En effet, d’après cette news parue sur Neowin.net, Microsoft vient de booster les performances de Copilot en y intégrant le tout dernier modèle de langage GPT-4 Turbo développé par OpenAI.

Auparavant, pour pouvoir utiliser GPT-4 Turbo dans Copilot, il fallait souscrire à l’abonnement Copilot Pro à 20$ par mois. Pas donné quand même. Mais bonne nouvelle, Mikhail Parakhin, le grand chef de la pub et des services web chez Microsoft, a annoncé sur son compte X (ex-Twitter) que GPT-4 Turbo était désormais disponible gratuitement pour tous les utilisateurs de Copilot, après pas mal de boulot apparemment.

On va tous pouvoir en profiter !

Pour rappel, GPT-4 Turbo c’est le dernier cri en matière de modèle de langage IA. Il a été dévoilé par OpenAI en novembre dernier et il permet notamment de traiter des prompts beaucoup plus longs, jusqu’à 300 pages, grâce à une fenêtre de contexte élargie à 128 000 tokens (128L). Autant dire que ça ouvre pas mal de possibilités pour les utilisateurs.

Microsoft avait promis d’intégrer le support de GPT-4 Turbo en décembre, mais jusqu’à présent c’était réservé aux abonnés Copilot Pro. Ceux-ci pourront d’ailleurs toujours choisir d’utiliser l’ancien modèle GPT-4 s’ils le préfèrent, via une option dans les paramètres.

En parlant de Copilot Pro, Microsoft a aussi annoncé cette semaine que les abonnés pouvaient maintenant accéder à Copilot GPT Builder, un nouvel outil permettant de créer ses propres chatbots personnalisés sans aucune connaissance en programmation. Plutôt balèze. Et le top, c’est que ces chatbots pourront ensuite être partagés avec n’importe qui, même ceux qui n’ont pas Copilot Pro.

Bref, vous l’aurez compris, ça bouge pas mal du côté de Copilot en ce moment. Et visiblement, ce n’est pas fini. Selon une fuite repérée dans des documents promotionnels de Samsung, de nouvelles fonctionnalités devraient bientôt arriver, notamment une meilleure intégration entre Copilot et l’app Phone Link de Microsoft pour les smartphones Galaxy.

Alors perso, j’ai hâte de tester tout ça. Déjà que Copilot était plutôt impressionnant, avec GPT-4 Turbo ça promet de nouvelles possibilités assez dingues. Et puis le fait que ce soit désormais gratuit pour tous les utilisateurs, c’est quand même un sacré argument. Pas besoin d’être un pro ou de casquer tous les mois pour avoir accès au top de l’IA conversationnelle.

Suyu – le nouvel émulateur Switch open source qui ose défier Nintendo après la mort de Yuzu

Par : Korben

Vous avez entendu parler de Suyu ? C’est le nouvel émulateur Nintendo Switch open source qui fait pas mal parler de lui en ce moment. Faut dire qu’après la descente en flammes de son prédécesseur Yuzu, qui s’est pris un méchant procès de Nintendo et a dû mettre la clé sous la porte, les fans d’émulation se demandaient bien qui allait prendre le relais.

Bah c’est Suyu qui s’y colle, avec une équipe de développeurs passionnés qui ont repris le code source de Yuzu pour continuer à faire évoluer l’émulation Switch. Mais attention, les gars ont retenu la leçon et font super gaffe à pas se mettre Nintendo à dos comme Yuzu ! Déjà, fini la monétisation du projet, Suyu c’est 100% bénévole. Ils l’annoncent clairement sur leur page GitLab, zéro profit, que dalle, nada. Normal, vu que c’était un des points qui avaient bien énervé Nintendo dans le procès contre Yuzu.

Pareil pour les guides pas à pas pour expliquer comment jouer à des jeux piratés, c’est terminé. Les mecs veulent pas entendre parler de warez, au point que c’est devenu le sujet tabou numéro 1 sur leur Discord. Suyu joue la carte de la prudence à fond et refuse d’être associé de près ou de loin au piratage. Sachant que c’était un autre gros point de crispation de Nintendo contre Yuzu, ça me parait logique.

Après est-ce que ça suffira à éviter les foudres des avocats de Big N, ça c’est une autre histoire. Car même en jouant profil bas, Suyu n’en reste pas moins un émulateur Switch, avec tout ce que ça implique légalement, notamment le fait de devoir extraire la clé de sécurité d’une Switch pour pouvoir jouer aux jeux, ce qui ne plait pas non plus à la firme japonaise. D’ailleurs, les dévs le disent eux-mêmes, ils évoluent pour l’instant dans une « zone grise », le temps de trouver une solution pour en sortir. Wait and see comme on dit.

Mais en attendant, force est de constater que Suyu fait du bon boulot. Enfin un émulateur Switch puissant, open source et qui en plus est plutôt user-friendly. De quoi donner envie d’y jeter un œil et pourquoi pas de filer un coup de main si vous vous y connaissez un peu en dev. Le code est dispo sur le GitLab, avis aux amateurs ! Je vous ferait pas de tuto, hein ^^.

Bon après, bien que l’émulation soit LÉGALE, n’empêche que c’est quand même un peu couillu comme projet. Rien que le nom, Suyu, qui se prononce comme « sue you » (traduisez « attaquez-moi en justice » pour les anglophobes), ça montre bien que les mecs ont de l’humour et qu’ils sont conscients de jouer avec le feu. On peut pas leur enlever ça.

Et puis c’est cool de voir que malgré les menaces, la communauté de l’émulation continue de faire vivre ce hobby de passionnés. Avec tous les projets qui se sont fait dégommer ces derniers temps, on aurait pu croire le milieu complètement plombé. Mais heureusement, y a encore des irréductibles pour prendre la relève et faire perdurer la tradition, même si ça devient de plus en plus tendu.

Donc voilà, un petit coup de projecteur sur Suyu qui le mérite bien. Si vous voulez en savoir plus, je vous invite à faire un tour sur leur site, y a toutes les infos nécessaires. Et n’hésitez pas non plus à rejoindre leur serveur Discord pour suivre l’actu du projet et échanger avec les dévs et la communauté.

Sur ce, je retourne jouer à Zelda BOTW sur mon PC, vu que maintenant c’est possible grâce à Suyu 😉 J’déconne, j’déconne… Quoique !

Source

Grok d’Elon Musk bientôt open-source pour défier ChatGPT

Par : Korben

Ça y est les amis, c’est la grande nouvelle de la semaine dans le monde de l’IA ! Elon Musk, le grand patron de xAI, a balancé sur Twitter que son chatbot Grok va passer en open-source dans les prochains jours. Et ça, c’est pas rien, surtout quand on sait que ce petit bijou est capable, selon ses dires, de rivaliser avec ChatGPT !

Faut dire que depuis sa sortie l’an dernier, Grok a pas chômé. Il a été boosté avec des fonctionnalités de fou, comme l’accès à des infos en temps réel et la possibilité de s’exprimer sans filtre, même si ça plait pas à tout le monde. 😅 Pour l’instant, seuls les abonnés premium de X (anciennement Twitter) peuvent en profiter pour la modique somme de 16 dollars par mois. Mais ça, ça risque bien de changer !

Parce que voilà, Elon est pas content. Il y a quelques jours, il a carrément attaqué OpenAI en justice, l’accusant d’avoir trahi ses principes d’ouverture et de transparence. Faut savoir qu’à la base, Musk avait co-fondé OpenAI avec Sam Altman il y a presque 10 ans, justement pour contrer la domination de Google dans l’IA. Mais depuis, OpenAI est passé en mode closed-source et s’est rapproché de Microsoft, son nouveau meilleur pote. Forcément, ça passe mal auprès d’Elon qui n’hésite pas à balancer : « OpenAI est devenu une filiale de facto de Microsoft, la plus grande entreprise technologique au monde ». Aïe, ça pique ! 😬

Résultat, ça a foutu un sacré bordel dans le milieu. Des pointures comme Vinod Khosla (un des premiers investisseurs d’OpenAI) et Marc Andreessen (co-fondateur d’Andreessen Horowitz) s’en sont mêlés, alimentant le débat sur les avantages et les risques de l’open-source dans l’IA. Pendant ce temps-là, Elon persiste et signe : « OpenAI est un mensonge », a-t-il tweeté lundi. Ambiance ! 🔥

Mais revenons-en à nos moutons. Si Grok passe effectivement en open-source comme promis, ça va faire du bruit. xAI rejoindrait ainsi le club select des boîtes comme Meta et Mistral qui ont déjà publié le code de leurs modèles. Et c’est pas la première fois qu’Elon joue la carte de la transparence : Tesla a déjà open-sourcé plein de brevets, et même X (ex-Twitter) a rendu publics certains de ses algorithmes l’an dernier.

Alors, qu’est-ce que ça va donner concrètement ? 🤔

On peut imaginer que des développeurs du monde entier vont pouvoir mettre les mains dans le cambouis de Grok, l’améliorer, le customiser à leur sauce. Ça pourrait donner lieu à des utilisations vraiment cool, comme par exemple intégrer Grok à des apps ou des sites web pour proposer une assistance ultra-performante aux utilisateurs. Ou encore s’en servir comme base pour créer des chatbots spécialisés dans des domaines pointus, type médecine, droit, finance… Les possibilités sont quasi infinies !

Après, faudra quand même rester vigilant. Parce que l’open-source, c’est chouette, mais ça peut aussi ouvrir la porte à des dérives si c’est mal encadré. Genre des mecs mal intentionnés qui se serviraient du code de Grok pour créer des chatbots malveillants, des spambots, ou pire encore. 😱 Espérons qu’Elon et son équipe ont prévu des garde-fous solides pour éviter ça (j’en doute…).

En attendant, on a hâte de voir ce que ça va donner ! Et vous, vous en pensez quoi ? Vous croyez que l’open-source peut vraiment révolutionner le monde de l’IA, ou bien c’est juste un énième coup de com’ de notre cher Elon ?

Allez, je vous laisse cogiter là-dessus, et rdv très vite pour la suite des aventures ! 😉

Source

Geppetto – ChatGPT et Dall-e dans votre Slack

Par : Korben

Aujourd’hui, je vais vous parler d’un projet innovant qui vaut le détour. Il s’agit de Geppetto, qui n’a rien à voir avec l’autre naze de Pinocchio, mais qui est un bot avancé utilisant la technologie d’OpenAI pour amener une touche d’intelligence dans votre Slack.

Geppetto intègre ChatGPT-4 et DALL-E-3, ce qui permet d’avoir de la production d’écrits, mais également de la génération d’images. Une fois déployé, Geppetto s’intègre à votre espace de travail Slack et améliore la communication au sein de vos équipes en ajoutant des salutations automatisées, des réponses cohérentes et, bien sûr, ces fameuses visualisations créatives. Comme ça, plus besoin de perdre du temps à chercher les mots justes ou les images parfaites, Geppetto s’en charge pour vous.

En gros, si vous avez un truc urgent à dire à votre équipe sur Slack, mais vous ne trouvez pas les mots pour la formuler de manière claire et concise, plutôt que de perdre du temps à chercher comment exprimer maladroitement votre pensée, vous pouvez simplement demander à Geppetto de vous aider à formuler par exemple une question ou à y répondre. Tout ça dans la limite des connaissances du bot évidemment.

La génération d’image peut également vous aider à illustrer un concept complexe ou simplement pour ajouter un peu de fun à la conversation.

Alors, elle n’est pas belle la vie avec un bot comme Geppetto ? C’est vachement plus pratique qu’un pantin en bois trop con.

Si ce projet vous intrigue et que vous souhaitez en savoir plus, je vous invite à consulter le dépôt GitHub à l’adresse suivante : https://github.com/Deeptechia/geppetto.

Merci à Lorenper

OpenHue CLI – Contrôlez vos Philips Hue depuis votre terminal

Par : Korben

Y’a pas très longtemps, je vous ai présenté le projet libre OpenHue pour contrôler vos ampoules Philips Hue via une API REST. Et bien Thibault, le développeur du projet m’a contacté pour me présenter OpenHue CLI

Comme son nom l’indique, il s’agit d’interface en ligne de commande, conçue pour interagir avec vos ampoules Philips Hue, directement depuis votre terminal.

Avec OpenHue CLI, vous pourrez vous connecter sans effort aux bridges Philips Hue, détecter l’ensemble de vos ampoules et vérifier leur état actuel. Bien sûr, vous pourrez les allumer ou les éteindre, ajuster leur luminosité et modifier les couleurs, le tout avec de simples commandes à entrer dans le terminal.

OpenHue CLI fonctionne sous macOS, Linux et Windows et si ça vous dit d’essayer, vous aurez besoin de Homebrew ou de Docker.

Ainsi pour l’installer sous macOS :

brew tap openhue/cli
brew install openhue-cli

Puis lancez la commande setup pour découvrir le bridge openhue :

openhue setup

Et si c’est via Docker :

docker pull openhue/cli
docker run -v "${HOME}/.openhue:/.openhue" --rm --name=openhue -it openhue/cli setup -b 192.168.1.x -k xxxxx

Vous pourrez ensuite lister les ampoules disponibles comme ceci :

docker run -v "${HOME}/.openhue:/.openhue" --rm --name=openhue -it openhue/cli lights list 

Bref, que vous soyez un développeur cherchant à intégrer l’éclairage Philips Hue dans ses projets ou un passionné de domotique souhaitant améliorer son installation, OpenHue CLI est l’outil qu’il vous faut.

OpenHue CLI est disponible sur GitHub à l’adresse suivante : https://github.com/openhue/openhue-cli

Merci à Lorenper

De4Py – Le toolkit idéal pour faire de l’analyse de programmes Python (malwares ou autre)

Par : Korben

A tous les fondus d’analyse de code, aujourd’hui, j’aimerais vous présenter De4Py, un déobfuscateur Python avancé qui s’est donné pour mission de révolutionner le domaine pour les analystes de malwares et les experts en reverse engineering.

Développé par le duo Fadi002 et AdvDebug, cet outil se distingue non seulement par son interface conviviale, mais aussi par un ensemble de fonctionnalités avancées conçues pour, entre autres, déchiffrer les fichiers Python.

Ce toolkit prend en charge toute une gamme d’obfuscateurs populaires, incluant Jawbreaker, BlankOBF, PlusOBF, Wodx, Hyperion et l’obfuscateur de pyobfuscate.com. Cette polyvalence vous assure de pouvoir décoder un large éventail de fichiers obfusqués avec une grande facilité.

L’une des fonctionnalités phares de l’outil est sa capacité d’exécution de code. Cela permet aux utilisateurs d’exécuter du code Python au sein de l’outil. Par exemple, ils expliquent sur le Github, que grâce à ça, si un programme demande une licence pour fonctionner dans son intégralité, De4py permet d’accéder directement aux fonctionnalités principales de l’outil, et par conséquent de contourner les restrictions liées à la licence.

La fonction de Dump de chaînes de caractères est un autre atout crucial. Elle facilite l’extraction de textes du processus Python et les sauvegarde dans un fichier, rendant plus aisée l’extraction de données de la mémoire, y compris des informations sensibles comme les webhooks. Il est capable également d’identifier les chaines de caractères « interessantes » comme les IP, les sites web et les mots-clés liés à des informations sensibles.

De4py aborde également le défi que représentent ces programmes Python qui tentent de s’auto-terminer lorsqu’ils détectent un débogueur ou une machine virtuelle. En supprimant la fonction de sortie, il vous permettra de ne plus galérer avec des sorties de programme surprises. De4py dispose aussi d’une fonctionnalité qui permet de récupérer et d’accéder à toutes les fonctions se trouvant dans le processus, ce qui est pratique si on veut modifier certaines fonctions en mémoire de manière plus précise.

Il y a également un analyseur de fichiers pour détecter si un programme Python est « packé ». Il tente alors d’extraire les programmes qui s’y trouvent en utilisant pyinstaller. Enfin, De4Py est capable de surveiller le comportement du programme sur votre système à savoir tout ce qui est manipulations de fichiers, activités de processus, interactions avec la mémoire, et même les communications via socket, avec détail de la taille des données transmises / reçues et des adresses IP. Cette fonctionnalité permet également l’extraction du contenu des sockets et le déchiffrement du contenu chiffré OpenSSL directement dans un fichier.

Bref, que ce soit via son interface graphique ou en mode terminal, De4Py est un super outil pour tous les amateurs de reverse engineering qui font notamment de l’analyse de malware.

Vous en saurez plus ici sur leur Github et le site officiel est ici.

Nava – La lib Python pour jouer du son dans votre code

Par : Korben

J’aime bien faire un peu de Python de temps en temps et il m’arrive parfois de vouloir jouer un son dans mes scripts pour signaler qu’un traitement est fini ou tout simplement mettre un peu de fun. Jusqu’à présent j’utilisais des libs comme Pygame, Playsound ou encore Pydub mais ces trucs-là ne sont pas forcément bien supportés par tous les OS, ou nécessitent des dépendances comme FFMpeg.

Toutefois, une lib baptisée Nava vient de faire son apparition et c’est la simplicité même. Elle fonctionne sur tous les OS (Linux, macOS, Windows), et n’utilise aucune dépendance ou logiciel tiers. Vous pouvez lui faire lire du WAV et du MP3 et la lecture se lance immédiatement.

Pour l’installer, rien de plus simple :

pip install nava

Et ensuite, il suffit de l’appeler dans votre code et de lui indiquer le morceau à jouer.

from nava import play
play("son.mp3")

Vous pouvez même lancer une lecture en asynchrone pour ne pas bloquer votre script. Dans l’exemple ci-dessous, on lance un time sleep qui peut donc couper la lecture du son au bout de 4 secondes et qui comme vous le voyez, n’est pas bloqué puisque nava est lancé en mode asynchrone avec le paramètre async_mode=True :

import time
from nava import play, stop
sound_id = play("son.wav", async_mode=True)
time.sleep(4)
stop(sound_id)

Voilà, j’espère que ça vous sera utile 🙂

JXL et AVIF – Les nouveaux champions des formats d’image

Par : Korben

On est tous là avec nos formats d’images d’avant la guerre, à savoir le JPEG, le PNG et le WebP alors qu’il existe des trucs beaucoup plus efficaces aujourd’hui en 2024. L’objectif de cet article est donc de vous les présenter.

Le premier s’appelle AVIF (AV1 Image File Format) qui est basé sur le codec vidéo AV1, très connu pour son efficacité en termes de compression. L’AVIF est très adapté pour tout ce qui est images pour les sites web, mais également pour tout ce qui est images animées. Ça en fait donc une bonne alternative aux GIF animés et surtout, de très nombreux navigateurs modernes le supportent déjà.

L’autre format c’est le JXL qui n’est ni plus ni moins que la contraction de JPEG et de XL. Celui-ci est conçu pour compresser efficacement les photos avec ou sans perte selon ce que vous choisissez, tout en préservant une très haute résolution (au-delà du milliard de pixels si ça vous chante) avec plein dé détails. L’algo qui permet d’encoder les images en JXL est d’ailleurs jusqu’à 10 fois plus rapide que celui d’AVIF.

Ces deux formats qui supportent tous les deux la transparence, sont sortis vers 2019 et sont open source et non commerciaux. Alors c’est bien beau tout ça, mais comment on fait pour convertir nos images dans ces formats ? Et bien logiquement, n’importe quel outil de traitement d’image un peu récent peu le faire, mais autrement, y’a des outils.

Pour l’AVIF, vous pouvez utiliser les outils cavif-rs ou encore FFMPEG. Cavif-rs ce sera plus pour les images statiques et FFMPEG pour les gifs animés.

Prenons cette image PNG pour un beau fond d’écran de 1,9 Mo et d’une résolution de 1456 × 816 pixels :

En la convertissant en AVIF à l’aide de la commande suivante :

cavif Downloads/wallpaper.png -o Downloads/wallavif.avif -f

On obtient la même image, avec la même résolution sauf qu’elle pèse maintenant 77 ko. Je vous l’intégre dans mon WordPress pour que vous voyiez que c’est bien supporté par votre navigateur, mais comme WordPress ne supporte pas encore nativement ce format, le rendu est un peu cra-cra :

Je ne vous avais pas menti, c’est sacrément efficace. Dommage pour moi, ce format n’est pas supporté par mon WordPress, donc je ne peux pas encore l’intégrer à mon article.

Passons maintenant à une image animée avec FFMPEG. Je prends ce GIF de 1,1 Mo :

Avec FFMPEG, je dois d’abord convertir le format des pixels en yuv420p qui est un format de couleur très utilisé pour la vidéo et compatible AVIF :

ffmpeg -i happy.gif -pix_fmt yuv420p -f yuv4mpegpipe happy.y4m

Ensuite, il faut installer la lib avif comme ceci sous Linux :

sudo apt install libavif-bin

Comme ça sous mac :

brew install libavif

Ensuite armé de ce fichier y4m, je peux alors appeler l’outil d’encodage avifenc qui va alors le convertir en AVIF animé :

avifenc happy.y4m happy.avif

Et voilà, je me retrouve avec la même image animée sauf qu’elle pèse 45 ko. C’est magique.

Pour le format JXL c’est encore plus simple, puisqu’il y a un outil officiel à télécharger ici. Si vous êtes sous mac, vous pouvez même l’installer comme ceci :

brew install jpeg-xl

Ensuite, y’a plus qu’à appeler la commande comme ceci avec le paramètre lossless afin de n’avoir aucune perte :

cjxl wallpaper.png wallpaper.jxl --lossless_jpeg=0

Je passe donc d’un fond d’écran de 1,9 Mo en PNG au même fond d’écran de 202 Ko. Voici l’incrustation de ce JXL :

Après si vous avez la flemme de jouer avec tous ces outils sachez que ezgif dont je vous ai déjà parlé ici, propose des convertisseurs pour l’AVIF et le JXL.

D’ailleurs, si vous vous demandez comment je l’ai intégré, et bien, il existe une astuce qui permet d’avoir un rendu de JXL ou d’AVIF avec une image PNG en secours pour les anciens navigateurs qui ne supporteraient ni le AVIF ni le JXL.

Voici le code :

<picture>
      <source type="image/jxl" srcset="https://korben.info/wallpaper.jxl" />
      <img src="https://korben.info/wallpaper.png" />
</picture>

Et pour de l’AVIF ce sera comme ça :

<picture>
      <source type="image/avif" srcset="https://korben.info/wallpaper.avif" />
      <img src="https://korben.info/wallpaper.png" />
</picture>

Bref, tout ça pour dire que les résultats en matière de qualité et de compression avec JXL et AVIF sont assez phénoménaux que ce soit avec perte ou non de qualité. Je vous encourage fortement à adopter ces futurs standards même si pour le moment, c’est encore un peu roots, mais c’est déjà bien supporté sur les navigateurs récents du marché, donc pourquoi s’en priver. J’espère que WordPress le supportera également nativement rapidement, comme ils l’ont fait pour le webp.

LiteLLM – Pour discuter avec toutes les API LLM en utilisant la syntaxe OpenAI

Par : Korben

Si vous codez en Python autour d’API de LLM comme celle d’OpenAI, d’Anthropic ou encore de Huggingface…etc., je vous présente LiteLLM qui risque de vous faire gagner pas mal de temps.

Il s’agit d’une lib Python capable d’interagir avec tout un tas d’API en utilisant le format de celle d’OpenAI. Elle fournit une interface simple et uniformisée pour appeler ces modèles , ce qui va vous faciliter leur utilisation pour des choses comme de la génération de texte, de la traduction ou encore du chat…

Pour l’installer, rien de plus simple :

pip install litellm

Ensuite, y’a plus qu’à créer un objet LiteLLM dans votre code, en lui fournissant l’ID et le nom du modèle à utiliser. Par exemple pour vous connecter à OpenAI, le code sera le suivant :

from litellm import completion
import os

## set ENV variables
os.environ["OPENAI_API_KEY"] = "your-api-key"

response = completion(
  model="gpt-3.5-turbo", 
  messages=[{ "content": "Hello, how are you?","role": "user"}]
)

Pour Claude 2, ça sera ça :

from litellm import completion
import os

## set ENV variables
os.environ["ANTHROPIC_API_KEY"] = "your-api-key"

response = completion(
  model="claude-2", 
  messages=[{ "content": "Hello, how are you?","role": "user"}]
)

Pour utiliser Ollama, ça donnerait également ça :

from litellm import completion

response = completion(
            model="ollama/llama2", 
            messages = [{ "content": "Hello, how are you?","role": "user"}], 
            api_base="http://localhost:11434"
)

Donc pas grand-chose qui change.

Vous l’aurez donc compris, LiteLLM permet de pondre un seul et unique code, mais pour discuter avec tous les fournisseurs d’IA du moment (et les logiciels libres existants)

Y’a la possibilité d’avoir du stream sur les réponses (c’est à dire, le texte qui s’affiche au fur et à mesure), de la gestion des exceptions, du log, sans oublier du calcul de coût et l’usage que vous pouvez avoir de ces API afin de ne pas éclater votre compte en banque.

LiteLLM intègre également un proxy OpenAI pour rediriger vos requêtes vers le modèle de votre choix. Pour l’installer :

pip install 'litellm[proxy]'

Lancez ensuite le proxy avec le modèle de votre choix :

litellm --model huggingface/bigcode/starcoder

Et lui passer vos requêtes dans le code python directement :

import openai # openai v1.0.0+
client = openai.OpenAI(api_key="anything",base_url="http://0.0.0.0:8000") # set proxy to base_url
# request sent to model set on litellm proxy, `litellm --model`
response = client.chat.completions.create(model="gpt-3.5-turbo", messages = [
    {
        "role": "user",
        "content": "this is a test request, write a short poem"
    }
])

print(response)

Si LiteLLM vous intéresse, vous trouverez toutes les infos sur la page Github ainsi que les endpoints ici.

OSS Insight – Explorez et comparez les dépôts GitHub en un clin d’oeil

Par : Korben

Vous le savez, je suis un grand amateur et un grand défenseur des logiciels libres et Open Source. Et je n’ai pas peur de le dire, GitHub est l’un de mes sites préférés.

On y trouve des pépites comme des scripts incroyables, des outils géniaux et j’adore ça ! Mais ce n’est pas forcément toujours simple de suivre tout ce qui se passe dans cet univers.

Enfin, ça, c’était avant parce qu’il existe un site génial qui s’appelle OSS Insight et qui offre des informations très détaillées et des tendances sur le monde de l’open source en analysant plus de 5 milliards de lignes d’événements GitHub.

Il fournit une nouvelle façon d’explorer les données GitHub en posant simplement des questions en langage naturel, ce qui est extrêmement pratique quand on veut comparer les choses.

Par exemple, OSS Insight vous permet de comparer deux dépôts à partir des mêmes indicateurs, tels que les étoiles, les forks, les issues, les commits, les pull requests, le nombre de contributeurs, les langages de programmation utilisés ou encore les lignes de code modifiées.

Imaginez que vous travaillez sur un projet et que vous souhaitez comparer deux bibliothèques open source pour déterminer laquelle est la plus populaire et la mieux maintenue. Et bien il suffit de lui demander.

Mais ça ne s’arrête pas à ça. Voici quelques exemples de questions que les gens posent à l’outil :

En plus de cela, OSS Insight offre des informations sur les tendances techniques mensuelles avec des listes de dépôts à découvrir.

Comme ça, vous pouvez suivre de près certains types d’outils populaires, comme les bases de données, les frameworks JavaScript ou encore les outils liés aux LLM. Vous pouvez également obtenir des analyses sur la productivité des développeurs et les statistiques des dépôts.

Pour tester le OSS Insight, il vous suffit de vous rendre sur leur site web et de plonger dans cet océan de données.

OSTE – Le scanner de vulns qui combine Nikto, ZAP, Nuclei, SkipFish, et Wapiti

Par : Korben

Si vous vous intéressez un peu à la sécurité informatique, je vous présente aujourd’hui OSTE qui est ce qu’on pourrait appeler un Metascanner.

Alors qu’est-ce qu’un Metascanner ?

Eh bien il s’agit d’un scanner de vulnérabilité web qui combine différents outils tels que Nikto, zap de l’OWASP, Nucléi, SkipFish ou encore Wapiti.

L’intérêt de cet outil c’est qu’il offre une interface graphique très user friendly qui permet de consulter les rapports de scan, mais également de les lancer. Injections SQL, XSS, XML, HTML ou encore des injections liées à des commandes spécifiques au système d’exploitation visé. Chacun des scanners DAST (Dynamic Application Security Testing) intégrés fournit des listes de vulnérabilités pour vous aider à identifier et corriger les problèmes potentiels.

Pour l’installer, vous aurez besoin de tous les outils que je viens de vous citer, mais si vous utilisez Kali Linux vous n’aurez pas de soucis puisque tout ça est déjà présent dans la distrib. Sinon il faudra les installer manuellement.

Ensuite il ne vous restera plus qu’à cloner le dépôt sur votre machine et à lancer la commande

python3 metascan.py

Vous pourrez alors lancer des scans, charger les résultats, les exporter, les consulter directement depuis l’interface graphique.

Vous l’aurez compris, OSTE est un outil fantastique pour simplifier l’évaluation de la cyber sécurité. N’oubliez pas quand même que c’est destiné à usages éducatifs ou dans le cadre de mission d’audits pour lesquelles vous avez été mandaté.

Si vous voulez en savoir plus, cliquez ici.

ShellGPT – Boostez votre utilisation du terminal grâce

Par : Korben

Je me lasse pas de tous ces petits softs qui utilisent de l’IA et qui simplifient quand même grandement la vie. Hier on a vu un plugin VS Code pour coder plus rapidement. Et aujourd’hui, je vous propose Shell GPT, un assistant personnel qui utilise ChatGPT pour vous aider à générer des commandes shell, des bouts de code et même de la documentation.

Pour l’installer, c’est easy :

pip install shell-gpt

Il faudra quand même faire un export OPENAI_API_KEYcomme d’habitude dans votre .zshrc ou .bashrc pour lui indiquer votre clé API OpenAI. Et redémarrez votre terminal pour que les modifications prennent effet.

export OPENAI_API_KEY="votre_clé_API_OpenAI"

Une fois installé, ça fait plein de trucs cool. Vous pouvez simplement exécuter la commande sgpt suivie de votre requête pour lui demander tout ce que vous voulez. Par exemple, pour rechercher les couleurs d’un arc-en-ciel, vous pouvez exécuter la commande suivante :

sgpt "quelles sont les couleurs d'un arc-en-ciel ?"

Mais vous pouvez surtout lui demander des commandes que vous ne sauriez pas construire. Par exemple :

sgpt "VOTRE DEMANDE"

Ou pour avoir une réponse plus directe avec uniquement du code, il suffit d’ajouter le paramètre –code :

sgpt --code "VOTRE DEMANDE"

Pour ceux qui veulent, vous pouvez même lancer votre demande en mode shell pour pouvoir l’exécuter de suite :

sgpt --shell "VOTRE DEMANDE"

Et pour aller encore plus loin, vous pouvez aussi le lancer en mode « chat ». S’engagera alors une discussion sur le long cours, avec possibilité de créer des fichiers, de les modifier, de lancer des commandes, etc… Remplacez NOM_SESSION par le titre à donner à votre chat, pour pouvoir ensuite y retourner en gardant le contexte.

sgpt --chat NOM_SESSION "VOTRE DEMANDE"

ShellGPT offre aussi d’autres fonctionnalités avancées, notamment le REPL mode qui permet d’interagir avec ShellGPT dans un mode interactif pour générer du code et exécuter des commandes (en appuyant sur la touche « e »

sgpt --shell --repl NOM_SESSION

Et vous pouvez aussi créer des rôles personnalisés pour personnaliser le comportement de ShellGPT dans des scénarios spécifiques, selon vos envies. Je vous invite à vous plonger dans la doc pour exploiter tout ça. Ça fait beaucoup de choses mais c’est super pratique et ça vous aidera à automatiser pas mal de choses.

Enfin, et je terminerai avec ça, il est possible d’installer une intégration dans votre shell.

sgpt --install-integration

En gros, ça va ajouter quelques lignes dans votre .bashrc ou .zshrc pour simplement en appuyant sur

CTRL + l

transformer ce que vous avez écrit dedans en commande exécutable.

Voilà, j’ai à peu pres fait le tour de cet outil merveilleux !

L’IA c’est cool mais quand c’est bien intégré dans nos outils du quotidien, c’est encore meilleur !

ShellGPT est à découvrir ici.

Continue – L’extension Visual Studio Code qui code à votre place

Par : Korben

Cursor est à ce jour l’éditeur de Code que je préfère, car il est basé sur Visual Studio et totalement boosté à l’IA. Cela me permet pour moi qui suis une quiche en dev, de mener à bien mes projets de conquête du monde.

Toutefois, c’est payant. Et si vous ne voulez pas lâcher un peu de thunasse, et que vous voulez payer uniquement ce que vous consommez, c’est possible dans Cursor avec une clé OpenAI, mais également en installant ce plugin open source baptisé « Continue » directement dans un bon vieux Visual Studio Code d’origine ou un JetBrains.

Concrètement, ce truc vous permet en surlignant un bout de code, de discuter avec l’IA pour mieux le comprendre, le compléter ou le corriger. Vous pouvez même apporter des modifs directement à votre code simplement en demandant ce que vous voulez en langage naturel du genre :

/edit réécrire ceci pour retourner une liste aplatie à partir d'une matrice 3x3
/edit refactoriser cela en une mise en page flex angulaire sur une seule ligne
/edit définir ici un type pour une liste de listes de dictionnaires

Continue permet aussi de générer des fichiers from scratch, c’est-à-dire de zéro ou de générer des tests unitaires, des commandes Shell ou des recherches sur StackOverflow pour en extraire uniquement le nécessaire.

Continue est compatible avec GPT-4 et GPT-3.5-turbo via l’API OpenAI. Et si vous voulez esquiver OpenAI, vous pouvez toujours la connecter sur un autre LLM en utilisant par exemple LM Studio ou Ollama.

Une fois installé, pour l’activer, il suffit de faire un CMD + M (ou ALT + M).

Amusez-vous bien et codez-moi des trucs de ouf !

ShortGPT – Pour automatiser la création de vidéos pour TikTok et Instagram

Par : Korben

Si vous trainez sur TikTok (pour les jeunes d’esprit) ou encore Instagram (pour les boomers d’esprit), vous êtes sans doute déjà tombé sur des vidéos avec des « facts », c’est à dire des faits historiques, scientifiques ou encore des trucs tirés tout droit de Reddit, qui vous ont captivé avec une petite musique de merde et un gameplay de jeu vidéo quelconque en fond.

Ce genre de format est calibré pour endormir ce qui vous reste de matière grise fondue et vous faire rester sur la vidéo. Là où ça devient drôle, c’est que vous allez pouvoir générer ce genre de format vidéo grâce à ShortGPT. Cet outil open source (décliné également en site payant) supporte de nombreuses langues et peu aller chercher automatiquement des « faits » random ou sur le sujet de votre choix, ainsi que des sujets sur Reddit et compiler tout ça dans une vidéo avec une voix OFF.

Vous pouvez lui demander autant de shorts que vous voulez. Il vous faudra juste une clé API OpenAI, Pexels (pour les images) et pour avoir une voix de qualité, vous pouvez aussi ajouter votre clé ElevenLabs (mais pas obligatoire puisque c’est payant).

Voici techniquement comment c’est gaulé :

Vous avez deux choix pour installer ShortGPT. Si vous êtes du genre à aimer avoir tout sur votre ordinateur, vous pouvez installer les pré-requis localement en suivant la doc du Github. Cependant, si vous êtes comme moi et que vous préférez ne pas vous embêter avec des installations interminables, vous pouvez utiliser Google Colab. C’est gratuit et sans installation.

Evidemment, y’a assez de contenu merdique sur Internet pour pas en rajouter, mais ça peut-être une bonne base de départ, de reprendre ce code, pour le modifier et en faire un outil de génération de vidéos un peu plus sympa et mieux adapté à votre public.

A découvrir ici.

WebDB – Vos bases de données enfin accessibles facilement

Par : Korben

Alexandre, lecteur de Korben.info depuis une bonne dizaine d’années, m’a fait le plaisir de me contacter pour me montrer l’outil qu’il développe depuis maintenant un an. J’ai trouvé ça très cool alors je vais le partager avec vous. Il s’agit d’un IDE totalement open source dédié aux bases de données. Cet outil libre simplifie les interactions que nous avons avec nos bases de données, ce qui rend leur administration et la gestion des données plus intuitives et surtout beaucoup plus facile. Vous allez voir !

Tout d’abord, WebDB simplifie la découverte de serveurs et la connexion à ces derniers, grâce à un système de scan intelligent. Il détecte les ports utilisés pour chaque base de données et permet d’ajouter des hôtes spécifiques à analyser. Cela élimine la corvée de récupérer des mots de passe, car WebDB teste automatiquement des identifiants populaires. Pensez quand même à les changer à un moment pour des questions de sécurité 🙂

En explorant plus profondément WebDB, on découvre que l’exploration de données est beaucoup plus facile et agréable que dans n’importe quel PhpMyAdmin ou autre. En seulement trois clics, on peut comme ça parcourir, mettre à jour ou supprimer des données. Le filtrage des données SQL et NoSQL se fait directement depuis l’explorateur, avec un design optimisé pour les clés étrangères et les ObjectID relationnels. Et ce n’est pas tout : WebDB permet de mettre à jours vos données par lots en utilisant des fichiers JSON. Pratiquement quand vous avez de la quantité à mettre à jour.

Le cœur de l’IDE WebDB réside dans son éditeur de requêtes. Avec de l’autocomplétion pour SQL et les structures spécifiques au serveur, rédiger des requêtes se fait en un clin d’œil. Les requêtes CRUD (create, read, update, and delete) pré-construites sont sauvegardées automatiquement et peuvent être marquées comme favorites.

La modification de colonnes SQL ou de champs NoSQL est également plus intuitive grâce à WebDB. Le logiciel propose tous les types possibles en fonction de la base de données et facilite la modification des colonnes avec des fonctions de casting intelligentes, applicables tant aux bases de données SQL qu’à NoSQL. Cette fonctionnalité permet une grande flexibilité et s’adapte à divers contextes linguistiques.

Voilà… Sinon, WebDB gère également des éléments complexes comme les procédures SQL, les fonctions, et les types de données spécifiques. Il prend en charge les validateurs MongoDB et les contraintes SQL, offrant une compréhension complète de la base de données.

La gestion des relations SQL dans WebDB est également totalement transparente grâce à une vue intuitive. L’outil déduit les relations pour aider à générer des données étrangères et à comprendre la structure de la base de données avec une facilité déconcertante. En plus, le versioning de base de données est une autre caractéristique clé de WebDB. Suivant les modifications et intégrant Git, il permet de revenir facilement à n’importe quelle version antérieure.

L’intégration de ChatGPT dans WebDB apporte également un peu de « cerveau » à l’outil. ChatGPT offre des réponses précises en fonction de la structure de la base de données. Cette fusion entre intelligence artificielle et gestion de données ouvre de nouvelles perspectives pour les utilisateurs, surtout pour les débutants.

Le module ERD de WebDB permet également de visualiser la structure et les relations de la base de données de manière moderne et intuitive. L’exportation de ces diagrammes au format PNG ou SVG se fait en un clic, ce qui vous permettra d’illustrer vos préz ou sites web / documentation super facilement.

Enfin, l’importation et l’exportation de données avec WebDB sont simplifiées, que ce soit au format natif ou JSON, garantissant une compatibilité et des performances optimales.

Vous l’aurez compris, Alexandre a bien bossé et WebDB se présente vraiment comme une solution complète et avant-gardiste pour la gestion des bases de données, accessible et efficace pour tous, que vous soyez total noob ou super expert en base de données.

Je vous invite à tester ça. C’est auto-hébergeable, ça tourne dans Docker, et y’a même une démo en ligne.

PR-Agent – Pour automatiser l’analyse des Pull Requests et bien d’autres choses sur vos projets Github, Gitlab…etc

Par : Korben

Si vous contribuez à des projets open source sur Github, Gitlab ou encore Bitbucket et que vous devez vous palucher tous les jours des tonnes d’issues, de questions et des pull requests, voici un outil propulsé avec de l’IA qui devrait bien vous rendre service.

Cet outil c’est PR-Agent et c’est développé par CodiumAI. Il s’agit d’un agent IA utilisant GPT-4 capable de vous soulager en générant des descriptions de pull request claires et concises de manière automatique, de faire de la revue automatique de code, ou tout simplement répondre aux questions que les gens posent et reposent sans cesse.

PR-Agent est également capable, un peu à la manière d’un Github Copilot, de faire des suggestions pour améliorer le code qui se trouve sur votre dépôt, et bien sûr d’écrire les commits si besoin.

Pour cela, une fois que PR-Agent est lancé, il suffit d’employer les commandes suivantes :

  • Description automatique (/describe) : Génère automatiquement une description du PR (Pull Request) – titre, type, résumé, description du code et étiquettes.
  • Auto Review (/review) : Feedback ajustable sur le thème principal du PR, son type, les tests pertinents, les problèmes de sécurité, le score, et diverses suggestions pour le contenu du PR.
  • Réponse aux questions (/ask …) : Réponse à des questions en texte libre sur le PR.
  • Suggestions de code (/improve) : Suggestions de code committable pour améliorer le PR.
  • Mise à jour du Changelog (/update_changelog) : Mise à jour automatique du fichier CHANGELOG.md avec les changements du PR.
  • Trouver un problème similaire (/similar_issue) : Récupère et présente automatiquement les problèmes similaires.
  • Ajouter de la documentation (/add_docs) : Ajoute automatiquement de la documentation aux fonctions/classes non documentées dans le PR.
  • Générer des étiquettes personnalisées (/generate_labels) : Suggère automatiquement des étiquettes personnalisées basées sur les changements de code du PR.

Bref, gros, gros gain de temps. Si vous voulez le tester avant de le déployer sur vos dépôts, c’est possible sur le dépôt public de Codium AI en appelant l’agent comme ceci : @CodiumAI-Agent /COMMAND

À vous de jouer maintenant !

PR Agent est disponible ici et ça peut s’installer directement via Docker.

Plane – Une bonne alternative à JIRA, Asana ou Linear pour mener vos projets à bien !

Par : Korben

Vous êtes vous déjà demandé pourquoi tous vos projets partaient en couille ?

C’est probablement parce que vous n’avez pas encore trouvé le bon outil pour les planifier ! C’est pourquoi aujourd’hui, je tiens à vous présenter un projet open source à autohéberger qui s’appelle Plane !

Oui, comme l’avion. Bien qu’encore en développement, cet outil, est déjà suffisamment cool pour vous donner envie de l’utiliser afin de suivre vos tâches, vos sprints et autres feuilles de route.

L’interface est plutôt agréable et vous permettra d’afficher les projets, d’y ajouter des pièces jointes, de créer des workflows maison, mais également d’importer toutes les tâches directement depuis d’autres outils comme Github ou Jira. Et bien sûr recevoir des notifs dans Slack, Discord et vos propres outils puisqu’il y a même une API.

Vous pouvez également utiliser des cycles pour planifier des sprints, diviser les projets en modules et créer des filtres personnalisés pour trier les informations comme bon vous semble. Plane offre également la possibilité de faire de la documentation directement au fur et à mesure du développement de votre projet et tout s’intègre parfaitement à Github pour conserver à la fois votre code et vos issues synchronisées avec Plane.

Vous verrez, Plane est assez plaisant à prendre en main puisqu’il y a même Command K, un genre d’interface rapide à Spotlight pour chercher des tâches, créer de nouvelles actions….etc. sans oublier un petit bloc-notes propulsé à base de ChatGPT pour les grosses feignasses qui n’aiment pas écrire.

Si ça vous branche, il n’y a plus qu’à découvrir Plane et kiffer la vie de projets ! Pour apprendre à l’installer avec Docker, c’est par ici.

Tinfoleak – Un outil OSINT / SOCMINT pour Twitter (X)

Par : Korben

Twitter, ou devrais-je dire X est un réseau social qui permet d’en apprendre beaucoup sur les gens qui l’utilisent. Mais avec autant de données, c’est difficile de faire des analyses correctes sans aucun outil.

Heureusement, il y a Tinfoleak, un outil d’OSINT / SOCMINT open source capable d’automatiser l’extraction d’informations à partir de X et de faciliter l’analyse qui en découle.

Ainsi, à partir d’un identifiant utilisation, de coordonnées géographiques ou d’un simple mot clé, Tinfoleak est capable d’extraire l’ensemble des informations depuis Twitter (pour peu que vous ayez une clé Oauth) et de vous cracher de la donnée structurée.

Tinfoleak excelle donc dans l’extraction d’une large gamme d’informations de Twitter, notamment :

  • Informations sur le compte : ID utilisateur, nom d’utilisateur, description du profil, emplacement et date de création
  • Activité des utilisateurs : Tweets, retweets, likes, abonnements et abonnés
  • Mesures de protection : Tweets protégés, comptes vérifiés et paramètres de géolocalisation
  • Relations entre utilisateurs : Abonnés, amis, mentions et réseaux de retweets
  • Applications sources : Dispositifs et plateformes utilisés pour accéder à Twitter
  • Fréquence d’utilisation : Fréquence de publication de tweets, modèles d’activité quotidienne et tendances d’utilisation
  • Hashtags et mentions : Analyse des sujets tendance, des hashtags pertinents et des utilisateurs engagés
  • Analyse du texte : Analyse du sentiment, fréquence des mots et thèmes clés
  • Médias et métadonnées : Analyse des médias intégrés, des images et du contenu vidéo
  • Emplacements des utilisateurs : Lieux visités, itinéraires et principaux emplacements
  • Réseaux sociaux et identités numériques : Liens vers d’autres profils de médias sociaux et présence en ligne
  • Utilisateurs géolocalisés et utilisateurs tagués : Identification des utilisateurs par emplacement et des individus tagués
  • Abonnés et amis : Analyse des réseaux d’abonnés et d’amis, des relations et du comportement
  • Listes et collections : Enquête sur les listes et collections sélectionnées et l’adhésion
  • Conversations : Compréhension des discussions en cours, des interactions et des dynamiques de groupe

Si vous utilisez Kali ou ce genre de distrib Linux spécialisée en sécurité, vous le connaissez peut-être puisque c’est inclu dedans.

Sinon, pour l’installer, ouvrez un terminal et installez tout ce qu’il faut :

sudo apt install python-pip python-dev build-essential python2.7-dev python-pyexiv2 python-openssl
sudo pip install --upgrade pip 
sudo pip install --upgrade virtualenv 
sudo pip install --upgrade tweepy
sudo pip install --upgrade pillow
sudo pip install --upgrade exifread
sudo pip install --upgrade jinja2 
sudo pip install --upgrade oauth2

Ainsi, vous pourrez mieux comprendre les tendances sociales et l’opinion publique en analysant les hashtags populaires, les mentions…etc. Vous pourrez également identifier les influenceurs cl&s dans les domaines que vous ciblez, voire évaluer les menaces en fonction des mentions de sujets sensibles. Et si c’est plutôt la guerre commerciale qui vous intéresse, vous pourrez analyser la concurrence.

Bref, plein d’usages très cool pour peu que vous preniez le temps de vous y intéresser…

Open Interpreter – ChatGPT pour exécuter du code en local

Par : Korben

Si vous êtes un peu barbu et que vous kiffez l’IA, vous allez adorer Open Interpreter. Cet outil je l’utilise depuis des mois et des mois, et je n’avais jamais pris le temps d’en faire un post.

Il s’agit d’une implémentation open-source et locale qui permet au LLM (locale ou d’OpenAI – ChatGPT) d’exécuter du code (Python, JavaScript, Shell, etc.) directement sur votre ordinateur. L’idée c’est d’aller encore plus loin que de simplement discuter avec l’IA.

Dans le cas d’Open Interpréter, elle est capable de produire du code, de l’exécuter, de récupérer le résultat de cette exécution et éventuellement de s’auto-corriger avant de passer à la suite.

Pour l’installer, c’est simple. Il vous faudra Python 3.10 ou 3.11. Dans votre terminal, tapez :

pip install open-interpreter

Puis lancez l’outil avec la commande :

interpreter

Et concrètement, qu’est ce qu’on peut faire avec ?

Et bien le mieux c’est que le logiciel se présente lui-même, non ?

Pour résumer, il peut donc exécuter du code, installer des packages, gérer ses erreurs, utiliser de l’AppleScript pour interagir avec l’ensemble de macOS (genre lire vos emails, changer de fond d’écran…) etc.

Dans mon cas, je l’utilise avec GPT-4 mais vous pouvez aussi le lancer avec un LLM local (notamment via le serveur intégré à LM Studio) :

interpreter --local

Ou se connecter à d’autres modèles en ligne que GPT-4 :

interpreter --model gpt-3.5-turbo
interpreter --model claude-2
interpreter --model command-nightly

Pensez bien à exporter votre clé API sur votre système (vous pouvez caler ça dans votre .zshrc ou .bashrc) :

export OPENAI_API_KEY=XXXXXXXXXXXXXXXXXXXXXXXXXX

Au-delà du chat interactif proposé par l’outil interpreter, il y a également un paquet en Python qui vous donne encore plus de contrôle puisque vous pouvez l’appeler dans vos scripts.

import interpreter

interpreter.chat("Plot AAPL and META's normalized stock prices") # Executes a single command
interpreter.chat() # Starts an interactive chat
  • Ainsi, utilisez interpreter pour un chat interactif
  • Utilisez interpreter.chat() pour un chat programmatique
  • Utilisez interpreter.reset() pour réinitialiser la conversation
  • Puis sauvegardez et chargez des discussions avec interpreter.load(messages)

Je vous renvoie vers la documentation sur la page Github si évidemment vous voulez creuser un peu plus ce outil merveilleux.

Maintenant pour l’avoir utilisé énormément, ça rend pas mal de service, surtout pour tout ce qui se passe en ligne de commande. C’est un bon assistant à l’usage du Shell. Pour ce qui est génération de code, il faut souvent repasser derrière lui, mais rien de dramatique non plus. Bref, ce truc couplé à votre cerveau et c’est le duo parfait pour avancer dans la vie.

Et en cadeau, offert pour vous par les Patreons qui me soutiennent, une vidéo tuto sur Open Interpreter.

Whisper Web – La reconnaissance vocale directement accessible depuis votre navigateur

Par : Korben

Vous avez été impressionné par Whisper, cet outil d’OpenAI capable de transcrire en texte, n’importe quel enregistrement audio. Sauf que voilà, pas envie d’installer un modèle IA un peu lourd sur votre petite machine, qui de toute façon n’aurait pas assez de puissance pour faire tourner ça.

Mais ce n’est pas une raison pour passer à côté de ça. C’est pourquoi aujourd’hui, je vous propose de vous intéresser à Whisper Web. Il s’agit d’un portage de Whisper qui peut à partir d’un enregistrement de votre micro, d’une URL vers un fichier audio / vidéo ou d’un upload de fichier, décoder ce qui s’y raconter pour l’exporter ensuite au format texte.

Évidemment, vous pouvez choisir un modèle plus ou moins gros et activer le support multilingue pour décoder du français par exemple. Il est même possible de traduire à la volée un audio d’une langue de votre choix, vers de l’anglais. Impeccable pour faire des sous-titres facilement.

C’est idéal pour faire de la transcription d’interview, de podcast, de vidéo YouTube ou tout simplement écrire des documents à la voix.

Et le fait que ce soit accessible via un simple site web gratuit, en fait quelque chose de vraiment abordable.

À découvrir ici.

Retour à la Case Mémoire – Picsou a besoin de vous !

Par : Korben

Il se trame quelque chose au Royaume de Donaldville ! Picsou, Donald et toute leur bande ont besoin de vous !

En effet, je ne sais pas si vous vous rappelez du projet « Retour à la Case Mémoire » dont vous trouverez l’article ici, mais il est temps de donner un coup de pouce supplémentaire à cette équipe talentueuse, car ils sont de retour sur KissKissBankBank pour une petite rallonge budgétaire et une occasion de plus pour vous de vous joindre au projet !

Pour ceux qui ont raté l’épisode précédent, il s’agit d’un court-métrage rendant hommage à notre canard milliardaire préféré, avec des acteurs en chair et en os. Le projet a fait du chemin depuis, et j’ai même eu l’honneur de participer en tant que figurant.

Depuis notre dernière discussion, l’équipe a avancé à grands pas, mais comme toute belle aventure, il y a des imprévus, et c’est là que votre soutien entre en jeu. La qualité et l’ambition du projet méritent vraiment qu’on leur donne un coup de pouce.

Je vous mets au défi de trouver un projet aussi original et passionné dans le monde du cinéma indépendant actuellement. Les effets spéciaux, les décors, costumes et les incrustations BD sont vraiment chouettes ainsi que l’histoire, cela va sans dire.

Pensez à la joie que vous ressentiriez en voyant sur grand écran Edgard Merrill (Oncle Picsou), Damien (le Donald de cette version), Miss Frappe et bien sûr un vilain Rapetou, dans un scénario plein d’action, d’humour et de clins d’œil à l’univers de notre canard favori.

Donc si vous avez envie de contribuer à la réalisation de ce rêve et de partager un peu de magie, rendez-vous sur leur page KissKissBankBank. Il y a de belles contreparties également !!

Il ne reste que 2 jours et chaque contribution compte, et en plus, vous pourrez dire que vous avez aidé à créer un petit bout de l’histoire du cinéma !

Pour rester connecté et suivre l’avancement du projet, je vous invite à consulter leur chaîne YouTube, et bien sûr, la campagne KissKissBankBank.

J’espère que vous ressentirez la même passion et excitation que moi en découvrant le film final. J’ai hâte !

Toutes les infos sur le film sont là !

Screenshot To Code – Quand l’IA génère le code d’une page web à partir de sa capture écran

Par : Korben

Vous êtes développeur, mais vous n’êtes pas designer et encore moins spécialiste en UX / UI… Alors que faire ?

Et bien le mieux c’est encore de pomper ce qu’on fait les autres. Enfin, s’inspirer… Vous m’avez compris. Et pour cela, il existe un outil merveilleux qui s’appelle Screenshot To Code et qui comme son nom l’indique, est capable de convertir une simple capture écran d’interface web en HTML / CSS Tailwind.

Mais comment est-ce possible ? Et bien Screenshot To Code utilise simplement GPT-4 Vision pour analyser le code et Dall-E pour générer des images similaires.

Vous pouvez l’installer sur votre ordinateur en suivant les instructions du Github, voire le faire tourner sur un Docker. Mais si c’est juste pour tester, le plus simple c’est encore d’aller sur cette démo en ligne.

Pour l’avoir testé, la génération du code est impressionnante, mais niveau rendu, on est très loin de la copie parfaite. Cependant, comme on peut ajuster en discutant avec l’IA, il est possible de s’approcher du rendu voulu.

Ensuite y’a plus qu’à exporter le code et voilà ! Vous avez une maquette HTML / CSS d’un site à moindres frais (ça vous coûte l’utilisation de l’API d’OpenAI)

À découvrir ici.

Pixi – Pour créer des environnements de dev aux petits oignons

Par : Korben

Que vous soyez sous macOS, Linux ou Windows, si vous êtes développeur, alors Pixi risque de vous intéresser. Ce projet écrit en Rust, au logo « apéricube » n’est ni plus ni moins qu’un gestionnaire de paquets fonctionnant sur l’écosystème Conda et permettant d’installer toutes les libs et outils dont vous auriez besoin dans vos projets.

Pixi est libre et open source et s’inspire fortement de Cargo pour ceux qui connaissent. Il supporte Python, R, C/C++, Rust, Ruby et bien d’autres langages. Et permet de reproduire des environnements à l’identique entre les OS sans avoir besoin de Docker, tout simplement grâce aux fichiers lockfiles qu’il crée automatiquement.

Pour installer Pixi sous Linux et macOS :

curl -fsSL https://pixi.sh/install.sh | bash

Et sous Windows, ouvrez un Powershell et entrez la commande :

iwr -useb https://pixi.sh/install.ps1 | iex

Ensuite y’a plus qu’à créer votre projet comme ceci :

pixi init pixi-hello-world
cd pixi-hello-world

Ajoutez ensuite les dépendances dont vous avez besoin :

pixi add python

Ou si vous voulez une version spécifique du paquet :

pixi add python==3.10

Créez le code dont vous avez besoin (ici ce sera donc hello_world.py) :

def hello():
    print("Salut tout le monde !!!!")
 
if __name__ == "__main__":
    hello()

Puis lancez ce code dans votre environnement :

pixi run python hello_world.py

Sachez qu’il est également possible de mettre ce code dans une tâche (task) comme ceci :

pixi task add hello python hello_world.py

Mon code étant dans la task « hello », je peux maintenant l’appeler comme ceci :

pixi run hello

Et pour avoir un Shell dans l’environnement que vous venez de créer :

pixi shell

Et une fois que vous êtes content, y’a plus qu’à faire un

pixi build

Pour récupérer un package Conda prêt à être déployé ailleurs.

Bref, super pratique pour mettre en place un environnement aux petits oignons avec les bons paquets et les bonnes versions sans se prendre la tête. Cela permet d’avoir des environnements isolés facilement reproductibles et donc partageables.

À tester d’urgence 🙂

Jazz² Resurrection, le retour de Jazz Jackrabbit 2

Par : Korben

Qui se souvient de Jazz Jackrabbit 2 ?

Ce jeu mythique sorti en 1998, avec son lapin vert, Jazz, qui se faufilait à travers des niveaux remplis de méchants pour sauver sa bien-aimée Eva ?

Et bien, mes amis, préparez-vous à revivre la nostalgie, car j’ai découvert un projet absolument fantastique appelé Jazz² Resurrection !

Le projet Jazz² Resurrection est une réimplémentation du jeu original, prenant en charge différentes versions et même certaines fonctionnalités de l’extension JJ2+ et MLLE. Si cela ne vous donne pas envie de ressortir vos vieilles manettes, je ne sais pas ce qui le fera !

Pour jouer, il est nécessaire de télécharger le logiciel via le site Jazz² Resurrection (dispo pour Windows, Linux, macOS, Android, Nintendo Switch, Web et Xbox) puis de copier le contenu du répertoire du jeu original de Jazz Jackrabbit 2. Si vous ne l’avez pas, pas de stress, il est livré avec la démo du jeu.

L’une des choses que j’adore dans Jazz² Resurrection, c’est qu’il prend en charge les navigateurs modernes. Oui, vous avez bien lu : vous pourrez jouer à Jazz Jackrabbit 2 directement dans votre navigateur, sans installation supplémentaire en cliquant ici !

Le projet est sous licence GNU General Public License v3.0. Cela signifie que vous pouvez le modifier et le partager comme bon vous semble, tant que vous respectez les termes de la licence.

C’est vraiment une occasion fantastique de revivre les bons vieux jours avec Jazz et sa bande, tout en profitant de la flexibilité et de la compatibilité des technologies modernes.

Allez, Je vous laisse, je vais moi-même affronter quelques tortues terroriste pour sauver ma dulcinée Eva.

Protégez votre application Android des curieux grâce à la lib ARTful

Par : Korben

Aujourd’hui, je vous présente ARTful, une bibliothèque Android native pour modifier l’Android Runtime (ART) sur Android 13 et 14. Ça va faire plaisir aux développeurs qui veulent mettre des bâtons dans les roues des curieux qui aiment jouer avec les apps Android en les analysant d’un peu trop près.

La magie de cette bibliothèque réside dans sa capacité à changer dynamiquement l’implémentation de n’importe quelle méthode statique, éliminant l’utilisation de références en clair et entravant l’ingénierie inverse.

Pour vous donner un aperçu concret de ce que ARTful peut faire pour vous, imaginez une application où les développeurs veulent éviter que les pirates ne mettent le nez dans leur code. Grâce à ARTful, ils peuvent modifier dynamiquement les méthodes statiques pour les rendre plus résistantes à l’ingénierie inverse. Et voilà, mission accomplie !

Et pour que tout le monde puisse profiter des bienfaits de cette bibliothèque, les concepteurs ont choisi de la rendre open source ici : Github ARTful.

Eclatez-vous bien !

Découvrez Gerry, l’enregistreur d’écran open-source pour Mac

Par : Korben

Y’a rien de plus parlant quand on crée du contenu, qu’un petit bout de vidéo ou qu’une image animée (GIF) pour illustrer un tuto. Sauf que la flemme, alors souvent on se content de captures écrans rapides.

Et bien, chers lecteurs, ça va changer !!

Je vous présente Gerry, un enregistreur d’écran open-source pour Mac, qui peut vous aider à capturer ce qui se passe sur votre Mac en un clin d’œil !

Que vous soyez un gamer souhaitant partager ses exploits en vidéo, ou un professionnel de l’informatique cherchant à créer des tutoriels, à base GIFs animés, pour aider les autres, Gerry est votre meilleur allié.

Parmi les principales fonctionnalités de Gerry, on trouve un enregistrement d’écran simple (full screen), le recadrage et le rognage, l’exportation en GIF et MP4, ainsi que la personnalisation de la résolution et du nombre d’images par secondes. Ces fonctionnalités vous permettront de capturer des séquences vidéo de haute qualité sans avoir besoin de compétences techniques particulières.

Voici un exemple de GIF capturé sur mon ordi :

Et comme Gerry est conçu pour être rapide et facile à utiliser, vous pourrez vous concentrer sur l’essentiel : Créer des contenus super quali !

Un des avantages de Gerry, c’est qu’il est très simple à utiliser. Pour commencer à enregistrer votre écran, il vous suffit de télécharger l’application sur leur site officiel. Une fois que vous l’avez installée, il faut sélectionner la région de l’écran que vous souhaitez enregistrer, choisir la qualité de rendu et de cliquer sur le bouton « Record » ou d’utiliser le raccourci clavier CMD + R.

Voilà, c’est aussi simple que cela !

Ensuite, lorsque vous aurez terminé, vous pourrez exporter vos enregistrements dans les formats de fichiers les plus courants, comme le GIF animé et le MP4.

Je vous encourage à vous rendre sur le site officiel de Gerry pour en savoir plus sur cette application fantastique et la télécharger. C’est open source, c’est gratuit et ça rend bien service !

3D to Photo – Une révolution dans la création d’images produit

Par : Korben

Et yo !

Aujourd’hui je vais vous parler d’un outil IA incroyable qui risque de bouleverser votre manière de créer des images pour vos produits.

Adieu les contraintes de studios photo traditionnels, des problèmes d’éclairage et j’en passe…

3D to Photo c’est un logiciel open source développé par Dabble, qui combine la puissance de ThreeJS et Stable Diffusion pour créer un studio photo virtuel dédié à la photographie de produits.

Cela vous permet de charger un modèle 3D dans votre navigateur et de le photographier virtuellement dans n’importe quel type de scène, sans avoir besoin de vous soucier de l’éclairage ou de la prise de vue. En gros, 3D to Photo vous offre la possibilité de mettre en scène vos produits de manière réaliste et professionnelle directement depuis votre PC et cela grâce à Stable Diffusion.

Je vous invite à regarder la démo pour comprendre la puissance du truc :

Alors, comment ça marche ?

Et bien c’est très simple : vous chargez un modèle 3D exemple (fichier .glb), vous le glissez dans la zone d’upload de 3D to Photo, vous orientez le modèle 3D selon vos désirs, puis vous saisissez une instruction pour décrire le décor et y’a plus qu’à cliquer sur « Generate Images ».

Et voilà ! Vous obtiendrez alors une image réaliste et d’excellente qualité de votre produit, prête à être utilisée sur votre site web, dans un catalogue ou dans votre portfolio. Trop incrrr !

La doc et le code source sont dispo sur Github.

LM Studio – Pour faire tourner des LLMs en local et les utiliser directement dans votre code

Par : Korben

Avec tout ce qui se passe côté OpenAI en ce moment, je suis en train de chercher des alternatives libres pour re-brancher sur mes scripts existants qui ne demandent pas trop de réécriture. C’est simplement un principe de précaution pour ne pas être pris au dépourvu si la qualité de service baisse côté ChatGPT.

Et pour ça, j’ai besoin d’un modèle de langage et d’un outil qui permette de transformer ce modèle en API que je peux appeler dans mon code.

Pour l’instant, tout ceci est en phase de R&D mais je me suis dit qu’un petit retour, ça vous ferait plaisir. Je suis donc parti sur un modèle OpenChat censé être aussi performant qu’un ChatGPT 3.5. Jusque là rien de compliqué.

J’ai donc fait tourner ce modèle dans llamacpp sans souci en mode discussion. Puis je suis parti en quête d’un bridge pour avoir des API. Je suis donc tombé sur Llama-cpp-python avec son option Server qui malheureusement n’a jamais voulu correctement fonctionner chez moi pour de sombres incompatibilités x64 / ARM64 même dans pyenv. Bref…

N’ayant pas le temps d’y passer des semaines, on m’a ensuite gentiment rappelé durant mon live Twitch, que je pouvais faire ça avec Ollama, ce que j’avais complètement zappé alors que j’ai fait une vidéo pour les Patreons à ce sujet (arf).

Puis Thoxy et LePopeye, lecteurs de Korben.info, m’ont recommandé un outil baptisé LM Studio dont je vais vous parler dans cet article.

LM Studio est un outil fonctionnant sous macOS, Windows et Linux qui permet très simplement de télécharger des LLMs (Large Language Models) et de les faire tourner en local. Ainsi vous pouvez discuter avec ces modèles via un chat comme vous le feriez avec ChatGPT.

Mais ce n’est pas tout puisque l’outil offre des tas de possibilités de réglages (y compris du support pour les Mac Silicon) pour optimiser le modèle. Et bien sûr, la fonctionnalité qui m’a le plus intéressé, c’est la possibilité de faire tourner un serveur local qui sert une API identique à celle de ChatGPT.

Cela permet, sans énormément de modifs dans votre code, de basculer des services d’OpenAI à une IA locale de manière transparente ou presque pour peut que vous utilisiez la lib OpenAI 0.28.1

pip install openai==0.28.1

Voici un code d’exemple qui montre comment l’appeler en Python :

import os
import openai

openai.api_base = "http://localhost:1234/v1" 
openai.api_key = "" 

completion = openai.ChatCompletion.create(
  model="local-model",
  messages=[
    {"role": "system", "content": "Always answer in rhymes."},
    {"role": "user", "content": "Introduce yourself."}
  ]
)

print(completion.choices[0].message)

Pas besoin de clé API donc. Et pas besoin de casser tout votre code. Suffit de migrer vers LM Studio. Puis c’est gratuit 🙂

Bref, j’ai fait mes tests comme ça et malheureusement pour le moment, c’est pas super concluant. L’outil répond correctement en version « chat » mais son paramétrage un peu différent en version serveur. Donc faut encore que je gratte un peu pour trouver le dressage optimale de mon IA. Mais j’y suis presque.

Si ça vous branche de tester LM Studio, c’est par ici que ça se passe.

Warp – Du bon transfert de fichiers rapide et sécurisé

Par : Korben

Avez-vous déjà entendu parler de Warp ?

Alors non, non, non, ce n’est pas un logiciel pour voyager dans le temps (quoi que, ce serait sympa…), mais je parie qu’il va vous faire plaisir !

Warp est un logiciel open-source comme la plupart des softs dont je parle ici, et sa mission est d’envoyer des fichiers en toute sécurité à vos amis, au travers d’Internet ou d’un réseau local, simplement en échangeant un code composé de mots.

Trêve de bla-bla, voici les principales fonctionnalités de Warp :

  • Transfert de fichiers entre plusieurs appareils
  • Chaque échange est chiffré
  • Possibilité de transfert direct sur le réseau local, quand c’est possible
  • Le support d’un QR Code pour récupérer le code
  • Et une compatibilité avec le client de ligne de commande Magic Wormhole et toutes les autres applications compatibles

Ce qui distingue Warp, vous l’aurez compris, c’est son protocole Magic Wormhole. Ce protocole détermine la meilleure méthode de transfert, y compris via le réseau local et vous garantit que vos fichiers sont transférés rapidement et en toute sécurité, quelle que soit la taille des fichiers et l’emplacement des machines.

Warp est dispo sous Windows et Linux (en flatpak), et vous trouverez toutes les infos à son sujet ici.

Warehouse, l’outil idéal pour gérer vos Flatpaks !

Par : Korben

Ah les Flatpaks, le cauchemar des libristes mais le bonheur des gens qui n’ont pas envie de se prendre la tête lorsqu’ils veulent utiliser un soft sous Linux, notamment Ubuntu.

Et bien bonne nouvelle, il existe maintenant un outil qui rend la gestion de vos données utilisateur Flatpak et des applications en général, plus facile que jamais : Warehouse.

Imaginez que vous ayez plusieurs applications Flatpak installées sur votre système, et que vous souhaitiez effectuer des actions en batch comme des désinstallations multiples ou de la suppression de données utilisateurs sans désinstall, ou simplement afficher des informations de ces applications, leurs IDs…etc. Ou encore de faire disparaitre les données résiduelles laissées par les applications désinstallées.

Bref, Warehouse vous permettra de faire tout ça très facilement et bien plus encore.

Vous pouvez le télécharger ici.

Cerebro – Le launcher open source qui vous fera gagner du temps

Par : Korben

En bon enfant du capitalisme, vous courez sans cesse après la moindre seconde. Tout est optimisé dans votre vie, y compris personnelle. Vous ne perdez pas de temps, car le temps, c’est de l’argent. Bref, vous êtes plus qu’En Marche. Vous êtes en stress !

Alors pour vous soulager un peu et remettre un peu d’huile dans les rouages de votre usage quotidien de l’ordinateur, je vous invite aujourd’hui à tester Cerebro. Il s’agit d’un launcher open source que vous pouvez télécharger gratuitement ici pour Windows, Mac et Linux.

Comme n’importe quel outil du genre, ça permet de trouver n’importe quels fichier, programme ou truc qui trainent sur votre disque dur…

Mais surtout, Cerebro dispose d’une chiée de plugins qui vont vous permettre d’augmenter vos super pouvoirs. Ainsi, vous pourrez directement trouver des torrents, explorer des cartes, visualiser directement vos photos, faire des traductions, naviguer dans un Google Drive, débusquer des APK via Aptoide, lancer des recherches sur Spotify, YouTube, Github…etc, convertir des valeurs cryptomonétaires…etc.

Vous n’aurez donc pas à vous soucier de jongler avec plusieurs applications ou onglets de navigateur pour accomplir vos tâches quotidiennes.

Cerebro-app est gratuit, open source et vous pouvez le télécharger ici !

Dites adieu à Postman grâce à Bruno qui vous aidera à concevoir les meilleurs API de l’univers

Par : Korben

Amis du côté obscur du dev, vous avez sûrement déjà utilisé Postman pour tester vos APIs. Et je ne vous en veux pas car c’est un outil vraiment puissant qui a su trouver sa place dans le cœur de beaucoup de développeurs.

Cependant, vous savez aussi à quel point il peut être un peu lourdingue, surtout lorsqu’il s’agit de l’utiliser pour collaborer sur un gros projet.

Heureusement, j’ai quelque chose de plutôt cool à partager avec vous : Bruno. Et contrairement au ministre de l’économie du même prénom, celui-ci vous sera utile puisqu’il s’agit d’un projet open source qui promet de révolutionner le monde des clients API.

Pour bien saisir l’intérêt de Bruno, imaginez un outil qui vous permet de stocker vos collections API pour ensuite pouvoir les conserver et les tester directement depuis votre dépôt de code source, grâce au langage Bru. Vous pouvez ainsi profiter d’un contrôle de version simple et dire adieu aux espaces de travail encombrants. Génial pour bosser en collaboration avec vos collègues sans prise de tête.

Pour commencer avec Bruno, il suffit d’installer l’outil en allant le télécharger pour Windows, macOS et Linux sur le site officiel. Ensuite vous n’avez plus qu’à y décrire toute l’API que vous êtes en train de concevoir. Je vous invite à regarder cette vidéo pour bien comprendre comment ça fonctionne :

Bruno est également disponible en ligne de commande. Vous pouvez l’installer en utilisant votre gestionnaire de paquets Node préféré, comme NPM :

npm install -g @usebruno/cli

Ensuite, avec Bruno CLI en main, vous pouvez exécuter des collections entières d’API via des commandes simples directement depuis votre terminal. Cela facilite grandement le processus de test et d’automatisation des API.

Pour utiliser la CLI, commencez par accéder au répertoire contenant votre collection d’API et exécutez la commande suivante :

bru run

Vous pouvez également exécuter une requête unique comme ceci :

bru run request.bru

Ou bien, si vous voulez exécuter toutes les requêtes d’un dossier, utilisez cette commande :

bru run folder

Pour spécifier un environnement, ajoutez simplement l’option --env :

bru run --env env_name

Notez que Bruno existe également sous la forme d’une extension pour Visual Studio Code.

En somme, Bruno est une alternative légère et polyvalente aux clients API traditionnels, qui propose une approche plus simple et plus efficace pour travailler avec des collections API. Avec son intégration transparente au dépôt de code source et à la ligne de commande, Bruno facilite le travail en équipe et rend le développement d’API agréable et sans tracas.

De quoi dire adieu à Postman, non ?

OpenHue – Maitrisez l’éclairage connecté de vos Philips Hue avec cette API open-source

Par : Korben

Perso, je n’en ai pas chez moi, mais je sais que les ampoules connectées Philips Hue sont un véritable succès et que vous êtes nombreux à en être équipé.

Seulement, voilà, pour profiter de ce système d’éclairage intelligent qui vous permet de contrôler l’ambiance de votre maison en un clin d’œil, vous avez besoin d’applications dédiées.

Mais avez-vous déjà rêvé de créer votre propre application pour contrôler vos ampoules Hue ? Si c’est le cas, alors ce projet open source est fait pour vous !

OpenHue offre une spécification OpenAPI complète pour l’API REST Philips Hue (CLIP API). Cela facilite l’intégration et le contrôle des systèmes d’éclairage Philips Hue dans ses diverses applications, améliorant ainsi les expériences utilisateur et vous faisant gagner du temps de développement.

Imaginons que vous vouliez créer une application pour automatiser les réglages d’un éclairage en fonction de l’heure de la journée, de votre humeur, ou même en fonction de la musique que vous écoutez. Grâce à OpenHue, vous pouvez intégrer Philips Hue dans votre application et créer des scénarios d’éclairage personnalisés qui répondent exactement à vos besoins.

Pour commencer à utiliser la spécification OpenAPI d’OpenHue, il vous suffit de vous rendre sur la page des versions GitHub et de télécharger le fichier openhue.yaml. Une fois que vous avez le fichier, importez-le dans Postman pour tester l’API et générer du code client avec des outils tels que openapi-generator-cli. Les specs sont également disponibles sur ce site : https://openhue.io

Avant de vous lancer dans l’aventure, assurez-vous d’avoir installé Node.js et NPM sur votre machine. Ensuite, faites une copie du projet depuis GitHub et configurez l’environnement de développement en installant Redocly CLI. Grâce à cet outil, vous pourrez valider et construire la spécification OpenAPI et créer la documentation HTML lié à votre projet.

OpenHue est sous licence Apache 2.0, ce qui rend son utilisation et sa contribution ouvertes et gratuites pour tous.

Voilà pour les grandes lignes. À vous maintenant de partir à la découverte d’OpenHue et de donner libre cours à votre créativité en matière d’éclairage connecté. Que vous soyez un développeur chevronné ou un débutant curieux, OpenHue est un outil formidable pour intégrer et contrôler Philips Hue dans vos applications.

Doctor Dignity – L’IA médicale open-source

Par : Korben

En France, on a un gros souci niveau santé. Dès qu’on doit voir un spécialiste, que ce soit un ophtalmo, un kiné, un dermato, passer une radio ou que sais-je, il y en a pour des mois et des mois d’attente, parfois une année. Si bien qu’au moment de passer l’examen, on est soit déjà guéri, soit en phase terminale.

Bref, c’est désespérant et ce n’est pas prêt de s’arranger.

Alors que peut-être qu’à terme, l’IA pourra nous aider un peu à soulager notre peine, notamment grâce à ce projet nommé Doctor Dignity qui est un LLM (un modèle de langage de grande capacité), open-source et surtout capable de réussir l’examen de licence médicale américain.

Incroyable, non ?

Ce logiciel utilise Llama2 de Meta, fine-tuné avec du lexique médical, et peut être utilisé sur iOS, Android ou en version Web. L’avantage, c’est que ce docteur de poche est gratuit, accessible instantanément et capable de garder le secret médical. Par contre, je ne sais pas où en sera le projet au moment de la publication de cet article, mais on est encore loin d’un truc facilement utilisable par le commun des mortels.

Et évidemment, on est encore loin d’un truc auquel vraiment confier sa santé ou sa vie (quoique quand on se fait soigner par certains internes aux urgences, c’est pas pire), mais vu que Doctor Dignity est capable de passer l’examen de licence médicale américain, on se dit qu’il connait quand même un peu son sujet. Et surtout, il peut apprendre grâce aux retours que lui font les humains en évaluant ses réponses.

Voilà, ce n’est que le début du « médecin virtuel« , peut-être de quoi diagnostiquer 90% des petits bobos habituels, pour ainsi soulager les vrais toubibs. Ou les remplacer s’ils sont moins bons que l’IA ^^. Allez savoir…

En tout cas, le fait d’avoir ce genre d’application accessible à tout moment pour n’importe quelle question médicale viendra soulager les plus hypocondriaques d’entre nous.

Découvrez et expérimentez les filtres audio / vidéo de FFMPEG

Par : Korben

Vous êtes-vous déjà retrouvé à jongler avec une multitude de formats vidéo et audio, à vous demander comment les manipuler / modifier sans devenir complètement zinzin ? Et bien, aujourd’hui, je vais vous parler d’une plateforme qui va vous faciliter la vie : FFmpeg Explorer.

FFmpeg, pour ceux qui ne le savent pas encore, est un logiciel open source incroyablement puissant qui vous permet de manipuler des fichiers vidéo et audio de toutes sortes. Vous pouvez convertir, extraire, éditer et même diffuser en direct avec FFmpeg. Et bien sûr, la cerise sur le gâteau, c’est que c’est totalement gratuit !

Mais, comment ça marche, me direz-vous ? Et bien, FFmpeg est un outil en ligne de commande, ce qui signifie que vous devrez taper des lignes remplies de paramètres chelous pour réaliser ces merveilles. Mais ne vous inquiétez pas ! Ce n’est pas aussi effrayant que ça en a l’air, surtout si vous avez le bon guide.

C’est là que FFmpeg Explorer entre en jeu. Ce site se présente comme le guide ultime pour vous familiariser avec tous les filtres vidéo et audio de l’outil et ainsi en tirer le meilleur parti.

Via une interface très facile à comprendre, vous pouvez ajouter avec votre souris, plusieurs filtres bout à bout et voir le résultat sur la vidéo de preview. Cela vous permettra ensuite de récupérer la bonne ligne de commande qui va bien pour l’intégrer dans vos process ou la lancer sur votre ordinateur.

Chaque filtre présenté dispose d’une petite explication et surtout d’un tas de paramètres réglables directement sur le site en mode clickodrome. Comme ça, plus d’excuses pour automatiser vos traitements vidéos et encore perdre du temps dans Final Cut ou Adobe Premiere.

C’est open source et vous pouvez également l’installer sur votre propre serveur / machine si ça vous saoule de passer par la démo en ligne.

À vous de jouer maintenant !

Découvrez Flex Layout de Penpot – L’outil libre de design et de prototypage pour vos projets d’apps web et mobiles

Par : Korben

— En partenariat avec Penpot —

Aujourd’hui, je vous invite à découvrir avec moi un outil de design que certains d’entre vous connaissent peut-être déjà : Penpot.

Si ce nom ne vous dit rien, ne vous en faites pas, je vais tout reprendre depuis le début et vous montrer pourquoi il est devenu un incontournable pour de nombreux designers et développeurs.

L’outil se présente comme une solution libre et open source que vous pouvez auto-héberger, mais qui est également accessible en ligne via votre navigateur. Conçu pour aider à la conception de designs pour les applications, les sites web et bien plus encore, il s’avère être un outil extrêmement intuitif. En quelques clics, vous placez vos éléments de design, des boutons, des images et d’autres composants, puis vous laissez Penpot générer le rendu du prototype et même le code CSS pour vous. Oui, directement du code CSS à intégrer dans vos projets web sans forcement avoir besoin de maitriser tous les paramètres de CSS.

L’une des grosses mises à jour récente de Penpot c’est son support du « flex layout ». Pour ceux qui ne sont pas familiers avec le terme, le flex layout (ou flexbox) est une norme CSS qui permet aux éléments de s’adapter automatiquement à la taille de l’écran ou de la fenêtre. Imaginez un bouton dont le texte change : au lieu de déborder, avec flexbox, le bouton s’agrandit. Penpot vous permet ainsi de créer des designs responsives, qui s’adaptent à toutes les tailles d’écran.

Evidemment, pour vous faire découvrir tout ça en détails, je vous ai concocté une vidéo tutoriel très détaillée de Flex Layout, pour que vous puissiez bien comprendre son fonctionnement et l’utiliser ensuite dans vos propres projets de sites web ou d’applications mobiles. J’espère que ça vous plaira !

A découvrir ici !

Seal – L’outil ultime pour télécharger vidéos et audios sur Android

Par : Korben

En cette belle matinée ensoleillée (en vrai l’article est programmé et je n’ai aucune idée de la météo du jour, mais bon, on va partir du principe qu’il fait beau), j’aimerai vous présente un trésor pour les amateurs de vidéos et de musique (tout le monde donc…). Cela s’appelle Seal.

Que ce soit pour emporter votre playlist préférée en vacances loin de tout accès à Internet ou pour savourer un podcast lors de vos trajets quotidiens, Seal vous facilite la vie sous Android en vous offrant une solution tout-en-un.

Laissez-moi vous donner quelques détails sur les fonctionnalités de ce merveilleux logiciel libre et gratuit.

Tout d’abord, il permet de télécharger des vidéos et de l’audio à partir de toutes les plateformes les plus connues. Que vous vouliez enregistrer cette vidéo virale de chatons sur votre téléphone pour la montrer à vos amis plus tard, ou que vous ayez besoin de cette conférence masterclass pour votre prochain projet, Seal vous aidera à récupérer tout ça.

Ensuite, Seal organise vos fichiers téléchargés, en intégrant des métadonnées pour vous aider à garder tout en ordre. Fini les fichiers audio avec des titres étranges et imprononçables, ou les vidéos sans vignette qui rendent la navigation dans votre galerie si pénible.

Et s’il y a une playlist complète que vous souhaitez télécharger pour votre prochain road trip, pani problème ! Seal vous permet de la télécharger d’un seul coup, vous faisant gagner un temps précieux.

Et pour tous ceux qui aiment regarder des films ou des vidéos en langues étrangères, Seal vous permet d’ajouter des sous-titres à vos vidéos téléchargées, pour que vous puissiez profiter de votre contenu sans souci de compréhension.

L’outil dispose également d’une interface utilisateur conviviale qui rendra votre expérience de téléchargement fluide et agréable.

Vous pouvez télécharger Seal sur GitHub et F-Droid.

Aiko – Une app macOS / iOS de transcription IA

Par : Korben

Mes chers amis technophiles et amateur de raclette (la saison est ouverte !!), laissez-moi vous présenter Aiko, une application pour macOS / iOS de transcription audio assistée par IA qui vient changer la donne pour ceux d’entre nous qui ont besoin de transcrire des réunions, des conférences et bien d’autres choses encore.

Aiko, basée sur le modèle Whisper d’OpenAI, fonctionne localement sur votre ordinateur et prend en charge pas moins de 100 langues. Une véritable tour de Babel moderne qui vous permet de transcrire des réunions en anglais, espagnol, ou même en swahili

Et le meilleur la dedans, c’est qu’elle garantit la confidentialité de vos données, puisque tout est traité localement.

Le modèle Whisper d’OpenAI a bien sûr quelques petits défauts, comme l’absence de ponctuation ou la division du texte en paragraphes mais ne vous inquiétez pas ! Grâce à ChatGPT, vous pouvez corriger tous ces éventuels petits problèmes à l’aide des prompts suivant (GPT-3.5) :

Remove newlines and divide the text into paragraphs. Don't change the text otherwise: VOTRE TEXTE
Fix the missing punctation. Don't change the text otherwise: VOTRE TEXTE

Une fois que vous avez votre transcription, Aiko peut alors l’exporter dans différents formats textuels.

Maintenant, parlons des formats audio et vidéo pris en charge par Aiko. Il supporte le .m4a, .wav, .mp3, .mp4, .mov à l’exception du format .ogg.

Et si vous avez des mémos vocaux à transcrire, Aiko en est également capable ! La vitesse de transcription dépendra de votre ordinateur et de la mémoire disponible et, bien que l’application soit volumineuse en raison de la prise en charge de 100 langues, cela en vaut la peine pour la qualité de transcription offerte.

Et qu’en est-il de la transcription en temps réel ? Et bien, c’est prévu, mais d’autres demandes sont prioritaires pour le moment d’après le dev, donc il faudra encore un peu patienter. Du coup pour transcrire une réunion Zoom ou une note vocale Telegram, vous devrez enregistrer la réunion, puis utiliser Aiko, ou convertir les notes vocales Telegram au format AAC.

Et pour les sous-titres (SRT) ? Cliquez sur le bouton « partager » et choisissez « SRT ».

Si vous voulez transcrire une vidéo YouTube vous devrez récupérer l’audio avec un service comme Dirpy, puis ouvrez le fichier dans Aiko pour lui faire faire la transcription.

Notez que l’application prend en charge uniquement la traduction en anglais pour le moment, mais qui sait ce que l’avenir nous réserve ?

Aiko est gratuite et sans publicité. Vous pouvez la télécharger ici !

J’espère que cette présentation d’Aiko vous a plu et que vous êtes aussi enthousiastes que moi à l’idée de l’essayer.

Téléchargez vos vidéos facilement sous Linux avec Parabolic

Par : Korben

Ah, Internet… Cet endroit merveilleux où l’on peut trouver des tonnes de vidéos instructives, divertissantes et émouvantes comme sur mon Youtube ou mon TikTok. Mais parfois, on aimerait bien pouvoir les télécharger pour les regarder plus tard genre dans les transports quand ça capte pas trop ou pendant la pause toilettes au taf ?

Eh bien, mes chers lecteurs, aujourd’hui, je vais vous présenter un outil merveilleux qui va vous faciliter la vie : Parabolic !

Parabolic est un logiciel open-source qui vous permet de télécharger des vidéos depuis de nombreux sites, en conservant les métadonnées et les sous-titres. Comme c’est une interface graphique pour yt-dlp, vous pouvez télécharger ces vidéos en plusieurs formats tels que mp4, webm, mp3, opus, flac et wav. Cerise sur le gâteau, il autorise les téléchargements simultanés et respecte le Code de conduite GNOME.

Evidemment, assurez-vous de respecter les droits d’auteur et de ne pas enfreindre les règles des sites Web concernés 😗 .

Maintenant, passons aux choses sérieuses : comment utiliser Parabolic ? Tout d’abord, rendez-vous sur le dépôt GitHub du logiciel en cliquant sur ce lien : Parabolic GitHub.

Une fois que vous êtes sur la page GitHub, il vous suffit de cliquer sur les liens flatpak ou snap pour installer la bestiole. Maintenant que c’est fait, il est temps de découvrir comment l’utiliser.

Pour télécharger une vidéo, ouvrez simplement le logiciel et cliquez sur le bouton « Add Download ». Et Parabolic se mettra au travail et téléchargera la vidéo pour vous.

Parabolic offre également d’autres options intéressantes, comme la possibilité de choisir la qualité de la vidéo ou de télécharger des sous-titres.

Voilà ! Vous avez maintenant un outil puissant pour télécharger des vidéos depuis de nombreux sites Web.

RAGstack – Proposez à vos collaborateurs de discuter avec vos documents de manière privée

Par : Korben

La technologie évolue constamment et dans le monde de l’IA, les choses deviennent de plus en plus intéressantes. Aujourd’hui, je vais donc vous causer d’un projet qui est non seulement intéressant, mais aussi très utile : RAGstack.

L’idée est simple et permet de déployer une alternative privée à ChatGPT sur votre VPC (Virtual Private Cloud – Votre réseau cloud privé virtuel) et offre d’explorer les modèles LLM open-source tels que Llama 2, Falcon et GPT4All.

RAGstack est une solution fiable pour les entreprises qui souhaitent utiliser la technique dites de Retrieval Augmented Generation (RAG) pour améliorer les capacités des LLM en récupérant des informations d’autres systèmes. Déployé en entreprise, cela permettra à vos collaborateurs de gagner du temps dans leur quotidien. De plus, il est moins coûteux et plus rapide que le réglage fin (fine tuning).

Le projet RAGstack prend en charge différents modèles, dont GPT4all, Llama2, Falcon-7B. Il peut être déployé sur GCP, AWS et Azure. Mais vous pouvez aussi le faire tourner sur votre propre serveur comme ceci :

Copier ragstack-ui/local.env dans ragstack-ui/.env et copiez server/example.env dans server/.env

Dans server/.env remplacez YOUR_SUPABASE_URL par l’url de votre projet supabase et YOUR_SUPABASE_KEY par la clé API secrète de votre supabase.

Dans ragstack-ui/.env remplacez YOUR_SUPABASE_URL par l’url de votre projet supabase et YOUR_SUPABASE_PUBLIC_KEY par la clé API secrète de votre supabase.

Vous pouvez trouver ces valeurs dans votre tableau de bord Supabase sous Settings > API.

Puis dans Supabase, créez une table ragstack_users avec les colonnes suivantes :

id,	uuid
app_id,	uuid
secret_key,	uuid
email	text,
avatar_url,	text
full_name,	text

Si vous avez ajouté une sécurité au niveau des lignes en base, assurez-vous que les inserts et les selects ont une expression WITH CHECK de (auth.uid() = id).

Exécutez scripts/local/run-dev. Cela téléchargera ggml-gpt4all-j-v1.3-groovy.bin dans server/llm/local/ et exécutera le serveur, LLM, et la base de données vectorielle Qdrant localement.

Tous les services seront alors prêts lorsque vous verrez le message suivant :

INFO : Application startup complete.

Bravo, c’est fonctionnel ! Vous pouvez également tester une version en ligne ici.

Le code source du projet RAGstack se trouve sur GitHub, et vous pouvez le consulter et contribuer ici.

Sauvegardez et restaurez votre bureau Linux avec SaveDesktop

Par : Korben

Vous êtes-vous déjà retrouvé dans une situation où vous deviez réinstaller ou configurer un nouvel environnement de bureau Linux ? Et comme si ça ne suffisait pas, vous auriez aimé que tout soit exactement comme avant ? Si oui, vous allez adorer SaveDesktop !

SaveDesktop est une application open-source qui vous permet de sauvegarder et de restaurer facilement les configurations d’environnements de bureau Linux tels que GNOME, Xfce, Cinnamon et d’autres. Elle enregistre les icônes, thèmes, paramètres, fonds d’écran, extensions et applications Flatpak installées. Pour l’installer, vous aurez besoin de GTK4 et LibAdwaita comme prérequis.

Vous pouvez l’installer en utilisant une commande Git ou Flatpak.

Voici comment l’installer en utilisant Git :

git clone https://github.com/vikdevelop/SaveDesktop /tmp/SaveDesktop && sh /tmp/SaveDesktop/install_native.sh --install

Et voici comment l’installer en utilisant Flatpak :

flatpak install flathub io.github.vikdevelop.SaveDesktop

L’interface utilisateur de SaveDesktop est minimaliste et facile à utiliser. Cependant, il y a quelques limitations à garder à l’esprit. Par exemple, il ne prend pas en charge les applications Snap pour le moment, et il y a quelques problèmes avec certaines icônes qui ne sont pas sauvegardées correctement. Malgré ces petits défauts, SaveDesktop reste un outil très utile pour les utilisateurs de Linux.

En résumé, SaveDesktop est une excellente application pour ceux qui cherchent à sauvegarder et restaurer facilement leurs configurations de bureau Linux. Si vous êtes un utilisateur de Linux et que vous n’avez pas encore essayé SaveDesktop, je vous encourage vivement à le faire. Cela pourrait vous faire gagner beaucoup de temps et d’efforts lors de la configuration de vos environnements de bureau Linux à l’avenir.

Opal – Un lecteur de musique pour rester détendu au boulot

Par : Korben

Il y a des jours comme aujourd’hui, où l’on a besoin de s’évader un peu, tout en restant concentré sur son travail. Si vous travaillez sur un projet important, mais votre esprit est distrait par le bruit environnant, voici un excellent moyen de vous recentrer rapidement, sans pour autant quitter votre bureau de rage.

Opal est un lecteur de son d’ambiance relaxant conçu pour vous aider à rester concentré. Il dispose de plus de 30 pistes sonores apaisantes, allant du fond sonore de l’open space au bruit de la pluie, en passant par la forêt ou le café voire des sons plus imaginaires comme un château hanté ou une grotte mystérieuse.

Ce qui rend Opal particulièrement intéressant, c’est sa capacité à combiner des sons à différents volumes. Ainsi, vous pouvez créer votre propre mélange sonore afin que ça corresponde à votre humeur ou à votre environnement de travail. Si comme moi, vous avez toujours rêvé de travailler au milieu d’une forêt enchantée avec une légère pluie tombant sur les feuilles, pas de problème, Opal vous permettra de créer cette atmosphère en un clin d’œil.

En plus de cela, Opal propose un minuteur pour ceux qui aiment programmer des sessions de concentration. Vous réglez le minuteur, et Opal s’arrêtera automatiquement une fois le temps écoulé. Comme ça, plus besoin de surveiller l’heure sur l’ordi !

Opal est open-source et est dispo pour Linux et Windows. Vous pouvez le télécharger et l’essayer vous-même en visitant le site de CodeDead.

Bonne écoute et bonne détente avec Opal !

❌