Lateo.net - Flux RSS en pagaille (pour en ajouter : @ moi)

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 19 avril 2024Korben

PyTorch dévoile Torchtune pour fine-tuner les LLM

Par : Korben

PyTorch, le framework chouchou des bidouilleurs d’IA, vient de nous pondre un petit truc cool : Torchtune ! 💎 Cette nouvelle bibliothèque native, encore en phase alpha mais déjà disponible en open-source sur GitHub, va vous permettre de fine-tuner les gros modèles de langage (LLM) comme un pro, sans vous prendre la tête.

Torchtune est donc une boîte à outils hyper flexible et modulaire qui va vous permettre de vous éclater à customiser des modèles pour vos propres besoins, le tout avec des recettes mémoire efficaces qui tournent même sur une bête carte graphique de gamer, comme les NVidia 3090/4090.

Son secret ?

Une architecture bien pensée qui mise sur l’interopérabilité avec l’écosystème des LLM, qu’ils soient open-source ou non. Concrètement, ça veut dire que vous allez pouvoir brancher Torchtune à tout un tas d’outils et de frameworks que vous adorez déjà, comme Hugging Face 🤗, PyTorch FSDP 🪢, Weights & Biases 📈, et plein d’autres.

Grâce à des recettes simples et bien documentées pour les modèles populaires comme Llama 3, Mistral ou Gemma 7B, même les débutants vont pouvoir se lancer dans l’aventure sans flipper. Bon OK, il faudra quand même un peu de bagage en PyTorch et en LLM, mais rien d’insurmontable ! Et si vous êtes un pro, vous allez pouvoir hacker le code à volonté pour l’adapter à vos besoins spécifiques.

Alors comment on met les mains dans le cambouis avec Torchtune ?

Rien de plus simple, mon cher Watson ! Il vous suffit d’installer la dernière version stable de PyTorch (2.2.2 au moment où j’écris ces lignes), puis de télécharger Torchtune depuis PyPI avec un petit

pip install torchtune

Et voilà, vous êtes prêt à en découdre avec les LLM !

Pour vous faire les dents, je vous conseille de jeter un œil au tutoriel sur le fine-tuning de Llama2 7B. C’est le parfait point de départ pour comprendre comment Torchtune fonctionne et comment l’utiliser pour vos propres projets.

En gros, ça se passe en 4 étapes :

  1. Téléchargez le modèle pré-entraîné et le tokenizer depuis Hugging Face Hub avec tune download.
  2. Choisissez une recette de fine-tuning (LoRA, QLoRA, full…) et customisez-la avec un fichier de config en YAML.
  3. Lancez l’entraînement avec tune run en précisant votre recette et votre config. Vous pouvez même faire du multi-GPU avec torchrun !
  4. Admirez le résultat et testez votre modèle fine-tuné avec une inférence locale. Si tout se passe bien, exportez-le avec ExecuTorch pour le déployer en prod, ou utilisez les API de quantification de Torchao pour l’exporter en int4 ou int8 et l’utiliser sur mobile ou en edge.

Facile, non ? 😄

Bon OK, j’avoue, j’ai un peu simplifié. En vrai, il y a pas mal de subtilités et de paramètres à régler pour obtenir les meilleurs résultats, comme le learning rate, le nombre d’époques, la taille du batch, le ratio de LoRA, et tout un tas d’autres trucs, mais c’est justement sa flexibilité qui vous permet d’expérimenter à l’infini pour trouver la combinaison parfaite.

Bref, si vous êtes dev et que vous aimez jouer avec les LLM c’est à tester.

Source

Explorez les secrets des dépôts Git avec Grep.app

Par : Korben

Vous êtes-vous déjà demandé ce qui se cache dans les profondeurs obscures des dépôts Git publics ? Eh bien, figurez-vous qu’il y a un outil en ligne qui permet de dénicher des trucs de dingue ! Ça s’appelle Grep.app et c’est un moteur de recherche qui va vous faire halluciner.

Concrètement, vous balancez votre recherche dans la barre et hop, ça vous sort tous les résultats où votre mot-clé apparaît dans les repos Git publics. Genre, vous tapez une adresse email et vous tombez sur tous les endroits où elle est mentionnée. Mais attention, hein… Y a pas que des trucs anodins qui traînent dans ces dépôts. Si vous cherchez un peu, vous pouvez même tomber sur des clés d’API AWS ou Google !

Bon, après faut pas déconner non plus. Si vous tombez sur des clés dans un dépôt public, considérez-les comme grillées direct. Même si le dépôt est supprimé par la suite, y a plein de petits malins qui font ce genre de recherches régulièrement. Donc méfiance !

Cela dit, Github a quand même mis en place un système d’alerte pour les clés, mots de passe, etc qui se retrouvent dans le code. Du coup, y a des chances que la plupart soient invalidées assez vite, soit par le développeur qui change sa clé, soit direct par le fournisseur. Mais on n’est jamais trop prudent…

En parlant de Github, ils ont aussi leur propre outil de recherche de code qui est plutôt balèze. Ça s’appelle Github Code Search. Ça indexe environ 45 millions de dépôts, ce qui est déjà pas mal !

En gros, ils utilisent un moteur de recherche maison qui indexe le contenu avec une technique appelée « sparse ngrams ». D’après eux, ça permet d’exécuter les recherches plus rapidement, tout en étant un index plus petit. Si vous voulez en savoir plus sur la technologie derrière, ils ont publié un article de blog super intéressant.

Maintenant, est-ce que Grep.app est à la hauteur face à Github Code Search ? Difficile à dire… Une chose est sûre, c’est que Grep.app a l’air de se concentrer uniquement sur le code en lui-même. Donc si vous cherchez des chaînes de texte dans de la prose qui se retrouve dans des recherches de code, vous risquez de passer à côté avec Grep.app. Genre pour chercher dans des fichiers texte ou Markdown.

Et ça, c’est un peu dommage. Parce que des fois, on a besoin de chercher du code avec plein de caractères spéciaux vicieux. Et là, la recherche de code actuelle de Github nous laisse tomber. Mais bon, on peut pas tout avoir non plus… En attendant, Grep.app reste quand même un outil bien pratique pour dénicher des infos cachées dans les entrailles de Git. Et puis c’est gratuit et open-source en plus !

Llama 3 – l’IA open source de Meta qui rivalise avec les meilleurs modèles

Par : Korben

Accrochez-vous à vos claviers, car Meta vient de lâcher dans la nature une nouvelle créature nommée Llama 3. Oui, vous avez bien compris, je parle de la dernière génération de modèles de langage « open source » (ou presque, on y reviendra) de la société de Mark Zuckerberg.

Si vous pensiez que ChatGPT, Claude ou Mistral étaient les rois de la savane, attendez de voir débarquer ces nouveaux lamas survitaminés ! Avec des versions allant de 8 à 400 milliards de paramètres (pour les non-initiés, disons que c’est l’équivalent de leur QI 🧠), les Llama 3 atomisent littéralement la concurrence sur de nombreux benchmarks standards, que ce soit en termes de connaissances générales, de compréhension, de maths, de raisonnement ou de génération de code.

Mais qu’est-ce qui fait de Llama 3 un tel monstre par rapport à son petit frère Llama 2 ? Déjà, un entraînement de folie à base de 15 000 milliards de tokens (7 fois plus que Llama 2 !) pompé depuis le web (!!), avec beaucoup plus de code et de données non-anglaises pour préparer le terrain à une IA multilingue. Ajoutez à ça des techniques de parallélisation à gogo pendant la phase de pré-entraînement, et vous obtenez des lamas dopés qui apprennent à une vitesse supersonique.

Et ce n’est pas tout ! Les Llama 3 ont suivi un programme d’éducation complet, avec du fine-tuning à base de rejection sampling, de PPO et de DPO (si vous ne connaissez pas ces acronymes, ne vous inquiétez pas, moi non plus 😅). Résultat : des modèles ultra-fiables qui refusent rarement une tâche, font preuve d’un alignement exemplaire et sont capables de suivre des instructions complexes sans sourciller. Bref, ce sont des cracks en raisonnement et en génération de code !

Mais au fait, comment on met la main sur ces petites bêtes ? Facile, il suffit de se rendre sur le site de Meta AI et de les télécharger ! Enfin, quand je dis facile… Les Llama 3 sont bien « open source », mais sous une licence maison qui impose quelques restrictions, notamment pour les entreprises de plus de 700 millions d’utilisateurs mensuels (suivez mon regard vers Mountain View et Redmond 👀). Mais bon, rien ne vous empêche de vous amuser avec si vous n’êtes pas une multinationale !

Et en parlant de s’amuser, sachez que Meta a aussi concocté un chatbot maison (pas encore dispo en France) baptisé sobrement « Meta AI« , disponible sur le web (www.meta.ai) et directement intégré dans les barres de recherche de Facebook, Instagram, WhatsApp et Messenger. Sous le capot, c’est bien sûr du pur Llama 3, avec en prime un modèle de génération d’images nommé « Meta Imagine« .

Au programme, de la discussion, de la recherche web via Bing et Google, et bien sûr de la création d’images en un clin d’œil. Seul hic, pas encore de mode multi-modal façon ChatGPT pour uploader vos propres documents ou images, mais ça ne saurait tarder !

Alors, que penser de ce nouveau coup d’éclat de Meta dans la bataille des IA ?

Personnellement, je trouve ça plutôt chouette de voir un poids lourd du Net jouer le jeu de l’open source (ou approchant) et mettre à disposition de tous des modèles de cette qualité. Bien sûr, on peut toujours discuter des arrière-pensées de Zuck et sa volonté de garder un œil sur ce qu’on fabrique avec ses lamas. Mais au final, c’est toujours ça de pris sur les GAFAM et leurs vilains modèles propriétaires !

Allez, je vous laisse, j’ai un lama à aller dompter moi ! 🦙

Et n’oubliez pas, comme le dirait l’autre, « le monde appartient à ceux qui codent tôt ». Ou tard, c’est selon.

Source

À partir d’avant-hierKorben

AiFormat – Un outil en ligne de commande pour formater vos fichiers pour Claude

Par : Korben

Si vous vous intéressez un peu aux outils IA, vous connaissez sûrement Claude, l’assistant IA dernière génération d’Anthropic. Depuis la sortie de sa version 3, c’est d’ailleurs devenu mon meilleur pote pour coder à la vitesse de l’éclair. j’ai même pris un abonnement payant en rusant un peu.

Toutefois, le seul truc qui me ralentissait dans mes grandes ambitions, c’était de devoir copier-coller à la main tous mes fichiers de code dans la fenêtre de contexte de Claude pour ensuite lui demander d’analyser ça, et me proposer des corrections ou une nouvelle fonction. Mais ça, c’était avant car je suis tombé sur un petit bijou opensource qui va vous changer la vie : AiFormat.

Ce petit outil en ligne de commande vous permet de sélectionner des fichiers et dossiers, et de les convertir automatiquement dans un format optimisé pour Claude. En deux clics, tout est dans le presse-papier, prêt à être envoyé à votre IA préférée.

Sous le capot, AiFormat utilise Ink, une chouette librairie pour créer des CLI avec une belle interface utilisateur. Ça vous permet de filtrer et naviguer dans vos fichiers, de les sélectionner avec les flèches, et tout ça de façon super intuitive.

Pour l’installer et le prendre en main, c’est hyper simple, tout est expliqué sur la page Github du projet. Ça commence par un simple :

npm install --global aiformat

Ensuite, pour utiliser aiformat, accédez au répertoire contenant les fichiers et dossiers que vous souhaitez partager avec Claude puis lancez la commande suivante :

aiformat

Le créateur a eu la bonne idée de mettre le projet en opensource (MIT license), du coup n’hésitez pas à y jeter un œil et même contribuer si le cœur vous en dit. La communauté vous dira merci !

Franchement, si vous utilisez souvent Claude pour coder ou analyser des projets, c’est un indispensable à avoir dans sa boîte à outils. Ça vous fera gagner un temps fou au quotidien.

Graphite – l’éditeur graphique open source qui va bousculer la création graphique

Par : Korben

Vous êtes accros aux logiciels de retouche photo et de création graphique mais vous en avez marre de vider votre compte en banque pour des licences hors de prix ? Et si je vous disais qu’une solution très sympa open source et totalement gratuite était en train de voir le jour ? Laissez-moi vous présenter Graphite, un projet de dingue porté par une communauté de développeurs et d’artistes passionnés.

Alors, qu’est-ce que c’est que ce truc ? En gros, le but c’est de pondre une appli de graphics editing nouvelle génération qui coche toutes les cases : retouche photo, dessin vectoriel, peinture numérique, PAO, compositing, motion design… Rien que ça ! On est clairement sur un couteau suisse de la création 2D.

Bon, je vous vois venir avec vos gros sabots : « Ouais mais c’est encore un énième logiciel qui va essayer de faire comme Photoshop et cie mais en moins bien ! » Eh bah non, justement ! L’idée c’est pas de copier bêtement ce qui existe déjà mais d’innover en s’inspirant de ce qui se fait de mieux dans d’autres domaines, comme la 3D.

Le truc de malade dans Graphite, c’est qu’il est construit autour d’un node graph, une sorte de « compo visuel » où on branche des nœuds entre eux pour manipuler nos calques et leur appliquer des filtres et des effets à l’infini. Ça permet de garder la main à chaque étape et de pouvoir revenir en arrière sans perdre en qualité, ce qui est juste im-po-ssible dans les logiciels de retouche photo traditionnels. On appelle ça du non-destructif.

Autre point fort : Graphite gère aussi bien les images matricielles (bitmap) que vectorielles, et le tout avec une qualité d’affichage toujours au taquet, même si on zoom dans tous les sens ! Plus besoin d’avoir 36 000 applis et de jongler entre elles. C’est un peu le mix parfait entre le pixel et le vecteur (avec un soupçon de génération procédurale en plus).

Bon, alors, il sort quand ce petit bijou ? Figurez-vous que Graphite est déjà dispo en version alpha et qu’on peut le tester directement dans son navigateur. Pas besoin d’install, ça tourne full JavaScript côté client. Évidemment, à ce stade, c’est encore un peu brut de décoffrage et y’a pas mal de features prévues sur la roadmap qui ne sont pas encore implémentées. Mais ça donne déjà un bon aperçu du potentiel de la bête !

Et en parlant de potentiel, vous allez voir que les possibilités de création sont assez dingues. Vous pouvez par exemple générer des centaines de cercles de façon procédurale pour obtenir des motifs super stylés. Ou encore créer des structures complexes qui s’adaptent automatiquement, comme ces guirlandes de Noël dont les ampoules se replacent toutes seules quand on déforme le chemin. Magique !

Donc, si vous voulez voir ce projet de dingue prendre son envol, n’hésitez pas à mettre la main au portefeuille et à faire un don. C’est vous qui voyez, mais je pense que ça en vaut carrément le coup ! En tout cas, moi, j’ai déjà mis une étoile sur le repo Github 😉

Whomane – L’IA portable & open source

Par : Korben

Accrochez-vous bien à vos slips, parce que je vais vous parler d’un truc de ouf qui risque bien de révolutionner le monde de l’IA portable : Whomane ! Ouais, vous avez bien lu, c’est un projet open source de wearable avec une caméra intégrée.

Whomane, c’est un peu le rêve de tout maker qui se respecte : un appareil portatif bourré d’IA et de capteurs, le tout en mode open source pour pouvoir bidouiller et créer ses propres applications. La vision derrière ce projet, c’est de rendre l’IA embarquée accessible à tous, que ce soit pour l’utiliser ou pour développer dessus.

Concrètement, Whomane se présente sous la forme d’un petit boîtier à clipser sur soi, un peu comme une broche hi-tech. Mais attention, pas n’importe quelle broche ! Celle-là embarque une caméra, un micro et du logiciel capable d’analyser votre environnement en temps réel. Et le tout est propulsé par un raspberry pi Zero capable de faire tourner des modèles de deep learning directement sur l’appareil.

Maintenant, vous vous demandez sûrement ce qu’on peut bien faire avec un truc pareil ? Eh bien, les possibilités sont quasi infinies ! Imaginez par exemple une application qui reconnaît les visages et affiche des infos sur les gens que vous croisez. Ou encore un assistant personnel qui analyse vos conversations et vous souffle des réponses. Vous voyez le genre ?

Mais Whomane, c’est aussi et surtout une plateforme ouverte et collaborative. Le code source est dispo sur GitHub, avec une licence GPL pour les projets open source et une licence commerciale pour ceux qui veulent l’intégrer dans des produits fermés.

Alors okay, je vous vois venir avec vos grands chevaux : « Oui mais la vie privée dans tout ça ? C’est Big Brother ton truc ! » Alors oui, évidemment, dès qu’on parle de caméra et d’IA, ça soulève des questions. Mais justement, l’avantage d’un projet open source comme Whomane, c’est la transparence. Tout est là, à disposition de la communauté pour auditer le code et s’assurer qu’il n’y a pas de dérive. Et puis bien sûr, il faudra toujours veiller à respecter les lois et réglementations en vigueur.

Bref, vous l’aurez compris, Whomane c’est le genre de projet geek et utopiste qui fait vibrer la corde du bidouilleur qui sommeille en nous. Après, on ne va pas se mentir, c’est encore un prototype avec sûrement plein de bugs et de limitations. Mais quand bien même, qu’est-ce que c’est excitant de voir émerger ce genre d’initiatives !

Modrinth – La plateforme Minecraft open-source redevient indépendante

Par : Korben

Modrinth, la plateforme open-source dédiée aux mods Minecraft, vient de prendre une décision aussi inattendue que courageuse : rendre l’argent à ses investisseurs pour redevenir indépendante ! Ça c’est ce que j’appelle avoir des couilles en vibranium !

Figurez-vous qu’il y a un an et demi, Modrinth avait levé 1,2 million de dollars auprès d’investisseurs. Ça leur a permis d’embaucher des développeurs à plein temps, de lancer plein de nouvelles fonctionnalités comme la monétisation pour les créateurs, l’authentification, les analytics, les collections… Bref, de faire grimper le nombre d’utilisateurs de manière exponentielle !

Mais voilà, cette croissance à tout prix a fini par leur faire perdre de vue l’essentiel. Les bugs se sont accumulés, la modération a pris du retard… Et surtout, ils ont réalisé que le modèle des startups financées par des investisseurs n’était pas compatible avec leurs valeurs. Parce que les investisseurs, aussi sympas soient-ils, attendent forcément un retour sur investissement. Et ça pousse à prioriser le profit et la croissance plutôt que la communauté et les créateurs.

Alors Modrinth a décidé de prendre son destin en main. Ils ont rendu 800 000 dollars aux investisseurs, et ont réduit drastiquement la taille de l’équipe pour revenir à un rythme de développement plus durable. Ça n’a pas été facile, ils ont dû se séparer de plusieurs personnes qui avaient beaucoup apporté au projet, mais c’était nécessaire pour rester fidèles à leurs principes.

Maintenant, Modrinth est de nouveau entre les mains de la communauté. Ils peuvent se concentrer sur ce qui compte vraiment : offrir la meilleure expérience possible aux joueurs et aux créateurs de mods, sans pression pour faire du chiffre à tout prix. Bien sûr, il faut quand même que le projet soit viable économiquement, mais ça, ils savent faire. L’hébergement est déjà rentable, et ils travaillent à rendre le développement durable aussi.

Pour ça, ils misent sur une meilleure infrastructure de modération (avec de l’automatisation et des outils pour les modos), plus de transparence sur l’avancement du projet, et plus de facilité pour contribuer au code. Le but, c’est que la communauté puisse vraiment s’approprier Modrinth, et que ça devienne un bien commun géré collectivement.

Et là, moi je dis chapeau bas ! Dans un monde où la plupart des boîtes ne jurent que par la croissance, quitte à vendre leur âme au diable, ce genre de prise de position fait un bien fou. Ça prouve qu’on peut faire des choses géniales sans se compromettre, en restant fidèle à ses valeurs et à sa communauté.

Alors si vous êtes un joueur Minecraft, un créateur de mods, ou juste quelqu’un qui croit à l’importance de l’open-source et des projets communautaires, je vous invite à soutenir Modrinth dans cette nouvelle étape de sa vie.

Source

MoOde – Le lecteur audio Raspberry Pi préféré des audiophiles

Par : Korben

Vous cherchez un lecteur audio open source de qualité pour votre Raspberry Pi ? Ne cherchez plus, moOde audio est là pour vous !

Ce lecteur audio totalement gratuit et distribué sous licence GPL permet d’avoir un véritable serveur musical sur votre Rpi pour en faire profiter toute la famille. C’est un peu comme Volumio dont je vous ai déjà parlé, mais en beaucoup plus abouti. En plus, les gars derrière moOde sont des vrais. Pas de pubs intrusives, pas d’abonnements à la noix, zéro cookies ou tracking à la Google. Toutes vos données restent bien au chaud sur votre Raspberry Pi, et ne sont refilées à personne d’autre. Bon, après si vous voulez les soutenir, vous pouvez toujours faire un petit don…

Pour installer moOde, c’est facile. Vous chopez l’img et vous allez suivre le guide d’installation qui est juste là. En gros, vous préparez votre image avec le Raspberry Pi Imager, vous pouvez même configurer le SSH et le WiFi direct, et après vous balancez le tout sur votre carte SD. C’est du classique pour les utilisateurs de Raspberry Pi. Rien de plus simple !

La dernière version, la 8.3.9, est dispo pour les modèles 3B, 3B+, 3A+, 4, 400, les Compute Module 3, 3+ et 4, et même le petit dernier le Zero 2 W et elle tourne sur une debian Bullseye 64 bits. Autant dire que ça va envoyer du lourd côté performances audio.

D’ailleurs, parlons-en de l’audio. moOde gère une flopée de périphériques compatibles avec les Raspberry Pi. Que vous ayez une enceinte Bluetooth ou quelque chose de plus « filaire » comme un DAC USB (Digital Audio Converter), une carte d’extension Hat ou carrément un streamer réseau, y a de fortes chances que ça fonctionne direct. Et niveau réglages, les audiophiles vont être aux anges puisqu’il y a de quoi faire du réglage fin sur votre son comme jamais !

Le top du top, c’est l’interface web. Super bien foutue, responsive, elle s’adapte parfaitement à votre appareil, que ce soit un pc, une tablette, un smartphone ou même une TV. Pas besoin d’installer quoi que ce soit, un simple navigateur suffit. Vous pourrez lancer la lecture d’un album, écouter la radio, taguer vos morceaux, accéder à des partages de fichiers via SMB et NFS, balancer le son en AirPlay ou avec Spotify Connect, faire du multiroom synchronisé et profiter de fonctionnalités audiophiles comme le support des formats hi-res, un égaliseur paramétrique, et divers algorithmes de rééchantillonnage. Pour les devs, y a même une API REST pour faire mumuse.

Et si vous avez besoin d’aide ou que vous voulez causer son entre passionnés, le forum moOde est là pour vous. Les devs sont ultra réactifs et la communauté est au taquet. Vous pouvez même choper les dernières news sur le développement du player.

Côté technique, si vous voulez mettre les mains dans le cambouis, un guide du développeur est dispo. Vous pourrez gérer les paquets et générer vos propres images.

Ah et j’allais oublier, les gars de moOde vous ont même concocté un petit DAC NOS (Non-Oversampling) à monter vous-même : le ProtoDAC. Il paraît que le son est d’enfer, surtout si vous utilisez des composants de qualité. Les plans et le guide sont dispos, vous avez juste à commander vos PCB et sortir votre fer à souder.

Bref, vous l’aurez compris, moOde c’est que du bon fait par des pro du son pour les audiophiles geeks qui aiment faire les choses eux-mêmes. Alors, n’attendez plus, foncez sur le site, chopez l’img et transformez votre Raspberry Pi en un lecteur audio de compèt’ !

Merci à François pour le partage !

FFmpeg vs Microsoft – Le choc

Par : Korben

Figurez-vous que le géant Microsoft, oui oui, le monstre de Redmond, se retrouve à genoux devant la communauté open source de FFmpeg.

Et pourquoi donc ? Parce que ces satanés codecs multimédias leur donnent du fil à retordre !

Mais attention, ne croyez pas que Microsoft va gentiment demander de l’aide comme tout le monde. Non non non, eux ils exigent, ils ordonnent, ils veulent que les petites mains de FFmpeg réparent illico presto les bugs de leur précieux produit Teams. Bah oui, faut pas déconner, c’est pour un lancement imminent et les clients râlent !

Sauf que voilà, les gars de FFmpeg ils ont pas trop apprécié le ton. Ils sont là, tranquilles, à développer leur truc open source pour le bien de l’humanité, et là Microsoft débarque en mode « Eho les mecs, faudrait voir à bosser un peu plus vite là, on a besoin de vous là, maintenant, tout de suite ». Super l’ambiance.

Alors ok, Microsoft a daigné proposer quelques milliers de dollars pour les dédommager. Mais bon, les développeurs FFmpeg ont un peu de fierté quand même et souhaitent un vrai contrat de support sur le long terme, pas une aumône ponctuelle balancée comme on jette un os à un chien.

Et là, c’est le choc des cultures mes amis ! D’un côté Microsoft, habitué à régner en maître sur son petit monde propriétaire, à traiter les développeurs comme de la chair à code. De l’autre, la communauté open source, des passionnés qui bouffent du codec matin midi et soir, qui ont la vidéo dans le sang et le streaming dans les veines.

Microsoft fait moins le malin maintenant puisqu’ils réalisent que leur précieux Teams, ça marche pas terrible sans FFmpeg et que leurs armées de développeurs maison, n’y connaissent pas grand chose en codecs multimédia. Et surtout que la communauté open source, bah elle a pas trop envie de se faire exploiter comme ça.

Moralité de l’histoire : faut pas prendre les gars de FFmpeg pour des poires. Ils ont beau être « open », ils ont leur dignité et Microsoft va devoir apprendre à respecter ça, à collaborer d’égal à égal, à lâcher des billets et des contrats de support au lieu de jouer au petit chef.

Parce que sinon, Teams risque de sonner un peu creux sans codecs qui fonctionnent. Et là, ça va être dur d’expliquer aux clients que la visio ça sera en version mime, parce que Microsoft a pas voulu mettre la main au portefeuille pour avoir de l’audio qui marchent.

Et, si vous voulez en savoir plus sur ce choc des titans, foncez sur https://sopuli.xyz/post/11143769 , vous n’allez pas être déçu du voyage !

StickerBaker – Créez des stickers IA personnalisés en quelques clics

Par : Korben

Vous aimez créer des stickers pour épater vos amis sur les réseaux sociaux ? Mais vous en avez marre de passer des heures sur Photoshop pour un résultat pas toujours au top ? J’ai ce qu’il vous faut !

Le site web StickerBaker est une vraie petite pépite pour générer des stickers personnalisés en quelques clics grâce à l’intelligence artificielle.

Concrètement, vous uploadez une photo de votre trombine, vous entrez une petite description façon prompt et bim, l’IA vous génère un sticker sur-mesure avec un rendu digne des plus grands graphistes. Pas besoin d’être un crack en dessin ou en retouche d’image, StickerBaker s’occupe de tout !

Mais alors StickerBaker, ça peut servir à quoi concrètement ? Et bien comme je le disais, créer des stickers complètement barrés à partir de vos photos pour amuser la galerie et mettre l’ambiance dans la conversation WhatsApp du jeudi soir ! Mais ça peut aussi permettre à des artistes, graphistes ou même des marques de prototyper rapidement des designs de stickers avant une prod plus poussée. Plutôt que de partir d’une feuille blanche, autant utiliser l’IA pour générer des premiers jets et itérer à partir de là. Ça peut faire gagner un temps fou.

Sous le capot, le site utilise le modèle Albedo XL et des techniques de machine learning comme les LoRA (Learning Rate Adaptation) pour comprendre votre prompt et générer un visuel qui déchire. Les plus geeks d’entre vous apprécieront les performances de l’engin : un sticker généré en 10 secondes max grâce aux cartes graphiques Nvidia A40. Ça envoie du lourd !

Et le must du must, c’est que StickerBaker est un projet open source, le code est dispo sur GitHub. Ça veut dire que la communauté peut mettre la main à la pâte pour améliorer l’outil. Vous pouvez par exemple bidouiller le code pour modifier les styles de stickers générés. Un vrai bonheur pour les devs qui veulent comprendre comment ça marche derrière.

Autre bon point, vos photos sont supprimées direct après le traitement. Pas de stockage chelou des données ou d’utilisations douteuses derrière, StickerBaker est clean de ce côté là. C’est toujours appréciable de nos jours.

Après, faut pas se leurrer, on est encore loin d’une app grand public. L’interface est rudimentaire et il faut un minimum biberonné à l’anglais et à l’univers des IA générative pour pas être largué. Mais c’est un premier pas encourageant vers la démocratisation de ces technologies.

Au final, StickerBaker c’est une chouette démo techno qui montre tout le potentiel de l’IA générative appliquée au domaine des stickers et du graphisme. Le projet n’en est qu’à ses débuts mais mérite clairement d’être suivi de près. Ça pourrait bien révolutionner notre manière de créer des visuels à l’avenir, qui sait ? En tout cas, moi j’ai hâte de voir les prochaines évolutions de ce genre d’outils !

Merci à Lorenper pour l’info.

Jan – Le « ChatGPT » local et open source à installer sur votre machine

Par : Korben

Afin de rendre l’IA accessible à tous, y compris gratuitement puisque la plupart des modèles fonctionnent sur un système open source, une équipe de développeurs talentueux a créé Jan un outil pour les développeurs et les utilisateurs souhaitant profite d’une alternative à ChatGPT, totalement indépendante, fonctionnant hors ligne, open source et libre.

Il faut donc voir Jan comme un client de chat qui permet de télécharger des modèles comme Trinity, Mistral, Llama, OpenChat…etc. et de les faire tourner 100% hors ligne. Comme ça, pas de fuite de conversations privées ni de réutilisation de vos données pour entrainer de nouvelles IA. Et si comme moi, vous êtes accro à l’IA d’OpenAI, vous pourrez toujours y ajouter votre clé API et discuter avec ChatGPT (au tarif fixé par OpenAI évidemment).

Jan fonctionne sous Linux (Appimage et .deb dispo), sous Windows et macOS (Intel / Silicon) et propose une prise en charge des modèles open source tels que GGUF via llama.cpp, TensorRT via TensorRT-LLM ou des API externes. Jan utilise également le moteur d’inférence Nitro, des mêmes développeurs, qui se veut être rapide et léger.

Je teste ici le modèle Trinity 1.2 7B Q4 :

Et ici un modèle spécialisé en code Python nommé Wizard Coder Python 13B Q5.

Un truc cool avec Jan c’est que toutes les conversations sont conservées sur votre disque au format JSON, donc si le coeur vous en dit, vous pourrez ensuite les exploiter comme bon vous semble dans vos outils.

Jan propose également un serveur REST qui permet d’interroger via une API compatible OpenAI n’importe quel modèle que vous y feriez tourner. Ça permet de brancher vos outils ou vos scripts directement sur le LLM ouvert de votre choix.

Dans la lignée de Ollama ou LM Studio, Jan rempli ses promesses et vous permettra de vous éclater avec l’IA (abus de langage, je sais…) sans mettre en péril vos données personnelles.

Pour en savoir plus, rendez-vous sur le site de Jan ou sur leur page Github pour les sources et la doc.

Merci à Lorenper

LocalAI – L’alternative open source puissante à OpenAI

Par : Korben

Aujourd’hui, j’aimerais vous présenter LocalAI, une alternative open source à OpenAI. En tout cas, c’est comme ça que le créateur du projet le présente. Il s’agit d’une solution idéale pour tous ceux qui cherchent une API REST compatible avec les spécifications de l’API OpenAI pour l’inférence locale.

Grâce à LocalAI, vous pouvez exécuter des modèles linguistiques, générer des images, de l’audio et bien d’autres choses encore, localement ou sur site avec du matériel grand public, et ce, sans avoir besoin d’un GPU ! Le projet a pour principal objectif de rendre l’IA accessible à tous.

Pour résumer, voici les principales caractéristiques de LocalAI :

  • Une API REST locale, alternative à OpenAI. Comme ça, vous gardez bien au chaud vos propres données.
  • Pas besoin de GPU. Pas besoin d’accès internet non plus. Toutefois, l’accélération GPU est possible en option.
  • Prise en charge de plusieurs modèles.
  • Dès qu’ils sont chargés une première fois, les modèles restent en mémoire pour une inférence plus rapide.
  • N’utilise pas de shell, mais des liaisons directes pour une inférence plus rapide et de meilleures performances.

En termes de fonctionnalités, LocalAI offre une large gamme d’options, parmi lesquelles :

  • La génération de texte avec les modèles GPT (comme llama.cpp ou gpt4all.cpp).
  • La conversion de texte en audio.
  • La transcription audio en texte avec whisper.cpp.
  • La génération d’images avec Stable Diffusion.
  • Les dernières fonctionnalités d’OpenAI récemment ajoutées comme l’API Vision par exemple.
  • La génération d’embeddings pour les bases de données vectorielles.
  • Les grammaires contraintes.
  • Le téléchargement de modèles directement à partir de Huggingface.

LocalAI est bien sûr un projet communautaire donc n’hésitez pas si vous souhaitez vous impliquer !

Pour commencer rapidement avec LocalAI, vous pouvez consulter leur guide Getting Started qui décrit les différentes méthodes d’installation et les exigences matérielles ou aller consulter les guides de la communauté. Je vous ferais aussi probablement un tutoriel prochainement si mon emploi du temps me le permet.

LocalAI est disponible sous forme d’image conteneur et de binaire, compatible avec divers moteurs de conteneurs tels que Docker, Podman et Kubernetes. Les images de conteneurs sont publiées sur quay.io et Docker Hub, et les binaires peuvent être téléchargés à partir de GitHub.

Concernant les exigences matérielles, ça varie en fonction de la taille du modèle et de la méthode de quantification utilisée mais pour choper quelques repères de performance avec différents backends, comme llama.cpp, vous pouvez consulter ce lien.

Maintenant pour en savoir plus, vous pouvez explorer le site localai.io. Vous y trouverez de nombreuses informations et des exemples d’utilisation pour vous aider à tirer le meilleur parti de LocalAI.

Merci à Lorenper

LLM4Decompile – Quand l’IA se met à décompiler du binaire

Par : Korben

Imaginez un monde merveilleux où les secrets enfermés dans les binaires compilés ne seraient plus inaccessibles aux simples mortels que nous sommes…

C’est exactement ce que LLM4Decompile, le premier LLM (Large Language Model) open-source dédié à la décompilation, promet de réaliser. Fruit d’un travail de recherche innovant mené par une équipe de chercheurs passionnés, ce modèle révolutionnaire ouvre de nouvelles perspectives dans le domaine du reverse engineering.

Jusqu’à présent, la décompilation, c’est-à-dire le processus qui consiste à retrouver le code source à partir d’un exécutable compilé, restait un défi de taille. Les outils existants peinaient à produire un code lisible et compréhensible par les humains, ce qui est logique puisqu’il y a une grosse perte d’informations lors de la compilation. Mais ça, c’était avant l’arrivée de LLM4Decompile !

Entraîné sur un énorme dataset de 4 milliards de tokens de code C et d’assembleur x86, ce modèle de langage surpuissant a appris à décoder les secrets des binaires. Grâce à son architecture basée sur les Transformers et ses milliards de paramètres, il est donc capable de capturer les patterns et la sémantique du code à un niveau inédit.

Mais les chercheurs ne se sont pas arrêtés là. Ils ont aussi développé le premier benchmark standardisé pour la décompilation baptisé Decompile-Eval. Basé sur des problèmes de programmation réels, il permet d’évaluer la capacité des modèles à regénérer un code recompilable et ré-exécutable. Exit les métriques de similarité de tokens, place à des critères solides et pertinents ! LLM4Decompile parvient à recompiler 90% des binaires décompilés (oui oui, je me suis pas trompé) !

Mieux encore, 21% du code re-généré réussit tous les tests unitaires, démontrant une préservation de la logique du programme. C’est 50% de plus que GPT-4, pourtant considéré comme l’état de l’art.

Cerise sur le gâteau, LLM4Decompile est entièrement open-source. Les modèles pré-entraînés de 1,3 à 33 milliards de paramètres sont disponibles sur Hugging Face, prêts à être utilisés et améliorés par la communauté. Le code, les données d’entraînement et le benchmark sont aussi accessibles sur GitHub.

Bien sûr, LLM4Decompile n’est qu’un premier pas vers la décompilation par l’IA. Il reste limité au langage C et à l’assembleur x86, et ne gère pour l’instant que des fonctions isolées. Mais les perspectives sont immenses ! On peut imaginer étendre son champ d’action à d’autres langages et architectures, voire carrément l’utiliser pour transpiler automatiquement du code entre différents langages.

Les applications potentielles sont nombreuses : reverse engineering de logiciels legacy (ça veut dire obsolète mais encore utilisé.. .argh !), analyse de malware, portage de vieux jeux vidéos, etc. Même les vieux binaires qui sentent la naphtaline n’auront bientôt plus de secrets pour nous !

Adeus – L’assistant IA DIY qui vous accompagne partout

Par : Korben

Si vous lisez mon site depuis longtemps, vous savez que j’apprécie tous ces petits projets de DIY (Do It Yourself), alors maintenant qu’on peut y coller un peu d’IA, j’ai l’impression que tout devient possible. Tenez par exemple ce projet baptisé Adeus.

C’est un dispositif portable d’intelligence artificielle open source capable de vous accompagner à chaque instant. Cette technologie, bien plus qu’un simple gadget, deviendra possiblement de standard des années qui arrivent. La preuve avec le succès du Rabbit R1 qui n’a pour d’autres buts que de remplacer les smartphones.

Alors comment fonctionne Adeus ?

Hé bien, ce système se compose de trois éléments clés qui interagissent les uns avec les autres :

Il y a tout d’abord une application mobile / web qui n’est ni plus ni moins qu’une interface qui permet à l’utilisateur d’interagir avec son IA personnelle et ses données par le biais d’un chat.

Côté matos, il y a le dispositif portable qui enregistrera tout ce que l’utilisateur dit ou entend, et l’enverra au backend pour être traité. Pour le moment, c’est possible à déployer sur un Raspberry Pi Zero W ou un appareil CoralAI.

Et ce backend basé sur Supabase, avec sa base de données, sera capable de traiter et stocker les données que nous échangeons avec les LLM (Large Language Model).

Toutefois, pour garantir le respect de nos données et notre propriété intellectuelle, Adeus a choisi la voie de l’open source. Grâce à cette philosophie, il est possible de garder un œil sur le fonctionnement de l’IA et de s’assurer qu’aucun tiers ne peut accéder à notre précieux contenu. Pour un objet à qui on confie toute sa vie perso, je trouve ça plutôt sain.

Pour en savoir plus, vous pouvez consulter la page GitHub d’Adeus qui regorge d’informations détaillées sur le projet.

Merci à Lorenper

ytDownloader – Télécharger des vidéos à partir d’une simple URL

Par : Korben

Hé les amis, aujourd’hui laissez-moi vous présenter un outil génial qui vous facilitera la vie en vous permettant de télécharger des vidéos et d’extraire des pistes audios de différents formats à partir de centaines de sites, dont, YouTube, Facebook, Tiktok, Twitch, Twitter, Instagram et bien d’autres…

Cet outil s’appelle ytDownloader et vous l’aurez compris, c’est YoutubeDL derrière sauf que là, y’a une interface minimaliste facile à prendre en main. L’outil est bien sûr entièrement gratuit et Open Source.

Disponible sous Linux, Windows et macOS, cet utilitaire dispose de nombreuses fonctionnalités comme un mode clair/sombre, la possibilité de choisir un thème pour pas flinguer vos petits yeux, ainsi que la possibilité de télécharger une plage spécifique d’une vidéo si vous le souhaitez, ce qui est pratique pour extraire un morceau précis. Vous pouvez évidemment, après avoir entré l’URL de votre vidéo, choisir le format et la qualité de la vidéo et de l’audio que vous voulez récupérer, ce qui est super pratique pour faire par exemple des MP3 à partir de clips vidéos.

Cet outil prend également en charge le téléchargement des sous-titres et est disponible en plusieurs langues. Vous pouvez bien sûr configurer l’emplacement où enregistrer vos fichiers récupérés et il n’y a ni pubs ni traqueur dans l’application.

Pour résumer, ytDownloader est un outil super utile pour tous ceux qui ont besoin de récupérer des vidéos et/ou extraire des audios de différents formats à partir de différents sites. Je vous le conseille !

Rendez-vous sur leur site pour télécharger ytDownloader.

Merci à Lorenper pour le partage.

Suyu – le nouvel émulateur Switch open source qui ose défier Nintendo après la mort de Yuzu

Par : Korben

Vous avez entendu parler de Suyu ? C’est le nouvel émulateur Nintendo Switch open source qui fait pas mal parler de lui en ce moment. Faut dire qu’après la descente en flammes de son prédécesseur Yuzu, qui s’est pris un méchant procès de Nintendo et a dû mettre la clé sous la porte, les fans d’émulation se demandaient bien qui allait prendre le relais.

Bah c’est Suyu qui s’y colle, avec une équipe de développeurs passionnés qui ont repris le code source de Yuzu pour continuer à faire évoluer l’émulation Switch. Mais attention, les gars ont retenu la leçon et font super gaffe à pas se mettre Nintendo à dos comme Yuzu ! Déjà, fini la monétisation du projet, Suyu c’est 100% bénévole. Ils l’annoncent clairement sur leur page GitLab, zéro profit, que dalle, nada. Normal, vu que c’était un des points qui avaient bien énervé Nintendo dans le procès contre Yuzu.

Pareil pour les guides pas à pas pour expliquer comment jouer à des jeux piratés, c’est terminé. Les mecs veulent pas entendre parler de warez, au point que c’est devenu le sujet tabou numéro 1 sur leur Discord. Suyu joue la carte de la prudence à fond et refuse d’être associé de près ou de loin au piratage. Sachant que c’était un autre gros point de crispation de Nintendo contre Yuzu, ça me parait logique.

Après est-ce que ça suffira à éviter les foudres des avocats de Big N, ça c’est une autre histoire. Car même en jouant profil bas, Suyu n’en reste pas moins un émulateur Switch, avec tout ce que ça implique légalement, notamment le fait de devoir extraire la clé de sécurité d’une Switch pour pouvoir jouer aux jeux, ce qui ne plait pas non plus à la firme japonaise. D’ailleurs, les dévs le disent eux-mêmes, ils évoluent pour l’instant dans une « zone grise », le temps de trouver une solution pour en sortir. Wait and see comme on dit.

Mais en attendant, force est de constater que Suyu fait du bon boulot. Enfin un émulateur Switch puissant, open source et qui en plus est plutôt user-friendly. De quoi donner envie d’y jeter un œil et pourquoi pas de filer un coup de main si vous vous y connaissez un peu en dev. Le code est dispo sur le GitLab, avis aux amateurs ! Je vous ferait pas de tuto, hein ^^.

Bon après, bien que l’émulation soit LÉGALE, n’empêche que c’est quand même un peu couillu comme projet. Rien que le nom, Suyu, qui se prononce comme « sue you » (traduisez « attaquez-moi en justice » pour les anglophobes), ça montre bien que les mecs ont de l’humour et qu’ils sont conscients de jouer avec le feu. On peut pas leur enlever ça.

Et puis c’est cool de voir que malgré les menaces, la communauté de l’émulation continue de faire vivre ce hobby de passionnés. Avec tous les projets qui se sont fait dégommer ces derniers temps, on aurait pu croire le milieu complètement plombé. Mais heureusement, y a encore des irréductibles pour prendre la relève et faire perdurer la tradition, même si ça devient de plus en plus tendu.

Donc voilà, un petit coup de projecteur sur Suyu qui le mérite bien. Si vous voulez en savoir plus, je vous invite à faire un tour sur leur site, y a toutes les infos nécessaires. Et n’hésitez pas non plus à rejoindre leur serveur Discord pour suivre l’actu du projet et échanger avec les dévs et la communauté.

Sur ce, je retourne jouer à Zelda BOTW sur mon PC, vu que maintenant c’est possible grâce à Suyu 😉 J’déconne, j’déconne… Quoique !

Source

Grok d’Elon Musk bientôt open-source pour défier ChatGPT

Par : Korben

Ça y est les amis, c’est la grande nouvelle de la semaine dans le monde de l’IA ! Elon Musk, le grand patron de xAI, a balancé sur Twitter que son chatbot Grok va passer en open-source dans les prochains jours. Et ça, c’est pas rien, surtout quand on sait que ce petit bijou est capable, selon ses dires, de rivaliser avec ChatGPT !

Faut dire que depuis sa sortie l’an dernier, Grok a pas chômé. Il a été boosté avec des fonctionnalités de fou, comme l’accès à des infos en temps réel et la possibilité de s’exprimer sans filtre, même si ça plait pas à tout le monde. 😅 Pour l’instant, seuls les abonnés premium de X (anciennement Twitter) peuvent en profiter pour la modique somme de 16 dollars par mois. Mais ça, ça risque bien de changer !

Parce que voilà, Elon est pas content. Il y a quelques jours, il a carrément attaqué OpenAI en justice, l’accusant d’avoir trahi ses principes d’ouverture et de transparence. Faut savoir qu’à la base, Musk avait co-fondé OpenAI avec Sam Altman il y a presque 10 ans, justement pour contrer la domination de Google dans l’IA. Mais depuis, OpenAI est passé en mode closed-source et s’est rapproché de Microsoft, son nouveau meilleur pote. Forcément, ça passe mal auprès d’Elon qui n’hésite pas à balancer : « OpenAI est devenu une filiale de facto de Microsoft, la plus grande entreprise technologique au monde ». Aïe, ça pique ! 😬

Résultat, ça a foutu un sacré bordel dans le milieu. Des pointures comme Vinod Khosla (un des premiers investisseurs d’OpenAI) et Marc Andreessen (co-fondateur d’Andreessen Horowitz) s’en sont mêlés, alimentant le débat sur les avantages et les risques de l’open-source dans l’IA. Pendant ce temps-là, Elon persiste et signe : « OpenAI est un mensonge », a-t-il tweeté lundi. Ambiance ! 🔥

Mais revenons-en à nos moutons. Si Grok passe effectivement en open-source comme promis, ça va faire du bruit. xAI rejoindrait ainsi le club select des boîtes comme Meta et Mistral qui ont déjà publié le code de leurs modèles. Et c’est pas la première fois qu’Elon joue la carte de la transparence : Tesla a déjà open-sourcé plein de brevets, et même X (ex-Twitter) a rendu publics certains de ses algorithmes l’an dernier.

Alors, qu’est-ce que ça va donner concrètement ? 🤔

On peut imaginer que des développeurs du monde entier vont pouvoir mettre les mains dans le cambouis de Grok, l’améliorer, le customiser à leur sauce. Ça pourrait donner lieu à des utilisations vraiment cool, comme par exemple intégrer Grok à des apps ou des sites web pour proposer une assistance ultra-performante aux utilisateurs. Ou encore s’en servir comme base pour créer des chatbots spécialisés dans des domaines pointus, type médecine, droit, finance… Les possibilités sont quasi infinies !

Après, faudra quand même rester vigilant. Parce que l’open-source, c’est chouette, mais ça peut aussi ouvrir la porte à des dérives si c’est mal encadré. Genre des mecs mal intentionnés qui se serviraient du code de Grok pour créer des chatbots malveillants, des spambots, ou pire encore. 😱 Espérons qu’Elon et son équipe ont prévu des garde-fous solides pour éviter ça (j’en doute…).

En attendant, on a hâte de voir ce que ça va donner ! Et vous, vous en pensez quoi ? Vous croyez que l’open-source peut vraiment révolutionner le monde de l’IA, ou bien c’est juste un énième coup de com’ de notre cher Elon ?

Allez, je vous laisse cogiter là-dessus, et rdv très vite pour la suite des aventures ! 😉

Source

De4Py – Le toolkit idéal pour faire de l’analyse de programmes Python (malwares ou autre)

Par : Korben

A tous les fondus d’analyse de code, aujourd’hui, j’aimerais vous présenter De4Py, un déobfuscateur Python avancé qui s’est donné pour mission de révolutionner le domaine pour les analystes de malwares et les experts en reverse engineering.

Développé par le duo Fadi002 et AdvDebug, cet outil se distingue non seulement par son interface conviviale, mais aussi par un ensemble de fonctionnalités avancées conçues pour, entre autres, déchiffrer les fichiers Python.

Ce toolkit prend en charge toute une gamme d’obfuscateurs populaires, incluant Jawbreaker, BlankOBF, PlusOBF, Wodx, Hyperion et l’obfuscateur de pyobfuscate.com. Cette polyvalence vous assure de pouvoir décoder un large éventail de fichiers obfusqués avec une grande facilité.

L’une des fonctionnalités phares de l’outil est sa capacité d’exécution de code. Cela permet aux utilisateurs d’exécuter du code Python au sein de l’outil. Par exemple, ils expliquent sur le Github, que grâce à ça, si un programme demande une licence pour fonctionner dans son intégralité, De4py permet d’accéder directement aux fonctionnalités principales de l’outil, et par conséquent de contourner les restrictions liées à la licence.

La fonction de Dump de chaînes de caractères est un autre atout crucial. Elle facilite l’extraction de textes du processus Python et les sauvegarde dans un fichier, rendant plus aisée l’extraction de données de la mémoire, y compris des informations sensibles comme les webhooks. Il est capable également d’identifier les chaines de caractères « interessantes » comme les IP, les sites web et les mots-clés liés à des informations sensibles.

De4py aborde également le défi que représentent ces programmes Python qui tentent de s’auto-terminer lorsqu’ils détectent un débogueur ou une machine virtuelle. En supprimant la fonction de sortie, il vous permettra de ne plus galérer avec des sorties de programme surprises. De4py dispose aussi d’une fonctionnalité qui permet de récupérer et d’accéder à toutes les fonctions se trouvant dans le processus, ce qui est pratique si on veut modifier certaines fonctions en mémoire de manière plus précise.

Il y a également un analyseur de fichiers pour détecter si un programme Python est « packé ». Il tente alors d’extraire les programmes qui s’y trouvent en utilisant pyinstaller. Enfin, De4Py est capable de surveiller le comportement du programme sur votre système à savoir tout ce qui est manipulations de fichiers, activités de processus, interactions avec la mémoire, et même les communications via socket, avec détail de la taille des données transmises / reçues et des adresses IP. Cette fonctionnalité permet également l’extraction du contenu des sockets et le déchiffrement du contenu chiffré OpenSSL directement dans un fichier.

Bref, que ce soit via son interface graphique ou en mode terminal, De4Py est un super outil pour tous les amateurs de reverse engineering qui font notamment de l’analyse de malware.

Vous en saurez plus ici sur leur Github et le site officiel est ici.

JXL et AVIF – Les nouveaux champions des formats d’image

Par : Korben

On est tous là avec nos formats d’images d’avant la guerre, à savoir le JPEG, le PNG et le WebP alors qu’il existe des trucs beaucoup plus efficaces aujourd’hui en 2024. L’objectif de cet article est donc de vous les présenter.

Le premier s’appelle AVIF (AV1 Image File Format) qui est basé sur le codec vidéo AV1, très connu pour son efficacité en termes de compression. L’AVIF est très adapté pour tout ce qui est images pour les sites web, mais également pour tout ce qui est images animées. Ça en fait donc une bonne alternative aux GIF animés et surtout, de très nombreux navigateurs modernes le supportent déjà.

L’autre format c’est le JXL qui n’est ni plus ni moins que la contraction de JPEG et de XL. Celui-ci est conçu pour compresser efficacement les photos avec ou sans perte selon ce que vous choisissez, tout en préservant une très haute résolution (au-delà du milliard de pixels si ça vous chante) avec plein dé détails. L’algo qui permet d’encoder les images en JXL est d’ailleurs jusqu’à 10 fois plus rapide que celui d’AVIF.

Ces deux formats qui supportent tous les deux la transparence, sont sortis vers 2019 et sont open source et non commerciaux. Alors c’est bien beau tout ça, mais comment on fait pour convertir nos images dans ces formats ? Et bien logiquement, n’importe quel outil de traitement d’image un peu récent peu le faire, mais autrement, y’a des outils.

Pour l’AVIF, vous pouvez utiliser les outils cavif-rs ou encore FFMPEG. Cavif-rs ce sera plus pour les images statiques et FFMPEG pour les gifs animés.

Prenons cette image PNG pour un beau fond d’écran de 1,9 Mo et d’une résolution de 1456 × 816 pixels :

En la convertissant en AVIF à l’aide de la commande suivante :

cavif Downloads/wallpaper.png -o Downloads/wallavif.avif -f

On obtient la même image, avec la même résolution sauf qu’elle pèse maintenant 77 ko. Je vous l’intégre dans mon WordPress pour que vous voyiez que c’est bien supporté par votre navigateur, mais comme WordPress ne supporte pas encore nativement ce format, le rendu est un peu cra-cra :

Je ne vous avais pas menti, c’est sacrément efficace. Dommage pour moi, ce format n’est pas supporté par mon WordPress, donc je ne peux pas encore l’intégrer à mon article.

Passons maintenant à une image animée avec FFMPEG. Je prends ce GIF de 1,1 Mo :

Avec FFMPEG, je dois d’abord convertir le format des pixels en yuv420p qui est un format de couleur très utilisé pour la vidéo et compatible AVIF :

ffmpeg -i happy.gif -pix_fmt yuv420p -f yuv4mpegpipe happy.y4m

Ensuite, il faut installer la lib avif comme ceci sous Linux :

sudo apt install libavif-bin

Comme ça sous mac :

brew install libavif

Ensuite armé de ce fichier y4m, je peux alors appeler l’outil d’encodage avifenc qui va alors le convertir en AVIF animé :

avifenc happy.y4m happy.avif

Et voilà, je me retrouve avec la même image animée sauf qu’elle pèse 45 ko. C’est magique.

Pour le format JXL c’est encore plus simple, puisqu’il y a un outil officiel à télécharger ici. Si vous êtes sous mac, vous pouvez même l’installer comme ceci :

brew install jpeg-xl

Ensuite, y’a plus qu’à appeler la commande comme ceci avec le paramètre lossless afin de n’avoir aucune perte :

cjxl wallpaper.png wallpaper.jxl --lossless_jpeg=0

Je passe donc d’un fond d’écran de 1,9 Mo en PNG au même fond d’écran de 202 Ko. Voici l’incrustation de ce JXL :

Après si vous avez la flemme de jouer avec tous ces outils sachez que ezgif dont je vous ai déjà parlé ici, propose des convertisseurs pour l’AVIF et le JXL.

D’ailleurs, si vous vous demandez comment je l’ai intégré, et bien, il existe une astuce qui permet d’avoir un rendu de JXL ou d’AVIF avec une image PNG en secours pour les anciens navigateurs qui ne supporteraient ni le AVIF ni le JXL.

Voici le code :

<picture>
      <source type="image/jxl" srcset="https://korben.info/wallpaper.jxl" />
      <img src="https://korben.info/wallpaper.png" />
</picture>

Et pour de l’AVIF ce sera comme ça :

<picture>
      <source type="image/avif" srcset="https://korben.info/wallpaper.avif" />
      <img src="https://korben.info/wallpaper.png" />
</picture>

Bref, tout ça pour dire que les résultats en matière de qualité et de compression avec JXL et AVIF sont assez phénoménaux que ce soit avec perte ou non de qualité. Je vous encourage fortement à adopter ces futurs standards même si pour le moment, c’est encore un peu roots, mais c’est déjà bien supporté sur les navigateurs récents du marché, donc pourquoi s’en priver. J’espère que WordPress le supportera également nativement rapidement, comme ils l’ont fait pour le webp.

OSS Insight – Explorez et comparez les dépôts GitHub en un clin d’oeil

Par : Korben

Vous le savez, je suis un grand amateur et un grand défenseur des logiciels libres et Open Source. Et je n’ai pas peur de le dire, GitHub est l’un de mes sites préférés.

On y trouve des pépites comme des scripts incroyables, des outils géniaux et j’adore ça ! Mais ce n’est pas forcément toujours simple de suivre tout ce qui se passe dans cet univers.

Enfin, ça, c’était avant parce qu’il existe un site génial qui s’appelle OSS Insight et qui offre des informations très détaillées et des tendances sur le monde de l’open source en analysant plus de 5 milliards de lignes d’événements GitHub.

Il fournit une nouvelle façon d’explorer les données GitHub en posant simplement des questions en langage naturel, ce qui est extrêmement pratique quand on veut comparer les choses.

Par exemple, OSS Insight vous permet de comparer deux dépôts à partir des mêmes indicateurs, tels que les étoiles, les forks, les issues, les commits, les pull requests, le nombre de contributeurs, les langages de programmation utilisés ou encore les lignes de code modifiées.

Imaginez que vous travaillez sur un projet et que vous souhaitez comparer deux bibliothèques open source pour déterminer laquelle est la plus populaire et la mieux maintenue. Et bien il suffit de lui demander.

Mais ça ne s’arrête pas à ça. Voici quelques exemples de questions que les gens posent à l’outil :

En plus de cela, OSS Insight offre des informations sur les tendances techniques mensuelles avec des listes de dépôts à découvrir.

Comme ça, vous pouvez suivre de près certains types d’outils populaires, comme les bases de données, les frameworks JavaScript ou encore les outils liés aux LLM. Vous pouvez également obtenir des analyses sur la productivité des développeurs et les statistiques des dépôts.

Pour tester le OSS Insight, il vous suffit de vous rendre sur leur site web et de plonger dans cet océan de données.

OSTE – Le scanner de vulns qui combine Nikto, ZAP, Nuclei, SkipFish, et Wapiti

Par : Korben

Si vous vous intéressez un peu à la sécurité informatique, je vous présente aujourd’hui OSTE qui est ce qu’on pourrait appeler un Metascanner.

Alors qu’est-ce qu’un Metascanner ?

Eh bien il s’agit d’un scanner de vulnérabilité web qui combine différents outils tels que Nikto, zap de l’OWASP, Nucléi, SkipFish ou encore Wapiti.

L’intérêt de cet outil c’est qu’il offre une interface graphique très user friendly qui permet de consulter les rapports de scan, mais également de les lancer. Injections SQL, XSS, XML, HTML ou encore des injections liées à des commandes spécifiques au système d’exploitation visé. Chacun des scanners DAST (Dynamic Application Security Testing) intégrés fournit des listes de vulnérabilités pour vous aider à identifier et corriger les problèmes potentiels.

Pour l’installer, vous aurez besoin de tous les outils que je viens de vous citer, mais si vous utilisez Kali Linux vous n’aurez pas de soucis puisque tout ça est déjà présent dans la distrib. Sinon il faudra les installer manuellement.

Ensuite il ne vous restera plus qu’à cloner le dépôt sur votre machine et à lancer la commande

python3 metascan.py

Vous pourrez alors lancer des scans, charger les résultats, les exporter, les consulter directement depuis l’interface graphique.

Vous l’aurez compris, OSTE est un outil fantastique pour simplifier l’évaluation de la cyber sécurité. N’oubliez pas quand même que c’est destiné à usages éducatifs ou dans le cadre de mission d’audits pour lesquelles vous avez été mandaté.

Si vous voulez en savoir plus, cliquez ici.

Continue – L’extension Visual Studio Code qui code à votre place

Par : Korben

Cursor est à ce jour l’éditeur de Code que je préfère, car il est basé sur Visual Studio et totalement boosté à l’IA. Cela me permet pour moi qui suis une quiche en dev, de mener à bien mes projets de conquête du monde.

Toutefois, c’est payant. Et si vous ne voulez pas lâcher un peu de thunasse, et que vous voulez payer uniquement ce que vous consommez, c’est possible dans Cursor avec une clé OpenAI, mais également en installant ce plugin open source baptisé « Continue » directement dans un bon vieux Visual Studio Code d’origine ou un JetBrains.

Concrètement, ce truc vous permet en surlignant un bout de code, de discuter avec l’IA pour mieux le comprendre, le compléter ou le corriger. Vous pouvez même apporter des modifs directement à votre code simplement en demandant ce que vous voulez en langage naturel du genre :

/edit réécrire ceci pour retourner une liste aplatie à partir d'une matrice 3x3
/edit refactoriser cela en une mise en page flex angulaire sur une seule ligne
/edit définir ici un type pour une liste de listes de dictionnaires

Continue permet aussi de générer des fichiers from scratch, c’est-à-dire de zéro ou de générer des tests unitaires, des commandes Shell ou des recherches sur StackOverflow pour en extraire uniquement le nécessaire.

Continue est compatible avec GPT-4 et GPT-3.5-turbo via l’API OpenAI. Et si vous voulez esquiver OpenAI, vous pouvez toujours la connecter sur un autre LLM en utilisant par exemple LM Studio ou Ollama.

Une fois installé, pour l’activer, il suffit de faire un CMD + M (ou ALT + M).

Amusez-vous bien et codez-moi des trucs de ouf !

ShortGPT – Pour automatiser la création de vidéos pour TikTok et Instagram

Par : Korben

Si vous trainez sur TikTok (pour les jeunes d’esprit) ou encore Instagram (pour les boomers d’esprit), vous êtes sans doute déjà tombé sur des vidéos avec des « facts », c’est à dire des faits historiques, scientifiques ou encore des trucs tirés tout droit de Reddit, qui vous ont captivé avec une petite musique de merde et un gameplay de jeu vidéo quelconque en fond.

Ce genre de format est calibré pour endormir ce qui vous reste de matière grise fondue et vous faire rester sur la vidéo. Là où ça devient drôle, c’est que vous allez pouvoir générer ce genre de format vidéo grâce à ShortGPT. Cet outil open source (décliné également en site payant) supporte de nombreuses langues et peu aller chercher automatiquement des « faits » random ou sur le sujet de votre choix, ainsi que des sujets sur Reddit et compiler tout ça dans une vidéo avec une voix OFF.

Vous pouvez lui demander autant de shorts que vous voulez. Il vous faudra juste une clé API OpenAI, Pexels (pour les images) et pour avoir une voix de qualité, vous pouvez aussi ajouter votre clé ElevenLabs (mais pas obligatoire puisque c’est payant).

Voici techniquement comment c’est gaulé :

Vous avez deux choix pour installer ShortGPT. Si vous êtes du genre à aimer avoir tout sur votre ordinateur, vous pouvez installer les pré-requis localement en suivant la doc du Github. Cependant, si vous êtes comme moi et que vous préférez ne pas vous embêter avec des installations interminables, vous pouvez utiliser Google Colab. C’est gratuit et sans installation.

Evidemment, y’a assez de contenu merdique sur Internet pour pas en rajouter, mais ça peut-être une bonne base de départ, de reprendre ce code, pour le modifier et en faire un outil de génération de vidéos un peu plus sympa et mieux adapté à votre public.

A découvrir ici.

WebDB – Vos bases de données enfin accessibles facilement

Par : Korben

Alexandre, lecteur de Korben.info depuis une bonne dizaine d’années, m’a fait le plaisir de me contacter pour me montrer l’outil qu’il développe depuis maintenant un an. J’ai trouvé ça très cool alors je vais le partager avec vous. Il s’agit d’un IDE totalement open source dédié aux bases de données. Cet outil libre simplifie les interactions que nous avons avec nos bases de données, ce qui rend leur administration et la gestion des données plus intuitives et surtout beaucoup plus facile. Vous allez voir !

Tout d’abord, WebDB simplifie la découverte de serveurs et la connexion à ces derniers, grâce à un système de scan intelligent. Il détecte les ports utilisés pour chaque base de données et permet d’ajouter des hôtes spécifiques à analyser. Cela élimine la corvée de récupérer des mots de passe, car WebDB teste automatiquement des identifiants populaires. Pensez quand même à les changer à un moment pour des questions de sécurité 🙂

En explorant plus profondément WebDB, on découvre que l’exploration de données est beaucoup plus facile et agréable que dans n’importe quel PhpMyAdmin ou autre. En seulement trois clics, on peut comme ça parcourir, mettre à jour ou supprimer des données. Le filtrage des données SQL et NoSQL se fait directement depuis l’explorateur, avec un design optimisé pour les clés étrangères et les ObjectID relationnels. Et ce n’est pas tout : WebDB permet de mettre à jours vos données par lots en utilisant des fichiers JSON. Pratiquement quand vous avez de la quantité à mettre à jour.

Le cœur de l’IDE WebDB réside dans son éditeur de requêtes. Avec de l’autocomplétion pour SQL et les structures spécifiques au serveur, rédiger des requêtes se fait en un clin d’œil. Les requêtes CRUD (create, read, update, and delete) pré-construites sont sauvegardées automatiquement et peuvent être marquées comme favorites.

La modification de colonnes SQL ou de champs NoSQL est également plus intuitive grâce à WebDB. Le logiciel propose tous les types possibles en fonction de la base de données et facilite la modification des colonnes avec des fonctions de casting intelligentes, applicables tant aux bases de données SQL qu’à NoSQL. Cette fonctionnalité permet une grande flexibilité et s’adapte à divers contextes linguistiques.

Voilà… Sinon, WebDB gère également des éléments complexes comme les procédures SQL, les fonctions, et les types de données spécifiques. Il prend en charge les validateurs MongoDB et les contraintes SQL, offrant une compréhension complète de la base de données.

La gestion des relations SQL dans WebDB est également totalement transparente grâce à une vue intuitive. L’outil déduit les relations pour aider à générer des données étrangères et à comprendre la structure de la base de données avec une facilité déconcertante. En plus, le versioning de base de données est une autre caractéristique clé de WebDB. Suivant les modifications et intégrant Git, il permet de revenir facilement à n’importe quelle version antérieure.

L’intégration de ChatGPT dans WebDB apporte également un peu de « cerveau » à l’outil. ChatGPT offre des réponses précises en fonction de la structure de la base de données. Cette fusion entre intelligence artificielle et gestion de données ouvre de nouvelles perspectives pour les utilisateurs, surtout pour les débutants.

Le module ERD de WebDB permet également de visualiser la structure et les relations de la base de données de manière moderne et intuitive. L’exportation de ces diagrammes au format PNG ou SVG se fait en un clic, ce qui vous permettra d’illustrer vos préz ou sites web / documentation super facilement.

Enfin, l’importation et l’exportation de données avec WebDB sont simplifiées, que ce soit au format natif ou JSON, garantissant une compatibilité et des performances optimales.

Vous l’aurez compris, Alexandre a bien bossé et WebDB se présente vraiment comme une solution complète et avant-gardiste pour la gestion des bases de données, accessible et efficace pour tous, que vous soyez total noob ou super expert en base de données.

Je vous invite à tester ça. C’est auto-hébergeable, ça tourne dans Docker, et y’a même une démo en ligne.

PR-Agent – Pour automatiser l’analyse des Pull Requests et bien d’autres choses sur vos projets Github, Gitlab…etc

Par : Korben

Si vous contribuez à des projets open source sur Github, Gitlab ou encore Bitbucket et que vous devez vous palucher tous les jours des tonnes d’issues, de questions et des pull requests, voici un outil propulsé avec de l’IA qui devrait bien vous rendre service.

Cet outil c’est PR-Agent et c’est développé par CodiumAI. Il s’agit d’un agent IA utilisant GPT-4 capable de vous soulager en générant des descriptions de pull request claires et concises de manière automatique, de faire de la revue automatique de code, ou tout simplement répondre aux questions que les gens posent et reposent sans cesse.

PR-Agent est également capable, un peu à la manière d’un Github Copilot, de faire des suggestions pour améliorer le code qui se trouve sur votre dépôt, et bien sûr d’écrire les commits si besoin.

Pour cela, une fois que PR-Agent est lancé, il suffit d’employer les commandes suivantes :

  • Description automatique (/describe) : Génère automatiquement une description du PR (Pull Request) – titre, type, résumé, description du code et étiquettes.
  • Auto Review (/review) : Feedback ajustable sur le thème principal du PR, son type, les tests pertinents, les problèmes de sécurité, le score, et diverses suggestions pour le contenu du PR.
  • Réponse aux questions (/ask …) : Réponse à des questions en texte libre sur le PR.
  • Suggestions de code (/improve) : Suggestions de code committable pour améliorer le PR.
  • Mise à jour du Changelog (/update_changelog) : Mise à jour automatique du fichier CHANGELOG.md avec les changements du PR.
  • Trouver un problème similaire (/similar_issue) : Récupère et présente automatiquement les problèmes similaires.
  • Ajouter de la documentation (/add_docs) : Ajoute automatiquement de la documentation aux fonctions/classes non documentées dans le PR.
  • Générer des étiquettes personnalisées (/generate_labels) : Suggère automatiquement des étiquettes personnalisées basées sur les changements de code du PR.

Bref, gros, gros gain de temps. Si vous voulez le tester avant de le déployer sur vos dépôts, c’est possible sur le dépôt public de Codium AI en appelant l’agent comme ceci : @CodiumAI-Agent /COMMAND

À vous de jouer maintenant !

PR Agent est disponible ici et ça peut s’installer directement via Docker.

Plane – Une bonne alternative à JIRA, Asana ou Linear pour mener vos projets à bien !

Par : Korben

Vous êtes vous déjà demandé pourquoi tous vos projets partaient en couille ?

C’est probablement parce que vous n’avez pas encore trouvé le bon outil pour les planifier ! C’est pourquoi aujourd’hui, je tiens à vous présenter un projet open source à autohéberger qui s’appelle Plane !

Oui, comme l’avion. Bien qu’encore en développement, cet outil, est déjà suffisamment cool pour vous donner envie de l’utiliser afin de suivre vos tâches, vos sprints et autres feuilles de route.

L’interface est plutôt agréable et vous permettra d’afficher les projets, d’y ajouter des pièces jointes, de créer des workflows maison, mais également d’importer toutes les tâches directement depuis d’autres outils comme Github ou Jira. Et bien sûr recevoir des notifs dans Slack, Discord et vos propres outils puisqu’il y a même une API.

Vous pouvez également utiliser des cycles pour planifier des sprints, diviser les projets en modules et créer des filtres personnalisés pour trier les informations comme bon vous semble. Plane offre également la possibilité de faire de la documentation directement au fur et à mesure du développement de votre projet et tout s’intègre parfaitement à Github pour conserver à la fois votre code et vos issues synchronisées avec Plane.

Vous verrez, Plane est assez plaisant à prendre en main puisqu’il y a même Command K, un genre d’interface rapide à Spotlight pour chercher des tâches, créer de nouvelles actions….etc. sans oublier un petit bloc-notes propulsé à base de ChatGPT pour les grosses feignasses qui n’aiment pas écrire.

Si ça vous branche, il n’y a plus qu’à découvrir Plane et kiffer la vie de projets ! Pour apprendre à l’installer avec Docker, c’est par ici.

DietPi – Une Debian ultra légère pour Raspberry Pi, Odroid, PINE64…etc optimisée et personnalisable

Par : Korben

Si vous aimez les ordinateurs un peu légers, type Raspberry Pi, Odroid et j’en passe, alors DietPi est fait pour vous. Il s’agit d’un système d’exploitation basé sur une Debian allégée dans le but de consommer le moins de CPU et de RAM possible.

Voici un tableau qui compare DietPi avec Raspberry Pi OS Lite (64 bits). On peut y voir que niveau RAM, on économise 58%, sur le CPU c’est 39% en moyenne et en matière d’espace disque, c’est plus léger de 41%. Évidemment, cela se ressent sur la rapidité du boot, puisque c’est plus rapide à démarrer de 73%.

Avec DietPi, vous bénéficiez de paramètres personnalisables pour configurer votre système selon vos besoins, et vous pouvez facilement gérer les priorités de vos logiciels. De plus, le système prend en charge les mises à jour automatiques et l’automatisation de l’installation grâce à un dietpi.txt dans lequel vous pouvez spécifier votre config (genre les accès wifi, l’activation du serveur ssh…etc).

DietPi est également livré avec un utilitaire de Backup ce qui vous permettra très facilement de sauvegarder et de restaurer votre installation.

Comme je le disais, DietPi est compatible avec une variété d’ordinateurs, notamment les modèles Raspberry Pi, Odroid, PINE A64 et bien d’autres.

Les machines virtuelles telles que Hyper-V, Virtualbox, Vmware, Parallels, UTM et Proxmox sont également prises en charge par DietPi, ce qui vous permet de l’utiliser lorsque les performances des micro-ordis sont insuffisantes. Ça peut même tourner sur un bon vieux PC x86/64.

Pour en savoir plus sur DietPi et comment l’utiliser, je vous invite à consulter le site officiel ici. Vous y trouverez des informations détaillées sur les différentes fonctionnalités offertes par DietPi, ainsi que des conseils pour bien démarrer avec ce système d’exploitation léger et optimisé.

En résumé, DietPi est un choix fantastique pour ceux qui souhaitent tirer le meilleur parti de leur matériel, tout en minimisant la consommation de ressources. Qu’il s’agisse de créer un serveur NAS, d’expérimenter avec des projets IoT ou simplement de vous familiariser avec le monde des SBC (Single Board Computer), DietPi vous permettra de vous lancer rapidement et en toute simplicité.

Tinfoleak – Un outil OSINT / SOCMINT pour Twitter (X)

Par : Korben

Twitter, ou devrais-je dire X est un réseau social qui permet d’en apprendre beaucoup sur les gens qui l’utilisent. Mais avec autant de données, c’est difficile de faire des analyses correctes sans aucun outil.

Heureusement, il y a Tinfoleak, un outil d’OSINT / SOCMINT open source capable d’automatiser l’extraction d’informations à partir de X et de faciliter l’analyse qui en découle.

Ainsi, à partir d’un identifiant utilisation, de coordonnées géographiques ou d’un simple mot clé, Tinfoleak est capable d’extraire l’ensemble des informations depuis Twitter (pour peu que vous ayez une clé Oauth) et de vous cracher de la donnée structurée.

Tinfoleak excelle donc dans l’extraction d’une large gamme d’informations de Twitter, notamment :

  • Informations sur le compte : ID utilisateur, nom d’utilisateur, description du profil, emplacement et date de création
  • Activité des utilisateurs : Tweets, retweets, likes, abonnements et abonnés
  • Mesures de protection : Tweets protégés, comptes vérifiés et paramètres de géolocalisation
  • Relations entre utilisateurs : Abonnés, amis, mentions et réseaux de retweets
  • Applications sources : Dispositifs et plateformes utilisés pour accéder à Twitter
  • Fréquence d’utilisation : Fréquence de publication de tweets, modèles d’activité quotidienne et tendances d’utilisation
  • Hashtags et mentions : Analyse des sujets tendance, des hashtags pertinents et des utilisateurs engagés
  • Analyse du texte : Analyse du sentiment, fréquence des mots et thèmes clés
  • Médias et métadonnées : Analyse des médias intégrés, des images et du contenu vidéo
  • Emplacements des utilisateurs : Lieux visités, itinéraires et principaux emplacements
  • Réseaux sociaux et identités numériques : Liens vers d’autres profils de médias sociaux et présence en ligne
  • Utilisateurs géolocalisés et utilisateurs tagués : Identification des utilisateurs par emplacement et des individus tagués
  • Abonnés et amis : Analyse des réseaux d’abonnés et d’amis, des relations et du comportement
  • Listes et collections : Enquête sur les listes et collections sélectionnées et l’adhésion
  • Conversations : Compréhension des discussions en cours, des interactions et des dynamiques de groupe

Si vous utilisez Kali ou ce genre de distrib Linux spécialisée en sécurité, vous le connaissez peut-être puisque c’est inclu dedans.

Sinon, pour l’installer, ouvrez un terminal et installez tout ce qu’il faut :

sudo apt install python-pip python-dev build-essential python2.7-dev python-pyexiv2 python-openssl
sudo pip install --upgrade pip 
sudo pip install --upgrade virtualenv 
sudo pip install --upgrade tweepy
sudo pip install --upgrade pillow
sudo pip install --upgrade exifread
sudo pip install --upgrade jinja2 
sudo pip install --upgrade oauth2

Ainsi, vous pourrez mieux comprendre les tendances sociales et l’opinion publique en analysant les hashtags populaires, les mentions…etc. Vous pourrez également identifier les influenceurs cl&s dans les domaines que vous ciblez, voire évaluer les menaces en fonction des mentions de sujets sensibles. Et si c’est plutôt la guerre commerciale qui vous intéresse, vous pourrez analyser la concurrence.

Bref, plein d’usages très cool pour peu que vous preniez le temps de vous y intéresser…

Open Interpreter – ChatGPT pour exécuter du code en local

Par : Korben

Si vous êtes un peu barbu et que vous kiffez l’IA, vous allez adorer Open Interpreter. Cet outil je l’utilise depuis des mois et des mois, et je n’avais jamais pris le temps d’en faire un post.

Il s’agit d’une implémentation open-source et locale qui permet au LLM (locale ou d’OpenAI – ChatGPT) d’exécuter du code (Python, JavaScript, Shell, etc.) directement sur votre ordinateur. L’idée c’est d’aller encore plus loin que de simplement discuter avec l’IA.

Dans le cas d’Open Interpréter, elle est capable de produire du code, de l’exécuter, de récupérer le résultat de cette exécution et éventuellement de s’auto-corriger avant de passer à la suite.

Pour l’installer, c’est simple. Il vous faudra Python 3.10 ou 3.11. Dans votre terminal, tapez :

pip install open-interpreter

Puis lancez l’outil avec la commande :

interpreter

Et concrètement, qu’est ce qu’on peut faire avec ?

Et bien le mieux c’est que le logiciel se présente lui-même, non ?

Pour résumer, il peut donc exécuter du code, installer des packages, gérer ses erreurs, utiliser de l’AppleScript pour interagir avec l’ensemble de macOS (genre lire vos emails, changer de fond d’écran…) etc.

Dans mon cas, je l’utilise avec GPT-4 mais vous pouvez aussi le lancer avec un LLM local (notamment via le serveur intégré à LM Studio) :

interpreter --local

Ou se connecter à d’autres modèles en ligne que GPT-4 :

interpreter --model gpt-3.5-turbo
interpreter --model claude-2
interpreter --model command-nightly

Pensez bien à exporter votre clé API sur votre système (vous pouvez caler ça dans votre .zshrc ou .bashrc) :

export OPENAI_API_KEY=XXXXXXXXXXXXXXXXXXXXXXXXXX

Au-delà du chat interactif proposé par l’outil interpreter, il y a également un paquet en Python qui vous donne encore plus de contrôle puisque vous pouvez l’appeler dans vos scripts.

import interpreter

interpreter.chat("Plot AAPL and META's normalized stock prices") # Executes a single command
interpreter.chat() # Starts an interactive chat
  • Ainsi, utilisez interpreter pour un chat interactif
  • Utilisez interpreter.chat() pour un chat programmatique
  • Utilisez interpreter.reset() pour réinitialiser la conversation
  • Puis sauvegardez et chargez des discussions avec interpreter.load(messages)

Je vous renvoie vers la documentation sur la page Github si évidemment vous voulez creuser un peu plus ce outil merveilleux.

Maintenant pour l’avoir utilisé énormément, ça rend pas mal de service, surtout pour tout ce qui se passe en ligne de commande. C’est un bon assistant à l’usage du Shell. Pour ce qui est génération de code, il faut souvent repasser derrière lui, mais rien de dramatique non plus. Bref, ce truc couplé à votre cerveau et c’est le duo parfait pour avancer dans la vie.

Et en cadeau, offert pour vous par les Patreons qui me soutiennent, une vidéo tuto sur Open Interpreter.

View Rendered Source – Une extension Chrome pour explorer les entrailles des pages web

Par : Korben

La curiosité est une des meilleures qualités d’un bon développeur web. Je dirais même que c’est une qualité essentielle pour quiconque veut comprendre les arcanes du web.

Aujourd’hui, je vais vous parler d’un outil qui va aiguiser cette curiosité et vous faire explorer les entrailles des sites web comme jamais auparavant. J’ai nommé: « View Rendered Source« .

« View Rendered Source », c’est une extension Chrome légère qui vous montre comment le navigateur a construit la page HTML d’origine en un Document Object Model (DOM) fonctionnel. Et non pas uniquement le code renvoyé par le serveur que vous auriez avec les outils de dev classique de Chrome.

Si, comme moi, vous aimez savoir comment les choses fonctionnent, vous allez adorer ce truc !

Pour les non-initiés, le DOM est comme la colonne vertébrale d’une page web. Il s’agit d’une représentation structurée de la page qui permet à JavaScript de la modifier à la volée. C’est comme le plan d’une maison que l’architecte utilise pour savoir où placer les murs, les fenêtres et les portes.

L’extension « View Rendered Source » vous permet de voir ce plan, mais pas seulement. Elle vous montre aussi comment il a été modifié en temps réel par JavaScript.

L’extension se divise en trois sections : le code source brut, la page rendue après interprétation en DOM, et la différence entre les deux. L’extension offre également une solution pour émuler le code source à destination des appareils mobiles.

Si ça vous dit de tester, allez sur le Chrome Web Store et installez « View Rendered Source ».

Protégez votre application Android des curieux grâce à la lib ARTful

Par : Korben

Aujourd’hui, je vous présente ARTful, une bibliothèque Android native pour modifier l’Android Runtime (ART) sur Android 13 et 14. Ça va faire plaisir aux développeurs qui veulent mettre des bâtons dans les roues des curieux qui aiment jouer avec les apps Android en les analysant d’un peu trop près.

La magie de cette bibliothèque réside dans sa capacité à changer dynamiquement l’implémentation de n’importe quelle méthode statique, éliminant l’utilisation de références en clair et entravant l’ingénierie inverse.

Pour vous donner un aperçu concret de ce que ARTful peut faire pour vous, imaginez une application où les développeurs veulent éviter que les pirates ne mettent le nez dans leur code. Grâce à ARTful, ils peuvent modifier dynamiquement les méthodes statiques pour les rendre plus résistantes à l’ingénierie inverse. Et voilà, mission accomplie !

Et pour que tout le monde puisse profiter des bienfaits de cette bibliothèque, les concepteurs ont choisi de la rendre open source ici : Github ARTful.

Eclatez-vous bien !

Découvrez Gerry, l’enregistreur d’écran open-source pour Mac

Par : Korben

Y’a rien de plus parlant quand on crée du contenu, qu’un petit bout de vidéo ou qu’une image animée (GIF) pour illustrer un tuto. Sauf que la flemme, alors souvent on se content de captures écrans rapides.

Et bien, chers lecteurs, ça va changer !!

Je vous présente Gerry, un enregistreur d’écran open-source pour Mac, qui peut vous aider à capturer ce qui se passe sur votre Mac en un clin d’œil !

Que vous soyez un gamer souhaitant partager ses exploits en vidéo, ou un professionnel de l’informatique cherchant à créer des tutoriels, à base GIFs animés, pour aider les autres, Gerry est votre meilleur allié.

Parmi les principales fonctionnalités de Gerry, on trouve un enregistrement d’écran simple (full screen), le recadrage et le rognage, l’exportation en GIF et MP4, ainsi que la personnalisation de la résolution et du nombre d’images par secondes. Ces fonctionnalités vous permettront de capturer des séquences vidéo de haute qualité sans avoir besoin de compétences techniques particulières.

Voici un exemple de GIF capturé sur mon ordi :

Et comme Gerry est conçu pour être rapide et facile à utiliser, vous pourrez vous concentrer sur l’essentiel : Créer des contenus super quali !

Un des avantages de Gerry, c’est qu’il est très simple à utiliser. Pour commencer à enregistrer votre écran, il vous suffit de télécharger l’application sur leur site officiel. Une fois que vous l’avez installée, il faut sélectionner la région de l’écran que vous souhaitez enregistrer, choisir la qualité de rendu et de cliquer sur le bouton « Record » ou d’utiliser le raccourci clavier CMD + R.

Voilà, c’est aussi simple que cela !

Ensuite, lorsque vous aurez terminé, vous pourrez exporter vos enregistrements dans les formats de fichiers les plus courants, comme le GIF animé et le MP4.

Je vous encourage à vous rendre sur le site officiel de Gerry pour en savoir plus sur cette application fantastique et la télécharger. C’est open source, c’est gratuit et ça rend bien service !

Nuclear – Un player musical multi-source

Par : Korben

À cause de la guerre en Ukraine, de Bruno Le Maire et de l’inflation galopante, tout le monde, n’a malheureusement, pas les moyens de s’offrir un abonnement Spotify à 10,99 euros par mois. Mais plutôt que de se galérer avec des moyens illégaux pour télécharger de la musique, je vous propose de tester Nuclear.

Ce player au design proche de Spotify et similaire à mps-youtube vous permet de chercher des morceaux sur différentes sources telles que Bandcamp, Soundcloud, Youtube, de voir les pochettes des albums, d’écouter la musique, de faire des playlists et même de la télécharger dans certains cas (quand c’est sur Youtube surtout).

Nuclear est dispo pour Linux, macOS et Windows, et propose également d’avoir les paroles des chansons, un égalisateur pour régler le son, et même un visualiseur pour se faire un petit moment psychédélique.

Bref, c’est le feu parce qu’on y trouve tous les artistes, les albums, des plus connus aux plus obscurs. Nuclear propose également des playlists du moment (comme sur Spotify), des artistes similaires et même un mode « folie » pour se laisser surprendre par les musiques.

Vous pouvez le télécharger ici.

Merci Letsar !

(Article posté initialement le 22/03/2017 – Mis à jour le 27/11/2023)

3D to Photo – Une révolution dans la création d’images produit

Par : Korben

Et yo !

Aujourd’hui je vais vous parler d’un outil IA incroyable qui risque de bouleverser votre manière de créer des images pour vos produits.

Adieu les contraintes de studios photo traditionnels, des problèmes d’éclairage et j’en passe…

3D to Photo c’est un logiciel open source développé par Dabble, qui combine la puissance de ThreeJS et Stable Diffusion pour créer un studio photo virtuel dédié à la photographie de produits.

Cela vous permet de charger un modèle 3D dans votre navigateur et de le photographier virtuellement dans n’importe quel type de scène, sans avoir besoin de vous soucier de l’éclairage ou de la prise de vue. En gros, 3D to Photo vous offre la possibilité de mettre en scène vos produits de manière réaliste et professionnelle directement depuis votre PC et cela grâce à Stable Diffusion.

Je vous invite à regarder la démo pour comprendre la puissance du truc :

Alors, comment ça marche ?

Et bien c’est très simple : vous chargez un modèle 3D exemple (fichier .glb), vous le glissez dans la zone d’upload de 3D to Photo, vous orientez le modèle 3D selon vos désirs, puis vous saisissez une instruction pour décrire le décor et y’a plus qu’à cliquer sur « Generate Images ».

Et voilà ! Vous obtiendrez alors une image réaliste et d’excellente qualité de votre produit, prête à être utilisée sur votre site web, dans un catalogue ou dans votre portfolio. Trop incrrr !

La doc et le code source sont dispo sur Github.

LM Studio – Pour faire tourner des LLMs en local et les utiliser directement dans votre code

Par : Korben

Avec tout ce qui se passe côté OpenAI en ce moment, je suis en train de chercher des alternatives libres pour re-brancher sur mes scripts existants qui ne demandent pas trop de réécriture. C’est simplement un principe de précaution pour ne pas être pris au dépourvu si la qualité de service baisse côté ChatGPT.

Et pour ça, j’ai besoin d’un modèle de langage et d’un outil qui permette de transformer ce modèle en API que je peux appeler dans mon code.

Pour l’instant, tout ceci est en phase de R&D mais je me suis dit qu’un petit retour, ça vous ferait plaisir. Je suis donc parti sur un modèle OpenChat censé être aussi performant qu’un ChatGPT 3.5. Jusque là rien de compliqué.

J’ai donc fait tourner ce modèle dans llamacpp sans souci en mode discussion. Puis je suis parti en quête d’un bridge pour avoir des API. Je suis donc tombé sur Llama-cpp-python avec son option Server qui malheureusement n’a jamais voulu correctement fonctionner chez moi pour de sombres incompatibilités x64 / ARM64 même dans pyenv. Bref…

N’ayant pas le temps d’y passer des semaines, on m’a ensuite gentiment rappelé durant mon live Twitch, que je pouvais faire ça avec Ollama, ce que j’avais complètement zappé alors que j’ai fait une vidéo pour les Patreons à ce sujet (arf).

Puis Thoxy et LePopeye, lecteurs de Korben.info, m’ont recommandé un outil baptisé LM Studio dont je vais vous parler dans cet article.

LM Studio est un outil fonctionnant sous macOS, Windows et Linux qui permet très simplement de télécharger des LLMs (Large Language Models) et de les faire tourner en local. Ainsi vous pouvez discuter avec ces modèles via un chat comme vous le feriez avec ChatGPT.

Mais ce n’est pas tout puisque l’outil offre des tas de possibilités de réglages (y compris du support pour les Mac Silicon) pour optimiser le modèle. Et bien sûr, la fonctionnalité qui m’a le plus intéressé, c’est la possibilité de faire tourner un serveur local qui sert une API identique à celle de ChatGPT.

Cela permet, sans énormément de modifs dans votre code, de basculer des services d’OpenAI à une IA locale de manière transparente ou presque pour peut que vous utilisiez la lib OpenAI 0.28.1

pip install openai==0.28.1

Voici un code d’exemple qui montre comment l’appeler en Python :

import os
import openai

openai.api_base = "http://localhost:1234/v1" 
openai.api_key = "" 

completion = openai.ChatCompletion.create(
  model="local-model",
  messages=[
    {"role": "system", "content": "Always answer in rhymes."},
    {"role": "user", "content": "Introduce yourself."}
  ]
)

print(completion.choices[0].message)

Pas besoin de clé API donc. Et pas besoin de casser tout votre code. Suffit de migrer vers LM Studio. Puis c’est gratuit 🙂

Bref, j’ai fait mes tests comme ça et malheureusement pour le moment, c’est pas super concluant. L’outil répond correctement en version « chat » mais son paramétrage un peu différent en version serveur. Donc faut encore que je gratte un peu pour trouver le dressage optimale de mon IA. Mais j’y suis presque.

Si ça vous branche de tester LM Studio, c’est par ici que ça se passe.

Warp – Du bon transfert de fichiers rapide et sécurisé

Par : Korben

Avez-vous déjà entendu parler de Warp ?

Alors non, non, non, ce n’est pas un logiciel pour voyager dans le temps (quoi que, ce serait sympa…), mais je parie qu’il va vous faire plaisir !

Warp est un logiciel open-source comme la plupart des softs dont je parle ici, et sa mission est d’envoyer des fichiers en toute sécurité à vos amis, au travers d’Internet ou d’un réseau local, simplement en échangeant un code composé de mots.

Trêve de bla-bla, voici les principales fonctionnalités de Warp :

  • Transfert de fichiers entre plusieurs appareils
  • Chaque échange est chiffré
  • Possibilité de transfert direct sur le réseau local, quand c’est possible
  • Le support d’un QR Code pour récupérer le code
  • Et une compatibilité avec le client de ligne de commande Magic Wormhole et toutes les autres applications compatibles

Ce qui distingue Warp, vous l’aurez compris, c’est son protocole Magic Wormhole. Ce protocole détermine la meilleure méthode de transfert, y compris via le réseau local et vous garantit que vos fichiers sont transférés rapidement et en toute sécurité, quelle que soit la taille des fichiers et l’emplacement des machines.

Warp est dispo sous Windows et Linux (en flatpak), et vous trouverez toutes les infos à son sujet ici.

Cerebro – Le launcher open source qui vous fera gagner du temps

Par : Korben

En bon enfant du capitalisme, vous courez sans cesse après la moindre seconde. Tout est optimisé dans votre vie, y compris personnelle. Vous ne perdez pas de temps, car le temps, c’est de l’argent. Bref, vous êtes plus qu’En Marche. Vous êtes en stress !

Alors pour vous soulager un peu et remettre un peu d’huile dans les rouages de votre usage quotidien de l’ordinateur, je vous invite aujourd’hui à tester Cerebro. Il s’agit d’un launcher open source que vous pouvez télécharger gratuitement ici pour Windows, Mac et Linux.

Comme n’importe quel outil du genre, ça permet de trouver n’importe quels fichier, programme ou truc qui trainent sur votre disque dur…

Mais surtout, Cerebro dispose d’une chiée de plugins qui vont vous permettre d’augmenter vos super pouvoirs. Ainsi, vous pourrez directement trouver des torrents, explorer des cartes, visualiser directement vos photos, faire des traductions, naviguer dans un Google Drive, débusquer des APK via Aptoide, lancer des recherches sur Spotify, YouTube, Github…etc, convertir des valeurs cryptomonétaires…etc.

Vous n’aurez donc pas à vous soucier de jongler avec plusieurs applications ou onglets de navigateur pour accomplir vos tâches quotidiennes.

Cerebro-app est gratuit, open source et vous pouvez le télécharger ici !

Dites adieu à Postman grâce à Bruno qui vous aidera à concevoir les meilleurs API de l’univers

Par : Korben

Amis du côté obscur du dev, vous avez sûrement déjà utilisé Postman pour tester vos APIs. Et je ne vous en veux pas car c’est un outil vraiment puissant qui a su trouver sa place dans le cœur de beaucoup de développeurs.

Cependant, vous savez aussi à quel point il peut être un peu lourdingue, surtout lorsqu’il s’agit de l’utiliser pour collaborer sur un gros projet.

Heureusement, j’ai quelque chose de plutôt cool à partager avec vous : Bruno. Et contrairement au ministre de l’économie du même prénom, celui-ci vous sera utile puisqu’il s’agit d’un projet open source qui promet de révolutionner le monde des clients API.

Pour bien saisir l’intérêt de Bruno, imaginez un outil qui vous permet de stocker vos collections API pour ensuite pouvoir les conserver et les tester directement depuis votre dépôt de code source, grâce au langage Bru. Vous pouvez ainsi profiter d’un contrôle de version simple et dire adieu aux espaces de travail encombrants. Génial pour bosser en collaboration avec vos collègues sans prise de tête.

Pour commencer avec Bruno, il suffit d’installer l’outil en allant le télécharger pour Windows, macOS et Linux sur le site officiel. Ensuite vous n’avez plus qu’à y décrire toute l’API que vous êtes en train de concevoir. Je vous invite à regarder cette vidéo pour bien comprendre comment ça fonctionne :

Bruno est également disponible en ligne de commande. Vous pouvez l’installer en utilisant votre gestionnaire de paquets Node préféré, comme NPM :

npm install -g @usebruno/cli

Ensuite, avec Bruno CLI en main, vous pouvez exécuter des collections entières d’API via des commandes simples directement depuis votre terminal. Cela facilite grandement le processus de test et d’automatisation des API.

Pour utiliser la CLI, commencez par accéder au répertoire contenant votre collection d’API et exécutez la commande suivante :

bru run

Vous pouvez également exécuter une requête unique comme ceci :

bru run request.bru

Ou bien, si vous voulez exécuter toutes les requêtes d’un dossier, utilisez cette commande :

bru run folder

Pour spécifier un environnement, ajoutez simplement l’option --env :

bru run --env env_name

Notez que Bruno existe également sous la forme d’une extension pour Visual Studio Code.

En somme, Bruno est une alternative légère et polyvalente aux clients API traditionnels, qui propose une approche plus simple et plus efficace pour travailler avec des collections API. Avec son intégration transparente au dépôt de code source et à la ligne de commande, Bruno facilite le travail en équipe et rend le développement d’API agréable et sans tracas.

De quoi dire adieu à Postman, non ?

Doctor Dignity – L’IA médicale open-source

Par : Korben

En France, on a un gros souci niveau santé. Dès qu’on doit voir un spécialiste, que ce soit un ophtalmo, un kiné, un dermato, passer une radio ou que sais-je, il y en a pour des mois et des mois d’attente, parfois une année. Si bien qu’au moment de passer l’examen, on est soit déjà guéri, soit en phase terminale.

Bref, c’est désespérant et ce n’est pas prêt de s’arranger.

Alors que peut-être qu’à terme, l’IA pourra nous aider un peu à soulager notre peine, notamment grâce à ce projet nommé Doctor Dignity qui est un LLM (un modèle de langage de grande capacité), open-source et surtout capable de réussir l’examen de licence médicale américain.

Incroyable, non ?

Ce logiciel utilise Llama2 de Meta, fine-tuné avec du lexique médical, et peut être utilisé sur iOS, Android ou en version Web. L’avantage, c’est que ce docteur de poche est gratuit, accessible instantanément et capable de garder le secret médical. Par contre, je ne sais pas où en sera le projet au moment de la publication de cet article, mais on est encore loin d’un truc facilement utilisable par le commun des mortels.

Et évidemment, on est encore loin d’un truc auquel vraiment confier sa santé ou sa vie (quoique quand on se fait soigner par certains internes aux urgences, c’est pas pire), mais vu que Doctor Dignity est capable de passer l’examen de licence médicale américain, on se dit qu’il connait quand même un peu son sujet. Et surtout, il peut apprendre grâce aux retours que lui font les humains en évaluant ses réponses.

Voilà, ce n’est que le début du « médecin virtuel« , peut-être de quoi diagnostiquer 90% des petits bobos habituels, pour ainsi soulager les vrais toubibs. Ou les remplacer s’ils sont moins bons que l’IA ^^. Allez savoir…

En tout cas, le fait d’avoir ce genre d’application accessible à tout moment pour n’importe quelle question médicale viendra soulager les plus hypocondriaques d’entre nous.

Découvrez et expérimentez les filtres audio / vidéo de FFMPEG

Par : Korben

Vous êtes-vous déjà retrouvé à jongler avec une multitude de formats vidéo et audio, à vous demander comment les manipuler / modifier sans devenir complètement zinzin ? Et bien, aujourd’hui, je vais vous parler d’une plateforme qui va vous faciliter la vie : FFmpeg Explorer.

FFmpeg, pour ceux qui ne le savent pas encore, est un logiciel open source incroyablement puissant qui vous permet de manipuler des fichiers vidéo et audio de toutes sortes. Vous pouvez convertir, extraire, éditer et même diffuser en direct avec FFmpeg. Et bien sûr, la cerise sur le gâteau, c’est que c’est totalement gratuit !

Mais, comment ça marche, me direz-vous ? Et bien, FFmpeg est un outil en ligne de commande, ce qui signifie que vous devrez taper des lignes remplies de paramètres chelous pour réaliser ces merveilles. Mais ne vous inquiétez pas ! Ce n’est pas aussi effrayant que ça en a l’air, surtout si vous avez le bon guide.

C’est là que FFmpeg Explorer entre en jeu. Ce site se présente comme le guide ultime pour vous familiariser avec tous les filtres vidéo et audio de l’outil et ainsi en tirer le meilleur parti.

Via une interface très facile à comprendre, vous pouvez ajouter avec votre souris, plusieurs filtres bout à bout et voir le résultat sur la vidéo de preview. Cela vous permettra ensuite de récupérer la bonne ligne de commande qui va bien pour l’intégrer dans vos process ou la lancer sur votre ordinateur.

Chaque filtre présenté dispose d’une petite explication et surtout d’un tas de paramètres réglables directement sur le site en mode clickodrome. Comme ça, plus d’excuses pour automatiser vos traitements vidéos et encore perdre du temps dans Final Cut ou Adobe Premiere.

C’est open source et vous pouvez également l’installer sur votre propre serveur / machine si ça vous saoule de passer par la démo en ligne.

À vous de jouer maintenant !

Seal – L’outil ultime pour télécharger vidéos et audios sur Android

Par : Korben

En cette belle matinée ensoleillée (en vrai l’article est programmé et je n’ai aucune idée de la météo du jour, mais bon, on va partir du principe qu’il fait beau), j’aimerai vous présente un trésor pour les amateurs de vidéos et de musique (tout le monde donc…). Cela s’appelle Seal.

Que ce soit pour emporter votre playlist préférée en vacances loin de tout accès à Internet ou pour savourer un podcast lors de vos trajets quotidiens, Seal vous facilite la vie sous Android en vous offrant une solution tout-en-un.

Laissez-moi vous donner quelques détails sur les fonctionnalités de ce merveilleux logiciel libre et gratuit.

Tout d’abord, il permet de télécharger des vidéos et de l’audio à partir de toutes les plateformes les plus connues. Que vous vouliez enregistrer cette vidéo virale de chatons sur votre téléphone pour la montrer à vos amis plus tard, ou que vous ayez besoin de cette conférence masterclass pour votre prochain projet, Seal vous aidera à récupérer tout ça.

Ensuite, Seal organise vos fichiers téléchargés, en intégrant des métadonnées pour vous aider à garder tout en ordre. Fini les fichiers audio avec des titres étranges et imprononçables, ou les vidéos sans vignette qui rendent la navigation dans votre galerie si pénible.

Et s’il y a une playlist complète que vous souhaitez télécharger pour votre prochain road trip, pani problème ! Seal vous permet de la télécharger d’un seul coup, vous faisant gagner un temps précieux.

Et pour tous ceux qui aiment regarder des films ou des vidéos en langues étrangères, Seal vous permet d’ajouter des sous-titres à vos vidéos téléchargées, pour que vous puissiez profiter de votre contenu sans souci de compréhension.

L’outil dispose également d’une interface utilisateur conviviale qui rendra votre expérience de téléchargement fluide et agréable.

Vous pouvez télécharger Seal sur GitHub et F-Droid.

Téléchargez vos vidéos facilement sous Linux avec Parabolic

Par : Korben

Ah, Internet… Cet endroit merveilleux où l’on peut trouver des tonnes de vidéos instructives, divertissantes et émouvantes comme sur mon Youtube ou mon TikTok. Mais parfois, on aimerait bien pouvoir les télécharger pour les regarder plus tard genre dans les transports quand ça capte pas trop ou pendant la pause toilettes au taf ?

Eh bien, mes chers lecteurs, aujourd’hui, je vais vous présenter un outil merveilleux qui va vous faciliter la vie : Parabolic !

Parabolic est un logiciel open-source qui vous permet de télécharger des vidéos depuis de nombreux sites, en conservant les métadonnées et les sous-titres. Comme c’est une interface graphique pour yt-dlp, vous pouvez télécharger ces vidéos en plusieurs formats tels que mp4, webm, mp3, opus, flac et wav. Cerise sur le gâteau, il autorise les téléchargements simultanés et respecte le Code de conduite GNOME.

Evidemment, assurez-vous de respecter les droits d’auteur et de ne pas enfreindre les règles des sites Web concernés 😗 .

Maintenant, passons aux choses sérieuses : comment utiliser Parabolic ? Tout d’abord, rendez-vous sur le dépôt GitHub du logiciel en cliquant sur ce lien : Parabolic GitHub.

Une fois que vous êtes sur la page GitHub, il vous suffit de cliquer sur les liens flatpak ou snap pour installer la bestiole. Maintenant que c’est fait, il est temps de découvrir comment l’utiliser.

Pour télécharger une vidéo, ouvrez simplement le logiciel et cliquez sur le bouton « Add Download ». Et Parabolic se mettra au travail et téléchargera la vidéo pour vous.

Parabolic offre également d’autres options intéressantes, comme la possibilité de choisir la qualité de la vidéo ou de télécharger des sous-titres.

Voilà ! Vous avez maintenant un outil puissant pour télécharger des vidéos depuis de nombreux sites Web.

RAGstack – Proposez à vos collaborateurs de discuter avec vos documents de manière privée

Par : Korben

La technologie évolue constamment et dans le monde de l’IA, les choses deviennent de plus en plus intéressantes. Aujourd’hui, je vais donc vous causer d’un projet qui est non seulement intéressant, mais aussi très utile : RAGstack.

L’idée est simple et permet de déployer une alternative privée à ChatGPT sur votre VPC (Virtual Private Cloud – Votre réseau cloud privé virtuel) et offre d’explorer les modèles LLM open-source tels que Llama 2, Falcon et GPT4All.

RAGstack est une solution fiable pour les entreprises qui souhaitent utiliser la technique dites de Retrieval Augmented Generation (RAG) pour améliorer les capacités des LLM en récupérant des informations d’autres systèmes. Déployé en entreprise, cela permettra à vos collaborateurs de gagner du temps dans leur quotidien. De plus, il est moins coûteux et plus rapide que le réglage fin (fine tuning).

Le projet RAGstack prend en charge différents modèles, dont GPT4all, Llama2, Falcon-7B. Il peut être déployé sur GCP, AWS et Azure. Mais vous pouvez aussi le faire tourner sur votre propre serveur comme ceci :

Copier ragstack-ui/local.env dans ragstack-ui/.env et copiez server/example.env dans server/.env

Dans server/.env remplacez YOUR_SUPABASE_URL par l’url de votre projet supabase et YOUR_SUPABASE_KEY par la clé API secrète de votre supabase.

Dans ragstack-ui/.env remplacez YOUR_SUPABASE_URL par l’url de votre projet supabase et YOUR_SUPABASE_PUBLIC_KEY par la clé API secrète de votre supabase.

Vous pouvez trouver ces valeurs dans votre tableau de bord Supabase sous Settings > API.

Puis dans Supabase, créez une table ragstack_users avec les colonnes suivantes :

id,	uuid
app_id,	uuid
secret_key,	uuid
email	text,
avatar_url,	text
full_name,	text

Si vous avez ajouté une sécurité au niveau des lignes en base, assurez-vous que les inserts et les selects ont une expression WITH CHECK de (auth.uid() = id).

Exécutez scripts/local/run-dev. Cela téléchargera ggml-gpt4all-j-v1.3-groovy.bin dans server/llm/local/ et exécutera le serveur, LLM, et la base de données vectorielle Qdrant localement.

Tous les services seront alors prêts lorsque vous verrez le message suivant :

INFO : Application startup complete.

Bravo, c’est fonctionnel ! Vous pouvez également tester une version en ligne ici.

Le code source du projet RAGstack se trouve sur GitHub, et vous pouvez le consulter et contribuer ici.

Sauvegardez et restaurez votre bureau Linux avec SaveDesktop

Par : Korben

Vous êtes-vous déjà retrouvé dans une situation où vous deviez réinstaller ou configurer un nouvel environnement de bureau Linux ? Et comme si ça ne suffisait pas, vous auriez aimé que tout soit exactement comme avant ? Si oui, vous allez adorer SaveDesktop !

SaveDesktop est une application open-source qui vous permet de sauvegarder et de restaurer facilement les configurations d’environnements de bureau Linux tels que GNOME, Xfce, Cinnamon et d’autres. Elle enregistre les icônes, thèmes, paramètres, fonds d’écran, extensions et applications Flatpak installées. Pour l’installer, vous aurez besoin de GTK4 et LibAdwaita comme prérequis.

Vous pouvez l’installer en utilisant une commande Git ou Flatpak.

Voici comment l’installer en utilisant Git :

git clone https://github.com/vikdevelop/SaveDesktop /tmp/SaveDesktop && sh /tmp/SaveDesktop/install_native.sh --install

Et voici comment l’installer en utilisant Flatpak :

flatpak install flathub io.github.vikdevelop.SaveDesktop

L’interface utilisateur de SaveDesktop est minimaliste et facile à utiliser. Cependant, il y a quelques limitations à garder à l’esprit. Par exemple, il ne prend pas en charge les applications Snap pour le moment, et il y a quelques problèmes avec certaines icônes qui ne sont pas sauvegardées correctement. Malgré ces petits défauts, SaveDesktop reste un outil très utile pour les utilisateurs de Linux.

En résumé, SaveDesktop est une excellente application pour ceux qui cherchent à sauvegarder et restaurer facilement leurs configurations de bureau Linux. Si vous êtes un utilisateur de Linux et que vous n’avez pas encore essayé SaveDesktop, je vous encourage vivement à le faire. Cela pourrait vous faire gagner beaucoup de temps et d’efforts lors de la configuration de vos environnements de bureau Linux à l’avenir.

Opal – Un lecteur de musique pour rester détendu au boulot

Par : Korben

Il y a des jours comme aujourd’hui, où l’on a besoin de s’évader un peu, tout en restant concentré sur son travail. Si vous travaillez sur un projet important, mais votre esprit est distrait par le bruit environnant, voici un excellent moyen de vous recentrer rapidement, sans pour autant quitter votre bureau de rage.

Opal est un lecteur de son d’ambiance relaxant conçu pour vous aider à rester concentré. Il dispose de plus de 30 pistes sonores apaisantes, allant du fond sonore de l’open space au bruit de la pluie, en passant par la forêt ou le café voire des sons plus imaginaires comme un château hanté ou une grotte mystérieuse.

Ce qui rend Opal particulièrement intéressant, c’est sa capacité à combiner des sons à différents volumes. Ainsi, vous pouvez créer votre propre mélange sonore afin que ça corresponde à votre humeur ou à votre environnement de travail. Si comme moi, vous avez toujours rêvé de travailler au milieu d’une forêt enchantée avec une légère pluie tombant sur les feuilles, pas de problème, Opal vous permettra de créer cette atmosphère en un clin d’œil.

En plus de cela, Opal propose un minuteur pour ceux qui aiment programmer des sessions de concentration. Vous réglez le minuteur, et Opal s’arrêtera automatiquement une fois le temps écoulé. Comme ça, plus besoin de surveiller l’heure sur l’ordi !

Opal est open-source et est dispo pour Linux et Windows. Vous pouvez le télécharger et l’essayer vous-même en visitant le site de CodeDead.

Bonne écoute et bonne détente avec Opal !

Le code source de nombreux malwares exposés dans ce dépôt GitHub !

Par : Korben

Si vous vous êtes déjà demandé comment fonctionnaient les malwares, ces petits logiciel sournois qui infectent nos appareils et nous causent tant de problèmes, le mieux ce serait encore de vous plonger dans les entrailles de ces créations diaboliiiiques ;-). Petit rappel quand même, le but de cet article est de partager des connaissances et non de promouvoir des activités illégales.

C’est ce que permet ce dépôt GitHub géré par vx-underground, qui contient des tonnes de codes sources de logiciels malveillants, le tout classés par type (Android, Java, Linux, etc.). Tout est zippé et certaines archives sont protégées par le mot de passe « infected« 

C’est donc dans cette base de malwares que vous trouverez des proof of concept, des botnets, des ransomwares et d’autres catégories de logiciels malveillants qui pourront vous donner un excellent aperçu de la manière dont ces bébêtes numériques fonctionnent et sont conçues.

Parmi les outils et familles de logiciels malveillants, vous découvrirez des PHP Infectors, des reverse shell, diverses backdoors, des outils de Phishing, des malwares en Python, Ruby, pour Win32, des Binders, des Botnets, des Crypters, des Exploit kits, des Ransomware, ou encore des Rootkits.

Ce trésor est le fruit des efforts de différents contributeurs et il est surtout maintenu à jour puisqu’on y trouve le dernier ransomware à la mode : HelloKitty dont les sources ont fuités ces derniers jours.

Je tiens quand même à vous rappeler que même si étudier ces codes sources peut être une excellente occasion d’apprendre comment ils fonctionnent et comment ils sont conçus, veillez à ne pas les utiliser à des fins malveillantes car vous irez en prison et ça me fera de la peine parce que j’aurai un lecteur en moins sur mon site. Ce serait con.

Bonne découverte à tous !

TIO – Des interpréteurs de code gratuits pour les développeurs et les enseignants

Par : Korben

On a tous eu un jour, une idée géniale de projet, mais sans forcement savoir quel langage de programmation utiliser. Ou peut-être êtes-vous un enseignant à la recherche d’une site qui vous permettra d’initier vos élèves aux joies de la programmation sans pour autant à avoir à installer un soft sur chaque ordinateur ?

Quelle que soit votre situation, j’ai trouvé la solution parfaite pour vous : Try It Online (TIO) !

TIO est une suite d’interpréteurs en ligne pour une multitude de langages de programmation. Ce service est gratuit, sans pub et open source. Que vous soyez un développeur chevronné ou un débutant curieux, TIO vous permettra de tester rapidement et facilement n’importe quel langages sans vous embêter avec les interpréteurs officiels.

En plus de son côté pratique, TIO encourage la collaboration. Ainsi, les utilisateurs peuvent partager du code et faire des demandes d’ajout de langages ou de fonctionnalités.

Pour commencer avec TIO, il suffit de sélectionner un langage de programmation et d’explorer les interpréteurs comme les classiques Python ou JavaScript, aux plus exotiques et ludiques, comme Brainfuck et Whitespace. Une fois que vous aurez choisi un langage, vous pourrez alors commencer à écrire et exécuter du code directement depuis votre navigateur.

Les interpréteurs en ligne de TIO sont particulièrement utiles pour les débutants, car ils permettent de se familiariser avec les langages de programmation sans se soucier de contraintes d’installation et de configuration. Les développeurs expérimentés peuvent également utiliser TIO pour tester rapidement des morceaux de code ou pour s’essayer à de nouveaux langages.

En résumé, Try It Online est un outil fantastique pour les dev, les enseignants et les étudiants et vous allez l’apprécier.

À découvrir ici

Zoo – Pour jouer avec différents modèles de génération d’images

Par : Korben

Imaginez un instant pouvoir créer des images photoréalistes simplement en décrivant ce que vous voulez voir et tout cela gratuitement. Grâce à Zoo, un outil open-source développé par Replicate, c’est possible.

Ainsi, Zoo peut générer de jolis images à partir d’un simple texte (prompte) mais il sert également de terrain de jeu pour comparer les modèles d’IA de génération d’images dont stable-diffusion, XLstable-diffusion 2.1, stable-diffusion 1.5, DALL-E, kandinsky-2, deepfloyd-if et material-diffusion

. En d’autres termes, il offre un espace de découverte et d’expérimentation pour les développeurs et les chercheurs qui souhaitent explorer les possibilités offertes par les modèles de diffusion texte-image.

Pour y parvenir, Zoo utilise différents modèles de diffusion texte-image, dont certains sont basés sur des techniques de pointe en matière d’intelligence artificielle. Et le meilleur dans tout ça, c’est que Zoo est disponible en open-source sur GitHub. Vous pouvez donc le télécharger, l’installer et commencer à l’utiliser dès maintenant !

Alors, comment ça marche ?

C’est assez simple. Une fois que vous avez installé Zoo sur votre machine, vous pouvez commencer à expérimenter avec les différents modèles de diffusion texte-image disponibles. Vous pouvez également ajouter vos propres modèles si vous le souhaitez. Ensuite, il vous suffit de fournir une description textuelle de l’image que vous souhaitez générer, et Zoo se charge du reste.

Et pour ceux qui se demandent si Zoo est réservé aux experts en IA, rassurez-vous, ce n’est pas le cas. L’outil a été conçu pour être accessible aux débutants. Donc, même si vous n’avez aucune expérience en matière d’intelligence artificielle, vous pouvez quand même profiter de Zoo et de ses fonctionnalités incroyables.

En résumé, Zoo est un outil fantastique qui permet de générer des images photoréalistes à partir de descriptions textuelles. Il offre également un espace de découverte et d’expérimentation pour les développeurs et les chercheurs intéressés par les modèles de diffusion texte-image. Et le fait qu’il soit open-source rend Zoo encore plus attrayant.

Bref, n’attendez plus et plongez dans cet univers de la génération d’images par IA.

À découvrir ici

Typst – La puissance de LaTeX mais en toute simplicité

Par : Korben

Si vous êtes un adepte de la rédaction de documents professionnels, avec des figures, des formules, des tableaux et des bibliographies, vous avez sûrement déjà entendu parler de LaTeX, ce système de composition de texte ultra-puissant mais aussi ultra-compliqué à prendre en main. Et bien aujourd’hui, laissez-moi vous présenter Typst, un outil qui a pour ambition de vous offrir la puissance de LaTeX avec une simplicité et une performance à la hauteur de vos attentes.

Vous êtes étudiant en mathématiques et vous devez rédiger un mémoire avec des tonnes de formules et de graphiques ou encore chercheur en biologie moléculaire et vous devez écrire un article scientifique avec des références bibliographiques très précises. Et bien dans ce cas, Typst pourrait être votre meilleur allié.

Typs c’est un système de composition de texte basé sur le balisage, qui comme LaTeX, permet de décrire la structure et la mise en forme de votre document et qui fonctionne directement dans votre navigateur. Cela signifie que vous n’avez pas besoin d’installer quoi que ce soit sur votre ordinateur. De plus, Typst est un projet open source, financé par l’Union européenne et l’État de Berlin, donc vous pouvez donc l’utiliser en toute confiance, c’est du très sérieux.

Grâce à cela, vous pourrez créer des documents professionnels sans avoir à passer des heures à apprendre comment utiliser la syntaxe de LaTeX. De plus, Typst offre un aperçu instantané de votre document, ce qui vous permet de voir immédiatement les modifications que vous apportez.

Vous pouvez ainsi créer des titres, des listes, des tableaux, des formules et bien d’autres éléments simplement en utilisant des balises spécifiques. De plus, Typst permet de travailler de manière collaborative mais également d’appliquer différents templates à votre contenu, ce qui peut quand même rendre bien service.

L’outil est utilisable en ligne et comme il est sous licence libre, vous pouvez aussi l’installer sur votre machine directement. Je vous laisser aller consulter le Github pour plus d’infos sur l’installation selon votre OS (macOS / Windows / Linux).

À découvrir ici

Czkawka – Pour bien nettoyer votre disque dur de fond en comble

Par : Korben

Ah, les ordinateurs ! On les adore, mais parfois, on a l’impression qu’ils sont comme un vieux grenier ou une vieille cave encombré de trucs tout pourris dont on ne se souvient même plus. Heureusement, il y a des outils pour faire le ménage et retrouver un peu d’ordre dans notre joyeux bazar numérique.

Et aujourd’hui, mes amis, je vais vous parler d’une perle rare que j’ai dénichée pour vous : Czkawka !

Admettons que vous ayez accumulé des tonnes de fichiers en double, des dossiers vides et d’autres éléments inutiles qui prennent de la place sur votre disque dur. Vous commencez à manquer d’espace, et vous ne savez pas par où commencer pour faire le tri. C’est là que Czkawka entre en scène !

Czkawka est un logiciel open-source et sans publicité qui permet de supprimer efficacement les fichiers inutiles de votre ordinateur. Compatible avec Linux, Windows et macOS, il est doté d’algorithmes avancés et de la prise en charge du multithreading pour offrir une expérience utilisateur rapide et efficace.

Le logiciel propose deux interfaces : une interface en ligne de commande (CLI) pour les pros de la console et une interface graphique (GUI) pour ceux qui préfèrent les boutons et les menus. Peu importe votre niveau d’expertise, Czkawka est là pour vous faciliter la vie !

Parmi les fonctionnalités offertes par Czkawka, on trouve notamment la possibilité de rechercher des fichiers en double, des dossiers vides et bien plus encore. Grâce à ses options de recherche enrichies, Czkawka se présente comme une excellente alternative aux autres outils de nettoyage pour maintenir un système sans encombrement.

Pour vous donner un aperçu du potentiel de Czkawka, voici quelques-uns des outils disponibles dans le logiciel :

  • Recherche de fichiers en double : Czkawka utilise des algorithmes avancés pour identifier les fichiers en double sur votre disque dur. Vous pouvez ensuite choisir de les conserver, les déplacer ou les supprimer.
  • Recherche de dossiers vides : Czkawka parcourt votre système pour identifier les dossiers vides qui ne servent à rien et ne font qu’encombrer votre espace de stockage.
  • Recherche de fichiers temporaires : Czkawka peut également détecter et supprimer les fichiers temporaires inutiles qui s’accumulent avec le temps.

Et ce n’est là qu’un aperçu des possibilités offertes par Czkawka. Le logiciel est constamment mis à jour et de nouvelles fonctionnalités sont régulièrement ajoutées.

Alors, si vous en avez assez de chercher des aiguilles dans la botte de foin numérique qu’est devenu votre disque dur, ne cherchez pas plus loin. C’est l’outil qu’il vous faut pour retrouver un système propre et ordonné, et ce, sans vous arracher les cheveux !

À découvrir ici

❌