Lateo.net - Flux RSS en pagaille (pour en ajouter : @ moi)

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 28 mars 2024Informatique & geek

PyPI halted new users and projects while it fended off supply-chain attack

Par : Dan Goodin
Supply-chain attacks, like the latest PyPI discovery, insert malicious code into seemingly functional software packages used by developers. They're becoming increasingly common.

Enlarge / Supply-chain attacks, like the latest PyPI discovery, insert malicious code into seemingly functional software packages used by developers. They're becoming increasingly common. (credit: Getty Images)

PyPI, a vital repository for open source developers, temporarily halted new project creation and new user registration following an onslaught of package uploads that executed malicious code on any device that installed them. Ten hours later, it lifted the suspension.

Short for the Python Package Index, PyPI is the go-to source for apps and code libraries written in the Python programming language. Fortune 500 corporations and independent developers alike rely on the repository to obtain the latest versions of code needed to make their projects run. At a little after 7 pm PT on Wednesday, the site started displaying a banner message informing visitors that the site was temporarily suspending new project creation and new user registration. The message didn’t explain why or provide an estimate of when the suspension would be lifted.

About 10 hours later, PyPI restored new project creation and new user registration. Once again, the site provided no reason for the 10-hour halt.

Read 10 remaining paragraphs | Comments

Bob Review (2024): Features, Pricing, Pros & Cons

Bob — previously known as HiBob — is an affordable HRIS platform for midsize multinational companies with a focus on growth. It's a solid mid-tier solution for companies not quite ready for ERP software.
À partir d’avant-hierInformatique & geek

Les logiciels libres entrés au SILL au premier trimestre 2024

D'Alpine Linux à XPipe, voic les dernières entrées au SILL (Socle interministériel de logiciels libres).

BambooHR Review: Pricing, Features, Pros and Cons

Looking for a comprehensive review of BambooHR in 2024? We've got you covered! Check out our detailed analysis of BambooHR's features, pricing, pros, and cons to see if it's the right HR solution for your business.

Jan – Le « ChatGPT » local et open source à installer sur votre machine

Par : Korben

Afin de rendre l’IA accessible à tous, y compris gratuitement puisque la plupart des modèles fonctionnent sur un système open source, une équipe de développeurs talentueux a créé Jan un outil pour les développeurs et les utilisateurs souhaitant profite d’une alternative à ChatGPT, totalement indépendante, fonctionnant hors ligne, open source et libre.

Il faut donc voir Jan comme un client de chat qui permet de télécharger des modèles comme Trinity, Mistral, Llama, OpenChat…etc. et de les faire tourner 100% hors ligne. Comme ça, pas de fuite de conversations privées ni de réutilisation de vos données pour entrainer de nouvelles IA. Et si comme moi, vous êtes accro à l’IA d’OpenAI, vous pourrez toujours y ajouter votre clé API et discuter avec ChatGPT (au tarif fixé par OpenAI évidemment).

Jan fonctionne sous Linux (Appimage et .deb dispo), sous Windows et macOS (Intel / Silicon) et propose une prise en charge des modèles open source tels que GGUF via llama.cpp, TensorRT via TensorRT-LLM ou des API externes. Jan utilise également le moteur d’inférence Nitro, des mêmes développeurs, qui se veut être rapide et léger.

Je teste ici le modèle Trinity 1.2 7B Q4 :

Et ici un modèle spécialisé en code Python nommé Wizard Coder Python 13B Q5.

Un truc cool avec Jan c’est que toutes les conversations sont conservées sur votre disque au format JSON, donc si le coeur vous en dit, vous pourrez ensuite les exploiter comme bon vous semble dans vos outils.

Jan propose également un serveur REST qui permet d’interroger via une API compatible OpenAI n’importe quel modèle que vous y feriez tourner. Ça permet de brancher vos outils ou vos scripts directement sur le LLM ouvert de votre choix.

Dans la lignée de Ollama ou LM Studio, Jan rempli ses promesses et vous permettra de vous éclater avec l’IA (abus de langage, je sais…) sans mettre en péril vos données personnelles.

Pour en savoir plus, rendez-vous sur le site de Jan ou sur leur page Github pour les sources et la doc.

Merci à Lorenper

Proton Pass enterre les mots de passe grâce à cette nouvelle fonctionnalité

proton pass

Après plusieurs de ses rivaux, Proton s'ouvre enfin aux passkeys (clés d'accès), qui ont pour ambition de remplacer les mots de passe. À l'image de ses autres initiatives, Proton précise que sa prise en charge des passkeys couvre toutes ses formules, y compris l'offre gratuite, et respecte les principes de l'open source.

LocalAI – L’alternative open source puissante à OpenAI

Par : Korben

Aujourd’hui, j’aimerais vous présenter LocalAI, une alternative open source à OpenAI. En tout cas, c’est comme ça que le créateur du projet le présente. Il s’agit d’une solution idéale pour tous ceux qui cherchent une API REST compatible avec les spécifications de l’API OpenAI pour l’inférence locale.

Grâce à LocalAI, vous pouvez exécuter des modèles linguistiques, générer des images, de l’audio et bien d’autres choses encore, localement ou sur site avec du matériel grand public, et ce, sans avoir besoin d’un GPU ! Le projet a pour principal objectif de rendre l’IA accessible à tous.

Pour résumer, voici les principales caractéristiques de LocalAI :

  • Une API REST locale, alternative à OpenAI. Comme ça, vous gardez bien au chaud vos propres données.
  • Pas besoin de GPU. Pas besoin d’accès internet non plus. Toutefois, l’accélération GPU est possible en option.
  • Prise en charge de plusieurs modèles.
  • Dès qu’ils sont chargés une première fois, les modèles restent en mémoire pour une inférence plus rapide.
  • N’utilise pas de shell, mais des liaisons directes pour une inférence plus rapide et de meilleures performances.

En termes de fonctionnalités, LocalAI offre une large gamme d’options, parmi lesquelles :

  • La génération de texte avec les modèles GPT (comme llama.cpp ou gpt4all.cpp).
  • La conversion de texte en audio.
  • La transcription audio en texte avec whisper.cpp.
  • La génération d’images avec Stable Diffusion.
  • Les dernières fonctionnalités d’OpenAI récemment ajoutées comme l’API Vision par exemple.
  • La génération d’embeddings pour les bases de données vectorielles.
  • Les grammaires contraintes.
  • Le téléchargement de modèles directement à partir de Huggingface.

LocalAI est bien sûr un projet communautaire donc n’hésitez pas si vous souhaitez vous impliquer !

Pour commencer rapidement avec LocalAI, vous pouvez consulter leur guide Getting Started qui décrit les différentes méthodes d’installation et les exigences matérielles ou aller consulter les guides de la communauté. Je vous ferais aussi probablement un tutoriel prochainement si mon emploi du temps me le permet.

LocalAI est disponible sous forme d’image conteneur et de binaire, compatible avec divers moteurs de conteneurs tels que Docker, Podman et Kubernetes. Les images de conteneurs sont publiées sur quay.io et Docker Hub, et les binaires peuvent être téléchargés à partir de GitHub.

Concernant les exigences matérielles, ça varie en fonction de la taille du modèle et de la méthode de quantification utilisée mais pour choper quelques repères de performance avec différents backends, comme llama.cpp, vous pouvez consulter ce lien.

Maintenant pour en savoir plus, vous pouvez explorer le site localai.io. Vous y trouverez de nombreuses informations et des exemples d’utilisation pour vous aider à tirer le meilleur parti de LocalAI.

Merci à Lorenper

LLM4Decompile – Quand l’IA se met à décompiler du binaire

Par : Korben

Imaginez un monde merveilleux où les secrets enfermés dans les binaires compilés ne seraient plus inaccessibles aux simples mortels que nous sommes…

C’est exactement ce que LLM4Decompile, le premier LLM (Large Language Model) open-source dédié à la décompilation, promet de réaliser. Fruit d’un travail de recherche innovant mené par une équipe de chercheurs passionnés, ce modèle révolutionnaire ouvre de nouvelles perspectives dans le domaine du reverse engineering.

Jusqu’à présent, la décompilation, c’est-à-dire le processus qui consiste à retrouver le code source à partir d’un exécutable compilé, restait un défi de taille. Les outils existants peinaient à produire un code lisible et compréhensible par les humains, ce qui est logique puisqu’il y a une grosse perte d’informations lors de la compilation. Mais ça, c’était avant l’arrivée de LLM4Decompile !

Entraîné sur un énorme dataset de 4 milliards de tokens de code C et d’assembleur x86, ce modèle de langage surpuissant a appris à décoder les secrets des binaires. Grâce à son architecture basée sur les Transformers et ses milliards de paramètres, il est donc capable de capturer les patterns et la sémantique du code à un niveau inédit.

Mais les chercheurs ne se sont pas arrêtés là. Ils ont aussi développé le premier benchmark standardisé pour la décompilation baptisé Decompile-Eval. Basé sur des problèmes de programmation réels, il permet d’évaluer la capacité des modèles à regénérer un code recompilable et ré-exécutable. Exit les métriques de similarité de tokens, place à des critères solides et pertinents ! LLM4Decompile parvient à recompiler 90% des binaires décompilés (oui oui, je me suis pas trompé) !

Mieux encore, 21% du code re-généré réussit tous les tests unitaires, démontrant une préservation de la logique du programme. C’est 50% de plus que GPT-4, pourtant considéré comme l’état de l’art.

Cerise sur le gâteau, LLM4Decompile est entièrement open-source. Les modèles pré-entraînés de 1,3 à 33 milliards de paramètres sont disponibles sur Hugging Face, prêts à être utilisés et améliorés par la communauté. Le code, les données d’entraînement et le benchmark sont aussi accessibles sur GitHub.

Bien sûr, LLM4Decompile n’est qu’un premier pas vers la décompilation par l’IA. Il reste limité au langage C et à l’assembleur x86, et ne gère pour l’instant que des fonctions isolées. Mais les perspectives sont immenses ! On peut imaginer étendre son champ d’action à d’autres langages et architectures, voire carrément l’utiliser pour transpiler automatiquement du code entre différents langages.

Les applications potentielles sont nombreuses : reverse engineering de logiciels legacy (ça veut dire obsolète mais encore utilisé.. .argh !), analyse de malware, portage de vieux jeux vidéos, etc. Même les vieux binaires qui sentent la naphtaline n’auront bientôt plus de secrets pour nous !

Adeus – L’assistant IA DIY qui vous accompagne partout

Par : Korben

Si vous lisez mon site depuis longtemps, vous savez que j’apprécie tous ces petits projets de DIY (Do It Yourself), alors maintenant qu’on peut y coller un peu d’IA, j’ai l’impression que tout devient possible. Tenez par exemple ce projet baptisé Adeus.

C’est un dispositif portable d’intelligence artificielle open source capable de vous accompagner à chaque instant. Cette technologie, bien plus qu’un simple gadget, deviendra possiblement de standard des années qui arrivent. La preuve avec le succès du Rabbit R1 qui n’a pour d’autres buts que de remplacer les smartphones.

Alors comment fonctionne Adeus ?

Hé bien, ce système se compose de trois éléments clés qui interagissent les uns avec les autres :

Il y a tout d’abord une application mobile / web qui n’est ni plus ni moins qu’une interface qui permet à l’utilisateur d’interagir avec son IA personnelle et ses données par le biais d’un chat.

Côté matos, il y a le dispositif portable qui enregistrera tout ce que l’utilisateur dit ou entend, et l’enverra au backend pour être traité. Pour le moment, c’est possible à déployer sur un Raspberry Pi Zero W ou un appareil CoralAI.

Et ce backend basé sur Supabase, avec sa base de données, sera capable de traiter et stocker les données que nous échangeons avec les LLM (Large Language Model).

Toutefois, pour garantir le respect de nos données et notre propriété intellectuelle, Adeus a choisi la voie de l’open source. Grâce à cette philosophie, il est possible de garder un œil sur le fonctionnement de l’IA et de s’assurer qu’aucun tiers ne peut accéder à notre précieux contenu. Pour un objet à qui on confie toute sa vie perso, je trouve ça plutôt sain.

Pour en savoir plus, vous pouvez consulter la page GitHub d’Adeus qui regorge d’informations détaillées sur le projet.

Merci à Lorenper

Open Source Password Managers: Overview, Pros & Cons

Par : Drew Robb
Learn about open-source password managers, the benefits, and the potential drawbacks of using these tools for managing your passwords securely.

ytDownloader – Télécharger des vidéos à partir d’une simple URL

Par : Korben

Hé les amis, aujourd’hui laissez-moi vous présenter un outil génial qui vous facilitera la vie en vous permettant de télécharger des vidéos et d’extraire des pistes audios de différents formats à partir de centaines de sites, dont, YouTube, Facebook, Tiktok, Twitch, Twitter, Instagram et bien d’autres…

Cet outil s’appelle ytDownloader et vous l’aurez compris, c’est YoutubeDL derrière sauf que là, y’a une interface minimaliste facile à prendre en main. L’outil est bien sûr entièrement gratuit et Open Source.

Disponible sous Linux, Windows et macOS, cet utilitaire dispose de nombreuses fonctionnalités comme un mode clair/sombre, la possibilité de choisir un thème pour pas flinguer vos petits yeux, ainsi que la possibilité de télécharger une plage spécifique d’une vidéo si vous le souhaitez, ce qui est pratique pour extraire un morceau précis. Vous pouvez évidemment, après avoir entré l’URL de votre vidéo, choisir le format et la qualité de la vidéo et de l’audio que vous voulez récupérer, ce qui est super pratique pour faire par exemple des MP3 à partir de clips vidéos.

Cet outil prend également en charge le téléchargement des sous-titres et est disponible en plusieurs langues. Vous pouvez bien sûr configurer l’emplacement où enregistrer vos fichiers récupérés et il n’y a ni pubs ni traqueur dans l’application.

Pour résumer, ytDownloader est un outil super utile pour tous ceux qui ont besoin de récupérer des vidéos et/ou extraire des audios de différents formats à partir de différents sites. Je vous le conseille !

Rendez-vous sur leur site pour télécharger ytDownloader.

Merci à Lorenper pour le partage.

Elon Musk mobilise son chatbot Grok pour tacler encore OpenAI

Elon Musk

Elon Musk a annoncé la publication du code source de Grok, son IA générative rivale de ChatGPT. Un choix de l'open source qui permet en creux à l'entrepreneur américain de s'en prendre encore à OpenAI, dont les orientations ne lui plaisent pas.

Suyu – le nouvel émulateur Switch open source qui ose défier Nintendo après la mort de Yuzu

Par : Korben

Vous avez entendu parler de Suyu ? C’est le nouvel émulateur Nintendo Switch open source qui fait pas mal parler de lui en ce moment. Faut dire qu’après la descente en flammes de son prédécesseur Yuzu, qui s’est pris un méchant procès de Nintendo et a dû mettre la clé sous la porte, les fans d’émulation se demandaient bien qui allait prendre le relais.

Bah c’est Suyu qui s’y colle, avec une équipe de développeurs passionnés qui ont repris le code source de Yuzu pour continuer à faire évoluer l’émulation Switch. Mais attention, les gars ont retenu la leçon et font super gaffe à pas se mettre Nintendo à dos comme Yuzu ! Déjà, fini la monétisation du projet, Suyu c’est 100% bénévole. Ils l’annoncent clairement sur leur page GitLab, zéro profit, que dalle, nada. Normal, vu que c’était un des points qui avaient bien énervé Nintendo dans le procès contre Yuzu.

Pareil pour les guides pas à pas pour expliquer comment jouer à des jeux piratés, c’est terminé. Les mecs veulent pas entendre parler de warez, au point que c’est devenu le sujet tabou numéro 1 sur leur Discord. Suyu joue la carte de la prudence à fond et refuse d’être associé de près ou de loin au piratage. Sachant que c’était un autre gros point de crispation de Nintendo contre Yuzu, ça me parait logique.

Après est-ce que ça suffira à éviter les foudres des avocats de Big N, ça c’est une autre histoire. Car même en jouant profil bas, Suyu n’en reste pas moins un émulateur Switch, avec tout ce que ça implique légalement, notamment le fait de devoir extraire la clé de sécurité d’une Switch pour pouvoir jouer aux jeux, ce qui ne plait pas non plus à la firme japonaise. D’ailleurs, les dévs le disent eux-mêmes, ils évoluent pour l’instant dans une « zone grise », le temps de trouver une solution pour en sortir. Wait and see comme on dit.

Mais en attendant, force est de constater que Suyu fait du bon boulot. Enfin un émulateur Switch puissant, open source et qui en plus est plutôt user-friendly. De quoi donner envie d’y jeter un œil et pourquoi pas de filer un coup de main si vous vous y connaissez un peu en dev. Le code est dispo sur le GitLab, avis aux amateurs ! Je vous ferait pas de tuto, hein ^^.

Bon après, bien que l’émulation soit LÉGALE, n’empêche que c’est quand même un peu couillu comme projet. Rien que le nom, Suyu, qui se prononce comme « sue you » (traduisez « attaquez-moi en justice » pour les anglophobes), ça montre bien que les mecs ont de l’humour et qu’ils sont conscients de jouer avec le feu. On peut pas leur enlever ça.

Et puis c’est cool de voir que malgré les menaces, la communauté de l’émulation continue de faire vivre ce hobby de passionnés. Avec tous les projets qui se sont fait dégommer ces derniers temps, on aurait pu croire le milieu complètement plombé. Mais heureusement, y a encore des irréductibles pour prendre la relève et faire perdurer la tradition, même si ça devient de plus en plus tendu.

Donc voilà, un petit coup de projecteur sur Suyu qui le mérite bien. Si vous voulez en savoir plus, je vous invite à faire un tour sur leur site, y a toutes les infos nécessaires. Et n’hésitez pas non plus à rejoindre leur serveur Discord pour suivre l’actu du projet et échanger avec les dévs et la communauté.

Sur ce, je retourne jouer à Zelda BOTW sur mon PC, vu que maintenant c’est possible grâce à Suyu 😉 J’déconne, j’déconne… Quoique !

Source

Grok d’Elon Musk bientôt open-source pour défier ChatGPT

Par : Korben

Ça y est les amis, c’est la grande nouvelle de la semaine dans le monde de l’IA ! Elon Musk, le grand patron de xAI, a balancé sur Twitter que son chatbot Grok va passer en open-source dans les prochains jours. Et ça, c’est pas rien, surtout quand on sait que ce petit bijou est capable, selon ses dires, de rivaliser avec ChatGPT !

Faut dire que depuis sa sortie l’an dernier, Grok a pas chômé. Il a été boosté avec des fonctionnalités de fou, comme l’accès à des infos en temps réel et la possibilité de s’exprimer sans filtre, même si ça plait pas à tout le monde. 😅 Pour l’instant, seuls les abonnés premium de X (anciennement Twitter) peuvent en profiter pour la modique somme de 16 dollars par mois. Mais ça, ça risque bien de changer !

Parce que voilà, Elon est pas content. Il y a quelques jours, il a carrément attaqué OpenAI en justice, l’accusant d’avoir trahi ses principes d’ouverture et de transparence. Faut savoir qu’à la base, Musk avait co-fondé OpenAI avec Sam Altman il y a presque 10 ans, justement pour contrer la domination de Google dans l’IA. Mais depuis, OpenAI est passé en mode closed-source et s’est rapproché de Microsoft, son nouveau meilleur pote. Forcément, ça passe mal auprès d’Elon qui n’hésite pas à balancer : « OpenAI est devenu une filiale de facto de Microsoft, la plus grande entreprise technologique au monde ». Aïe, ça pique ! 😬

Résultat, ça a foutu un sacré bordel dans le milieu. Des pointures comme Vinod Khosla (un des premiers investisseurs d’OpenAI) et Marc Andreessen (co-fondateur d’Andreessen Horowitz) s’en sont mêlés, alimentant le débat sur les avantages et les risques de l’open-source dans l’IA. Pendant ce temps-là, Elon persiste et signe : « OpenAI est un mensonge », a-t-il tweeté lundi. Ambiance ! 🔥

Mais revenons-en à nos moutons. Si Grok passe effectivement en open-source comme promis, ça va faire du bruit. xAI rejoindrait ainsi le club select des boîtes comme Meta et Mistral qui ont déjà publié le code de leurs modèles. Et c’est pas la première fois qu’Elon joue la carte de la transparence : Tesla a déjà open-sourcé plein de brevets, et même X (ex-Twitter) a rendu publics certains de ses algorithmes l’an dernier.

Alors, qu’est-ce que ça va donner concrètement ? 🤔

On peut imaginer que des développeurs du monde entier vont pouvoir mettre les mains dans le cambouis de Grok, l’améliorer, le customiser à leur sauce. Ça pourrait donner lieu à des utilisations vraiment cool, comme par exemple intégrer Grok à des apps ou des sites web pour proposer une assistance ultra-performante aux utilisateurs. Ou encore s’en servir comme base pour créer des chatbots spécialisés dans des domaines pointus, type médecine, droit, finance… Les possibilités sont quasi infinies !

Après, faudra quand même rester vigilant. Parce que l’open-source, c’est chouette, mais ça peut aussi ouvrir la porte à des dérives si c’est mal encadré. Genre des mecs mal intentionnés qui se serviraient du code de Grok pour créer des chatbots malveillants, des spambots, ou pire encore. 😱 Espérons qu’Elon et son équipe ont prévu des garde-fous solides pour éviter ça (j’en doute…).

En attendant, on a hâte de voir ce que ça va donner ! Et vous, vous en pensez quoi ? Vous croyez que l’open-source peut vraiment révolutionner le monde de l’IA, ou bien c’est juste un énième coup de com’ de notre cher Elon ?

Allez, je vous laisse cogiter là-dessus, et rdv très vite pour la suite des aventures ! 😉

Source

AMD se prend la tête avec le HDMI Forum

Par : Olivier

Hdmi

La tentative d'AMD d'intégrer les fonctions du HDMI 2.1 dans son pilote graphique Linux open source a abouti à une impasse. Il existe de fortes tensions entre les besoins de l'open source et les exigences de conformité dictées par le HDMI Forum. Ce blocage, qui résulte de restrictions légales, inquiète pour l'avenir du support matériel dans les environnements open source.

Microsoft says Kremlin-backed hackers accessed its source and internal systems

Par : Dan Goodin
Microsoft says Kremlin-backed hackers accessed its source and internal systems

Enlarge (credit: Getty Images)

Microsoft said that Kremlin-backed hackers who breached its corporate network in January have expanded their access since then in follow-on attacks that are targeting customers and have compromised the company's source code and internal systems.

The intrusion, which the software company disclosed in January, was carried out by Midnight Blizzard, the name used to track a hacking group widely attributed to the Federal Security Service, a Russian intelligence agency. Microsoft said at the time that Midnight Blizzard gained access to senior executives’ email accounts for months after first exploiting a weak password in a test device connected to the company’s network. Microsoft went on to say it had no indication any of its source code or production systems had been compromised.

Secrets sent in email

In an update published Friday, Microsoft said it uncovered evidence that Midnight Blizzard had used the information it gained initially to further push into its network and compromise both source code and internal systems. The hacking group—which is tracked under multiple other names, including APT29, Cozy Bear, CozyDuke, The Dukes, Dark Halo, and Nobelium—has been using the proprietary information in follow-on attacks, not only against Microsoft but also its customers.

Read 7 remaining paragraphs | Comments

La distribution pour NAS OpenMediaVault 7 « Sandworm » est disponible

Minimachines.net en partenariat avec TopAchat.com

La distribution OpenMediaVault  acte son passage vers Debian 12 et se lance sur le marché des systèmes OpenSource dédiés à un pilotage de NAS et autres serveurs de sauvegarde. Disponible au téléchargement, elle apporte son lot de nouveautés et pourrait intéresser tous les acheteurs de minimachines particulières proposant des baies 3.5″.

Le MiniPC R3 Pro avec 2 emplacements M.2 et 2 baies 2.5/3.5″

On pense aux minimachines R1 et R3 Pro qui embarquent des processeurs Intel N100 ou AMD Ryzen 5700U et qui proposent des emplacements de stockage SATA3 de ce type mais également toutes les solutions classiques en MiniITX et autres montages permettant d’agglomérer des grappes de stockage. 

Pour ces machines OpenMediaVault 7 aka « Sandworm » en hommage à Frank Herbert et à la saga de Dune, représente un système adapté, libre et Open Source. Il est désormais basé sur Debian 12 et permet de stocker, sauvegarder et profiter de vos contenus de manière automatisée. Un nombre important de changements techniques a eu lieu et les développeurs en font le détail en suivant ce lien.

Le téléchargement du système se fait en suivant les informations de cette page. Une image du système à implanter sur une clé USB de manière classique est possible tout comme il est possible de le mettre à jour (pensez aux sauvegardes de vos données) ou de transformer une Debian 12.

Arthur, qui a acheté un R3 Pro donc, me dit le plus grand bien de cette distribution par email. N’hésitez donc pas à y jeter un coup d’oeil.

La distribution pour NAS OpenMediaVault 7 « Sandworm » est disponible © MiniMachines.net. 2024.

HDMI Forum to AMD: No, you can’t make an open source HDMI 2.1 driver

HDMI cables, bundled up and covered in some dust

Enlarge (credit: Getty Images)

Any Linux user trying to send the highest-resolution images to a display at the fastest frame rate is out of luck for the foreseeable future, at least when it comes to an HDMI connection.

The licensing group that controls the HDMI standard, the HDMI Forum, has reportedly told AMD that it does not allow an open source implementation of the HDMI 2.1 (or HDMI 2.1+) specification, blocking tools such as AMD's FreeSync from working over HDMI connections at resolution/rate combinations like 4K at 120 Hz, or 5K at 240 Hz.

Linux blog Phoronix noted in January 2021 that the HDMI Forum did not offer public access to the HDMI 2.1 specification. Alex Deucher, an AMD engineer who has long contributed to the company's open source offerings, has kept a related bug thread alive for at least two years, only to deliver the negative outcome yesterday.

Read 6 remaining paragraphs | Comments

L’utilisation de logiciels en open-source comporte-t-elle plus de risques que d’avantages ?

L'open-source favorise l'innovation et la flexibilité en incitant la communauté à collaborer et à évoluer. C'est une opportunité à ne pas manquer pour les entreprises qui souhaitent rester compétitives dans ce paysage numérique en perpétuelle évolution.

Nintendo’s lost 1990s “VR” console comes to 3DS thanks to a remarkable emulator

Virtual Boy game running on a Nintendo 3DS

Enlarge (credit: Floogle/X)

Nintendo has made some bold, weird choices with its hardware designs. But none were so bold and weird as 1995's Virtual Boy, a "woefully premature commercial curio," as one Ars writer put it, that "quickly passed unlamented into history," as remarked another. The awkward red-on-black tabletop headset system wasn't so much ahead of its time as beamed in from an alternate reality. In this reality, it didn't sell much and was largely forgotten.

Nintendo has seemed eager to let the Virtual Boy fade from the collective memory, but clever coders have labored to keep the system accessible outside vintage hardware collections. The latest, and perhaps most accessible, is Red Viper, which plays Virtual Boy games on a (lightly hacked) Nintendo 3DS, the other Nintendo system on which 3D features were underappreciated. It is full-speed, it supports homebrew games, you can change the drawing color to something other than red, and it is free. It's built on top of the work of earlier 3DS emulator r3dragon, which itself drew heavily from the Reality Boy project for Windows.

Just released Red Viper, a Virtual Boy emulator that runs on the Nintendo 3DS. All official games run at full speed! https://t.co/YSP3f7Yd0X pic.twitter.com/YiNh6sG74Y

— Floogle (@Skyfloogle) February 25, 2024

Red Viper makes use of the 3DS's top screen for game display and turns the lower screen into a system options panel. It maps the Virtual Boy's own face buttons onto the touchscreen. In the Twitter thread announcing Red Viper's general release, coder Floogle notes that the emulator is only roughly translating the Virtual Boy's 50 Hz refresh to the 3DS' 60 Hz by pushing a frame every 20 ms. There is, Floogle supposes, some hardware headroom for improvement.

Read 3 remaining paragraphs | Comments

De4Py – Le toolkit idéal pour faire de l’analyse de programmes Python (malwares ou autre)

Par : Korben

A tous les fondus d’analyse de code, aujourd’hui, j’aimerais vous présenter De4Py, un déobfuscateur Python avancé qui s’est donné pour mission de révolutionner le domaine pour les analystes de malwares et les experts en reverse engineering.

Développé par le duo Fadi002 et AdvDebug, cet outil se distingue non seulement par son interface conviviale, mais aussi par un ensemble de fonctionnalités avancées conçues pour, entre autres, déchiffrer les fichiers Python.

Ce toolkit prend en charge toute une gamme d’obfuscateurs populaires, incluant Jawbreaker, BlankOBF, PlusOBF, Wodx, Hyperion et l’obfuscateur de pyobfuscate.com. Cette polyvalence vous assure de pouvoir décoder un large éventail de fichiers obfusqués avec une grande facilité.

L’une des fonctionnalités phares de l’outil est sa capacité d’exécution de code. Cela permet aux utilisateurs d’exécuter du code Python au sein de l’outil. Par exemple, ils expliquent sur le Github, que grâce à ça, si un programme demande une licence pour fonctionner dans son intégralité, De4py permet d’accéder directement aux fonctionnalités principales de l’outil, et par conséquent de contourner les restrictions liées à la licence.

La fonction de Dump de chaînes de caractères est un autre atout crucial. Elle facilite l’extraction de textes du processus Python et les sauvegarde dans un fichier, rendant plus aisée l’extraction de données de la mémoire, y compris des informations sensibles comme les webhooks. Il est capable également d’identifier les chaines de caractères « interessantes » comme les IP, les sites web et les mots-clés liés à des informations sensibles.

De4py aborde également le défi que représentent ces programmes Python qui tentent de s’auto-terminer lorsqu’ils détectent un débogueur ou une machine virtuelle. En supprimant la fonction de sortie, il vous permettra de ne plus galérer avec des sorties de programme surprises. De4py dispose aussi d’une fonctionnalité qui permet de récupérer et d’accéder à toutes les fonctions se trouvant dans le processus, ce qui est pratique si on veut modifier certaines fonctions en mémoire de manière plus précise.

Il y a également un analyseur de fichiers pour détecter si un programme Python est « packé ». Il tente alors d’extraire les programmes qui s’y trouvent en utilisant pyinstaller. Enfin, De4Py est capable de surveiller le comportement du programme sur votre système à savoir tout ce qui est manipulations de fichiers, activités de processus, interactions avec la mémoire, et même les communications via socket, avec détail de la taille des données transmises / reçues et des adresses IP. Cette fonctionnalité permet également l’extraction du contenu des sockets et le déchiffrement du contenu chiffré OpenSSL directement dans un fichier.

Bref, que ce soit via son interface graphique ou en mode terminal, De4Py est un super outil pour tous les amateurs de reverse engineering qui font notamment de l’analyse de malware.

Vous en saurez plus ici sur leur Github et le site officiel est ici.

Qu’est-ce que l’OSINT ?

L'OSINT est une méthode née à l’issue de la guerre froide, alors que les États-Unis se demandaient quelle nouvelle forme donner aux renseignements. En 2005, la CIA lui crée un Centre dédié. Depuis, l’OSINT a largement investi le monde militaire, des renseignements, de la Justice, des grandes entreprises et des journalistes.

Stability announces Stable Diffusion 3, a next-gen AI image generator

Stable Diffusion 3 generation with the prompt: studio photograph closeup of a chameleon over a black background.

Enlarge / Stable Diffusion 3 generation with the prompt: studio photograph closeup of a chameleon over a black background. (credit: Stability AI)

On Thursday, Stability AI announced Stable Diffusion 3, an open-weights next-generation image-synthesis model. It follows its predecessors by reportedly generating detailed, multi-subject images with improved quality and accuracy in text generation. The brief announcement was not accompanied by a public demo, but Stability is opening up a waitlist today for those who would like to try it.

Stability says that its Stable Diffusion 3 family of models (which takes text descriptions called "prompts" and turns them into matching images) range in size from 800 million to 8 billion parameters. The size range accommodates allowing different versions of the model to run locally on a variety of devices—from smartphones to servers. Parameter size roughly corresponds to model capability in terms of how much detail it can generate. Larger models also require more VRAM on GPU accelerators to run.

Since 2022, we've seen Stability launch a progression of AI image-generation models: Stable Diffusion 1.4, 1.5, 2.0, 2.1, XL, XL Turbo, and now 3. Stability has made a name for itself as providing a more open alternative to proprietary image-synthesis models like OpenAI's DALL-E 3, though not without controversy due to the use of copyrighted training data, bias, and the potential for abuse. (This has led to lawsuits that are unresolved.) Stable Diffusion models have been open-weights and source-available, which means the models can be run locally and fine-tuned to change their outputs.

Read 7 remaining paragraphs | Comments

Open source : que se passe-t-il avec Linkerd ?

L'entreprise porteuse de Linkerd n'en distribuera plus de versions stables en source ouverte et soumettra ses rétroportages à un paywall.

Google goes “open AI” with Gemma, a free, open-weights chatbot family

The Google Gemma logo

Enlarge (credit: Google)

On Wednesday, Google announced a new family of AI language models called Gemma, which are free, open-weights models built on technology similar to the more powerful but closed Gemini models. Unlike Gemini, Gemma models can run locally on a desktop or laptop computer. It's Google's first significant open large language model (LLM) release since OpenAI's ChatGPT started a frenzy for AI chatbots in 2022.

Gemma models come in two sizes: Gemma 2B (2 billion parameters) and Gemma 7B (7 billion parameters), each available in pre-trained and instruction-tuned variants. In AI, parameters are values in a neural network that determine AI model behavior, and weights are a subset of these parameters stored in a file.

Developed by Google DeepMind and other Google AI teams, Gemma pulls from techniques learned during the development of Gemini, which is the family name for Google's most capable (public-facing) commercial LLMs, including the ones that power its Gemini AI assistant. Google says the name comes from the Latin gemma, which means "precious stone."

Read 5 remaining paragraphs | Comments

JXL et AVIF – Les nouveaux champions des formats d’image

Par : Korben

On est tous là avec nos formats d’images d’avant la guerre, à savoir le JPEG, le PNG et le WebP alors qu’il existe des trucs beaucoup plus efficaces aujourd’hui en 2024. L’objectif de cet article est donc de vous les présenter.

Le premier s’appelle AVIF (AV1 Image File Format) qui est basé sur le codec vidéo AV1, très connu pour son efficacité en termes de compression. L’AVIF est très adapté pour tout ce qui est images pour les sites web, mais également pour tout ce qui est images animées. Ça en fait donc une bonne alternative aux GIF animés et surtout, de très nombreux navigateurs modernes le supportent déjà.

L’autre format c’est le JXL qui n’est ni plus ni moins que la contraction de JPEG et de XL. Celui-ci est conçu pour compresser efficacement les photos avec ou sans perte selon ce que vous choisissez, tout en préservant une très haute résolution (au-delà du milliard de pixels si ça vous chante) avec plein dé détails. L’algo qui permet d’encoder les images en JXL est d’ailleurs jusqu’à 10 fois plus rapide que celui d’AVIF.

Ces deux formats qui supportent tous les deux la transparence, sont sortis vers 2019 et sont open source et non commerciaux. Alors c’est bien beau tout ça, mais comment on fait pour convertir nos images dans ces formats ? Et bien logiquement, n’importe quel outil de traitement d’image un peu récent peu le faire, mais autrement, y’a des outils.

Pour l’AVIF, vous pouvez utiliser les outils cavif-rs ou encore FFMPEG. Cavif-rs ce sera plus pour les images statiques et FFMPEG pour les gifs animés.

Prenons cette image PNG pour un beau fond d’écran de 1,9 Mo et d’une résolution de 1456 × 816 pixels :

En la convertissant en AVIF à l’aide de la commande suivante :

cavif Downloads/wallpaper.png -o Downloads/wallavif.avif -f

On obtient la même image, avec la même résolution sauf qu’elle pèse maintenant 77 ko. Je vous l’intégre dans mon WordPress pour que vous voyiez que c’est bien supporté par votre navigateur, mais comme WordPress ne supporte pas encore nativement ce format, le rendu est un peu cra-cra :

Je ne vous avais pas menti, c’est sacrément efficace. Dommage pour moi, ce format n’est pas supporté par mon WordPress, donc je ne peux pas encore l’intégrer à mon article.

Passons maintenant à une image animée avec FFMPEG. Je prends ce GIF de 1,1 Mo :

Avec FFMPEG, je dois d’abord convertir le format des pixels en yuv420p qui est un format de couleur très utilisé pour la vidéo et compatible AVIF :

ffmpeg -i happy.gif -pix_fmt yuv420p -f yuv4mpegpipe happy.y4m

Ensuite, il faut installer la lib avif comme ceci sous Linux :

sudo apt install libavif-bin

Comme ça sous mac :

brew install libavif

Ensuite armé de ce fichier y4m, je peux alors appeler l’outil d’encodage avifenc qui va alors le convertir en AVIF animé :

avifenc happy.y4m happy.avif

Et voilà, je me retrouve avec la même image animée sauf qu’elle pèse 45 ko. C’est magique.

Pour le format JXL c’est encore plus simple, puisqu’il y a un outil officiel à télécharger ici. Si vous êtes sous mac, vous pouvez même l’installer comme ceci :

brew install jpeg-xl

Ensuite, y’a plus qu’à appeler la commande comme ceci avec le paramètre lossless afin de n’avoir aucune perte :

cjxl wallpaper.png wallpaper.jxl --lossless_jpeg=0

Je passe donc d’un fond d’écran de 1,9 Mo en PNG au même fond d’écran de 202 Ko. Voici l’incrustation de ce JXL :

Après si vous avez la flemme de jouer avec tous ces outils sachez que ezgif dont je vous ai déjà parlé ici, propose des convertisseurs pour l’AVIF et le JXL.

D’ailleurs, si vous vous demandez comment je l’ai intégré, et bien, il existe une astuce qui permet d’avoir un rendu de JXL ou d’AVIF avec une image PNG en secours pour les anciens navigateurs qui ne supporteraient ni le AVIF ni le JXL.

Voici le code :

<picture>
      <source type="image/jxl" srcset="https://korben.info/wallpaper.jxl" />
      <img src="https://korben.info/wallpaper.png" />
</picture>

Et pour de l’AVIF ce sera comme ça :

<picture>
      <source type="image/avif" srcset="https://korben.info/wallpaper.avif" />
      <img src="https://korben.info/wallpaper.png" />
</picture>

Bref, tout ça pour dire que les résultats en matière de qualité et de compression avec JXL et AVIF sont assez phénoménaux que ce soit avec perte ou non de qualité. Je vous encourage fortement à adopter ces futurs standards même si pour le moment, c’est encore un peu roots, mais c’est déjà bien supporté sur les navigateurs récents du marché, donc pourquoi s’en priver. J’espère que WordPress le supportera également nativement rapidement, comme ils l’ont fait pour le webp.

6 Best Payroll Outsourcing Companies for 2024

Need some help with running payroll or other HR functions? Get the lowdown on outsourced payroll and HR options for businesses in 2024.

Une offre commerciale émerge autour de LangChain

L'entreprise qui porte le framework LangChain boulce une levée de fonds et lance une première offre commerciale.

Nginx core developer quits project in security dispute, starts “freenginx” fork

Multiple forks being held by hands

Enlarge (credit: Getty Images)

A core developer of Nginx, currently the world's most popular web server, has quit the project, stating that he no longer sees it as "a free and open source project… for the public good." His fork, freenginx, is "going to be run by developers, and not corporate entities," writes Maxim Dounin, and will be "free from arbitrary corporate actions."

Dounin is one of the earliest and still most active coders on the open source Nginx project and one of the first employees of Nginx, Inc., a company created in 2011 to commercially support the steadily growing web server. Nginx is now used on roughly one-third of the world's web servers, ahead of Apache.

A tricky history of creation and ownership

Nginx Inc. was acquired by Seattle-based networking firm F5 in 2019. Later that year, two of Nginx's leaders, Maxim Konovalov and Igor Sysoev, were detained and interrogated in their homes by armed Russian state agents. Sysoev's former employer, Internet firm Rambler, claimed that it owned the rights to Nginx's source code, as it was developed during Sysoev's tenure at Rambler (where Dounin also worked). While the criminal charges and rights do not appear to have materialized, the implications of a Russian company's intrusion into a popular open source piece of the web's infrastructure caused some alarm.

Read 10 remaining paragraphs | Comments

L’enseigne La Source piratée

L'enseigne canadienne La Source, distributeur grand public de matériel d'électroménager, est confrontée à des pirates informatiques....

The Top Dayforce Competitors and Alternatives

Dayforce is a well-known solution for human capital management (HCM). But if you’re looking for something different within the same space, take a look at our six suggested alternatives.

FOSDEM 2024 : quelques sessions à suivre

Protocoles de routage, informatique confidentielle, réglementations européennes, intelligence artificielle... Voici quelques-unes des sessions qui jalonneront la FOSDEM 2024 (3-4 février).

OSS Insight – Explorez et comparez les dépôts GitHub en un clin d’oeil

Par : Korben

Vous le savez, je suis un grand amateur et un grand défenseur des logiciels libres et Open Source. Et je n’ai pas peur de le dire, GitHub est l’un de mes sites préférés.

On y trouve des pépites comme des scripts incroyables, des outils géniaux et j’adore ça ! Mais ce n’est pas forcément toujours simple de suivre tout ce qui se passe dans cet univers.

Enfin, ça, c’était avant parce qu’il existe un site génial qui s’appelle OSS Insight et qui offre des informations très détaillées et des tendances sur le monde de l’open source en analysant plus de 5 milliards de lignes d’événements GitHub.

Il fournit une nouvelle façon d’explorer les données GitHub en posant simplement des questions en langage naturel, ce qui est extrêmement pratique quand on veut comparer les choses.

Par exemple, OSS Insight vous permet de comparer deux dépôts à partir des mêmes indicateurs, tels que les étoiles, les forks, les issues, les commits, les pull requests, le nombre de contributeurs, les langages de programmation utilisés ou encore les lignes de code modifiées.

Imaginez que vous travaillez sur un projet et que vous souhaitez comparer deux bibliothèques open source pour déterminer laquelle est la plus populaire et la mieux maintenue. Et bien il suffit de lui demander.

Mais ça ne s’arrête pas à ça. Voici quelques exemples de questions que les gens posent à l’outil :

En plus de cela, OSS Insight offre des informations sur les tendances techniques mensuelles avec des listes de dépôts à découvrir.

Comme ça, vous pouvez suivre de près certains types d’outils populaires, comme les bases de données, les frameworks JavaScript ou encore les outils liés aux LLM. Vous pouvez également obtenir des analyses sur la productivité des développeurs et les statistiques des dépôts.

Pour tester le OSS Insight, il vous suffit de vous rendre sur leur site web et de plonger dans cet océan de données.

OSTE – Le scanner de vulns qui combine Nikto, ZAP, Nuclei, SkipFish, et Wapiti

Par : Korben

Si vous vous intéressez un peu à la sécurité informatique, je vous présente aujourd’hui OSTE qui est ce qu’on pourrait appeler un Metascanner.

Alors qu’est-ce qu’un Metascanner ?

Eh bien il s’agit d’un scanner de vulnérabilité web qui combine différents outils tels que Nikto, zap de l’OWASP, Nucléi, SkipFish ou encore Wapiti.

L’intérêt de cet outil c’est qu’il offre une interface graphique très user friendly qui permet de consulter les rapports de scan, mais également de les lancer. Injections SQL, XSS, XML, HTML ou encore des injections liées à des commandes spécifiques au système d’exploitation visé. Chacun des scanners DAST (Dynamic Application Security Testing) intégrés fournit des listes de vulnérabilités pour vous aider à identifier et corriger les problèmes potentiels.

Pour l’installer, vous aurez besoin de tous les outils que je viens de vous citer, mais si vous utilisez Kali Linux vous n’aurez pas de soucis puisque tout ça est déjà présent dans la distrib. Sinon il faudra les installer manuellement.

Ensuite il ne vous restera plus qu’à cloner le dépôt sur votre machine et à lancer la commande

python3 metascan.py

Vous pourrez alors lancer des scans, charger les résultats, les exporter, les consulter directement depuis l’interface graphique.

Vous l’aurez compris, OSTE est un outil fantastique pour simplifier l’évaluation de la cyber sécurité. N’oubliez pas quand même que c’est destiné à usages éducatifs ou dans le cadre de mission d’audits pour lesquelles vous avez été mandaté.

Si vous voulez en savoir plus, cliquez ici.

Continue – L’extension Visual Studio Code qui code à votre place

Par : Korben

Cursor est à ce jour l’éditeur de Code que je préfère, car il est basé sur Visual Studio et totalement boosté à l’IA. Cela me permet pour moi qui suis une quiche en dev, de mener à bien mes projets de conquête du monde.

Toutefois, c’est payant. Et si vous ne voulez pas lâcher un peu de thunasse, et que vous voulez payer uniquement ce que vous consommez, c’est possible dans Cursor avec une clé OpenAI, mais également en installant ce plugin open source baptisé « Continue » directement dans un bon vieux Visual Studio Code d’origine ou un JetBrains.

Concrètement, ce truc vous permet en surlignant un bout de code, de discuter avec l’IA pour mieux le comprendre, le compléter ou le corriger. Vous pouvez même apporter des modifs directement à votre code simplement en demandant ce que vous voulez en langage naturel du genre :

/edit réécrire ceci pour retourner une liste aplatie à partir d'une matrice 3x3
/edit refactoriser cela en une mise en page flex angulaire sur une seule ligne
/edit définir ici un type pour une liste de listes de dictionnaires

Continue permet aussi de générer des fichiers from scratch, c’est-à-dire de zéro ou de générer des tests unitaires, des commandes Shell ou des recherches sur StackOverflow pour en extraire uniquement le nécessaire.

Continue est compatible avec GPT-4 et GPT-3.5-turbo via l’API OpenAI. Et si vous voulez esquiver OpenAI, vous pouvez toujours la connecter sur un autre LLM en utilisant par exemple LM Studio ou Ollama.

Une fois installé, pour l’activer, il suffit de faire un CMD + M (ou ALT + M).

Amusez-vous bien et codez-moi des trucs de ouf !

Open source vs propriétaire : la bataille des modèles se joue dans la loi IA Act

AI glitch

L'Union européenne devrait se montrer plus clémente pour les modèles d'IA open source, par rapport à leurs homologues propriétaires. C'est en tout cas ce qui transparait d'un document de travail qui a fuité sur le futur règlement de l'AI Act.

ShortGPT – Pour automatiser la création de vidéos pour TikTok et Instagram

Par : Korben

Si vous trainez sur TikTok (pour les jeunes d’esprit) ou encore Instagram (pour les boomers d’esprit), vous êtes sans doute déjà tombé sur des vidéos avec des « facts », c’est à dire des faits historiques, scientifiques ou encore des trucs tirés tout droit de Reddit, qui vous ont captivé avec une petite musique de merde et un gameplay de jeu vidéo quelconque en fond.

Ce genre de format est calibré pour endormir ce qui vous reste de matière grise fondue et vous faire rester sur la vidéo. Là où ça devient drôle, c’est que vous allez pouvoir générer ce genre de format vidéo grâce à ShortGPT. Cet outil open source (décliné également en site payant) supporte de nombreuses langues et peu aller chercher automatiquement des « faits » random ou sur le sujet de votre choix, ainsi que des sujets sur Reddit et compiler tout ça dans une vidéo avec une voix OFF.

Vous pouvez lui demander autant de shorts que vous voulez. Il vous faudra juste une clé API OpenAI, Pexels (pour les images) et pour avoir une voix de qualité, vous pouvez aussi ajouter votre clé ElevenLabs (mais pas obligatoire puisque c’est payant).

Voici techniquement comment c’est gaulé :

Vous avez deux choix pour installer ShortGPT. Si vous êtes du genre à aimer avoir tout sur votre ordinateur, vous pouvez installer les pré-requis localement en suivant la doc du Github. Cependant, si vous êtes comme moi et que vous préférez ne pas vous embêter avec des installations interminables, vous pouvez utiliser Google Colab. C’est gratuit et sans installation.

Evidemment, y’a assez de contenu merdique sur Internet pour pas en rajouter, mais ça peut-être une bonne base de départ, de reprendre ce code, pour le modifier et en faire un outil de génération de vidéos un peu plus sympa et mieux adapté à votre public.

A découvrir ici.

OpenWrt, now 20 years old, is crafting its own future-proof reference hardware

Linksys WRT54G

Enlarge / Failing an image of the proposed reference hardware by the OpenWrt group, let us gaze upon where this all started: inside a device that tried to quietly use open source software without crediting or releasing it. (credit: Jim Salter)

OpenWrt, the open source firmware that sprang from Linksys' use of open source code in its iconic WRT54G router and subsequent release of its work, is 20 years old this year. To keep the project going, lead developers have proposed creating a "fully upstream supported hardware design," one that would prevent the need for handling "binary blobs" in modern router hardware and let DIY router enthusiasts forge their own path.

OpenWRT project members, 13 of which signed off on this hardware, are keeping the "OpenWrt One" simple, while including "some nice features we believe all OpenWrt supported platforms should have," including "almost unbrickable" low-level firmware, an on-board real-time clock with a battery backup, and USB-PD power. The price should be under $100 and the schematics and code publicly available.

But OpenWrt will not be producing or selling these boards, "for a ton of reasons." The group is looking to the Banana Pi makers to distribute a fitting device, with every device producing a donation to the Software Freedom Conservancy earmarked for OpenWrt. That money could then be used for hosting expenses, or "maybe an OpenWrt summit."

Read 4 remaining paragraphs | Comments

Le code source du ransomware ALPHV est à vendre pour 30 000 dollars

Le groupe de maîtres chanteurs ALPHV / BlackCat continue de faire des vagues même après sa disparition. Le code source du rançongiciel est proposé sur le marché....

WebDB – Vos bases de données enfin accessibles facilement

Par : Korben

Alexandre, lecteur de Korben.info depuis une bonne dizaine d’années, m’a fait le plaisir de me contacter pour me montrer l’outil qu’il développe depuis maintenant un an. J’ai trouvé ça très cool alors je vais le partager avec vous. Il s’agit d’un IDE totalement open source dédié aux bases de données. Cet outil libre simplifie les interactions que nous avons avec nos bases de données, ce qui rend leur administration et la gestion des données plus intuitives et surtout beaucoup plus facile. Vous allez voir !

Tout d’abord, WebDB simplifie la découverte de serveurs et la connexion à ces derniers, grâce à un système de scan intelligent. Il détecte les ports utilisés pour chaque base de données et permet d’ajouter des hôtes spécifiques à analyser. Cela élimine la corvée de récupérer des mots de passe, car WebDB teste automatiquement des identifiants populaires. Pensez quand même à les changer à un moment pour des questions de sécurité 🙂

En explorant plus profondément WebDB, on découvre que l’exploration de données est beaucoup plus facile et agréable que dans n’importe quel PhpMyAdmin ou autre. En seulement trois clics, on peut comme ça parcourir, mettre à jour ou supprimer des données. Le filtrage des données SQL et NoSQL se fait directement depuis l’explorateur, avec un design optimisé pour les clés étrangères et les ObjectID relationnels. Et ce n’est pas tout : WebDB permet de mettre à jours vos données par lots en utilisant des fichiers JSON. Pratiquement quand vous avez de la quantité à mettre à jour.

Le cœur de l’IDE WebDB réside dans son éditeur de requêtes. Avec de l’autocomplétion pour SQL et les structures spécifiques au serveur, rédiger des requêtes se fait en un clin d’œil. Les requêtes CRUD (create, read, update, and delete) pré-construites sont sauvegardées automatiquement et peuvent être marquées comme favorites.

La modification de colonnes SQL ou de champs NoSQL est également plus intuitive grâce à WebDB. Le logiciel propose tous les types possibles en fonction de la base de données et facilite la modification des colonnes avec des fonctions de casting intelligentes, applicables tant aux bases de données SQL qu’à NoSQL. Cette fonctionnalité permet une grande flexibilité et s’adapte à divers contextes linguistiques.

Voilà… Sinon, WebDB gère également des éléments complexes comme les procédures SQL, les fonctions, et les types de données spécifiques. Il prend en charge les validateurs MongoDB et les contraintes SQL, offrant une compréhension complète de la base de données.

La gestion des relations SQL dans WebDB est également totalement transparente grâce à une vue intuitive. L’outil déduit les relations pour aider à générer des données étrangères et à comprendre la structure de la base de données avec une facilité déconcertante. En plus, le versioning de base de données est une autre caractéristique clé de WebDB. Suivant les modifications et intégrant Git, il permet de revenir facilement à n’importe quelle version antérieure.

L’intégration de ChatGPT dans WebDB apporte également un peu de « cerveau » à l’outil. ChatGPT offre des réponses précises en fonction de la structure de la base de données. Cette fusion entre intelligence artificielle et gestion de données ouvre de nouvelles perspectives pour les utilisateurs, surtout pour les débutants.

Le module ERD de WebDB permet également de visualiser la structure et les relations de la base de données de manière moderne et intuitive. L’exportation de ces diagrammes au format PNG ou SVG se fait en un clic, ce qui vous permettra d’illustrer vos préz ou sites web / documentation super facilement.

Enfin, l’importation et l’exportation de données avec WebDB sont simplifiées, que ce soit au format natif ou JSON, garantissant une compatibilité et des performances optimales.

Vous l’aurez compris, Alexandre a bien bossé et WebDB se présente vraiment comme une solution complète et avant-gardiste pour la gestion des bases de données, accessible et efficace pour tous, que vous soyez total noob ou super expert en base de données.

Je vous invite à tester ça. C’est auto-hébergeable, ça tourne dans Docker, et y’a même une démo en ligne.

PR-Agent – Pour automatiser l’analyse des Pull Requests et bien d’autres choses sur vos projets Github, Gitlab…etc

Par : Korben

Si vous contribuez à des projets open source sur Github, Gitlab ou encore Bitbucket et que vous devez vous palucher tous les jours des tonnes d’issues, de questions et des pull requests, voici un outil propulsé avec de l’IA qui devrait bien vous rendre service.

Cet outil c’est PR-Agent et c’est développé par CodiumAI. Il s’agit d’un agent IA utilisant GPT-4 capable de vous soulager en générant des descriptions de pull request claires et concises de manière automatique, de faire de la revue automatique de code, ou tout simplement répondre aux questions que les gens posent et reposent sans cesse.

PR-Agent est également capable, un peu à la manière d’un Github Copilot, de faire des suggestions pour améliorer le code qui se trouve sur votre dépôt, et bien sûr d’écrire les commits si besoin.

Pour cela, une fois que PR-Agent est lancé, il suffit d’employer les commandes suivantes :

  • Description automatique (/describe) : Génère automatiquement une description du PR (Pull Request) – titre, type, résumé, description du code et étiquettes.
  • Auto Review (/review) : Feedback ajustable sur le thème principal du PR, son type, les tests pertinents, les problèmes de sécurité, le score, et diverses suggestions pour le contenu du PR.
  • Réponse aux questions (/ask …) : Réponse à des questions en texte libre sur le PR.
  • Suggestions de code (/improve) : Suggestions de code committable pour améliorer le PR.
  • Mise à jour du Changelog (/update_changelog) : Mise à jour automatique du fichier CHANGELOG.md avec les changements du PR.
  • Trouver un problème similaire (/similar_issue) : Récupère et présente automatiquement les problèmes similaires.
  • Ajouter de la documentation (/add_docs) : Ajoute automatiquement de la documentation aux fonctions/classes non documentées dans le PR.
  • Générer des étiquettes personnalisées (/generate_labels) : Suggère automatiquement des étiquettes personnalisées basées sur les changements de code du PR.

Bref, gros, gros gain de temps. Si vous voulez le tester avant de le déployer sur vos dépôts, c’est possible sur le dépôt public de Codium AI en appelant l’agent comme ceci : @CodiumAI-Agent /COMMAND

À vous de jouer maintenant !

PR Agent est disponible ici et ça peut s’installer directement via Docker.

Zuckerberg’s AGI remarks follow trend of downplaying AI dangers

Mark Zuckerberg, chief executive officer of Meta Platforms Inc., during the Meta Connect event in Menlo Park, California, US, on Wednesday, Sept. 27, 2023.

Enlarge / Mark Zuckerberg, chief executive officer of Meta Platforms Inc., during the Meta Connect event in Menlo Park, California, on September 27, 2023. (credit: Getty Images)

On Thursday, Meta CEO Mark Zuckerberg announced that his company is working on building "general intelligence" for AI assistants and "open sourcing it responsibly," and that Meta is bringing together its two major research groups (FAIR and GenAI) to make it happen.

"It's become clearer that the next generation of services requires building full general intelligence," Zuckerberg said in an Instagram Reel. "This technology is so important, and the opportunities are so great that we should open source and make it as widely available as we responsibly can so that everyone can benefit."

Notably, Zuckerberg did not specifically mention the phrase "artificial general intelligence," or AGI, by name in his announcement, but a report from The Verge seems to suggest he is steering in that direction. AGI is a somewhat nebulous term for a hypothetical technology that is equivalent to human intelligence in performing general tasks without the need for specific training. It's the stated goal of Meta competitor OpenAI and one that many have feared might pose an existential threat to humanity or replace humans working intellectual jobs.

Read 7 remaining paragraphs | Comments

❌