Lateo.net - Flux RSS en pagaille (pour en ajouter : @ moi)

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 26 avril 2024Informatique & geek

OpenAI’s GPT-4 Can Autonomously Exploit 87% of One-Day Vulnerabilities, Study Finds

Researchers from the University of Illinois Urbana-Champaign found that OpenAI’s GPT-4 is able to exploit 87% of a list of vulnerabilities when provided with their NIST descriptions.

Apple releases eight small AI language models aimed at on-device use

An illustration of a robot hand tossing an apple to a human hand.

Enlarge (credit: Getty Images)

In the world of AI, what might be called "small language models" have been growing in popularity recently because they can be run on a local device instead of requiring data center-grade computers in the cloud. On Wednesday, Apple introduced a set of tiny source-available AI language models called OpenELM that are small enough to run directly on a smartphone. They're mostly proof-of-concept research models for now, but they could form the basis of future on-device AI offerings from Apple.

Apple's new AI models, collectively named OpenELM for "Open-source Efficient Language Models," are currently available on the Hugging Face under an Apple Sample Code License. Since there are some restrictions in the license, it may not fit the commonly accepted definition of "open source," but the source code for OpenELM is available.

On Tuesday, we covered Microsoft's Phi-3 models, which aim to achieve something similar: a useful level of language understanding and processing performance in small AI models that can run locally. Phi-3-mini features 3.8 billion parameters, but some of Apple's OpenELM models are much smaller, ranging from 270 million to 3 billion parameters in eight distinct models.

Read 7 remaining paragraphs | Comments

Hier — 25 avril 2024Informatique & geek

School athletic director arrested for framing principal using AI voice synthesis

Illustration of a robot speaking.

Enlarge (credit: Getty Images)

On Thursday, Baltimore County Police arrested Pikesville High School's former athletic director, Dazhon Darien, and charged him with using AI to impersonate Principal Eric Eiswert, according to a report by The Baltimore Banner. Police say Darien used AI voice synthesis software to simulate Eiswert's voice, leading the public to believe the principal made racist and antisemitic comments.

The audio clip, posted on a popular Instagram account, contained offensive remarks about "ungrateful Black kids" and their academic performance, as well as a threat to "join the other side" if the speaker received one more complaint from "one more Jew in this community." The recording also mentioned names of staff members, including Darien's nickname "DJ," suggesting they should not have been hired or should be removed "one way or another."

The comments led to significant uproar from students, faculty, and the wider community, many of whom initially believed the principal had actually made the comments. A Pikesville High School teacher named Shaena Ravenell reportedly played a large role in disseminating the audio. While she has not been charged, police indicated that she forwarded the controversial email to a student known for their ability to quickly spread information through social media. This student then escalated the audio's reach, which included sharing it with the media and the NAACP.

Read 5 remaining paragraphs | Comments

OpenELM – Apple sort ses modèles IA légers et open-source

Par : Korben

Vous connaissez OpenELM ? Non, normal, ça vient de sortir. Et c’est une famille de modèles IA open-source made in Apple conçus pour tourner directement sur vos appareils, sans passer par le cloud. En gros, c’est de l’IA maison dans nos iPhone, iPad et Mac…etc.

OpenELM combine plusieurs modèles de langage naturel (LLMs) utilisant des algorithmes évolutionnistes qui exploitent les principes techniques suivants :

  1. Layer-wise scaling strategy : Cette stratégie consiste à allouer les paramètres dans les couches d’un modèle transformeur pour améliorer l’exactitude. Les modèles sont pré-alourés avec un budget de paramètres de 270 millions, 450 millions, 1,1 milliard et 3 milliards.
  2. Pré-entraînement : Les modèles ont été pré-entraînés à l’aide d’une combinaison de datasets, incluant une sous-ensemble de Dolma v1.6, RefinedWeb, deduplicated PILE et une sous-ensemble de RedPajama. Ce dataset contient environ 1,8 trillion de tokens.
  3. Evolutionary algorithms : Les algorithmes évolutionnistes sont utilisés pour combiner les modèles LLM et améliorer l’exactitude. Cela permet d’exploiter les forces combinées des modèles pré-alourés et d’améliorer leur précision.

Alors évidemment, Apple arrive un peu après la bataille dans l’IA, pendant que Microsoft et Google déboulent à fond la caisse. Mais bon, mieux vaut tard que jamais, et puis ils compensent avec du lourd, soit 8 modèles OpenELM au total, dont 4 pré-entraînés avec CoreNet et 4 fine-tunés. Et avec leur stratégie de scaling par couche ça optimise à fond l’allocation des paramètres.

Allez, je traduits… En gros, ça veut dire qu’ils sont hyper efficaces et précis. Prenez le modèle à 1 milliard de paramètres et bien bah il explose un modèle équivalent comme OLMo de 2,36% en précision, avec 2 fois moins de tokens en pré-entraînement. Et ce qui est top, c’est qu’Apple balance tout : code, logs d’entraînement, configuration…etc et pas juste le modèle final. Et vu qu’ils utilisent des datasets publics, c’est top en matière de transparence et vérification des biais.

En tout cas, une chose est sûre, avec OpenELM, Apple nous prouve qu’ils sont dans la course, et qu’ils comptent bien mettre le paquet sur l’IA

Et Merci à Letsar pour l’info, c’est lui qui m’a mis la puce à l’oreille sur OpenELM. Tu gères !

Source

À partir d’avant-hierInformatique & geek

EB corbos Linux – Le premier OS open source certifié pour l’automobile

Par : Korben

Figurez-vous qu’Elektrobit, le géant allemand de l’électronique automobile, vient de nous pondre un truc qui va faire plaisir aux fans de libre : EB corbos Linux, le premier système d’exploitation open source qui respecte les normes de sécurité les plus pointues du monde de la bagnole.

En gros, les constructeurs en ont marre de se trimballer des kilomètres de câbles et des centaines de boîtiers noirs dans leurs caisses-. L’idée, c’est de tout centraliser sur quelques « super ordinateurs » qu’ils appellent des « plateformes de calcul haute performance ». Et chacun gère son domaine : la conduite, l’info-divertissement, les aides à la conduite… Bref, ça simplifie le bordel et ça permet de faire évoluer les fonctionnalités sans toucher au hardware.

Le hic, c’est que tout ce bazar logiciel doit être hyper sécurisé. Parce que si votre autoradio plante, c’est pas bien grave, mais si c’est votre direction assistée qui décide de partir en vacances, bonjour les dégâts ! C’est là qu’EB corbos Linux entre en scène.

Grâce à son architecture unique, ce système d’exploitation prend Linux et le rend compatible avec les exigences les plus draconiennes en matière de sécurité automobile, genre les normes ISO 26262 et IEC 61508 en utilisant un hyperviseur et un système de monitoring externe qui valide les actions du noyau. En gros, Linux peut continuer à évoluer tranquillou sans compromettre la sécurité.

Comme cette distrib est basé sur du bon vieux Linux, il profite de toute la puissance de l’open source. Genre les milliers de développeurs qui bossent dessus, les mises à jour de sécurité en pagaille, la flexibilité, la rapidité d’innovation… Tout ça dans une distrib’ véhicule-compatible, c’est quand même cool. En plus, Elektrobit a développé ce petit miracle main dans la main avec l’équipe d’ingénieurs d’Ubuntu Core chez Canonical. Autant dire que c’est du lourd !

Elektrobit a pensé à tout puisqu’ils proposent même une version spéciale pour les applications critiques, genre les trucs qui peuvent tuer des gens s’ils plantent. Ça s’appelle EB corbos Linux for Safety Applications, et c’est le premier OS Linux à décrocher la certification de sécurité automobile auprès du TÜV Nord.

Mais le plus cool, c’est qu’avec cet OS, vous pouvez laisser libre cours à votre créativité de développeur automobile. Vous voulez intégrer les dernières technos de conduite autonome, d’intelligence artificielle, de reconnaissance vocale… Pas de problème, Linux a tout ce qu’il faut sous le capot.

Imaginez que vous bossiez sur un système de reconnaissance de panneaux pour aider à la conduite. Avec ça, vous pouvez piocher dans les bibliothèques open source de traitement d’image, de machine learning, etc. Vous adaptez tout ça à votre sauce, en respectant les contraintes de sécurité, et voilà ! En quelques sprints, vous avez un truc qui déchire, testé et approuvé pour la route. Et si un autre constructeur veut l’utiliser, il peut, c’est ça la beauté de l’open source !

Autre exemple, vous voulez développer un système de monitoring de l’état de santé du conducteur, pour éviter les accidents dus à la fatigue ou aux malaises. Là encore, EB corbos Linux est votre allié. Vous pouvez utiliser des capteurs biométriques, de l’analyse vidéo, des algorithmes de détection… Tout en étant sûr que votre code ne mettra pas en danger la vie des utilisateurs.

Bref, vous l’aurez compris, c’est le meilleur des deux mondes avec d’un côté, la puissance et la flexibilité de Linux, de l’open source, de la collaboration à grande échelle et de l’autre, la rigueur et la sécurité indispensables au monde automobile, où la moindre erreur peut coûter des vies.

Source

Open Compute Project : les datacenters partagent des bonnes pratiques pour l’environnement

OVHCloud partage ses efforts environnementaux au sommet de l’Open Compute Project qui se tient à Lisbonne. Au moment où le datacenter marseillais MRS4 de Digital Realty obtient la certification environnementale BREEAM.

Microsoft’s Phi-3 shows the surprising power of small, locally run AI language models

An illustration of lots of information being compressed into a smartphone with a funnel.

Enlarge (credit: Getty Images)

On Tuesday, Microsoft announced a new, freely available lightweight AI language model named Phi-3-mini, which is simpler and less expensive to operate than traditional large language models (LLMs) like OpenAI's GPT-4 Turbo. Its small size is ideal for running locally, which could bring an AI model of similar capability to the free version of ChatGPT to a smartphone without needing an Internet connection to run it.

The AI field typically measures AI language model size by parameter count. Parameters are numerical values in a neural network that determine how the language model processes and generates text. They are learned during training on large datasets and essentially encode the model's knowledge into quantified form. More parameters generally allow the model to capture more nuanced and complex language-generation capabilities but also require more computational resources to train and run.

Some of the largest language models today, like Google's PaLM 2, have hundreds of billions of parameters. OpenAI's GPT-4 is rumored to have over a trillion parameters but spread over eight 220-billion parameter models in a mixture-of-experts configuration. Both models require heavy-duty data center GPUs (and supporting systems) to run properly.

Read 8 remaining paragraphs | Comments

Ebook-demo – Le moteur de recherche de bouquins décentralisé

Par : Korben

Vous en avez ras le bol de chercher pendant des heures le bouquin que vous voulez lire sans le trouver dans le commerce ? Pourquoi ne pas le télécharger en ligne alors ? Mais oùùùù ?

Et bien, j’ai peut-être une solution pour vous les amis et ça s’appelle sans chichi ebook-demo, un nouveau projet de moteur de recherche décentralisé pour les livres électroniques, inspiré de Liber3 (qui est un projet aux sources fermées).

Imaginez un peu le truc : vous tapez le titre du livre que vous cherchez dans la barre de recherche, vous cliquez sur « Search » et BAM, les résultats s’affichent juste en dessous avec le titre et l’auteur de chaque bouquin correspondant. C’est simple, efficace et ça marche du tonnerre !

Mais attendez, c’est pas tout. Ce qui rend ce projet encore plus cool, c’est qu’il est basé sur des technologies comme React et le SDK Glitter (pour la blockchain du même nom qui sert de base de données décentralisée).

Bon, je vois déjà les petits malins qui se disent « Ok, c’est bien beau tout ça, mais comment ça s’installe concrètement ?« . Pas de panique, c’est là que ça devient un peu technique mais je vais essayer de vous expliquer ça simplement. Déjà, pour faire tourner ce projet sur votre machine, il vous faudra avoir installé Node.js en version 16.x minimum et npm en version 6.x minimum. Ensuite, vous devrez cloner le dépôt du projet depuis GitHub avec la commande

git clone https://github.com/j2qk3b/ebook-demo

puis vous placer dans le dossier du projet avec

cd ebook-demo

Là, vous lancez un petit

npm install

pour installer toutes les dépendances nécessaires et vous êtes prêt à démarrer le serveur de développement avec

npm run dev

Et voilà, si tout se passe bien, vous devriez pouvoir accéder à l’application sur http://localhost:5173.

Fastoche, non ? Ensuite, votre instance ira se connecter aux autres instances, et vous pourrez faire toutes les recherches qui vous passent par la tête. Imaginez un peu les possibilités offertes par un tel outil. Vous êtes étudiant et vous devez faire des recherches pour un mémoire sur la littérature française du 19ème siècle ? Pas de souci, en quelques clics vous pouvez retrouver les œuvres de Victor Hugo, Balzac ou Zola. Ou alors vous êtes un fan absolu de science-fiction et vous voulez découvrir de nouveaux auteurs ? Là encore, ce moteur de recherche sera votre meilleur ami pour dénicher les pépites du genre.

Mais le plus beau dans tout ça, c’est que ce projet est open source et que tout le monde peut y contribuer. Si vous avez des idées pour améliorer l’outil, des suggestions de nouvelles fonctionnalités ou même si vous voulez corriger des bugs. Puis comme c’est décentralisé, c’est le genre de truc incensurable.

Évidemment, comme tout projet en développement, il y a encore du boulot pour faire de ebook-demo l’outil ultime de recherche de livres électroniques. Mais avec une communauté motivée et des contributeurs talentueux, je suis sûr qu’il peuvent y arriver.

Un coup de turbo pour la version payante de ChatGPT

Par : Olivier

Chatgpt 1 An

Les utilisateurs payants de ChatGPT peuvent désormais bénéficier de la version améliorée de GPT-4 Turbo, un modèle avancé d'IA générative qui propulse les conversations du bot conversationnel. Ce dernier se veut maintenant plus malin et mieux armé pour répondre aux questions sur des événements récents.

PyTorch dévoile Torchtune pour fine-tuner les LLM

Par : Korben

PyTorch, le framework chouchou des bidouilleurs d’IA, vient de nous pondre un petit truc cool : Torchtune ! 💎 Cette nouvelle bibliothèque native, encore en phase alpha mais déjà disponible en open-source sur GitHub, va vous permettre de fine-tuner les gros modèles de langage (LLM) comme un pro, sans vous prendre la tête.

Torchtune est donc une boîte à outils hyper flexible et modulaire qui va vous permettre de vous éclater à customiser des modèles pour vos propres besoins, le tout avec des recettes mémoire efficaces qui tournent même sur une bête carte graphique de gamer, comme les NVidia 3090/4090.

Son secret ?

Une architecture bien pensée qui mise sur l’interopérabilité avec l’écosystème des LLM, qu’ils soient open-source ou non. Concrètement, ça veut dire que vous allez pouvoir brancher Torchtune à tout un tas d’outils et de frameworks que vous adorez déjà, comme Hugging Face 🤗, PyTorch FSDP 🪢, Weights & Biases 📈, et plein d’autres.

Grâce à des recettes simples et bien documentées pour les modèles populaires comme Llama 3, Mistral ou Gemma 7B, même les débutants vont pouvoir se lancer dans l’aventure sans flipper. Bon OK, il faudra quand même un peu de bagage en PyTorch et en LLM, mais rien d’insurmontable ! Et si vous êtes un pro, vous allez pouvoir hacker le code à volonté pour l’adapter à vos besoins spécifiques.

Alors comment on met les mains dans le cambouis avec Torchtune ?

Rien de plus simple, mon cher Watson ! Il vous suffit d’installer la dernière version stable de PyTorch (2.2.2 au moment où j’écris ces lignes), puis de télécharger Torchtune depuis PyPI avec un petit

pip install torchtune

Et voilà, vous êtes prêt à en découdre avec les LLM !

Pour vous faire les dents, je vous conseille de jeter un œil au tutoriel sur le fine-tuning de Llama2 7B. C’est le parfait point de départ pour comprendre comment Torchtune fonctionne et comment l’utiliser pour vos propres projets.

En gros, ça se passe en 4 étapes :

  1. Téléchargez le modèle pré-entraîné et le tokenizer depuis Hugging Face Hub avec tune download.
  2. Choisissez une recette de fine-tuning (LoRA, QLoRA, full…) et customisez-la avec un fichier de config en YAML.
  3. Lancez l’entraînement avec tune run en précisant votre recette et votre config. Vous pouvez même faire du multi-GPU avec torchrun !
  4. Admirez le résultat et testez votre modèle fine-tuné avec une inférence locale. Si tout se passe bien, exportez-le avec ExecuTorch pour le déployer en prod, ou utilisez les API de quantification de Torchao pour l’exporter en int4 ou int8 et l’utiliser sur mobile ou en edge.

Facile, non ? 😄

Bon OK, j’avoue, j’ai un peu simplifié. En vrai, il y a pas mal de subtilités et de paramètres à régler pour obtenir les meilleurs résultats, comme le learning rate, le nombre d’époques, la taille du batch, le ratio de LoRA, et tout un tas d’autres trucs, mais c’est justement sa flexibilité qui vous permet d’expérimenter à l’infini pour trouver la combinaison parfaite.

Bref, si vous êtes dev et que vous aimez jouer avec les LLM c’est à tester.

Source

ChatGPT a des tics de langage à cause du colonialisme numérique

ChatGPT OpenAI chatbot

L'utilisation de l'IA à grande échelle fait apparaitre de nouvelles tendances de langage — et fait ressortir certains mots surannés. L'utilisation de certains mots serait même devenue révélatrice de textes générés par ChatGPT, mais surtout de la façon dont il a été entrainé.

LLMs keep leaping with Llama 3, Meta’s newest open-weights AI model

A group of pink llamas on a pixelated background.

Enlarge (credit: Getty Images | Benj Edwards)

On Thursday, Meta unveiled early versions of its Llama 3 open-weights AI model that can be used to power text composition, code generation, or chatbots. It also announced that its Meta AI Assistant is now available on a website and is going to be integrated into its major social media apps, intensifying the company's efforts to position its products against other AI assistants like OpenAI's ChatGPT, Microsoft's Copilot, and Google's Gemini.

Like its predecessor, Llama 2, Llama 3 is notable for being a freely available, open-weights large language model (LLM) provided by a major AI company. Llama 3 technically does not quality as "open source" because that term has a specific meaning in software (as we have mentioned in other coverage), and the industry has not yet settled on terminology for AI model releases that ship either code or weights with restrictions (you can read Llama 3's license here) or that ship without providing training data. We typically call these releases "open weights" instead.

At the moment, Llama 3 is available in two parameter sizes: 8 billion (8B) and 70 billion (70B), both of which are available as free downloads through Meta's website with a sign-up. Llama 3 comes in two versions: pre-trained (basically the raw, next-token-prediction model) and instruction-tuned (fine-tuned to follow user instructions). Each has a 8,192 token context limit.

Read 8 remaining paragraphs | Comments

Llama 3 – l’IA open source de Meta qui rivalise avec les meilleurs modèles

Par : Korben

Accrochez-vous à vos claviers, car Meta vient de lâcher dans la nature une nouvelle créature nommée Llama 3. Oui, vous avez bien compris, je parle de la dernière génération de modèles de langage « open source » (ou presque, on y reviendra) de la société de Mark Zuckerberg.

Si vous pensiez que ChatGPT, Claude ou Mistral étaient les rois de la savane, attendez de voir débarquer ces nouveaux lamas survitaminés ! Avec des versions allant de 8 à 400 milliards de paramètres (pour les non-initiés, disons que c’est l’équivalent de leur QI 🧠), les Llama 3 atomisent littéralement la concurrence sur de nombreux benchmarks standards, que ce soit en termes de connaissances générales, de compréhension, de maths, de raisonnement ou de génération de code.

Mais qu’est-ce qui fait de Llama 3 un tel monstre par rapport à son petit frère Llama 2 ? Déjà, un entraînement de folie à base de 15 000 milliards de tokens (7 fois plus que Llama 2 !) pompé depuis le web (!!), avec beaucoup plus de code et de données non-anglaises pour préparer le terrain à une IA multilingue. Ajoutez à ça des techniques de parallélisation à gogo pendant la phase de pré-entraînement, et vous obtenez des lamas dopés qui apprennent à une vitesse supersonique.

Et ce n’est pas tout ! Les Llama 3 ont suivi un programme d’éducation complet, avec du fine-tuning à base de rejection sampling, de PPO et de DPO (si vous ne connaissez pas ces acronymes, ne vous inquiétez pas, moi non plus 😅). Résultat : des modèles ultra-fiables qui refusent rarement une tâche, font preuve d’un alignement exemplaire et sont capables de suivre des instructions complexes sans sourciller. Bref, ce sont des cracks en raisonnement et en génération de code !

Mais au fait, comment on met la main sur ces petites bêtes ? Facile, il suffit de se rendre sur le site de Meta AI et de les télécharger ! Enfin, quand je dis facile… Les Llama 3 sont bien « open source », mais sous une licence maison qui impose quelques restrictions, notamment pour les entreprises de plus de 700 millions d’utilisateurs mensuels (suivez mon regard vers Mountain View et Redmond 👀). Mais bon, rien ne vous empêche de vous amuser avec si vous n’êtes pas une multinationale !

Et en parlant de s’amuser, sachez que Meta a aussi concocté un chatbot maison (pas encore dispo en France) baptisé sobrement « Meta AI« , disponible sur le web (www.meta.ai) et directement intégré dans les barres de recherche de Facebook, Instagram, WhatsApp et Messenger. Sous le capot, c’est bien sûr du pur Llama 3, avec en prime un modèle de génération d’images nommé « Meta Imagine« .

Au programme, de la discussion, de la recherche web via Bing et Google, et bien sûr de la création d’images en un clin d’œil. Seul hic, pas encore de mode multi-modal façon ChatGPT pour uploader vos propres documents ou images, mais ça ne saurait tarder !

Alors, que penser de ce nouveau coup d’éclat de Meta dans la bataille des IA ?

Personnellement, je trouve ça plutôt chouette de voir un poids lourd du Net jouer le jeu de l’open source (ou approchant) et mettre à disposition de tous des modèles de cette qualité. Bien sûr, on peut toujours discuter des arrière-pensées de Zuck et sa volonté de garder un œil sur ce qu’on fabrique avec ses lamas. Mais au final, c’est toujours ça de pris sur les GAFAM et leurs vilains modèles propriétaires !

Allez, je vous laisse, j’ai un lama à aller dompter moi ! 🦙

Et n’oubliez pas, comme le dirait l’autre, « le monde appartient à ceux qui codent tôt ». Ou tard, c’est selon.

Source

Big Tech can’t hoard brainwave data for ad targeting, Colorado law says

Big Tech can’t hoard brainwave data for ad targeting, Colorado law says

Enlarge (credit: PM Images | DigitalVision)

On Wednesday, Colorado expanded the scope of its privacy law initially designed to protect biometric data like fingerprints or face images to become first in the nation to also shield sensitive neural data.

That could stop companies from hoarding brain activity data without residents realizing the risks. The New York Times reported that neural data is increasingly being collected and sold nationwide. And after a market analysis showed that investments in neurotechnology leapt by 60 percent globally from 2019 to 2020—and were valued at $30 billion in 2021—Big Tech companies have significantly intensified plans to develop their own products to rake in potentially billions.

For instance, in 2023, Meta demoed a wristband with a neural interface used to control its smart glasses and unveiled an AI system that could be used to decode the mind. In January, Elon Musk announced that Neuralink implanted its first brain chip in a human that can be used to control a device with their thoughts. And just last month, Apple Insider reported that "Apple is working on technology that could turn the Apple Vision Pro into a brainwave reader to improve mental health, assist with training and workouts, and help with mindfulness."

Read 24 remaining paragraphs | Comments

OpenAI winds down AI image generator that blew minds and forged friendships in 2022

An AI-generated image from DALL-E 2 created with the prompt

Enlarge / An AI-generated image from DALL-E 2 created with the prompt "A painting by Grant Wood of an astronaut couple, american gothic style." (credit: AI Pictures That Go Hard / X)

When OpenAI's DALL-E 2 debuted on April 6, 2022, the idea that a computer could create relatively photorealistic images on demand based on just text descriptions caught a lot of people off guard. The launch began an innovative and tumultuous period in AI history, marked by a sense of wonder and a polarizing ethical debate that reverberates in the AI space to this day.

Last week, OpenAI turned off the ability for new customers to purchase generation credits for the web version of DALL-E 2, effectively killing it. From a technological point of view, it's not too surprising that OpenAI recently began winding down support for the service. The 2-year-old image generation model was groundbreaking for its time, but it has since been surpassed by DALL-E 3's higher level of detail, and OpenAI has recently begun rolling out DALL-E 3 editing capabilities.

But for a tight-knit group of artists and tech enthusiasts who were there at the start of DALL-E 2, the service's sunset marks the bittersweet end of a period where AI technology briefly felt like a magical portal to boundless creativity. "The arrival of DALL-E 2 was truly mind-blowing," illustrator Douglas Bonneville told Ars in an interview. "There was an exhilarating sense of unlimited freedom in those first days that we all suspected AI was going to unleash. It felt like a liberation from something into something else, but it was never clear exactly what."

Read 42 remaining paragraphs | Comments

OpenWRT One : BananaPi dévoile un prototype de routeur

Minimachines.net en partenariat avec TopAchat.com

OpenWRT One est la suite logique d’un projet porté par des programmeurs chevronnés. Il s’agit d’un écrin matériel destiné à recevoir la partie logicielle qu’est OpenWRT.

Sous ce nom étrange d’OpenWRT One se matérialisent en réalité deux projets. D’abord un projet logiciel très complet qui existe depuis des années qui est OpenWRT. Pour résumer simplement, il s’agit d’une distribution Linux extrêmement spécialisée et construite pour piloter des appareils spécifiques. Des routeurs dont ils vont remplacer le système originel pour une solution souvent plus compétente et surtout moins propriétaire. Une solution mise à jour de manière régulière et qui corrige des failles dont certains fabricants se moquent rapidement lorsqu’ils sortent les « vieilles » gammes de routeurs de leurs catalogues.

OpenWRT est libre, gratuit et s’appuie sur une architecture malléable pour s’adapter aux différents matériels rencontrés dans les routeurs. C’est un travail exceptionnel, encore une fois porté par une poignée de volontaires, qui a su libérer des centaines d’appareils de dizaines de marques différents. D’ailleurs si vous voulez savoir si votre materiel est compatible avec OpenWRT, une base de données regroupe l’ensemble des routeurs compatibles.

OpenWRT One

Le travail mené par OpenWRT est donc toujours le même depuis des années. On prend un materiel existant, un routeur la plupart du temps, parfois des choses un peu plus exotiques. Puis on l’analyse pour comprendre comment il fonctionne et enfin on implémente une image du système Linux pour coller à ses compétences afin de lui porter la distribution la plus adaptée à ses capacités. Son SoC est analysé, sa mémoire vive mais également les puces qui gèrent ses réseaux. C’est un travail de haute couture qui est probablement ingrat, enrichissant mais aussi frustrant. Frustrant car au delà de l’excitation liée au fait d’arriver à ses fins, il y a également la découverte d’un materiel parfois mal calibré, mal développé ou tout simplement pensé pour être limité dans ses capacités. Certaines marques fabriquent quasiment la même électronique pour toute leur gamme mais limitent artificiellement les capacités de certains produits en désactivant des fonctions.

C’est probablement de cette frustration qu’est née l’idée OpenWRT One. Un materiel conçu en amont pour coller aux besoins de la partie logicielle. Construit en offrant à la marque Banana Pi un cahier des charges des besoins, cette carte mère est un prototype de ce premier materiel censé devenir le routeur par excellence. On y retrouve un SoC MediaTek MT7981B sous double cœur ARM Cortex-a53 cadencé à 1.3 GHz accompagné par 1 Go de mémoire vive DDR4 et un stockage de type SPI NAND de 128 Mo. 4 Mo de stockage supplémentaire protégés sont également intégrés comme sauvegarde du système et enfin un port M.2 2230/2242 NVMe PCIe 2 X1 est disponible pour ajouter un stockage externe. On retrouve évidemment un support de pile pour l’horloge interne et toute une connectique dédiée au travail de routeur.

L’OpenWRT One présenté propose ainsi un USB 2.0 Type-A et un port d’extension mikroBUS ouvrant la voie à énormément de possibilités techniques. La partie réseau a proprement parler comprend deux ports Ethernet. Le premier en Gigabit classique et le second en 2.5 Gigabit. Un SoC Mediatek MT7976C prend en charge la partie Wi-Fi6 du dispositif. On peut supposer que l’ensemble de ces puces a été choisi par les deux parties que sont les développeurs d’OpenWRT et Banana Pi pour leurs comptabilité avec le projet. 

Sur les 14.8 cm de large et 10.1 cm de haut de la carte, on note la présence d’un port USB Type-C pour piloter le système embarqué et le programmer ainsi que des boutons spécifiquement conçus pour les développeurs et les mises à jour. On peut ainsi retrouver des boutons Reset et d’autres programmables. Un interrupteur pour distinguer les stockages internes est également présent pour faciliter les mises à jour. L’alimentation est assuré par une entrée 12 volts et une possibilité d’utilisation en Power over Ethernet via un module optionnel est également possible. 

Pas d’informations techniques plus détaillées sur un produit plus « classique » avec un enrobage qu’on jugera plus consensuel… On imagine qu’il sera possible de trouver rapidement des plans pour imprimer un boitier en 3D. Le prix de la carte devrait se situer sous les 100$. C’est plus cher qu’un routeur classique de grande marque mais l’objectif ici n’et pas spécialement de leur faire concurrence. Il sera toujours plus rentable d’acheter ou de récupérer un routeur fabriqué en masse par un fabricant tiers et de lui injecter OpenWRT que d’acheter l’OpenWRT One pour de simples raisons d’échelles commerciales. Mais les utilisateurs aguerris, programmeurs et bidouilleurs en tous genres seront probablement d’avoir un outil qui servira a accueillir du mieux possible la suite Linux plutôt que de devoir la contorsionner pour la faire rentrer dans un materiel pas prévu pour elle.

On note au passage l’excellent opération que ce produit représente pour Mediatek, deux puces ont été retenues ici. En suivant les recommandations proposées par ce prototype,  la marque peut établir de son côté un cahier des charges pour que ses futurs clients puissent construire des routeurs commerciaux compatibles du mieux possible avec OpenWRT.

Source : CNX Software

OpenWRT One : BananaPi dévoile un prototype de routeur © MiniMachines.net. 2024.

Nintendo Indie World avril 2024 : voici les annonces à ne surtout pas manquer

Nintendo Indie World Août

Pour sa première présentation Indie World de l'année, la firme de Kyoto a mis les petits plats dans les grands avec de belles annonces.

AiFormat – Un outil en ligne de commande pour formater vos fichiers pour Claude

Par : Korben

Si vous vous intéressez un peu aux outils IA, vous connaissez sûrement Claude, l’assistant IA dernière génération d’Anthropic. Depuis la sortie de sa version 3, c’est d’ailleurs devenu mon meilleur pote pour coder à la vitesse de l’éclair. j’ai même pris un abonnement payant en rusant un peu.

Toutefois, le seul truc qui me ralentissait dans mes grandes ambitions, c’était de devoir copier-coller à la main tous mes fichiers de code dans la fenêtre de contexte de Claude pour ensuite lui demander d’analyser ça, et me proposer des corrections ou une nouvelle fonction. Mais ça, c’était avant car je suis tombé sur un petit bijou opensource qui va vous changer la vie : AiFormat.

Ce petit outil en ligne de commande vous permet de sélectionner des fichiers et dossiers, et de les convertir automatiquement dans un format optimisé pour Claude. En deux clics, tout est dans le presse-papier, prêt à être envoyé à votre IA préférée.

Sous le capot, AiFormat utilise Ink, une chouette librairie pour créer des CLI avec une belle interface utilisateur. Ça vous permet de filtrer et naviguer dans vos fichiers, de les sélectionner avec les flèches, et tout ça de façon super intuitive.

Pour l’installer et le prendre en main, c’est hyper simple, tout est expliqué sur la page Github du projet. Ça commence par un simple :

npm install --global aiformat

Ensuite, pour utiliser aiformat, accédez au répertoire contenant les fichiers et dossiers que vous souhaitez partager avec Claude puis lancez la commande suivante :

aiformat

Le créateur a eu la bonne idée de mettre le projet en opensource (MIT license), du coup n’hésitez pas à y jeter un œil et même contribuer si le cœur vous en dit. La communauté vous dira merci !

Franchement, si vous utilisez souvent Claude pour coder ou analyser des projets, c’est un indispensable à avoir dans sa boîte à outils. Ça vous fera gagner un temps fou au quotidien.

Un mode batch sur l’API OpenAI : ce qu’il faut savoir

Une option de traitement par lots est arrivée sur l'API OpenAI. Voici quelques clés de fonctionnement.

Les leçons d’une start-up sur l’usage de l’API OpenAI

Après 500 millions de tokens traités avec GPT-3.5 Turbo et GPT-4 via l'API OpenAI, une start-up américaine dresse un bilan.

OpenTofu-HashiCorp : frictions autour de la licence BSL

Mis sous pression par HashiCorp, le projet OpenTofu se défend de toute appropriation illégale du code de Terraform.

Graphite – l’éditeur graphique open source qui va bousculer la création graphique

Par : Korben

Vous êtes accros aux logiciels de retouche photo et de création graphique mais vous en avez marre de vider votre compte en banque pour des licences hors de prix ? Et si je vous disais qu’une solution très sympa open source et totalement gratuite était en train de voir le jour ? Laissez-moi vous présenter Graphite, un projet de dingue porté par une communauté de développeurs et d’artistes passionnés.

Alors, qu’est-ce que c’est que ce truc ? En gros, le but c’est de pondre une appli de graphics editing nouvelle génération qui coche toutes les cases : retouche photo, dessin vectoriel, peinture numérique, PAO, compositing, motion design… Rien que ça ! On est clairement sur un couteau suisse de la création 2D.

Bon, je vous vois venir avec vos gros sabots : « Ouais mais c’est encore un énième logiciel qui va essayer de faire comme Photoshop et cie mais en moins bien ! » Eh bah non, justement ! L’idée c’est pas de copier bêtement ce qui existe déjà mais d’innover en s’inspirant de ce qui se fait de mieux dans d’autres domaines, comme la 3D.

Le truc de malade dans Graphite, c’est qu’il est construit autour d’un node graph, une sorte de « compo visuel » où on branche des nœuds entre eux pour manipuler nos calques et leur appliquer des filtres et des effets à l’infini. Ça permet de garder la main à chaque étape et de pouvoir revenir en arrière sans perdre en qualité, ce qui est juste im-po-ssible dans les logiciels de retouche photo traditionnels. On appelle ça du non-destructif.

Autre point fort : Graphite gère aussi bien les images matricielles (bitmap) que vectorielles, et le tout avec une qualité d’affichage toujours au taquet, même si on zoom dans tous les sens ! Plus besoin d’avoir 36 000 applis et de jongler entre elles. C’est un peu le mix parfait entre le pixel et le vecteur (avec un soupçon de génération procédurale en plus).

Bon, alors, il sort quand ce petit bijou ? Figurez-vous que Graphite est déjà dispo en version alpha et qu’on peut le tester directement dans son navigateur. Pas besoin d’install, ça tourne full JavaScript côté client. Évidemment, à ce stade, c’est encore un peu brut de décoffrage et y’a pas mal de features prévues sur la roadmap qui ne sont pas encore implémentées. Mais ça donne déjà un bon aperçu du potentiel de la bête !

Et en parlant de potentiel, vous allez voir que les possibilités de création sont assez dingues. Vous pouvez par exemple générer des centaines de cercles de façon procédurale pour obtenir des motifs super stylés. Ou encore créer des structures complexes qui s’adaptent automatiquement, comme ces guirlandes de Noël dont les ampoules se replacent toutes seules quand on déforme le chemin. Magique !

Donc, si vous voulez voir ce projet de dingue prendre son envol, n’hésitez pas à mettre la main au portefeuille et à faire un don. C’est vous qui voyez, mais je pense que ça en vaut carrément le coup ! En tout cas, moi, j’ai déjà mis une étoile sur le repo Github 😉

Whomane – L’IA portable & open source

Par : Korben

Accrochez-vous bien à vos slips, parce que je vais vous parler d’un truc de ouf qui risque bien de révolutionner le monde de l’IA portable : Whomane ! Ouais, vous avez bien lu, c’est un projet open source de wearable avec une caméra intégrée.

Whomane, c’est un peu le rêve de tout maker qui se respecte : un appareil portatif bourré d’IA et de capteurs, le tout en mode open source pour pouvoir bidouiller et créer ses propres applications. La vision derrière ce projet, c’est de rendre l’IA embarquée accessible à tous, que ce soit pour l’utiliser ou pour développer dessus.

Concrètement, Whomane se présente sous la forme d’un petit boîtier à clipser sur soi, un peu comme une broche hi-tech. Mais attention, pas n’importe quelle broche ! Celle-là embarque une caméra, un micro et du logiciel capable d’analyser votre environnement en temps réel. Et le tout est propulsé par un raspberry pi Zero capable de faire tourner des modèles de deep learning directement sur l’appareil.

Maintenant, vous vous demandez sûrement ce qu’on peut bien faire avec un truc pareil ? Eh bien, les possibilités sont quasi infinies ! Imaginez par exemple une application qui reconnaît les visages et affiche des infos sur les gens que vous croisez. Ou encore un assistant personnel qui analyse vos conversations et vous souffle des réponses. Vous voyez le genre ?

Mais Whomane, c’est aussi et surtout une plateforme ouverte et collaborative. Le code source est dispo sur GitHub, avec une licence GPL pour les projets open source et une licence commerciale pour ceux qui veulent l’intégrer dans des produits fermés.

Alors okay, je vous vois venir avec vos grands chevaux : « Oui mais la vie privée dans tout ça ? C’est Big Brother ton truc ! » Alors oui, évidemment, dès qu’on parle de caméra et d’IA, ça soulève des questions. Mais justement, l’avantage d’un projet open source comme Whomane, c’est la transparence. Tout est là, à disposition de la communauté pour auditer le code et s’assurer qu’il n’y a pas de dérive. Et puis bien sûr, il faudra toujours veiller à respecter les lois et réglementations en vigueur.

Bref, vous l’aurez compris, Whomane c’est le genre de projet geek et utopiste qui fait vibrer la corde du bidouilleur qui sommeille en nous. Après, on ne va pas se mentir, c’est encore un prototype avec sûrement plein de bugs et de limitations. Mais quand bien même, qu’est-ce que c’est excitant de voir émerger ce genre d’initiatives !

ChatGPT est plus malin et moins verbeux

Chatgpt Store

ChatGPT devrait se montrer plus direct et moins verbeux avec les abonnés payants. OpenAI a mis en ligne une nouvelle version de GPT-4 Turbo qui améliore les capacités du bot conversationnel.

Words are flowing out like endless rain: Recapping a busy week of LLM news

An image of a boy amazed by flying letters.

Enlarge / An image of a boy amazed by flying letters. (credit: Getty Images)

Some weeks in AI news are eerily quiet, but during others, getting a grip on the week's events feels like trying to hold back the tide. This week has seen three notable large language model (LLM) releases: Google Gemini Pro 1.5 hit general availability with a free tier, OpenAI shipped a new version of GPT-4 Turbo, and Mistral released a new openly licensed LLM, Mixtral 8x22B. All three of those launches happened within 24 hours starting on Tuesday.

With the help of software engineer and independent AI researcher Simon Willison (who also wrote about this week's hectic LLM launches on his own blog), we'll briefly cover each of the three major events in roughly chronological order, then dig into some additional AI happenings this week.

Gemini Pro 1.5 general release

(credit: Google)

On Tuesday morning Pacific time, Google announced that its Gemini 1.5 Pro model (which we first covered in February) is now available in 180-plus countries, excluding Europe, via the Gemini API in a public preview. This is Google's most powerful public LLM so far, and it's available in a free tier that permits up to 50 requests a day.

Read 14 remaining paragraphs | Comments

OpenAI annonce une importante mise à jour de ChatGPT, mais pas pour tout le monde

Par : Setra

Test Logitech Signature Slim Design

OpenAI annonce la disponibilité de GPT-4 Turbo sur ChatGPT. Cependant, cette version améliorée de GPT-4 ne sera disponible que pour les utilisateurs payants.

Amandine Le Pen, l’influenceuse d’extrême droite qui n’existe pas

Amandine Le Pen, Chloé Le Pen, Léna Maréchal… Sur TikTok, plusieurs vidéos virales présentent les vies des nièces de Marine Le Pen, qui utilisent le réseau social pour défendre leur « famille » et les idées du Rassemblement national. Il s'agit en réalité de deepfakes, créés avec une intelligence artificielle.

Microsoft propose DALL-E au Pentagone, et les idéaux d’OpenAI s’écroulent

Nadella Openai

Des documents de la Défense américaine montrent que Microsoft a suggéré au Pentagone d'utiliser le travail d'OpenAI pour améliorer ses logiciels militaires - une pente glissante qui montrent que les idéaux originaux de Sam Altman ont souffert depuis le rapprochement avec le titan du software.

ChatGPT s’égarera moins dans des réponses interminables

La version payante de ChatGPT, avec le modèle GPT-4 Turbo, va davantage à l'essentiel quand il produit du texte. Une nouvelle version du chatbot a été déployée pour le rendre moins bavard. Le modèle a aussi été amélioré sur d'autres aspects techniques.

Donnez une seconde jeunesse à votre vieux Mac avec OpenCore Legacy Patcher

Par : Korben

Si vous en avez assez de voir votre vieux Mac prendre la poussière dans un coin parce qu’il ne peut plus faire tourner les dernières versions de macOS, et bien j’ai une bonne nouvelle pour vous.

Il s’agit d’un outil nommé OpenCore Legacy Patcher (OCLP) qui est là pour redonner une seconde jeunesse à nos fidèles compagnons en aluminium ! Grâce au bootloader OpenCore et tout un tas de kexts et de patchs du noyau, OCLP permet d’installer et de faire tourner macOS Big Sur, Monterey, Ventura et même la toute nouvelle version Sonoma sur des Mac qui ne sont officiellement plus supportés par Apple, et ce jusqu’aux modèles sortis en 2007 ! Rien que ça.

Mais ce n’est pas tout, en plus de permettre de profiter des dernières fonctionnalités de macOS comme Sidecar, Contrôle Universel ou AirPlay vers Mac, OpenCore restaure aussi le support de pas mal de matériel que Apple a abandonné au fil des versions comme de vieilles cartes graphiques ou d’anciens chipsets Wi-Fi.

Alors bien sûr, tout n’est pas rose non plus et selon les modèles il y a quelques limitations, notamment au niveau des performances graphiques avec l’API Metal qui n’est pas supportée partout. Mais globalement, l’expérience utilisateur reste très bonne une fois OCLP installé.

La grande force d’OpenCore Legacy Patcher, c’est que contrairement aux outils de patch précédents comme DOSDude1 ou Patched Sur, il n’a pas besoin de modifier le système installé sur le disque. Au lieu de ça, il injecte ses modifications à la volée pendant le démarrage, ce qui permet de garder un système macOS « vanilla » (d’origine quoi) et de continuer à recevoir les mises à jour d’Apple directement depuis les préférences système, comme sur un Mac officiellement supporté.

Et le tout sans bidouiller le firmware ou désactiver des protections comme SIP, ça c’est la classe ! Évidemment, un Mac récent fera toujours mieux qu’un vieux coucou, mais pour tous ceux qui n’ont pas les moyens de changer de machine tous les 4 matins, OCLP est une super solution pour continuer à profiter de son Mac le plus longtemps possible.

Bien sûr, tout ça ne serait pas possible sans la super communauté de développeurs et bidouilleurs passionnés qui gravitent autour du projet. Alors je le tire mon chapeau pour leur boulot de dingue. Et aussi à Apple pour macOS, hein, faut pas déconner non plus ^^.

Après, attention, installer un OS non supporté c’est toujours un peu casse-gueule et ça demande un minimum de connaissances techniques. Donc si vous n’êtes pas sûr de vous, renseignez-vous bien avant de vous lancer. Les documentations du projet sont très complètes, et en cas de souci la communauté sur le Discord d’OCLP saura sûrement vous dépanner.

Bon, c’est pas tout ça mais je crois que je vais ressortir mon vieux MacBook Pro de 2005 moi, j’espère juste que la batterie n’a pas trop morflé !

ChatGPT n’en peut plus de vos questions sexo (voici la plus demandée)

Chatgpt Question Sexo La Plus Posee

ChatGPT offre par son existence une nouvelle option pour les utilisateurs désireux d'en savoir plus sur la sexualité, en toute discrétion. Même si ses réponses s'avèrent souvent très convenues.

OpenAI : Voice Engine génère des voix synthétiques bluffantes à partir de courts extraits sonores

Par : Olivier

Voix

Avec Voice Engine, OpenAI peut maintenant générer une voix synthétique basée sur de courts extraits vocaux. Cet outil est déployé de manière très contrôlé pour éviter des abus qui pourraient bien être inévitables.

Modrinth – La plateforme Minecraft open-source redevient indépendante

Par : Korben

Modrinth, la plateforme open-source dédiée aux mods Minecraft, vient de prendre une décision aussi inattendue que courageuse : rendre l’argent à ses investisseurs pour redevenir indépendante ! Ça c’est ce que j’appelle avoir des couilles en vibranium !

Figurez-vous qu’il y a un an et demi, Modrinth avait levé 1,2 million de dollars auprès d’investisseurs. Ça leur a permis d’embaucher des développeurs à plein temps, de lancer plein de nouvelles fonctionnalités comme la monétisation pour les créateurs, l’authentification, les analytics, les collections… Bref, de faire grimper le nombre d’utilisateurs de manière exponentielle !

Mais voilà, cette croissance à tout prix a fini par leur faire perdre de vue l’essentiel. Les bugs se sont accumulés, la modération a pris du retard… Et surtout, ils ont réalisé que le modèle des startups financées par des investisseurs n’était pas compatible avec leurs valeurs. Parce que les investisseurs, aussi sympas soient-ils, attendent forcément un retour sur investissement. Et ça pousse à prioriser le profit et la croissance plutôt que la communauté et les créateurs.

Alors Modrinth a décidé de prendre son destin en main. Ils ont rendu 800 000 dollars aux investisseurs, et ont réduit drastiquement la taille de l’équipe pour revenir à un rythme de développement plus durable. Ça n’a pas été facile, ils ont dû se séparer de plusieurs personnes qui avaient beaucoup apporté au projet, mais c’était nécessaire pour rester fidèles à leurs principes.

Maintenant, Modrinth est de nouveau entre les mains de la communauté. Ils peuvent se concentrer sur ce qui compte vraiment : offrir la meilleure expérience possible aux joueurs et aux créateurs de mods, sans pression pour faire du chiffre à tout prix. Bien sûr, il faut quand même que le projet soit viable économiquement, mais ça, ils savent faire. L’hébergement est déjà rentable, et ils travaillent à rendre le développement durable aussi.

Pour ça, ils misent sur une meilleure infrastructure de modération (avec de l’automatisation et des outils pour les modos), plus de transparence sur l’avancement du projet, et plus de facilité pour contribuer au code. Le but, c’est que la communauté puisse vraiment s’approprier Modrinth, et que ça devienne un bien commun géré collectivement.

Et là, moi je dis chapeau bas ! Dans un monde où la plupart des boîtes ne jurent que par la croissance, quitte à vendre leur âme au diable, ce genre de prise de position fait un bien fou. Ça prouve qu’on peut faire des choses géniales sans se compromettre, en restant fidèle à ses valeurs et à sa communauté.

Alors si vous êtes un joueur Minecraft, un créateur de mods, ou juste quelqu’un qui croit à l’importance de l’open-source et des projets communautaires, je vous invite à soutenir Modrinth dans cette nouvelle étape de sa vie.

Source

Publisher: OpenAI’s GPT Store bots are illegally scraping our textbooks

Par : WIRED
OpenAI logo

Enlarge (credit: NurPhoto)

For the past few months, Morten Blichfeldt Andersen has spent many hours scouring OpenAI’s GPT Store. Since it launched in January, the marketplace for bespoke bots has filled up with a deep bench of useful and sometimes quirky AI tools. Cartoon generators spin up New Yorker–style illustrations and vivid anime stills. Programming and writing assistants offer shortcuts for crafting code and prose. There’s also a color analysis bot, a spider identifier, and a dating coach called RizzGPT. Yet Blichfeldt Andersen is hunting only for one very specific type of bot: Those built on his employer’s copyright-protected textbooks without permission.

Blichfeldt Andersen is publishing director at Praxis, a Danish textbook purveyor. The company has been embracing AI and created its own custom chatbots. But it is currently engaged in a game of whack-a-mole in the GPT Store, and Blichfeldt Andersen is the man holding the mallet.

“I’ve been personally searching for infringements and reporting them,” Blichfeldt Andersen says. “They just keep coming up.” He suspects the culprits are primarily young people uploading material from textbooks to create custom bots to share with classmates—and that he has uncovered only a tiny fraction of the infringing bots in the GPT Store. “Tip of the iceberg,” Blichfeldt Andersen says.

Read 18 remaining paragraphs | Comments

Get an Extra 20% Off a Lifetime of Powerful VPN Protection Through 4/7

There’s no reason to risk your privacy or your most confidential information, or even be deprived of your favorite content, when a solution is so affordable. Use coupon SECURE20 at checkout through 4/7 to unlock an additional 20% off this deal!

YouTube avertit OpenAI de ne pas piquer ses vidéos pour entraîner Sora

Sora

Le patron de YouTube, Neal Mohan, ne sait pas si OpenAI se sert des vidéos hébergées sur la plateforme pour entraîner Sora, son IA qui génère des clips. Mais si c'est le cas, ce serait une infraction à ses règles.

MoOde – Le lecteur audio Raspberry Pi préféré des audiophiles

Par : Korben

Vous cherchez un lecteur audio open source de qualité pour votre Raspberry Pi ? Ne cherchez plus, moOde audio est là pour vous !

Ce lecteur audio totalement gratuit et distribué sous licence GPL permet d’avoir un véritable serveur musical sur votre Rpi pour en faire profiter toute la famille. C’est un peu comme Volumio dont je vous ai déjà parlé, mais en beaucoup plus abouti. En plus, les gars derrière moOde sont des vrais. Pas de pubs intrusives, pas d’abonnements à la noix, zéro cookies ou tracking à la Google. Toutes vos données restent bien au chaud sur votre Raspberry Pi, et ne sont refilées à personne d’autre. Bon, après si vous voulez les soutenir, vous pouvez toujours faire un petit don…

Pour installer moOde, c’est facile. Vous chopez l’img et vous allez suivre le guide d’installation qui est juste là. En gros, vous préparez votre image avec le Raspberry Pi Imager, vous pouvez même configurer le SSH et le WiFi direct, et après vous balancez le tout sur votre carte SD. C’est du classique pour les utilisateurs de Raspberry Pi. Rien de plus simple !

La dernière version, la 8.3.9, est dispo pour les modèles 3B, 3B+, 3A+, 4, 400, les Compute Module 3, 3+ et 4, et même le petit dernier le Zero 2 W et elle tourne sur une debian Bullseye 64 bits. Autant dire que ça va envoyer du lourd côté performances audio.

D’ailleurs, parlons-en de l’audio. moOde gère une flopée de périphériques compatibles avec les Raspberry Pi. Que vous ayez une enceinte Bluetooth ou quelque chose de plus « filaire » comme un DAC USB (Digital Audio Converter), une carte d’extension Hat ou carrément un streamer réseau, y a de fortes chances que ça fonctionne direct. Et niveau réglages, les audiophiles vont être aux anges puisqu’il y a de quoi faire du réglage fin sur votre son comme jamais !

Le top du top, c’est l’interface web. Super bien foutue, responsive, elle s’adapte parfaitement à votre appareil, que ce soit un pc, une tablette, un smartphone ou même une TV. Pas besoin d’installer quoi que ce soit, un simple navigateur suffit. Vous pourrez lancer la lecture d’un album, écouter la radio, taguer vos morceaux, accéder à des partages de fichiers via SMB et NFS, balancer le son en AirPlay ou avec Spotify Connect, faire du multiroom synchronisé et profiter de fonctionnalités audiophiles comme le support des formats hi-res, un égaliseur paramétrique, et divers algorithmes de rééchantillonnage. Pour les devs, y a même une API REST pour faire mumuse.

Et si vous avez besoin d’aide ou que vous voulez causer son entre passionnés, le forum moOde est là pour vous. Les devs sont ultra réactifs et la communauté est au taquet. Vous pouvez même choper les dernières news sur le développement du player.

Côté technique, si vous voulez mettre les mains dans le cambouis, un guide du développeur est dispo. Vous pourrez gérer les paquets et générer vos propres images.

Ah et j’allais oublier, les gars de moOde vous ont même concocté un petit DAC NOS (Non-Oversampling) à monter vous-même : le ProtoDAC. Il paraît que le son est d’enfer, surtout si vous utilisez des composants de qualité. Les plans et le guide sont dispos, vous avez juste à commander vos PCB et sortir votre fer à souder.

Bref, vous l’aurez compris, moOde c’est que du bon fait par des pro du son pour les audiophiles geeks qui aiment faire les choses eux-mêmes. Alors, n’attendez plus, foncez sur le site, chopez l’img et transformez votre Raspberry Pi en un lecteur audio de compèt’ !

Merci à François pour le partage !

Le père de ChatGPT clone des voix humaines en 15 secondes

Voix Micro

À l'origine de ChatGPT, OpenAI s'intéresse aux voix synthétiques et dévoile Voice Engine. Cette IA est capable de récréer une voix en seulement 15 secondes.

Le générateur d’images de ChatGPT se rapproche de Photoshop

DALL-E, le générateur d'images d'OpenAI, permet désormais de modifier partiellement une image, pour affiner une création assistée par intelligence artificielle. Une avancée majeure pour les modifications artistiques.

FFmpeg vs Microsoft – Le choc

Par : Korben

Figurez-vous que le géant Microsoft, oui oui, le monstre de Redmond, se retrouve à genoux devant la communauté open source de FFmpeg.

Et pourquoi donc ? Parce que ces satanés codecs multimédias leur donnent du fil à retordre !

Mais attention, ne croyez pas que Microsoft va gentiment demander de l’aide comme tout le monde. Non non non, eux ils exigent, ils ordonnent, ils veulent que les petites mains de FFmpeg réparent illico presto les bugs de leur précieux produit Teams. Bah oui, faut pas déconner, c’est pour un lancement imminent et les clients râlent !

Sauf que voilà, les gars de FFmpeg ils ont pas trop apprécié le ton. Ils sont là, tranquilles, à développer leur truc open source pour le bien de l’humanité, et là Microsoft débarque en mode « Eho les mecs, faudrait voir à bosser un peu plus vite là, on a besoin de vous là, maintenant, tout de suite ». Super l’ambiance.

Alors ok, Microsoft a daigné proposer quelques milliers de dollars pour les dédommager. Mais bon, les développeurs FFmpeg ont un peu de fierté quand même et souhaitent un vrai contrat de support sur le long terme, pas une aumône ponctuelle balancée comme on jette un os à un chien.

Et là, c’est le choc des cultures mes amis ! D’un côté Microsoft, habitué à régner en maître sur son petit monde propriétaire, à traiter les développeurs comme de la chair à code. De l’autre, la communauté open source, des passionnés qui bouffent du codec matin midi et soir, qui ont la vidéo dans le sang et le streaming dans les veines.

Microsoft fait moins le malin maintenant puisqu’ils réalisent que leur précieux Teams, ça marche pas terrible sans FFmpeg et que leurs armées de développeurs maison, n’y connaissent pas grand chose en codecs multimédia. Et surtout que la communauté open source, bah elle a pas trop envie de se faire exploiter comme ça.

Moralité de l’histoire : faut pas prendre les gars de FFmpeg pour des poires. Ils ont beau être « open », ils ont leur dignité et Microsoft va devoir apprendre à respecter ça, à collaborer d’égal à égal, à lâcher des billets et des contrats de support au lieu de jouer au petit chef.

Parce que sinon, Teams risque de sonner un peu creux sans codecs qui fonctionnent. Et là, ça va être dur d’expliquer aux clients que la visio ça sera en version mime, parce que Microsoft a pas voulu mettre la main au portefeuille pour avoir de l’audio qui marchent.

Et, si vous voulez en savoir plus sur ce choc des titans, foncez sur https://sopuli.xyz/post/11143769 , vous n’allez pas être déçu du voyage !

AI hype invades Taco Bell and Pizza Hut

A pizza hut sign in London, England.

Enlarge (credit: Getty Images)

Depending on who you ask about AI (and how you define it), the technology may or may not be useful, but one thing is for certain: AI hype is dominating corporate marketing these days—even in fast food. According to a report in The Wall Street Journal, corporate fast food giant Yum Brands is embracing an "AI-first mentality" across its restaurant chains, including Taco Bell, Pizza Hut, KFC, and Habit Burger Grill. The company's chief digital and technology officer, Joe Park, told the WSJ that AI will shape nearly every aspect of how these restaurants operate.

"Our vision of [quick-service restaurants] is that an AI-first mentality works every step of the way," Park said in an interview with the outlet. "If you think about the major journeys within a restaurant that can be AI-powered, we believe it’s endless."

As we've discussed in the past, artificial intelligence is a nebulous term. It can mean many different things depending on the context, including computer-controlled ghosts in Pac-Man, algorithms that play checkers, or large language models that give terrible advice on major city websites. But most of all in this tech climate, it means money, because even talking about AI tends to make corporate share prices go up.

Read 6 remaining paragraphs | Comments

The fine art of human prompt engineering: How to talk to a person like ChatGPT

A person talking to friends.

Enlarge / With these tips, you too can prompt people successfully.

In a break from our normal practice, Ars is publishing this helpful guide to knowing how to prompt the "human brain," should you encounter one during your daily routine.

While AI assistants like ChatGPT have taken the world by storm, a growing body of research shows that it's also possible to generate useful outputs from what might be called "human language models," or people. Much like large language models (LLMs) in AI, HLMs have the ability to take information you provide and transform it into meaningful responses—if you know how to craft effective instructions, called "prompts."

Human prompt engineering is an ancient art form dating at least back to Aristotle's time, and it also became widely popular through books published in the modern era before the advent of computers.

Read 36 remaining paragraphs | Comments

Billie Eilish, Pearl Jam, 200 artists say AI poses existential threat to their livelihoods

Billie Eilish attends the 2024 Vanity Fair Oscar Party hosted by Radhika Jones at the Wallis Annenberg Center for the Performing Arts on March 10, 2024 in Beverly Hills, California.

Enlarge / Billie Eilish attends the 2024 Vanity Fair Oscar Party hosted by Radhika Jones at the Wallis Annenberg Center for the Performing Arts on March 10, 2024, in Beverly Hills, California. (credit: Getty Images)

On Tuesday, the Artist Rights Alliance (ARA) announced an open letter critical of AI signed by over 200 musical artists, including Pearl Jam, Nicki Minaj, Billie Eilish, Stevie Wonder, Elvis Costello, and the estate of Frank Sinatra. In the letter, the artists call on AI developers, technology companies, platforms, and digital music services to stop using AI to "infringe upon and devalue the rights of human artists." A tweet from the ARA added that AI poses an "existential threat" to their art.

Visual artists began protesting the advent of generative AI after the rise of the first mainstream AI image generators in 2022, and considering that generative AI research has since been undertaken for other forms of creative media, we have seen that protest extend to professionals in other creative domains, such as writers, actors, filmmakers—and now musicians.

"When used irresponsibly, AI poses enormous threats to our ability to protect our privacy, our identities, our music and our livelihoods," the open letter states. It alleges that some of the "biggest and most powerful" companies (unnamed in the letter) are using the work of artists without permission to train AI models, with the aim of replacing human artists with AI-created content.

Read 10 remaining paragraphs | Comments

❌