Lateo.net - Flux RSS en pagaille (pour en ajouter : @ moi)

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierInformatique & geek

World Sim – Le simulateur IA pour explorer tous les possibles (et un accès gratuit à Claude 3)

Par : Korben

Figurez-vous que je viens de tester World Sim, le nouveau simulateur d’univers de Nous Research, et c’est une tuerie !

Je pose le contexte : Vous vous retrouvez propulsé au cœur de la création de l’univers, depuis le Big Bang jusqu’à l’apparition de la vie, aux premières loges pour assister à la naissance des étoiles et des galaxies. Et coup de bol, vous pouvez interagir avec cet environnement virtuel grâce à l’IA ultra-pointue de World Sim (merci Claude 3 Opus !).

Vous pouvez alors influer sur le cours des événements cosmiques, voir ce qui se passerait si la conscience n’existait pas, jouer les apprentis sorciers en créant vos propres entités (humains, aliens, chats lasers psychopathes…etc)…Ce que vous voulez, y’a pas de problème, World Sim vous laisse carte blanche.

Le simulateur vous permet aussi de zoomer sur notre bon vieux caillou bleu et de visualiser son évolution en détail. C’est l’occasion parfaite pour explorer des scénarios « et si » complètement fous. Genre, qu’est-ce qui se passerait si les dinosaures n’avaient jamais disparu ? Ou si l’humanité avait pris n’avait pas découvert le pétrole ou avait perdu telle ou telle guerre ? Avec World Sim, vous avez un bac à sable géant pour laisser libre cours à votre imagination !

En plus, l’interface est super intuitive puisque ça se présente comme un ancien terminal dans lequel vous pouvez interagir avec la simulation grâce à tout un tas de commandes, et même créer des scénarios détaillés sur Terre. C’est comme une machine à remonter le temps ou un bon livre de science fiction infini pour explorer le futur.

J’ai passé pas mal de temps à jouer avec ce truc, j’ai même simulé une invasion extraterrestre, juste pour voir. Et vous savez quoi ? En cherchant à récupérer leur prompt initial (ce que je n’ai pas réussi), je suis parvenu à « hacker » le système (enfin, façon de parler) et à me retrouver root sur la fausse machine. C’était complètement délirant même si je sais bien que c’est l’IA qui me répond et pas un vrai shell.

Vous pouvez évidemment détourner le jeu pour lui demander ce que vous voulez, puisque c’est un accès à Claude 3 Opus sans limite. Donc vous pouvez l’utiliser de manière classique pour rédiger du texte, faire des calculs, lui demander des choses…etc. Mais ça chuut, gardez le pour vous, parce que ça casse un peu la magie de ce simulateur.

Bref, si vous êtes un passionné d’astronomie, de science, de politique, de technologie et j’en passe, World Sim est fait pour vous. C’est une expérience immersive qui vous transporte littéralement au cœur de l’univers. Et même si vous n’y connaissez rien, le simulateur reste super accessible et ludique.

Puis comme c’est l’IA qui fait ce qu’elle veut, vous pouvez même lui demander de switcher en français si ça vous saoule de jouer en anglais.

Franchement, je ne peux que vous encourager à tester World Sim. C’est le genre de jeu qui nous fait réaliser à quel point notre univers et notre histoire sont vastes, fragiles, complexes et fascinants. Et puis, c’est toujours fun de jouer les apprentis démiurges de temps en temps !

World Sim c’est par ici.

Certains gamers perçoivent plus de FPS que les autres

Par : Korben

Vous êtes-vous déjà demandé comment certains pro gamers étaient aussi bons ?

Bien sûr, il y a les heures d’apprentissage, de grinding, la compétition…etc mais il se pourrait bien aussi qu’ils aient tout simplement de meilleurs globes oculaires !

Selon une nouvelle étude menée à Dublin et repérée par The Guardian, les chercheurs ont étudié une caractéristique humaine appelée la résolution temporelle, qui mesure notre capacité à distinguer différents signaux visuels et qui influence notre vitesse de réaction aux changements dans notre environnement.

L’étude a révélé que certaines personnes, lorsqu’on leur présentait une lumière qui clignotait environ 35 fois par seconde (35 fps), la voyaient comme constamment allumée – en d’autres termes, elles ne pouvaient pas percevoir les clignotements – tandis que d’autres pouvaient voir la lumière clignoter, même lorsque la fréquence des clignotements était supérieure à 60 fps. De la même manière que les jeux vidéo peuvent tourner à 30 ou 60 fps, cette recherche suggère que les yeux de certaines personnes peuvent voir les signaux visuels à 30 ou 60 frames par seconde (fps).

Et cela a un impact spécifique sur les athlètes et les joueurs, comme l’a déclaré Clinton Haarlem, doctorant au Trinity College de Dublin puisque les personnes qui ont une résolution temporelle visuelle supérieure à la moyenne « ont accès à un peu plus d’informations visuelles par unité de temps » que les autres. Haarlem et ses collègues ont mené leurs tests de résolution temporelle visuelle sur 80 hommes et femmes âgés de 18 à 35 ans, et ont constaté peu de différence dans les résultats entre les sexes. Il existe cependant des preuves que votre résolution temporelle diminue avec l’âge.

C’est peut-être pour cela que les joueurs d’esports et les athlètes professionnels prennent parfois leur retraite si jeunes. C’est peut-être aussi la raison pour laquelle votre jeune cousin vous explose sur des jeux comme Fortnite ou Valorent. Ils ont comme un GPU dans le cerveau qui est capable de traiter plus de FPS que le commun des mortels. C’est trop injuuuuste, et ça ressemble à un cheat pour moi ^^ !

Alors la prochaine fois que vous vous demanderez comment certains gamers peuvent être aussi bons, c’est peut-être tout simplement parce qu’il ont cet avantage biologique. Mais rassurez-vous, avec suffisamment de pratique (et peut-être quelques implants cybernétiques d’Elon), vous aussi, vous pourrez un jour atteindre le statut de légende de l’esport battre votre neveu à Mario Kart.

Source

Apple’s first new 3D Vision Pro video since launch is only a few minutes long

  • All the available Immersive Video launch content fit on a small strip in the TV app. [credit: Samuel Axon ]

Tonight, Apple will debut some new Immersive Video content for the Vision Pro headset—the first sports content for the device. It doesn't seem like much after two months of no new content, though.

Starting at 6 pm PT/9 pm ET, Vision Pro users will be able to watch a sports film captured for the platform's Immersive Video format. The video will be a series of highlights from last year's Major League Soccer (MLS) playoffs, and according to Six Colors, it will run just five minutes. It will be free for all Vision Pro users.

On February 2, Apple released what appeared to be the first episodes of three Immersive Video series: Adventure, Prehistoric Planet, and Wildlife. Each debuted alongside the Vision Pro's launch with one episode labeled "Episode 1" of "Season 1."

Read 9 remaining paragraphs | Comments

This stretchy electronic material hardens upon impact just like “oobleck”

This flexible and conductive material has “adaptive durability,” meaning it gets stronger when hit.

Enlarge / This flexible and conductive material has “adaptive durability,” meaning it gets stronger when hit. (credit: Yue (Jessica) Wang)

Scientists are keen to develop new materials for lightweight, flexible, and affordable wearable electronics so that, one day, dropping our smartphones won't result in irreparable damage. One team at the University of California, Merced, has made conductive polymer films that actually toughen up in response to impact rather than breaking apart, much like mixing corn starch and water in appropriate amounts produces a slurry that is liquid when stirred slowly but hardens when you punch it (i.e., "oobleck"). They described their work in a talk at this week's meeting of the American Chemical Society in New Orleans.

"Polymer-based electronics are very promising," said Di Wu, a postdoc in materials science at UCM. "We want to make the polymer electronics lighter, cheaper, and smarter. [With our] system, [the polymers] can become tougher and stronger when you make a sudden movement, but... flexible when you just do your daily, routine movement. They are not constantly rigid or constantly flexible. They just respond to your body movement."

As we've previously reported, oobleck is simple and easy to make. Mix one part water to two parts corn starch, add a dash of food coloring for fun, and you've got oobleck, which behaves as either a liquid or a solid, depending on how much stress is applied. Stir it slowly and steadily and it's a liquid. Punch it hard and it turns more solid under your fist. It's a classic example of a non-Newtonian fluid.

In an ideal fluid, the viscosity largely depends on temperature and pressure: Water will continue to flow regardless of other forces acting upon it, such as being stirred or mixed. In a non-Newtonian fluid, the viscosity changes in response to an applied strain or shearing force, thereby straddling the boundary between liquid and solid behavior. Stirring a cup of water produces a shearing force, and the water shears to move out of the way. The viscosity remains unchanged. But for non-Newtonian fluids like oobleck, the viscosity changes when a shearing force is applied.

Read 6 remaining paragraphs | Comments

Où voir Anatomie d’une chute en streaming ?

Ces deux films, qui ont cartonné à leur sortie en 2023, sont en lice pour remporter de précieuses statuettes aux prochains Oscars, le 11 mars 2024. Et bonne nouvelle : comme plusieurs autres longs-métrages nommés, ils sont déjà disponibles en streaming, sur Canal+, Prime Video ou Netflix.

5 films sur des vies extraordinaires à voir sur Netflix

Le cinéma s’est toujours emparé de la réalité pour raconter la vie hors du commun de personnalités injustement oubliées. Sur Netflix, voici donc 5 films basés sur des histoires vraies : She Said, Insubmersible, Imitation Game, Maestro ainsi que Le Discours d’un roi.

Radion – Pour découvrir vos prochains jeux vidéos

Par : Korben

Dimitri, lecteur de Korben.info depuis pas mal d’années, m’a contacté le mois dernier, pour me parler de Radion, son application iOS / Android gratuite qui permet de suivre l’actualité jeux vidéos, les sorties notamment et de tout savoir sur tous les jeux qui existent, de lire leurs critiques, la durée de jeu estimé, de voir des tas d’images du jeu et j’en passe. Cette application, véritable encyclopédie pour les gamers, regorge d’informations et de fonctionnalités qui va transformer la manière dont vous suivez vos jeux et futurs jeux préférés.

Mais Radion n’est pas juste une vitrine pour les jeux. Elle permet de marquer les jeux que vous possédez et de suivre votre avancement dans ces derniers. Parfait pour garder une trace de vos exploits 🙂

Et surtout, en fonction de ce que vous aimez, des consoles que vous possédez et des jeux que vous attendez, l’IA de Radion peut vous recommander les prochains titres qui seront à coup sûr des hits pour vous dans votre petit cœur.

Bref, vous l’aurez compris, Radion est aux jeux vidéos, ce que Trakt.tv est aux séries, pour ceux qui connaissent. Radion est à la fois un journal de bord pour vos aventures ludiques et une plateforme pour découvrir de nouveaux horizons dans le monde des jeux.

Radion sert aussi de plateforme sociale. Le partage de fiches de jeux entre amis n’est pas seulement un moyen de recommandation, c’est un outil pour tisser des liens, pour créer des discussions. En partageant vos expériences de jeu, vos découvertes, et même vos critiques, Radion devient un espace d’échange et de partage pour la communauté des gamers.

On verra ensuite comment ça évolue. Perso, je trouve que des conseils pour passer les niveaux, en mode ETAJV à l’ancienne, ce serait bien cool à rajouter. Tout ce que je peux vous dire c’est que le dev travaille sur l’import / synchronisation des jeux avec Steam / Xbox / PlayStation directement dans l’application. Hâte de voir ce que ça va donner.

A découvrir ici pour iOS et Android.

Le guide des meilleurs casques gaming de 2023

test logitech g pro x 2 lightspeed prix

Vous avez le besoin ou l’envie de changer de casque gaming, mais vous ne savez pas lequel choisir parmi la myriade de modèles sortis en 2023 ? On vous aide à choisir parmi les meilleurs.

Distil-Whisper – Pour faire de la reconnaissance vocale rapide

Par : Korben

Vous vous souvenez de Whisper dont je vais déjà parlé à maintes reprises ? C’est un outil qui utilise l’IA pour faire de la reconnaissance vocale, c’est à dire convertir des paroles audio en texte. Et ça marche avec de nombreuses langues, dont le français.

Et bien vous allez pouvoir faire tout pareil mais encore plus vite grâce à Distil-Whisper, une version allégée de Whisper qui est 6 fois plus rapide et qui utilise un modèle IA 49% plus petit que son grand frère. Pour couronner le tout, Distil-Whisper n’a qu’un taux d’erreur de 1%, ce qui est plutôt impressionnant.

Cela est possible grâce à son algorithme fractionné, qui permet de transcrire des fichiers audio longs 9 fois plus rapidement que l’algorithme séquentiel d’OpenAI. N’ayons pas peur des mots, c’est une véritable révolution pour ceux qui ont besoin de traiter de grands volumes de données audio.

Voici l’architecture du modèle Distil-Whisper :

Actuellement, Distil-Whisper est disponible uniquement pour la reconnaissance vocale en anglais, mais avec l’évolution rapide de ce domaine, on peut s’attendre à ce que d’autres langues soient prises en charge bientôt.

Distil-Whisper est donc conçu pour remplacer Whisper en matière de reconnaissance vocale en anglais, avec cinq avantages clés : une inférence plus rapide, une meilleure robustesse au bruit, une réduction des hallucinations, une utilisation en décodage spéculatif et une licence permissive pour les applications commerciales. Ce bijou de technologie a été entraîné sur 22 000 heures de données audio pseudo-étiquetées dans 10 domaines différents et en provenance de plus de 18 000 intervenants.

Toute la doc et les exemples d’utilisation son ici.

Le futur de la reconnaissance vocale semble prometteur !

Sam Altman officially back as OpenAI CEO: “We didn’t lose a single employee”

A glowing OpenAI logo on a light blue background.

Enlarge (credit: OpenAI / Benj Edwards)

On Wednesday, OpenAI announced that Sam Altman has officially returned to the ChatGPT-maker as CEO—accompanied by Mira Murati as CTO and Greg Brockman as president—resuming their roles from before the shocking firing of Altman that threw the company into turmoil two weeks ago. Altman says the company did not lose a single employee or customer throughout the crisis.

"I have never been more excited about the future. I am extremely grateful for everyone’s hard work in an unclear and unprecedented situation, and I believe our resilience and spirit set us apart in the industry," wrote Altman in an official OpenAI news release. "I feel so, so good about our probability of success for achieving our mission."

In the statement, Altman formalized plans that have been underway since last week: ex-Salesforce co-CEO Bret Taylor and economist Larry Summers have officially begun their tenure on the "new initial" OpenAI board of directors. Quora CEO Adam D’Angelo is keeping his previous seat on the board. Also on Wednesday, previous board members Tasha McCauley and Helen Toner officially resigned. In addition, a representative from Microsoft (a key OpenAI investor) will have a non-voting observer role on the board of directors.

Read 9 remaining paragraphs | Comments

Scientists 3D print a robotic hand with human-like bones and tendons 

Image of a robotic hand made from light colored plastics grasping both a pen and a bottle in separate images.

Enlarge / The 3D-printed hand made via the new method. (credit: ETH Zurich/Thomas Buchner)

Have you ever wondered why robots are unable to walk and move their bodies as fluidly as we do? Some robots can run, jump, or dance with greater efficiency than humans, but their body movements also seem mechanical. The reason for this lies in the bones they lack.

Unlike humans and animals, robots do not have real bones or the flexible tissues that connect them; they have artificial links and joints made of materials like carbon fiber and metal tubes. According to Robert Katzschmann, a professor of robotics at ETH Zurich, these internal structures allow a robot to make movements, grab objects, and maintain different postures. However, since links and joints are made up of hard materials, robot bodies are not as flexible, agile, and soft as human bodies. This is what makes their body movements so stiff.

But they may not need to stay stiff for long. A team of researchers from the Swiss Federal Institute of Technology (ETH) Zurich and US-based startup Inkbit have figured out a way to 3D print the world’s first robotic hand with an internal structure composed of human-like bones, ligaments, and tendons. What makes the hand even more special is that it was printed using an entirely new 3D inkjet deposition method called vision-controlled jetting (VCJ).

Read 12 remaining paragraphs | Comments

Votre avis d’influenceurs et influenceuses 2.0

GAMERS & INFLUENCEURS : POUR DE BONNES PRATIQUES - une étude menée par la Gendarmerie Nationale pour mieux comprendre les comportements en ligne. Vous êtes petits ou grands influenceurs, participez à cette étude....

Obtenez des réponses à vos questions sans Internet et dans le respect de votre vie privée.

Par : Korben

Les chatbots IA comme ChatGPT sont critiquables pour tout un tas de raison, mais ce qui revient le plus, c’est le respect de la vie privée de l’utilisateur. Puis comme ce sont des services en ligne, il faut forcément une connexion internet.

Alors que diriez vous si aujourd’hui je vous présentais un outil qui est capable de répondre à toutes vos questions en interrogeant simplement un document, tout ça en local, sans avoir besoin de connexion internet et en protégeant votre vite privée ?

Et bien cela existe et s’appelle privateGPT. C’est super pratique surtout pour les gens qui ont la flemme comme moi de lire des gros pavés en PDF.

Ce bijou utilise la puissance des LLMs sur des documents locaux, ce qui vous assure qu’aucun donnée ne quitte l’environnement d’exécution. Il est conçu avec plusieurs composants, tels que LangChain, GPT4All, LlamaCpp, Chroma, et SentenceTransformers et une fois le document uploadé, vous pouvez lui poser des questions ou lui demander de vous faire des résumés. Voici les formats supportés :

.csv: CSV,
.docx: Word Document,
.doc: Word Document,
.enex: EverNote,
.eml: Email,
.epub: EPub,
.html: HTML File,
.md: Markdown,
.msg: Outlook Message,
.odt: Open Document Text,
.pdf: Portable Document Format (PDF),
.pptx : PowerPoint Document,
.ppt : PowerPoint Document,
.txt: Text file (UTF-8),

Parfait donc pour les gens qui font des recherches ou du travail de synthèse à partir du contenu de leurs pairs.

Pour l’installer, il faudra cloner le dépôt et installer les dépendances comme ceci :

git clone https://github.com/imartinez/privateGPT.git
cd privateGPT
pip3 install -r requirements.txt

Ensuite, téléchargez le modèle LLM de votre choix et placez-le dans un répertoire. Par défaut, c’est ggml-gpt4all-j-v1.3-groovy.bin qui est proposé, mais si vous préférez un modèle compatible GPT4All-J différent, il suffit de le télécharger et de le référencer dans votre fichier .env.

Evidemment, renommez example.env en .env et modifiez les variables :

MODEL_TYPE : prend en charge LlamaCpp ou GPT4All
PERSIST_DIRECTORY : c'est le dossier où vous souhaitez que votre vectorstore soit
MODEL_PATH : Chemin vers votre GPT4All ou LlamaCpp supporté LLM
MODEL_N_CTX : Limite maximale de tokens pour le modèle LLM
EMBEDDINGS_MODEL_NAME : Nom du modèle d'incrustations SentenceTransformers
TARGET_SOURCE_CHUNKS : Le nombre de morceaux (sources) qui seront utilisés pour répondre à une question

Notez que la première fois que vous exécuterez le script, une connexion internet sera nécessaire pour télécharger le modèle d’incrustations.

Une fois que le ou les documents sont en place et que le fichier de config est OK, vous pouvez commencer la « digestion » de la donnée avec le script suivant :

python ingest.py

Le fichier ingest.py utilise des outils LangChain et HuggingFaceEmbeddings (SentenceTransformers) pour analyser le document, créer des embeddings et stocker les résultats localement avec Chromavector store.

Dès que ce sera terminé, lancez l’interface du chatbot comme ceci et posez-lui toutes vos questions.

python privateGPT.py

Le fichier privateGPT.py utilise un LLM local basé sur GPT4All-Jor et LlamaCpp pour comprendre les questions, extraire des réponses dans leur contexte et vous les fournir en s’appuyant sur les embeddings stockés localement.

C’est chouette non ? Alors oui, je sais, c’est un peu technique alors si vous voulez faire tout pareil, mais l’installation en moins, il existe également un service nommé ChatPDF qui vous permettra en uploadant un document de l’interroger comme si c’était votre meilleur pote, mais en perdant le bénéfice de la vie privée évidemment.

À découvrir ici : privateGPT sur GitHub

C:\System\Shock

Par : Remouk

— Article rédigé par l’ami Remouk (DansTonChat) – Merci à lui —

Alors si je vous parle de System Shock, ce n’est pas du jeu sorti il y a presque 30 ans, mais du remake qui vient tout juste de tomber sur PC (et bientôt sur consoles de salon). Le jeu d’origine était extrêmement novateur, un véritable ovni mélangeant FPS / aventure / exploration / puzzles de manière ultra immersive (initiateur avec Ultima Underworld du genre « immersive sim« ). Mais aujourd’hui c’est assez aride, les contrôles et l’apparence austères sont assez rebutants… C’est mieux avec la version System Shock: Enhanced Edition, mais ça reste vieillot. C’est là qu’intervient ce remake : est-il assez moderne pour un jeu d’aujourd’hui ?

La question se pose, parce que suite à une campagne de financement participative réussie, il y a eu quelques errances dans la direction du projet : Nightdive Studios a commencé par faire un reboot complet avant de se raviser car trop différent du jeu de base… Au final, ils ont décidé de rester au plus proche du jeu de 1994, mais avec un habillage graphique/sonore moderne, et un gameplay adapté aux habitudes de 2023.

S’il y a de légères modifications sur les niveaux, quasiment rien n’a été touché au niveau du scénario et de sa structure. Et c’est là que le jeu est le plus « à l’ancienne » dans le bon sens du terme : pas de tuto, pas de grosses flèches sur les objectifs à atteindre, non, c’est à vous de trouver des indices, d’écouter des logs audio pour comprendre quoi faire, de retenir les codes trouvés ici et là, d’analyser les environs… C’est un peu déroutant, mais on s’y croirait à fond ! On est littéralement perdus dans cette station spatiale abandonnée.

Et ça marche toujours aussi bien. SHODAN, l’intelligence artificielle qui pète un plomb, est mieux incarnée que jamais. La station Citadel et ses différents étages ? Au début tout se ressemble, et puis on finit par la connaître comme sa poche. Les différents mini-jeux ? Rafraichissants. L’ambiance ? Incroyable. Je trouve le style graphique génial, c’est moderne/réaliste et en même temps rétro. 😀 Y a quelques ajouts sympa, notamment la résurrection + souple, les montes-charges pour libérer un peu son inventaire, etc.

Donc non, je ne crois pas que le jeu soit « trop » rétro. C’est une question de concept : y a rien ni personne pour vous aider, à vous de vous débrouiller. Ajouter des quêtes ou des sous-objectifs irait à l’encontre même de ce principe. Ceci étant dit, un mot sur la difficulté : comme l’original, on personnalise sa partie sur plusieurs critères : difficulté des puzzles, difficulté face aux ennemis, etc. Perso j’avais tout laissé par défaut (sur 2), mais à moins d’être très fort aux FPS, je vous conseille de baisser la difficulté des ennemis. 😀 Les munitions sont rares et si, au début, les monstres sont faciles à buter, sur la fin c’est une autre paire de manches !

Pour conclure, il est vrai que c’est un jeu exigeant, mais fair-play. Les contrôles sont fluides, on a tout ce qu’il faut à portée de main, à condition de bien chercher. 🙂 Il faut analyser les éléments qu’on a à disposition, revenir sur ses pas, tenter des choses, on est souvent récompensés quand on fouille. Clairement, ce n’est pas un jeu pour tout le monde (vous ai-je dis que l’ambiance était super glauque ?), mais je trouve qu’il réussit son pari et puis il y a d’excellentes idées que je suis content d’avoir finalement découvert, 30 ans après tout le monde.

Je recommande à tous les fans du genre, pour moi c’est un bon 🤖🤖🤖🤖/5 !

Acheter System Shock sur Steam, GoG ou Epic Games

Comment améliorer un son en live avec master_me ?

Par : Korben

Je vous en parlais hier, le mastering audio est une étape cruciale pour avoir un son impeccable. Le processus consiste à ajuster les fréquences, améliorer l’aspect stéréo, retirer certains parasites sonores, etc. Cependant, il peut être vraiment galère d’obtenir un son propre et optimisé pour tous les systèmes de diffusion.

C’est là que l’outil master me entre en jeu : Master_me est un plug-in audio gratuit et open source pour le traitement automatique de l’audio en direct. Hé oui, il n’est pas destiné à automatiser le mastering de musique déjà produite contrairement à Matchering 2 présenté hier. Il est plutôt conçu pour améliorer le son en direct. Vous l’aurez compris, c’est destiné aux streamers, aux podcasteurs et aux stations de radio en ligne qui cherchent à améliorer leur son.

Conçu par l’ingénieur berlinois Klaus Scheuermann, master me optimise le son en temps réel et prend en charge les niveaux sonores principaux avec une série d’effets qui ont été clonés à partir de ceux du studio de mastering de Scheuermann à Berlin.

Utilisation de Master_me pour améliorer un son en live

L’outil est disponible en LV2, VST2, VST3 et formats CLAP pour Linux, macOS et Windows, ainsi que pour les systèmes JACK en standalone. Il peut être compilé pour une grande variété de plates-formes cibles.

Je l’ai testé un peu avec OBS et ça fait vachement bien le taf. Par contre, ça consomme un peu trop de ressources sur mon vieil ordinateur pour que je le laisse en permanence et au bout d’un moment, ça se met à déconner. A voir dans d’autres outils notamment sur des sessions live avec Ableton par exemple.

Réglage des paramètres audio avec Master_me

L’interface utilisateur de master me est rapide à prendre en main. Le mode « facile » est une interface graphique minimaliste ce qui rend l’outil facile à utiliser pour tous les créateurs de contenu. En choisissant un préréglage et en réglant le niveau sonore souhaité, le niveau sonore est automatiquement ajusté par le plug-in.

Et si vous voulez vraiment toucher aux réglages, le mode expert vous permettra d’activer, régler ou couper certains effets (compresseur, limiteur, gate, eq, leveler…etc)

C’est open source et dispo ici.

Quels sont les critères à prendre en compte pour le choix de son pc gamer

Au-delà de tout ce que l’on peut penser, l’achat d’un pc gamer ne se fait pas sur un simple coup de tête. C’est une décision qui devrait être bien mûrie à l’avance d’autant plus que pour de meilleures expériences de jeux....
❌