Le principal collectif de hackers du Kremlin prend des libertés et se lancent dans des cyberattaques peu communes contre l’Europe et les États-Unis. Ces agents du renseignement revendiquent ensuite leur attaque, en exagérant l’impact.
Mateusz Jurczyk, un nom qui ne vous dit peut-être rien, mais retenez-le bien, car le bonhomme est fort. Ce chercheur en sécurité bien intentionné bosse pour Google Project Zero, une équipe de choc qui traque les failles dans tous les recoins depuis des années déjà. Et pendant quasi 2 ans, de mai 2022 à décembre 2023, il s’est lancé le défi d’ausculter un des organes les plus vitaux de Windows : sa base de registre.
Pour ceux qui débarquent, le registre, c’est un peu le cerveau de Windows. Une méga base de données qui stocke tous les réglages, options et préférences du système et des applis, organisés de manière hiérarchique avec des clés, des sous-clés et des valeurs. Bref, un truc super sensible et stratégique. Si un pirate arrive à mettre ses mains là dedans, bonjour les dégâts !
Mais notre Mateusz, c’est pas le genre à se dégonfler. Armé de ses outils et de ses connaissances en reverse engineering, il a plongé dans les millions de lignes de code de ce monolithe vieux de 30 ans et croyez-moi, il a frappé fort : pas moins de 50 failles critiques déterrées, dont 39 qui permettent une élévation de privilèges ! En gros, la totale pour passer de simple clampin à admin suprême sur une machine.
La force de son taf, c’est d’avoir exploré des endroits de la base de registres que personne n’avait vu avant. Des trucs bien planqués comme la récupération des transactions avortées, le chargement de ruches extraites ou les bails de virtualisation du registre (une fonctionnalité qui permet aux vieilles applis de tourner sans broncher sur les Windows récents). Bref, un vrai boulot de fourmi avec une grosse dose de persévérance.
Et le plus flippant, c’est que la moitié de ces failles seraient plutôt faciles à exploiter notamment via des techniques de corruption de mémoire ou de cassage des garanties de sécurité comme les ACL (les listes qui contrôlent qui a le droit de faire quoi dans le registre). Pour vous donner une idée, Mateusz a même créé des exploits de démo pour deux vulnérabilités, montrant comment détourner le registre à son avantage.
Heureusement, c’est un White Hat avec un grand cœur et toutes ses trouvailles ont été balancées en temps et en heure à Microsoft via le programme de divulgation responsable de Project Zero. Les ingés de Redmond ont évidemment remédié au boxon en patchant, avec des délais moyens de correction de 80 jours. Vous pouvez donc souffler !
Mais l’histoire est loin d’être finie. Il a tellement kiffé son voyage dans les méandres du registre, qu’il prévoit d’en faire une série de posts de blog pour partager son savoir. Au menu, des analyses bien poussées des bugs, des techniques d’exploit et plein de tips pour mieux protéger nos bécanes, comme :
regedit.exe /e sauvegarde.reg
J’ai hâte de dévorer tout ça !
Une campagne de phishing contre les internautes utilisant LastPass comme gestionnaire de mots de passe a été repérée. Elle mobilise le kit de phishing CryptoChameleon. Un site utilisé pour le hameçonnage a été neutralisé, mais d'autres tentatives pourraient survenir.
Netflix’s crackdown on password sharing helped the streaming service blow past Wall Street’s earnings forecasts, but its shares fell after it said it planned to stop regularly disclosing its subscriber numbers.
The company’s operating income surged 54 percent in the first quarter as it added 9.3 million subscribers worldwide, proving that the efforts to reduce password sharing it launched last year have had more lasting benefits than some investors expected.
However, Netflix said on Thursday that from next year it would stop revealing its total number of subscribers, a metric that has been a crucial benchmark for investors in the streaming era.
On Tuesday, Microsoft Research Asia unveiled VASA-1, an AI model that can create a synchronized animated video of a person talking or singing from a single photo and an existing audio track. In the future, it could power virtual avatars that render locally and don't require video feeds—or allow anyone with similar tools to take a photo of a person found online and make them appear to say whatever they want.
"It paves the way for real-time engagements with lifelike avatars that emulate human conversational behaviors," reads the abstract of the accompanying research paper titled, "VASA-1: Lifelike Audio-Driven Talking Faces Generated in Real Time." It's the work of Sicheng Xu, Guojun Chen, Yu-Xiao Guo, Jiaolong Yang, Chong Li, Zhenyu Zang, Yizhong Zhang, Xin Tong, and Baining Guo.
The VASA framework (short for "Visual Affective Skills Animator") uses machine learning to analyze a static image along with a speech audio clip. It is then able to generate a realistic video with precise facial expressions, head movements, and lip-syncing to the audio. It does not clone or simulate voices (like other Microsoft research) but relies on an existing audio input that could be specially recorded or spoken for a particular purpose.
La période des impôts est là. Comme chaque année, cette étape obligatoire peut causer du fil à retordre, voire donner envie de vous arracher les cheveux. Ne perdez pas espoir : voici comment faire.
Welcome to Edition 6.40 of the Rocket Report! There was a lot of exciting news this week. For the first time, SpaceX launched a reusable Falcon 9 booster for a 20th flight. A few miles away at Cape Canaveral, Boeing and United Launch Alliance completed one of the final steps before the first crew launch of the Starliner spacecraft. But I think one of the most interesting things that happened was NASA's decision to ask the space industry for more innovative ideas on how to do Mars Sample Return. I have no doubt that space companies will come up with some fascinating concepts, and I can't wait to hear about them.
As always, we welcome reader submissions, and if you don't want to miss an issue, please subscribe using the box below (the form will not appear on AMP-enabled versions of the site). Each report will include information on small-, medium-, and heavy-lift rockets, as well as a quick look ahead at the next three launches on the calendar.
Going vertical Down Under. Gilmour Space has raised its privately developed Eris rocket vertical on a launch pad in North Queensland for the first time, the Australian Broadcasting Corporation reports. This milestone marks the start of the next phase of launch preparations for Eris, a three-stage rocket powered by hybrid engines. If successful, Eris would become the first Australian-built rocket to reach orbit. Gilmour says the maiden flight of Eris is scheduled for no earlier than May 4, pending launch permit approvals. This presumably refers to a commercial launch license from the Australian government.
Twitter, devenu X, expérimente actuellement une nouvelle section nommée « Explore », à la place des TT (Trending Topics). Il s'agit d'un résumé de quatre actualités par Grok, l'intelligence artificielle générative d'Elon Musk. Plus personne ne verra les mêmes tendances.
Avec la sortie du Garçon et le Héron de Hayao Miyazaki, l'envie vous prendra peut-être de voir ou revoir d'autres films du studio Ghibli. Presque tous sont disponibles en SVOD sur Netflix.
Alors que le halving du bitcoin approche, de nouvelles études se montrent pessimiste quant à son influence sur le prix de la crypto-monnaie. Certains estiment que le halving ne créera pas d'augmentation, d'autres pensent qu'il va les faire chuter.
Meta a lancé son chatbot le 18 avril 2024. Baptisé Meta AI, il ressemble à ChatGPT ou Gemini. Cependant, il n'est pas encore disponible dans l'Union européenne. Pour s'en servir quand même, le recours à un VPN est nécessaire.
Russel T. Davies a lâché un petit détail concernant Ruby Sunday (Millie Gibson), la nouvelle compagne de voyage dans Doctor Who, aux côtés du 15e Docteur de Ncuti Gatwa.
PyTorch, le framework chouchou des bidouilleurs d’IA, vient de nous pondre un petit truc cool : Torchtune ! 💎 Cette nouvelle bibliothèque native, encore en phase alpha mais déjà disponible en open-source sur GitHub, va vous permettre de fine-tuner les gros modèles de langage (LLM) comme un pro, sans vous prendre la tête.
Torchtune est donc une boîte à outils hyper flexible et modulaire qui va vous permettre de vous éclater à customiser des modèles pour vos propres besoins, le tout avec des recettes mémoire efficaces qui tournent même sur une bête carte graphique de gamer, comme les NVidia 3090/4090.
Son secret ?
Une architecture bien pensée qui mise sur l’interopérabilité avec l’écosystème des LLM, qu’ils soient open-source ou non. Concrètement, ça veut dire que vous allez pouvoir brancher Torchtune à tout un tas d’outils et de frameworks que vous adorez déjà, comme Hugging Face 🤗, PyTorch FSDP 🪢, Weights & Biases 📈, et plein d’autres.
Grâce à des recettes simples et bien documentées pour les modèles populaires comme Llama 3, Mistral ou Gemma 7B, même les débutants vont pouvoir se lancer dans l’aventure sans flipper. Bon OK, il faudra quand même un peu de bagage en PyTorch et en LLM, mais rien d’insurmontable ! Et si vous êtes un pro, vous allez pouvoir hacker le code à volonté pour l’adapter à vos besoins spécifiques.
Alors comment on met les mains dans le cambouis avec Torchtune ?
Rien de plus simple, mon cher Watson ! Il vous suffit d’installer la dernière version stable de PyTorch (2.2.2 au moment où j’écris ces lignes), puis de télécharger Torchtune depuis PyPI avec un petit
pip install torchtune
Et voilà, vous êtes prêt à en découdre avec les LLM !
Pour vous faire les dents, je vous conseille de jeter un œil au tutoriel sur le fine-tuning de Llama2 7B. C’est le parfait point de départ pour comprendre comment Torchtune fonctionne et comment l’utiliser pour vos propres projets.
En gros, ça se passe en 4 étapes :
tune download
.tune run
en précisant votre recette et votre config. Vous pouvez même faire du multi-GPU avec torchrun
!Facile, non ? 😄
Bon OK, j’avoue, j’ai un peu simplifié. En vrai, il y a pas mal de subtilités et de paramètres à régler pour obtenir les meilleurs résultats, comme le learning rate, le nombre d’époques, la taille du batch, le ratio de LoRA, et tout un tas d’autres trucs, mais c’est justement sa flexibilité qui vous permet d’expérimenter à l’infini pour trouver la combinaison parfaite.
Bref, si vous êtes dev et que vous aimez jouer avec les LLM c’est à tester.
Déjà bloqué depuis 2017, WhatsApp est désormais introuvable en Chine sur décision du gouvernement. Les autorités chinoises ne veulent pas prendre le risque que l'application soit utilisée avec un VPN. D'autres messageries occidentales ont connu le même sort.
Alors que la production de la saison 4 de The Witcher a démarré, Netflix annonce que la cinquième sera la dernière. Elle se fera sans Henry Cavill, qui a cédé son costume du héros à Liam Hemsworth.
Minimachines.net en partenariat avec TopAchat.com
Avec 5 cœurs, le U300 est une formule proposée par Intel à l’apparition des puces de 13e Gen « Raptor Lake ». le HUNSN BJ03 l’intègre pour proposer une alternative aux plus classiques « Alder Lake-N » plus largement présents sur le marché.
La formule de ce U300 est assez simple. Prenez un processeur comme le Intel N100 et ses 4 cœurs « E » pensés pour leur sobriété énergétique et ajoutez lui un cœur « P » pensé pour les performances. Enfermez le tout dans une enveloppe thermique « classique » de 15 à 55 watts et vous obtenez cette nouvelle formule. Le résultat est donc une solution 5 cœurs et 6 Threads, avec une gravure Intel 7, 8 Mo de mémoire cache, une fréquence maximale des cœurs E à 3.3 GHz et du cœur P à 4.4 GHz. Ajoutez à cela la prise en charge de deux canaux de mémoire vive pour un total maximal de 96 Go et un circuit graphique Intel UHD de 13e Gen à 1.1 GHz avec 48 EU… Et vous obtenez un « Intel N100 » boosté aux hormones de croissances.
Le HUNSN BJ03 embarque donc cette puce qui fera surtout des étincelles en single Core. Si sur la partie multi cœurs la puce se positionne au niveau des performances d’un Intel N305, le passage à un cœur P en single cœur joue évidemment à son avantage. On se retrouve a côtoyer des puces comme le Core i3-1305U soit quelque chose comme 50% plus rapide que le même Intel N305. La prise en charge PCIe évolue également avec une norme qui peut atteindre la Gen4 et un nombre de lignes qui passe de 9 à 20… Dernier point ? Le U300 prend en charge nativement le Thunderbolt 4 au contraire du Alder Lake-N.
Evidemment il y a un bémol. On ne connait pas les prix exacts des puces Alder Lake-N mais il est assez clairs que Intel ne vise pas un segment très haut de gamme avec elles. Qu’il s’agisse des N95, N97, N100 mais également des N300 et N305 les prix semblent assez bas. Le Intel U300 est par contre fléché à un tarif indicatif de 193$ US. Soit plus que ce que demandent certains constructeurs pour un PC complet sous N95 ou N100 avec boitier, mémoire, stockage, alimentation et tout ce qu’il faut pour fonctionner. Evidemment les tarifs public d’Intel sur ces puces n’ont rien d’officiel mais il est vraisemblable que nous ne nagions pas du tout dans les mêmes eaux.
Ce U300 est ici intégré dans un MiniPC très « noname » baptisé HUNSN BJ03. La marque HUNSN propose pléthore de PC industriels qu’elle revend sous son nom de part le monde. Elle prend en réalité des catalogues de PC fabriqués par une usine tierce qu’elle décore de son logo. Le U300 a pour le moment surtout été utilisé dans ce type de machines et son apparition sur ce modèle pourrait aussi bien être un nouveau débouché qu’une « erreur d’aiguillage » du vrai fabricant.
Le boitier est assez classique avec un encombrement de 12 cm de large pour 11.2 cm de profondeur et 4.7 cm d’épaisseur. On retrouve en interne un port M.2 2280 PCIe 4.0 x4 et une baie 2.5″ pour un stockage SATA 3.0. La mémoire vive est confiée à deux slots SoDIMM DDR5-5200 pour un total annoncé de 64 Go. L’équipement interne est classique avec un port M.2 2230 pour un module Wi-Fi6 et Bluetooth 5.2 et une connectique plus amusante qu’originale.
En façade on retrouve deux ports USB 3.2 Type-A et deux USB 2.0 Type-A, un jack audio combo 3.5 mm et le bouton de démarrage. A l’arrière un duo de port USB Type-C avec DisplayPort, deux Ethernet 2.5 Gigabit pilotés par des circuits Intel i226V qui sont bizarrement disposés et deux sorties HDMI 2.0. On note que le refroidissement se fait via une aération et des ailettes sur le côté de l’appareil et non pas vers l’arrière. Sous l’engin on retrouve les 4 supports d’une accroche VESA.
Pour le moment l’engin est proposé a partir de 434.99€ en version 16/256 Go sous Windows 11 Pro sur Amazon, bien qu’il s’agisse à mon avis que d’un « lancement » du MiniPC que l’on devrait trouver sous plein de marques différentes. Les photos proposées ressemblent plus à des images de synthèse qu’à de vrais clichés. Le PC est stocké en Asie et la date de livraison est située entre le 30 avril et le 13 mai… Je pense que comme souvent il est assez urgent d’attendre. Le HUNSN BJ03 et tous les clones qui reprendront exactement ce même Intel U300 devraient débarquer tous en même temps dans quelques semaines avec probablement des solutions plus abouties ou plus intéressantes.
On trouve déjà un « Glovary » absolument identique ainsi qu’un « MNBOXCONET » et un « Rouafit » avec exactement ce même équipement, boitier et drôle de connectique Ethernet sur Amazon. J’imagine que la concurrence va sévir sur ces modèles assez rapidement.
Source Androidpc.es
HUNSN BJ03 : un MiniPC sous Intel Raptor LAke U300 © MiniMachines.net. 2024.
L'utilisation de l'IA à grande échelle fait apparaitre de nouvelles tendances de langage — et fait ressortir certains mots surannés. L'utilisation de certains mots serait même devenue révélatrice de textes générés par ChatGPT, mais surtout de la façon dont il a été entrainé.
Certains fans des jeux vidéo Fallout ont accusé la série diffusée sur Amazon Prime Video de remettre en cause la place de l'opus New Vegas dans la saga. Bethesda a rappelé que tout était bien canon.
Subscribers lodged thousands of complaints related to inaccuracies in Amazon's Prime Video catalog, including incorrect content and missing episodes, according to a Business Insider report this week. While Prime Video users aren't the only streaming users dealing with these problems, Insider's examination of leaked "internal documents" brings more perspective into the impact of mislabeling and similar errors on streaming platforms.
Insider didn't publish the documents but said they show that "60 percent of all content-related customer-experience complaints for Prime Video last year were about catalogue errors," such as movies or shows labeled with wrong or missing titles.
Specific examples reportedly named in the document include Season 1, Episode 2 of The Rings of Power being available before Season 1, Episode 1; character names being mistranslated; Continuum displaying the wrong age rating; and the Spanish-audio version of Die Hard With a Vengeance missing a chunk of audio.
Ah, Reddit! It's a constant source of amazing stories that sound too good to be true... and yet! The latest example comes to us from a user named Kidipadeli75, a dentist who visited his parents after the latter's kitchen renovation and noticed what appeared to be a human-like jawbone embedded in the new travertine tile. Naturally, he posted a photograph to Reddit seeking advice and input. And Reddit was happy to oblige.
User MAJOR_Blarg, for instance, is a dentist "with forensic odontology training" and offered the following:
While all old-world monkeys, apes, and hominids share the same dental formula, 2-1-2-3, and the individual molars and premolars can look similar, the specific spacing in the mandible itself is very specifically and characteristically human, or at least related and very recent hominid relative/ancestor. Most likely human given the success of the proliferation of H.s. and the (relatively) rapid formation of travertine.
Against modern Homo sapiens, which may not be entirely relevant, the morphology of the mandible is likely not northern European, but more similar to African, middle Eastern, mainland Asian.
Another user, deamatrona, who claims to hold an anthropology degree, also thought the dentition looked Asiatic, "which could be a significant find." The thread also drew the attention of John Hawks, an anthropologist at the University of Wisconsin–Madison and longtime science blogger who provided some valuable context on his own website. (Hawks has been involved with the team that discovered Homo naledi at the Rising Star cave system in 2013.)
On Thursday, Meta unveiled early versions of its Llama 3 open-weights AI model that can be used to power text composition, code generation, or chatbots. It also announced that its Meta AI Assistant is now available on a website and is going to be integrated into its major social media apps, intensifying the company's efforts to position its products against other AI assistants like OpenAI's ChatGPT, Microsoft's Copilot, and Google's Gemini.
Like its predecessor, Llama 2, Llama 3 is notable for being a freely available, open-weights large language model (LLM) provided by a major AI company. Llama 3 technically does not quality as "open source" because that term has a specific meaning in software (as we have mentioned in other coverage), and the industry has not yet settled on terminology for AI model releases that ship either code or weights with restrictions (you can read Llama 3's license here) or that ship without providing training data. We typically call these releases "open weights" instead.
At the moment, Llama 3 is available in two parameter sizes: 8 billion (8B) and 70 billion (70B), both of which are available as free downloads through Meta's website with a sign-up. Llama 3 comes in two versions: pre-trained (basically the raw, next-token-prediction model) and instruction-tuned (fine-tuned to follow user instructions). Each has a 8,192 token context limit.
Meta has announced it's permanently lowering the price of its aging Quest 2 headset to $199 for a 128GB base model, representing the company's lowest price yet for a full-featured untethered VR headset.
The Quest 2, which launched in 2020 at $299, famously defied tech product convention by increasing its MSRP to $399 amid inflation and supply chain issues in mid-2022. Actual prices for the headset at retail have fallen since then, though; Best Buy offered new units for $299 as of last October and for $250 by the 2023 post-Thanksgiving shopping season, for instance.
And the Quest 2 is far from the company's state-of-the-art headset at this point. Meta launched the surprisingly expensive Quest Pro in late 2022 before dropping that headset's price from $1,499 to $999 less than five months later. And last year's launch of the Quest 3 at a $499 starting price brought some significant improvements in resolution, processing power, thickness, and full-color passthrough images over the Quest 2.
The US Constitution's Fifth Amendment protection against self-incrimination does not prohibit police officers from forcing a suspect to unlock a phone with a thumbprint scan, a federal appeals court ruled yesterday. The ruling does not apply to all cases in which biometrics are used to unlock an electronic device but is a significant decision in an unsettled area of the law.
The US Court of Appeals for the 9th Circuit had to grapple with the question of "whether the compelled use of Payne's thumb to unlock his phone was testimonial," the ruling in United States v. Jeremy Travis Payne said. "To date, neither the Supreme Court nor any of our sister circuits have addressed whether the compelled use of a biometric to unlock an electronic device is testimonial."
A three-judge panel at the 9th Circuit ruled unanimously against Payne, affirming a US District Court's denial of Payne's motion to suppress evidence. Payne was a California parolee who was arrested by California Highway Patrol (CHP) after a 2021 traffic stop and charged with possession with intent to distribute fentanyl, fluorofentanyl, and cocaine.
Accrochez-vous à vos claviers, car Meta vient de lâcher dans la nature une nouvelle créature nommée Llama 3. Oui, vous avez bien compris, je parle de la dernière génération de modèles de langage « open source » (ou presque, on y reviendra) de la société de Mark Zuckerberg.
Si vous pensiez que ChatGPT, Claude ou Mistral étaient les rois de la savane, attendez de voir débarquer ces nouveaux lamas survitaminés ! Avec des versions allant de 8 à 400 milliards de paramètres (pour les non-initiés, disons que c’est l’équivalent de leur QI 🧠), les Llama 3 atomisent littéralement la concurrence sur de nombreux benchmarks standards, que ce soit en termes de connaissances générales, de compréhension, de maths, de raisonnement ou de génération de code.
Mais qu’est-ce qui fait de Llama 3 un tel monstre par rapport à son petit frère Llama 2 ? Déjà, un entraînement de folie à base de 15 000 milliards de tokens (7 fois plus que Llama 2 !) pompé depuis le web (!!), avec beaucoup plus de code et de données non-anglaises pour préparer le terrain à une IA multilingue. Ajoutez à ça des techniques de parallélisation à gogo pendant la phase de pré-entraînement, et vous obtenez des lamas dopés qui apprennent à une vitesse supersonique.
Et ce n’est pas tout ! Les Llama 3 ont suivi un programme d’éducation complet, avec du fine-tuning à base de rejection sampling, de PPO et de DPO (si vous ne connaissez pas ces acronymes, ne vous inquiétez pas, moi non plus 😅). Résultat : des modèles ultra-fiables qui refusent rarement une tâche, font preuve d’un alignement exemplaire et sont capables de suivre des instructions complexes sans sourciller. Bref, ce sont des cracks en raisonnement et en génération de code !
Mais au fait, comment on met la main sur ces petites bêtes ? Facile, il suffit de se rendre sur le site de Meta AI et de les télécharger ! Enfin, quand je dis facile… Les Llama 3 sont bien « open source », mais sous une licence maison qui impose quelques restrictions, notamment pour les entreprises de plus de 700 millions d’utilisateurs mensuels (suivez mon regard vers Mountain View et Redmond 👀). Mais bon, rien ne vous empêche de vous amuser avec si vous n’êtes pas une multinationale !
Et en parlant de s’amuser, sachez que Meta a aussi concocté un chatbot maison (pas encore dispo en France) baptisé sobrement « Meta AI« , disponible sur le web (www.meta.ai) et directement intégré dans les barres de recherche de Facebook, Instagram, WhatsApp et Messenger. Sous le capot, c’est bien sûr du pur Llama 3, avec en prime un modèle de génération d’images nommé « Meta Imagine« .
Au programme, de la discussion, de la recherche web via Bing et Google, et bien sûr de la création d’images en un clin d’œil. Seul hic, pas encore de mode multi-modal façon ChatGPT pour uploader vos propres documents ou images, mais ça ne saurait tarder !
Alors, que penser de ce nouveau coup d’éclat de Meta dans la bataille des IA ?
Personnellement, je trouve ça plutôt chouette de voir un poids lourd du Net jouer le jeu de l’open source (ou approchant) et mettre à disposition de tous des modèles de cette qualité. Bien sûr, on peut toujours discuter des arrière-pensées de Zuck et sa volonté de garder un œil sur ce qu’on fabrique avec ses lamas. Mais au final, c’est toujours ça de pris sur les GAFAM et leurs vilains modèles propriétaires !
Allez, je vous laisse, j’ai un lama à aller dompter moi ! 🦙
Et n’oubliez pas, comme le dirait l’autre, « le monde appartient à ceux qui codent tôt ». Ou tard, c’est selon.
Password-manager LastPass users were recently targeted by a convincing phishing campaign that used a combination of email, SMS, and voice calls to trick targets into divulging their master passwords, company officials said.
The attackers used an advanced phishing-as-a-service kit discovered in February by researchers from mobile security firm Lookout. Dubbed CryptoChameleon for its focus on cryptocurrency accounts, the kit provides all the resources needed to trick even relatively savvy people into believing the communications are legitimate. Elements include high-quality URLs, a counterfeit single sign-on page for the service the target is using, and everything needed to make voice calls or send emails or texts in real time as targets are visiting a fake site. The end-to-end service can also bypass multi-factor authentication in the event a target is using the protection.
Lookout said that LastPass was one of dozens of sensitive services or sites CryptoChameleon was configured to spoof. Others targeted included the Federal Communications Commission, Coinbase and other cryptocurrency exchanges, and email, password management, and single sign-on services including Okta, iCloud, and Outlook. When Lookout researchers accessed a database one CryptoChameleon subscriber used, they found that a high percentage of the contents collected in the scams appeared to be legitimate email addresses, passwords, one-time-password tokens, password reset URLs, and photos of driver’s licenses. Typically, such databases are filled with junk entries.
Long-time Fallout fans are used to long waits between titles, and, depending on their preferences, inconsistent results. But when Amazon's Fallout series showed up on Prime and absolutely nailed it, it spurred a lot of players to crack open their libraries and commence some post-apocalyptic replaying. And maybe first-time playing, too.
Fallout 76, the online multiplayer title that is the most recent full release, saw perhaps the biggest delta. The game hit its all-time peak of 43,887 simultaneous players on Wednesday, April 17, according to SteamCharts, roughly one week after the Amazon series' debut. For the year leading up to that peak, Fallout 76 had hovered around 7,000-10,000 players through most of 2024, and then jumped after the series' debut. Of course, that number only counts PC players, and only those on Steam; the game, which launched simultaneously on consoles, and is available on Microsoft's Game Pass, likely has many more players.
SteamDB, another Steam stats tracker, suggested on X (formerly Twitter) that the Fallout game series as a whole had more than doubled its concurrent player count by April 14.
On Wednesday, Colorado expanded the scope of its privacy law initially designed to protect biometric data like fingerprints or face images to become first in the nation to also shield sensitive neural data.
That could stop companies from hoarding brain activity data without residents realizing the risks. The New York Times reported that neural data is increasingly being collected and sold nationwide. And after a market analysis showed that investments in neurotechnology leapt by 60 percent globally from 2019 to 2020—and were valued at $30 billion in 2021—Big Tech companies have significantly intensified plans to develop their own products to rake in potentially billions.
For instance, in 2023, Meta demoed a wristband with a neural interface used to control its smart glasses and unveiled an AI system that could be used to decode the mind. In January, Elon Musk announced that Neuralink implanted its first brain chip in a human that can be used to control a device with their thoughts. And just last month, Apple Insider reported that "Apple is working on technology that could turn the Apple Vision Pro into a brainwave reader to improve mental health, assist with training and workouts, and help with mindfulness."
The United States has won an important battle in its war to keep low-cost Chinese electric vehicles from American car buyers. Today, Reuters reports that the Mexican federal government has responded to pressure from the US and will not offer incentives to Chinese automakers, like BYD, that are looking to establish North American manufacturing operations.
BYD last met with Mexican officials in January, according to Reuters, where it learned that Chinese automakers would not be offered tax breaks or cheap land to build factories.
Until now, Mexico has offered foreign automakers generous subsidies that have made the country a cheap place to build cars. Added to that, the United States-Mexico-Canada Free Trade Agreement also makes Mexico desirable for ease of access to the US market, and Chinese automotive part suppliers have flocked to the country in recent years.
Apple's decision earlier this month to open the iOS App Store to generic retro game emulators is already bearing fruit. Delta launched Wednesday as one of the first officially approved iOS apps to emulate Nintendo consoles from the NES through the N64 and the Game Boy through the Nintendo DS (though unofficial options have snuck through in the past).
Delta is an outgrowth of developer Riley Testut's earlier sideloadable GBA4iOS project, which recently had its own unauthorized clone removed from the App Store. Before Wednesday, iOS users could load Delta onto their devices only through AltStore, an iOS marketplace that used a Developer Mode workaround to sideload apps from a self-hosted server. European users can now get that AltStore directly on their iOS devices (for a small 1.50 euro/year fee), while North American users can simply download Delta for free from the iOS App Store, with no ads or user tracking to boot.
All that history means Delta is far from a slapdash app quickly thrown together to take advantage of Apple's new openness to emulation. The app is obviously built with iOS in mind and already integrates some useful features designed for the mobile ecosystem. While there are some updates we'd like to see in the future, this represents a good starting point for where Apple-approved game emulation can go on iOS.