33 private links
CPUID, non pas le développeur de CPU-Z, mais l'instruction permettant de récupérer le nom du CPU. Il ne faut pas s'y fier aveuglément, car les informations retournées peuvent être modifiées à la volée.
Une petite rétrospective d'Intel.
Jusqu'en USB 3.0, les choses étaient encore simples à saisir, puis est venu l'USB 3.1 et la nomenclature en a pris un coup :
" With USB 3.1 the bandwidth doubled to 10 Gbit/s. But USB-IF called it "USB 3.1 Gen 2" with the "old" USB 3.0 to be refereed to as "USB 3.1 Gen1". They did it again in 2017 with what people would have liked to be "USB 3.2". We got 20 Gbit/s except it was to be called "USB 3.2 Gen 2x2". Accordingly "USB 3.1 Gen 2" became "USB 3.2 Gen 2x1" and "USB 3.1 Gen 1" was renamed "USB 3.2 Gen 1x1"."
Sans compter la possibilité de transmettre un signal Display Port, le Power Delivery (USB-PD), etc.
Voir aussi la cheatsheet que l'auteur a publié : https://fabiensanglard.net/usbcheat/index.html
Il faut toujours se méfier des discours marketing.
En résumé, la RTX 5070 est loin d'une RTX 4090 en puissance brute. Elle peut seulement espérer faire jeu égal en recourant à des artifices tels DLSS 4 avec MFG (multi-frame generation).
« En tout premier lieu, ces fameuses nouvelles fonctionnalités visuelles qui nous faisaient tant rêver quatre ans plus tôt s'avèrent lourdes, très lourdes sur les performances. Certes, il fallait s'y attendre – et puis, peut-on reprocher à une technologie graphique d'être lourde si son impact visuel est à la hauteur ? Oui, on le peut, quand elle offre trop peu de flexibilité. Lumen en est justement un exemple. Son idée fondatrice, très schématiquement, est de normaliser l'éclairage indirect en ray tracing, mais pas nécessairement sous forme de ray tracing avec accélération matérielle comme on l'entend habituellement : Lumen existe aussi (et surtout pourrait-on dire) dans une version « logicielle », capable de tourner sur de simples shaders. Cette version doit évidemment être privilégiée par les développeurs, car elle assure la compatibilité avec tous les GPU existant sur le marché ; mais elle n'est pas optimale sur les GPU équipés pour faire de l'accélération RT correcte – pas seulement les RTX de Nvidia, mais aussi les Intel Arc, et les Radeon les plus musclées. Cependant, la version matérielle de Lumen demande une implémentation spécifique et aux développeurs de rebâtir de larges portions de leur système d'éclairage. On comprend que beaucoup d'entre eux préfèrent s'en dispenser. »
Un « retour d'expérience très contrasté ».
J'ai déjà partagé un article de ce blog récemment, et même s'il y a encore peu de contenu, c'est dur de ne pas tout partager, tant c'est qualitatif, bien écrit, captivant.
Ici, il est question de la sécurité de Linux (je sais, on touche à un sujet quasi-religieux).
Et Linux traîne malheureusement quand même pas mal de casseroles en la matière, depuis des années...
Pour le citer : "un code ouvert ne remplace pas une architecture robuste (Zero Trust). Il faut regarder au-delà des conceptions idéologiques !"
Dans ses articles, l'auteur met souvent en lumière les différences des modèles de sécurité des OS "desktop" (qu'il préfère appeler "traditionnels") et les OS "mobiles" (dits "modernes").
Contrairement à ce qu'on pourrait penser (moi le premier !), AOSP (la base open-source d'Android) a un modèle de sécurité très robuste, avec de nombreux mécanismes de protection en place (verified boot, sandboxing strict des applications, chiffrement, privilèges restreints, CFI, ...). Si vous y couplez un hardware bien conçu et qui prend ces considérations en ligne en compte, en proposant par exemple une enclave sécurisée moderne (comme les Pixel), alors vous avez probablement l'un des OS les plus sécurisés (grand public) à l'heure actuelle !
Les plus gros problèmes des distributions AOSP (autrement dit, des ROMS Android) sont l'omniprésence des services de Google et des mécanismes de protection activées ou implémentées au bon vouloir du fabricant/développeur... Cela vaut aussi pour le matériel.
Dans les faits, on se retrouve alors quasi-exclusivement avec des Android peu sécurisés, bavards et trop rapidement abandonnés.
Et n'allez pas croire que les ROM alternatives, customs (LineageOS, /e/ et consoeurs), sont forcément mieux loties : https://wonderfall.space/modele-securite-mobile/ (à lire absolument)
Elles sont souvent "très négligentes" au sujet du modèle de sécurité d'AOSP, car "se contentent souvent de "fonctionner" à tout prix plutôt que d'être conservatrices du modèle de sécurité."
Sans oublier qu'une ROM custom à jour ne signifie pas forcément qu'elle bénéficie de toutes les mises à jour de sécurité pour l'appareil. Oui, c'est trompeur...
Selon l'auteur, le combo idéal est un Pixel (pour la partie hardware) + GrapheneOS (pour la partie software, avec ou sans les services de Google), dont j'ai partagé l'article de présentation et d'explications il y a peu.
Moi qui pensais avoir tout vu avec les unités de mesure... 😓
En photo numérique, il y a différentes tailles de capteurs. En gros, plus il est grand, mieux c'est (plus de lumière "capturée").
Dans les smartphones, la taille est souvent exprimée en fractions de pouces (ex. 1/1.7", 1/1.52").
Je possède un appareil qui comporte un capteur de 1 pouce. Difficile de se le représenter, mais un capteur 1" mesure concrètement 13.2 mm x 8.8 mm. Soit une diagonale de 15.9 mm (merci Pythagore). Hum, quelque chose ne va pas : 1", c'est 25.4 mm 🤔
WTF ?
La taille des capteurs n'est donc pas mesurée en diagonale comme celle des écrans ?
"(...) contrairement aux écrans, la dénomination des capteurs ne donne pas la diagonale réelle du capteur (comme c’est parfois écrit à tort sur internet) ! Inutile donc de faire le calcul de la diagonale à partir de l’appellation du capteur en pouces car le résultat obtenu sera loin de la diagonale réelle (...)"
Mais alors ça représente quoi ? (Spoiler : ce n'est pas non plus la surface !)
En réalité, c'est bien la la diagonale du capteur, mais mesurée en "équivalent tube cathodique", pour ainsi dire :
"L’explication est historique : les industriels mesuraient la taille des capteurs d’images en fonction du diamètre des tubes cathodiques (la technologie qui était utilisée dans les anciennes et volumineuses télévisions) : un tube cathodique de 1 pouce de diamètre permettait de créer une image d’environ 15,9 mm de diagonale (notre fameuse diagonale de capteur 1’’)."
Source : https://www.luzphotos.com/materiel/apn/taille-capteur-apn-comparatif
Autrement dit, dans les capteurs d'images : 1" = ~16 mm 🤪
Offrir un support logiciel à long terme des smartphones sous Android, ce n'est pas forcément si simple, y compris pour les fabricants eux-mêmes !
Témoignage et explications d'Agnès Crepet (responsable de l'équipe informatique et de la longévité logicielle chez Fairphone) dans l'émission "Libre à vous !" (à partir de 27:01).
Pour résumer :
- Les fabricants de puces doivent continuer de fournir les pilotes dans le temps ;
- L'intégration des services de Google implique une phase de certification très chronophage et rigoureuse. Validation qui doit être refaite pour chaque version (majeure ?) de l'OS.
(Si vous avez le temps, n'hésitez surtout pas à écouter l'intégralité du sujet "Téléphonie mobile et libertés" !)
« Les SSD, ce n'est pas fiable, je préfère rester sur des HDD ! »
Oh, vraiment ?
« Le résultat des tests [d'usure] effectués était étonnant : la quantité totale de données écrites sur les disques dépassait la capacité maximale donnée par le constructeur. Même les disques les moins chers ont supporté plus de données écrites que la capacité donnée par le constructeur. Les disques Crucial BX200 ont été en mesure d’écrire 187 TB et 280 TB – 2,5 fois le chiffre promis!
L’un des disques Samsung, SSD 850 PRO, atteint un chiffre de 9,1 pétaoctets de données écrites ! C’est 60 fois le chiffre TBW promis par Samsung dans ses fiches techniques. Le disque Samsung le moins cher, le Samsung SSD 750 Evo, était capable d’écrire 1,2 pétaoctet de données. Cela équivaut en théorie à plus de 80 ans d’écriture continue. Pour les modèles pro, les tests ont démontré pourquoi leur prix est plus élevé. Aucun d’eux n’a écrit moins de 2,2 pétaoctets de données.
Les résultats obtenus par ce test prouvent que la durée de vie des SSD est plus élevée par rapport à celle donnée par les constructeurs. »
Et je citerais encore, en complément :
« […] dans l’absolu, les SSD sont plus fiables [que les HDD], et les pannes plus rares. Si certains arguent que la mémoire flash possède une durée de vie limitée, l’expérience montre qu’arriver aux limites de celle-ci (même en usage intensif) sort du cadre d’un usage considéré comme normal. Vous n’allez pas griller votre SSD en streamant en permanence, en jouant, en copiant des données. Sur un SSD estimé comme faible sur ce point (par exemple un Crucial P1 avec de la flash QLC) et en considérant que vous allez le garder 5 ans (ce qui peut sembler optimiste), il faut écrire ~220 Go par jour avant d’atteindre la valeur au-delà de laquelle le SSD ne sera plus garanti. De plus, dans la pratique, les tests empiriques montrent qu’il s’agit d’une valeur théorique et que la dépasser (même largement) n’amène pas directement une catastrophe. En résumé, ne vous inquiétez pas de la durée de vie de votre mémoire flash. » (source : Canard PC Hardware, n°42, octobre-novembre 2019, page 31)
Bref, ne vous préoccupez pas de l'usure de vos SSD, mais d'effectuer des sauvegardes fonctionnelles et pérennes, c'est le plus important, toutes technologies de stockage confondues !
Cet article est intéressant car il explique le fonctionnement des capteurs "Quad Bayer", de plus en plus présents sur nos photophones.
ÉDIT : voir aussi : https://www.gsmarena.com/quad_bayer_sensors_explained-news-37459.php
Un guide essentiel pour tout comprendre des nombreux sigles agrémentant les cartes (micro)SD !
À ce prix, on ne va pas se plaindre d'avoir de la TLC (qui tiendra de toute façon bien assez longtemps en usage normal) !
Des alternatives (plus puissantes) au Raspberry Pi.
Dans l'article cité en source : « The ASUS UEFI firmware exposes an ACPI table to Windows 10, called "WPBT" or "Windows Platform Binary Table". WPBT is used in the pre-built OEM industry (...) Put simply, it is a script that makes Windows copy data from the BIOS to the System32 folder on the machine and execute it during Windows startup - every single time the system is booted. »
Donc Microsoft offre, à n'importe quel fabricant de CM/UEFI, un moyen officiel et documenté pour installer silencieusement et durablement des binaires dans Windows ? Le tout avant le lancement de n'importe quel autre programme et avec les droits administrateur.
C'est à la fois impressionnant (techniquement parlant) et horrifiant !
Maintenant, y a-t-il un moyen de désactiver ce comportement via une GPO, par exemple ? 🤔
Bon à savoir : le connecteur USB Type-C présent sur les GeForce RTX se comporte comme n'importe quel autre connecteur USB, donc il est aussi possible d'y brancher clavier, souris, périphériques de stockage... ou de recharger son téléphone/sa tablette !
Bon d'accord, ça fait cher le connecteur USB Type-C pour ceux qui n'en possèdent pas...
Un bon résumé des nouveautés des GeForce RTX.