Aller au contenu
  1. Quoi de neuf dans ce club
  2. il n'est pas conçue pour son look, mais pour évité de te faire hacker, tracker,.....
  3. Bonjour, Pas besoin d'être désolé, je suis d'accord! Après, ce sont des "jouets" pour fans de bricolage et testeurs en tout genre... Et c'est bien pour cela que je l'ai mis dans la section "Geeks".
  4. Je verrai bien un Phone comme celui-ci, mais plus un boitiers déporté communiquant avec un écran tactile avec micro-casque intégrer.😀
  5. Le VoCore2 est un nouveau nano-ordinateur monocarte (single board computer ou SBC) de la taille d’une pièce de monnaie. Il a vu jour grâce à une initiative de financement participatif lancée sur la plateforme de crowdfunding Indiegogo. Actuellement, il est commercialisé sous diverses configurations suivant les besoins de l’utilisateur ou du projet cible. Le VoCore2 embarque une puce MT7628AN MIPS fonctionnant à 580 MHz, 128 Mo de mémoire vive (RAM DDR2), 16 Mo de mémoire de stockage et une antenne intégrée. Il dispose également d’un lecteur de carte SDXC (jusqu’à 2 To), d’un port USB 2.0, d’un port audio Jack de 3,5 mm, d’un port Ethernet 100 Mb/s ainsi que d’un slot U.FL. Il est compatible avec la technologie Wifi (802.11n, 2T2R, jusqu’à 300 Mb/s). Il prend en charge la lecture et l’enregistrement audio et peut se connecter à divers capteurs. Ce nanoPC Linux peut être utilisé pour lancer des jeux comme la version originale de DOOM à 25 images par seconde sur un écran externe de quatre pouces. Outre sa taille mini, on peut aussi évoquer son prix : à partir de 17 USD l’unité pour les configurations les plus basiques. Il débarque sur un marché où la concurrence fait rage avec des alternatives éprouvées comme le NanoPi NEO Core2-LTS (29 USD) ou le NanoPi Duo (13 USD), l’Omega2+ (13 USD), les SBC d’Octavo System, les Raspberry Pi ou les DragonBoard.
  6. salut, l'idée est sympa mais je ne jetterai pas 50 € là dedans et encore le monter seul ...mais ils auraient pu le faire plus joli il ressemble à rien. non pour 75/80 € je prend un vieil iphone5 d'occase par exemple.😋 désolé IceCream
  7. En quête d’un téléphone Linux qui permet de garder la main sur sa vie privée et d’obtenir les plus grandes marges possibles de réparabilité et de personnalisation ? Alors, il faudrait peut-être jeter un œil du côté de la plateforme de financement participatif Crowd Supply. C’est sur cette dernière que l’on retrouve des détails à propos du ZeroPhone. Le téléphone est basé sur un ordinateur monocarte Raspberry Pi Zero couplé à une carte Arduino et un module WiFi ESP8266. Côté connectique, on retrouve un port HDMI, un port USB 2.0 complet et une borne de chargement microUSB. Il faut également compter avec la présence de sorties audio et GPIO pour les extensions matérielles. D’après Arsenijs – son créateur – le ZeroPhone devrait être « facile à utiliser, aisément modifiable et réparable, car conçu à partir de composants largement disponibles. » Toutefois, l’une des tares que le téléphone traîne est la petitesse de son écran (OLED de 1,3 × 128 × 64). En sus, il semble que ce soit un modem 2G qui supporte les fonctions téléphoniques de l’appareil. Les constructeurs évoquent néanmoins la possibilité de passer en 3G. Le ZeroPhone c’est un ensemble de promesses : pas de verrous de constructeurs, pas d’application préchargées, pas de collecte de données à l’insu des utilisateurs. À ces dernières s’opposent de nombreux obstacles, le premier étant qu’en réalité, ce téléphone est pour le moment réservé à un public de férus en informatique. Il en faut un maximum pour créer une communauté capable de briser la seconde barrière : l’absence d’un écosystème fourni en applications ouvertes. Arsenijs et son équipe ont consacré Python comme langage principal pour le développement sur cette plateforme. En sus, un kit est en gestation pour accélérer les taches de développement d’applications. Les concepteurs promettent de publier toutes les spécifications permettant à chacun de se livrer à l’exercice de Do-it-Yourself. Toutefois, pas de mystères en ce qui concerne le coût de l’opération estimé à 50 $. C’est 10 fois moins que le coût annoncé du Librem 5 – un smartphone GNU/Linux orienté sécurité et vie privée – dont le lancement est prévu pour janvier 2019. La comparaison en termes de coûts est hâtive si on occulte le fait que le Librem 5 est sur la bonne voie en ce qui concerne l’écosystème autour de la plateforme. Purism – la société qui conçoit le smartphone – est en partenariat avec une firme dénommée Matrix pour adapter un protocole d’appels décentralisés et chiffrés au Librem 5. L’équipe KDE et la fondation GNOME ont annoncé des associations avec Purism avec pour objectifs respectifs d’adapter les environnements graphiques Plasma mobile et GNOME au Librem 5. L’appareil devrait donc être capable d’exécuter des applications Qt et GTK+. Les projets se multiplient dans le sens de donner aux partisans du libre et de l’open source le smartphone dont ils rêvent. Le cas postmarketOS, une version d’Alpine Linux destinée à remplacer Android et iOS sur des smartphones existants en est une autre illustration. Si dans le cadre de ce projet on en est encore aux stades de balbutiement, il semble que les projets ZeroPhone et Librem 5 sont plus dans le concret. 2019 pourrait bien être l’année où les supporters du libre et de l’ouvert verront définitivement le bout du tunnel. Source : crowdsupply
  8. Un nouveau projet en gestation exposé sur le site de révision de code de l’équipe Chromium suggère qu’il sera bientôt possible de se connecter à Windows 10 en utilisant les informations de son compte Google. Cette nouvelle fonctionnalité devrait s’appuyer un « Credential Provider de Google » afin de permettre à Windows d'authentifier les utilisateurs grâce à leur compte entreprise G Suite ou à leur compte Google standard. Selon la documentation de Microsoft : « Les Credential Providers constituent le principal mécanisme d'authentification des utilisateurs. Ils représentent actuellement la seule méthode permettant aux utilisateurs de prouver leur identité, laquelle est requise pour la connexion et les autres scénarios d'authentification du système ». Ainsi, en fournissant à l’utilisateur un moyen de rentrer ses informations d’identification par le biais d’un système d’authentification (login/mot de passe, Windows Hello, un code confidentiel, une carte à puce...), les Credential Providers permettent l'ouverture sécurisée d'une session Windows. Dans le cas présent, le Credential Providers de Google semble autoriser les utilisateurs à se connecter à l'aide des identifiants GAIA (Google Accounts and ID Administration) créés par les administrateurs de G Suite. GAIA est un système d'authentification et d'autorisation élaboré par Google qui permet aux utilisateurs d'accéder à divers services Google. Intitulé « Google Credential Provider for Windows », ce projet développé du côté de Chromium par Roger Tawa devrait être déployé par le biais du programme d'installation gcp_installer.exe qui inclut les fichiers : gcp_setup.exe, startchromeonfirstlogin.cmd, gcp_eventlog_provider.dll et gaia1_0.dll. Lorsque gcp_installer.exe est lancé, il enregistre la DLL du Credential Provider de Google (gaia1_0.dll) dans la clé de registre suivante : HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\Windows\CurrentVersion\Authentication\Credential Providers\{0B5BFDF0-4594-47AC-940A-CFC69ABC561C} Registry key. Le programme d'installation configure aussi le lancement automatique de Chrome quand l'utilisateur se connecte pour la première fois en ajoutant un lien vers le fichier startchromeonfirstlogin.cmd dans le dossier de démarrage de l'utilisateur. Il semble, en effet, que Chrome soit requis pour le processus d’authentification, sans qu’on ne sache vraiment pourquoi à ce stade. Au prochain redémarrage, le fournisseur devrait maintenant être disponible en tant qu'option de connexion supplémentaire. Lorsqu'un utilisateur se connecte avec son identifiant GAIA, le Credential Provider authentifie l'utilisateur à l'aide de l'API OAuth 2.0 de Google. Si les informations d'identification sont correctes, l'utilisateur sera automatiquement redirigé vers son profil. L'ajout de cette fonctionnalité devrait permettre à la firme de Mountain View de pénétrer davantage le marché des entreprises en intégrant Windows 10 directement dans leur plateforme G Suite. Source : Chrome Story, Chromium review
  9. Domaine incompréhensible pour l’œil non averti, mais omniprésent dans l’électronique grand public, les SoC — pour system on a chip — désignent les puces mobiles intégrées à nos smartphones, tablettes et montres connectées. Embarquez avec nous dans notre voyage au cœur des SoC — aussi appelés processeurs mobiles — pour découvrir qui ils sont et à quoi ils servent au cœur de nos smartphones. Si vous n’y connaissez rien, mais que vous êtes curieux : tant mieux ! Ce dossier a pour but de vous faire découvrir ce qui se cache à l’intérieur de votre smartphone. Si vous êtes déjà un fin connaisseur du monde, des SoC, les puces mobiles, une petite piqûre de rappel ne fait jamais de mal, surtout dans ce monde en constante évolution. Qu’est-ce qu’un SoC ? Au sein d’un ordinateur “classique” tel qu’un PC de bureau, les choses sont assez simples. Le processeur (CPU) se charge de réaliser les calculs les plus répandus, ceux qui permettent par exemple de faire tourner le système d’exploitation ou un navigateur web. On trouve aussi la carte graphique (ou GPU) qui se charge d’afficher une image, qu’elle soit en 2D ou bien en 3D comme dans les jeux. La carte-mère joue le rôle de chef d’orchestre en reliant entre eux tous les composants, à l’image du CPU, du GPU, mais également de la RAM et d’autres petites puces. Mais depuis le début de l’ère des smartphones, on assiste à l’émergence de systèmes tout-en-un. Ainsi, presque tout le contenu d’un ordinateur se retrouve finalement dans une seule puce sur le smartphone : le SoC. Les composants sont alors bien plus interconnectés, avec par exemple une fréquence processeur qui varie en fonction de la fréquence de la carte graphique du fait de contraintes thermiques et de consommation. Une méthode complètement inédite par rapport à un ordinateur classique où chaque composant était plus ou moins indépendant. Les nouveaux procédés de gravure (les actuels sont gravés en 10 nm par exemple, quand la prochaine génération sera en 7 nm) ont permis de réduire significativement la taille des composants. On dispose alors aujourd’hui de la puissance d’un ordinateur d’il y a seulement quelques années dans sa poche. Cela s’est cependant fait au prix d’une complexité croissante qui rend le domaine des SoC difficilement compréhensible pour le quidam. Différence entre processeur et SoC: On parle souvent par abus de langage de processeur lorsque l’on est amené à parler du cœur d’un nouveau smartphone ou bien lors d’une annonce hardware d’un constructeur. Pourtant au-delà du “simple” rôle du processeur qu’il intègre, le SoC comprend toute une galerie de composants. On peut comparer le processeur au chef d’orchestre, tandis que le SoC représenterait l’ensemble de l’orchestre, comprenant instruments à vent, cordes et percussions. Les différents composants du SoC ont pour tâche de remplir diverses fonctions, à la manière d’un PC, mais miniaturisé à l’extrême. Si le processeur représente ainsi un élément indispensable, le SoC comprend également tous les autres composants permettant de faire fonctionner un smartphone, une tablette ou une montre connectée. Au sein des smartphones actuels on peut retrouver une grande variété de SoC, avec notamment : Exynos 9810 chez Samsung A11 chez Apple Snapdragon 845 chez Qualcomm Helio chez MediaTek Kirin 970 chez HiSilicon (une filiale de Huawei) On pourrait également citer les Tegra de Nvidia, même si ceux-ci n’ont pas vraiment pour cible les smartphones, ou bien les Allwiner et Rockchip, présents dans un grand nombre d’appareils vendus en Chine. Il y a beaucoup, beaucoup de fabricants de SoC, cette liste ne vise donc pas à être exhaustive. Ce qu’il y au sein d’un SoC: Le SoC nous le disions, est comme un PC miniaturisé à l’extrême. Il comprend donc des composants et contrôleurs lui permettant de gérer tous les équipements de votre smartphone, qu’il s’agisse de l’appareil photo, de la mémoire interne, ou encore du modem. Architecture du Snapdragon 845 - Processeur (CPU). Au sein d’un SoC, on trouve donc bien sûr, un processeur. Le processeur (ou CPU) au sein d’un SoC joue le même rôle que sur un PC. Avec néanmoins une différence importante. Un processeur “classique” cherchera à effectuer la tâche qui lui est confiée en visant la plus haute performance possible sans se soucier de la consommation d’énergie. Le processeur d’un SoC fonctionne lui à rebours de ce principe et les constructeurs cherchent avant tout à le rendre le plus efficient (efficace en terme d’énergie) possible dans toutes ses tâches. Le but est qu’il utilise le moins possible d’énergie. Mais également que l’énergie qu’il utilise, provenant de la batterie, soit le mieux utilisée, afin de rentabiliser celle-ci. Ce principe s’applique également aux ordinateurs portables, dans lesquels on peut trouver des processeurs mobiles ou des SoC. Pour arriver à de bonnes performances en ménageant la consommation d’un processeur, il est possible de jouer sur plusieurs facteurs. La fréquence du processeur, le type de cœur au sein du processeur, ainsi que le procédé de gravure. La fréquence (MHz) La fréquence de fonctionnement est un facteur important dans la consommation d’un processeur, mais trop la baisser a de sérieuses conséquences sur ses performances. On trouve actuellement des puces dotées d’une fréquence de fonctionnement comprise entre 1,3 et 3 GHz environ. En jaune, les huit cœurs CPU - Les cœurs Le type de cœurs au sein du processeur a également son rôle à jouer. Ainsi un cœur Cortex-A53 consomme beaucoup moins qu’un cœur Cortex-A72, mais ne fournit absolument pas le même niveau de performance. Si le premier est spécialement conçu pour consommer extrêmement peu d’énergie, le second est plus porté vers la performance, mais consomme beaucoup plus. C’est pour cette raison que les Cortex-A53 sont souvent utilisés par quatre ou huit, tandis que le Cortex-A72 est plus souvent utilisé par deux ou quatre cœurs. On trouve alors souvent des configurations hybrides faisant appel à des cœurs haute performance pour les tâches lourdes (telles que jeux 3D) en combinaison avec des cœurs très basse consommation (pour relever des mails par exemple). Ne pas confondre processeur et cœurs: Un processeur est composé de plusieurs cœurs, qui se répartissent entre eux la charge de travail. Certains smartphones ont aujourd’hui jusqu’à 8 ou 10 cœurs, ce qui n’est pas forcément un indicateur de puissance. Par exemple, le Snapdragon 830 de Qualcomm comporte quatre cœurs Kryo quant l’Exynos 8890 de Samsung intègre quatre cœurs Exynos M1 et quatre cœurs Cortex-A53 pour une puissance équivalente. - La gravure Enfin de nouveaux procédés de gravure sont également un facteur crucial dans le domaine des SoC pour offrir de bonnes performances avec une faible consommation. Il permet d’obtenir une amélioration des performances (en augmentant le nombre de transistors) tout en limitant l’augmentation de la taille de la puce ainsi que sa consommation électrique. Ainsi, le passage d’une gravure 28 nanomètres à 16 nanomètres et l’utilisation de nouveaux cœurs Cortex-A72 en lieu et place des Cortex-A15 permet d’utiliser 75 % moins d’énergie pour les mêmes tâches, comme illustré ci-dessous par ARM. Android vs iOS. L’impact d’un processeur puissant se remarquera dans la fluidité générale du smartphone, par exemple la réactivité de celui-ci quand une application est lancée. À ce petit jeu, Apple fait figure de leader puisque le constructeur ne commercialise que très peu d’appareils (iPhone, iPad et iWatch). Il lui est donc possible d’optimiser de manière extrêmement poussée iOS en fonction du processeur utilisé et de bénéficier d’un rapport consommation – performances extrêmement favorable. Sur Android, c’est bien plus compliqué, puisque chaque téléphone est différent, que ce soit au niveau matériel que logiciel. Ainsi, Google doit tenir compte d’une très grande diversité de configurations dans l’écosystème Android. Il y existe en effet des dizaines de processeurs différents, des milliers de smartphones différents et presque autant de versions d’Android personnalisées avec des interfaces constructeurs. Cette diversité, qui est une des forces de l’écosystème Android peut également se retourner contre lui. Cela peut en effet amener des performances loin d’être optimales sur certains modèles ou bien certaines applications ne fonctionnant simplement pas sur certains smartphones. C’est une des raisons pour lesquelles les processeurs utilisés dans les SoC des smartphones Android sont généralement cadencés à des fréquences plus hautes et possèdent plus de cœurs par rapport à un iPhone, à défaut de pouvoir atteindre le même niveau d’optimisation que chez Apple. Puce graphique (GPU): La puce graphique ou GPU est peut-être quelque chose de familier aux joueurs PC. Bien qu’à une échelle différente au sein d’un smartphone, le GPU remplit fondamentalement les mêmes tâches que sur un PC. Son rôle est de calculer des images en 2D ou 3D affichées ensuite sur l’écran via les pixels de la dalle. Concernant le calcul des images 2D, il a lieu constamment puisque, très concrètement, le GPU est activé dès qu’il faut afficher une page web, naviguer dans Google Maps, ou afficher une vidéo, c’est à dire, presque constamment, mais à différents niveaux sur un smartphone récent. À ce sujet, vous avez sûrement déjà fait l’essai : une vidéo qui n’est pas lue ou de manière très saccadée sur un smartphone, et est totalement fluide sur un autre. Il s’agit là d’une conséquence tout à fait concrète de l’amélioration des GPU, notamment sur les vidéos en 4K ou bien dans des nouveaux formats d’encodage, tel que le H.265, de plus en plus supporté. En effet, bien que le CPU soit très puissant, il n’est pas adapté à ce genre de tâches, et il s’agit donc d’utiliser le GPU (et ses différentes unités) afin de décoder de manière bien plus efficace & économe dans la lecture de vidéos. Parmi les puces graphiques notables, on peut ainsi citer : Mali G72 d’ARM Adreno 630 de Qualcomm Architecture Rogue de PowerVR Enfin, l’API graphique Vulkan sur les GPU des SoC s’avère une très bonne nouvelle. Cette API apporte la possibilité de réaliser des applications 3D telles que des jeux de façon multiplateforme entre PC & Android. Il s’agit d’une période particulièrement intéressante qui s’annonce. Cette technologie devrait permettre un travail simplifié pour les développeurs, ainsi que de meilleurs pour les utilisateurs. À plus long terme, celle-ci devrait avoir comme conséquence de permettre de repousser les limites des jeux sur mobiles. Le coût des pixels. On retrouve des définitions de plus en plus élevées dans les smartphones haut de gamme notamment QHD (2560×1440 pixels) soit 3,7 millions de pixels à afficher voire même en 4K UHD (3840×2160 pixels) soit 8,3 millions de pixels. Plus le GPU doit calculer et afficher un nombre important de pixels, et plus il aura du mal à afficher une image non saccadée. Ainsi, passer d’une dalle Full HD à QHD avec le même GPU fait perdre environ 50 % de performance dans les jeux. Modem et Réseaux: Si vous cherchez un smartphone qui pourra offrir la 4G+ ainsi que les connexions habituelles Wi-Fi et Bluetooth, le modem est la partie qui devra retenir votre attention. En effet en plus du CPU et du GPU, le SoC intègre une partie modem pour gérer plusieurs types de connexions et réseaux. Pour la 4G, celui-ci devra supporter les catégories 1 à 5, et pour la 4G+ les catégories 6 à 12. Bien que le sujet soit particulièrement touffu sur ces composants en particulier, le nombre d’acteurs est lui bien plus simple, puisqu’il se résume à trois grands acteurs majeurs : Qualcomm avec son X20 Intel sur les iPhone Samsung et son Exynos Notons que ces mêmes acteurs se préparent à l’arrivée de la 5G, avec notamment le X50 de Qualcomm. Les modèles de Qualcomm équipent un nombre impressionnant de smartphones, du fait de l’intégration de ses modems au sein de ses SoC Snapdragon. Cependant, sa domination du marché est moins importante qu’il y a quelques années, notamment puisque Samsung est lui aussi entré sur le marché. Il a ainsi commencé à commercialiser ses propres modems depuis 2015. Les quatre antennes d’un modem Qualcomm Le modem est un domaine extrêmement exigeant. Il faut ainsi savoir conjuguer une solide expertise du marché mobile à une vision à long terme, et c’est ce qui à probablement manqué à Nvidia qui s’est séparé de sa filiale Icera début 2015. De même, les temps de développement d’un modem ne sont absolument pas comparables avec un autre composant, et il s’agit probablement du composant le plus crucial sur un smartphone et le plus complexe à produire. Ainsi, au moment de l’annonce du premier modem de Samsung, l’Exynos 333, une rumeur faisait mention d’un temps de développement de 7 ans. Et, même pour des spécialistes, ce n’est pas non plus rentable parfois, ce qui a poussé Broadcom à se concentrer sur la 5G et d’autres technologies réseau. Cependant, ce petit club, du fait de la complexité technique de fabrication de cette partie cruciale, permettant au téléphone de… téléphoner pourrait s’élargir avec de nouveaux entrants qui pourraient s’imposer d’ici quelques années. En effet, de nouveaux acteurs tels que HiSilicon, fabricant filiale de Huawei, prennent toujours plus d’importance. Les autres composants. Il existe encore bien d’autres fonctions remplies par les différents composants au sein d’un SoC. S’il existe de nombreux contrôleurs, on peut toutefois en citer quelques-uns. Les ISP ou Image Signal Processor, comme le Qualcomm Spectra, qui se charge des différents traitements numériques relatifs aux images prises par l’appareil photo. Ceux-ci ont pris bien plus d’importance maintenant que les doubles capteurs photo sont devenus prédominants sur mobile. Clear Sight, le double capteur version Qualcomm On peut aussi citer le contrôleur de stockage, chargé de gérer la mémoire du smartphone. C’est d’ailleurs un cas intéressant, puisque la mémoire était un des rares composants à ne pas être intégré directement sur la même puce que le reste des composants. Or, les derniers SoC embarquent maintenant CPU, GPU, Modem, RAM, et mémoire de stockage directement sur le même package, comme dans le cas des dernières puces de Samsung. La RAM et la mémoire flash ne sont pas dans le SoC, mais soudés au-dessus de lui. On peut donc voir que la tendance à l’intégration de tous les composants se poursuit même encore aujourd’hui. L’objectif est presque toujours le même : miniaturiser encore plus les circuits pour permettre aux fabricants de smartphones de concevoir de nouveaux designs, tout en consommant moins d’énergie ou en augmentant les performances. SoC, vers une fusion entre PC & smartphones ? Comme nous l’expliquions dans la première partie, un SoC fonctionne avec des priorités très différentes d’un processeur PC classique. Ils sont ainsi presque à l’opposé l’un de l’autre, un processeur classique cherchant la performance maximale, tandis que le SoC sera toujours à la recherche du milliwatt qu’il est possible d’économiser. Pour autant, et depuis quelques années déjà, les priorités des processeurs “classiques” ont changé, du fait de la place croissante des PC portables dans les ventes de PC globales. De ce fait, l’autonomie est devenue un sujet majeur pour les utilisateurs, poussant Intel à développer des puces similaires à un SoC mobile, mais destinées à des PC, les fameux Core M et Atom. À l’inverse, Microsoft a lui-même rendu compatible Windows 10 avec les plateformes ARM, et ce en partenariat avec Qualcomm qui leur aura offert la compatibilité avec le Snapdragon 835 du même temps. Si la tendance est neuve, le constructeur planche sur un Snapdragon 850 amélioré pour fournir toujours plus de puissance et d’autonomie aux futurs PC ARM.
  10. Hier, Google a fait la promotion de la bêta du navigateur Web Chrome 69 pour les plateformes prises en charge et qui comportent GNU / Linux, macOS et Windows, donnant un premier aperçu des nouvelles fonctionnalités et améliorations du navigateur aux développeurs. Support (expérimental) de AV1. L'une des nouveautés qui sera disponible sur la version Google Chrome 69 est le support du codec vidéo AV1 de nouvelle génération développé par l'Alliance for Open Media, même si Google l’a marqué comme étant encore à un stade expérimental. Récemment, Mozilla a lancé une campagne pour l’adoption de ce codec. La fondation a rappelé « Qu’il a fallu des années aux entreprises pour mettre en place un ensemble complexe d'accords juridiques et commerciaux, de sorte que la vidéo H.264 fonctionne partout. Maintenant que l'industrie passe à l'utilisation de codecs vidéo plus efficaces, ces entreprises choisissent les technologies de prochaine génération qu'elles vont prendre en charge. La fragmentation sur le marché soulève des inquiétudes quant à savoir si notre site web préféré, où nous regardons des vidéos, continuera d'être accessible et abordable pour tous ». Elle a souligné deux raisons qui font qu’elle aime ce codec : AV1 est libre de droits : donc tout le monde peut l'utiliser librement. Les éditeurs de logiciels peuvent l'utiliser pour créer du streaming vidéo dans leurs applications. Les développeurs Web peuvent créer leurs propres lecteurs vidéo pour leurs sites. Cela peut ouvrir des opportunités d'affaires et éliminer les barrières à l'entrée pour les entrepreneurs, les artistes et les gens ordinaires. Plus important encore, un codec sans redevance peut aider à garder la vidéo de haute qualité à un prix abordable pour tout le monde. AV1 offrirait une meilleure technologie de compression que les codecs à haut rendement (environ 30% de mieux, selon une étude de l'Université d'Etat de Moscou) : pour les entreprises, cela se traduit par de plus petits fichiers vidéo qui sont plus rapides et moins chers à transmettre et occupent moins d'espace de stockage dans leurs centres de données. Pour le reste d'entre nous, nous aurons accès à une vidéo haute définition magnifique à travers les sites et services que nous connaissons et aimons déjà. « AV1 est un codec de nouvelle génération développé par l'Alliance for Open Media. AV1 améliore l'efficacité de la compression de 30% par rapport à l'actuel codec vidéo de pointe, VP9. Le décodeur AV1 sera ajouté à Chrome Desktop (Windows, macOS, Linux, Chrome OS) en fonction de la spécification officielle bitstream. Actuellement, la prise en charge est limitée au profil "principal" 0 et n'inclut pas les capacités d'encodage. Le conteneur pris en charge est ISO-BMFF (MP4) », a noté Google sur la page dédiée aux statuts de Chrome. Chrome s’accompagne également de plusieurs fonctionnalités CSS. Prise en charge des encoches d'affichage: Les encoches d'affichage sont désormais prises en charge dans Chrome via la nouvelle fonction CSS env () (variables d'environnement) et la balise meta viewport-fit. Cela permet aux développeurs de tirer parti de l'intégralité de l'écran sur les périphériques dotés d'une encoche d’affichage. Par exemple, pour indiquer au navigateur de se développer dans la zone d’encoche d'affichage, le site doit définir la propriété viewport-fit dans la balise META de viewport à couvrir. Le site peut ensuite utiliser les variables d'environnement CSS de la zone sécurisée pour mettre en page leur contenu sans qu’il ne soit superposé à l’encoche. Code : <meta name="viewport" content="viewport-fit: cover" /> <style> #box { margin-top: env(safe-area-inset-top); margin-left: env(safe-area-inset-left); margin-bottom: env(safe-area-inset-bottom); margin-right: env(safe-area-inset-right); } </style> <div id=box></div> Une image sur un téléphone disposant d’une encoche d’affichage. Étant donné qu’un nombre croissant d'appareils mobiles sont sortis avec une encoche d'affichage, les applications natives seront en mesure de profiter de l'expansion dans la zone de découpe. L'ajout d'un support d’encoche d'affichage à la plate-forme Web permettra aux sites d'offrir une expérience comparable à celle d'une application native sur ces appareils. Gradients coniques Les gradients coniques CSS (angulaire / balayage) permettent des transitions de couleur autour d'un centre plutôt que de rayonner à partir de celui-ci. Cela permet, par exemple, de créer une roue de teinte en utilisant seulement deux propriétés CSS comme vous pouvez le voir ci-dessous. Canvas OffscreenCanvas est une nouvelle interface qui permet d'utiliser les contextes de rendu 2D et WebGL dans Workers. Cela augmente le parallélisme dans les applications Web et améliore les performances sur les systèmes multicœurs. Chrome prend désormais en charge DedicatedWorker.requestAnimationFrame (), ce qui permet de déclencher les événements de type animation sur les Workers dédiés comme dans Windows. Par exemple: Code : const offscreenCanvas = new OffscreenCanvas(100, 100); const ctx = offscreenCanvas.getContext("2d"); ctx.fillRect(0, 0, 10, 10); Ou avec Canvas Code : const canvasElement = document.getElementById("mycanvas") const offscreenCanvas = canvasElement.transferControlToOffscreen(); const ctx = offscreenCanvas.getContext("2d"); ctx.fillRect(0, 0, 10, 10); Dans un Worker Code : self.onmessage = function(ev) { const offscreenCanvas = ev.data; const ctx = offscreenCanvas.getContext("2d"); let x = 0; const draw = function() { ctx.clearRect(0, 0, ctx.canvas.width, ctx.canvas.height); ctx.fillRect(x, 0, 10, 10); x = (x + 1) % ctx.canvas.width; requestAnimationFrame(draw); }; draw(0); } Page principale Code : const worker = new Worker("worker.js"); const offscreenCanvas = document.getElementById("canvas").transferControlToOffscreen(); worker.postMessage(offscreenCanvas, [offscreenCanvas]); API JavaScript JavaScript a plusieurs nouvelles API: l'API ReportingObserver fournit une fonction de rappel JavaScript invoquée en réponse aux dépréciations et aux interventions du navigateur. Le rapport peut être sauvegardé, envoyé au serveur ou manipulé à l'aide de JavaScript arbitraire. Cette fonctionnalité est conçue pour permettre aux développeurs de mieux comprendre le fonctionnement de leurs sites sur des périphériques réels. les tableaux JavaScript obtiennent deux nouvelles méthodes. Array.prototype.flat () renvoie un nouveau tableau avec tous les éléments du sous-tableau concaténés en récursif jusqu'à la profondeur spécifiée. Les éléments du sous-tableau deviennent membres du nouveau tableau. Array.prototype.flatMap () mappe d'abord chaque élément à l'aide d'une fonction de mappage, puis porte le résultat dans un nouveau tableau. Cette méthode est fonctionnellement équivalente à une carte suivie par l'appel de flat () avec une profondeur de 1. API Keyboard Map Certaines applications telles que les jeux attribuent des fonctions spécifiques à des clés physiques spécifiques. Lorsque l'interface fait référence à ces clés, elle doit afficher soit le caractère affiché sur la touche, qui varie en fonction des paramètres régionaux, soit le caractère attribué à la touche par une disposition de clavier différente qui peut avoir été installée par l'utilisateur. En raison de ces variations de disposition, il est parfois possible que le caractère affiché dans l'interface ne fasse pas référence à la clé physique voulue. Cette nouvelle API fournit un moyen de traduire les valeurs KeyboardEvent.code représentant les clés physiques en chaînes correctes pour l'affichage à l'utilisateur. Google Chrome 69.0.3497.23 est maintenant disponible en téléchargement sur GNU / Linux, macOS et Microsoft Windows si vous voulez essayer les nouvelles fonctionnalités et améliorations. Il ne faut pas oublier que le logiciel est en version bêta et qu'il n'est donc pas recommandé pour une utilisation en production. Sources : blog Chromium, statuts Chrome
  11. Je vous propose un très bon dossier sur la fibre optique. Il date de novembre 2015 mais reste intéressant. Bonne lecture. Les derniers observatoires des télécommunications laissent apparaître un certain engouement pour les offres de fibre optique. Promettant des débits bien supérieurs, une latence très faible et une stabilité hors pair, la fibre est une promesse que tout le monde attend, mais que peu de gens ont encore obtenue. Vraie fibre ou fausse fibre, on entend tout et son contraire. Et il y a quelques mois, Orange a annoncé une augmentation de ses investissements afin de couvrir 20 millions de foyers d’ici à 2022. Un objectif très ambitieux qui nous incite à revenir sur cette technologie qui devrait bientôt remplacer entièrement cette vieille paire de cuivre utilisée par l’ADSL et le câble. Ces derniers mois, nous avons beaucoup parlé de l’arrivée de la 4G sur notre territoire. Censé accompagner l’explosion des usages Internet, le principe de cette technologie est d’augmenter les capacités des antennes relais de manière à fournir des débits plus importants aux usagers. Néanmoins, elle ne permet pas à elle seule de couvrir l’ensemble des usages fixes présents et futurs : téléchargements de gros fichiers (jeux, mise à jour d’OS, etc.), télévision 3D et/ou 4K, cloud. Si la 4G apporte le confort attendu pour la navigation mobile, la fibre sera son équivalent à la maison pour fournir les débits nécessaires à l’avenir. Orange a ouvert les portes de son central de Levallois pour présenter sa fibre. Notre objectif ici : reprendre tout de zéro. Les interrogations sont nombreuses et leurs réponses, souvent floues. Si la fibre devient si évidente – alors même que les connexions DSL satisfont encore beaucoup de clients – c’est notamment parce que les usages Internet explosent et que la paire de cuivre touche à ses limites techniques. Il faut également comprendre comment se déroule le déploiement de cette fibre qui intéresse tant. Entre un vocable complexe et des cartes de couvertures obscures, l’éligibilité ne semble pas si simple à décrypter. Ce dossier reviendra donc sur les termes utilisés et sur les objectifs de déploiement que s’est donné Orange (le leader du déploiement en France), mais aussi sur les architectures point à point (P2P) et point à multipoints (PON), et ce, afin de mieux comprendre la construction de la boucle locale, c’est-à-dire la partie finale du réseau qui relie les usagers au nœud de raccordement de l’opérateur. Vous l’aurez compris, le sujet est particulièrement vaste. Installez-vous confortablement, c’est parti pour un tour d’horizon complet de cette fibre qui passionne les internautes de tous poils. L’explosion du trafic et des usages. La fibre est aujourd’hui une nécessité, tout simplement. Elle n’est pas qu’une simple évolution, une création marketing ou un produit de geek. Face à une paire de cuivre vieillissante qui n’avait pas, initialement, vocation à couvrir autant d’usages que ce qu’on lui demande actuellement (streaming vidéo, téléchargements, jeu en ligne…), la fibre s’impose comme la révolution de ces prochaines années. Les besoins Internet augmentent et la demande s’amplifie : la fibre se présente comme seule solution pour accompagner la montée en puissance des usages, plus nombreux et plus gourmands, et qui naissent de jour en jour. Car oui, c’est un fait : les contenus deviennent de plus en plus gourmands. Que ce soit le téléchargement de mise à jour de plusieurs Go, de jeux gourmands ou de vidéos HD/4K, la bande passante des connexions DSL devient de plus en plus limitante. Elle finit par rappeler l’expérience du 56K d’antan, où il était nécessaire de lancer des téléchargements des nuits entières ! Pourtant, tous les utilisateurs n’ont pas une utilisation aussi intensive. Mais, lorsque chaque foyer a un nombre d’appareils connectés qui augmente, alors l’utilisation de la bande passante devient de plus en plus régulière, même si chaque appareil n’en fait pas une utilisation très massive. Alors qu’il y avait en moyenne quatre écrans par foyer en 2009 (TV, smartphone, ordinateur ou tablette), il y en aura 10 en 2018 et 13 en 2022. Ajoutons à cela les innombrables objets connectés qui apparaissent sur le marché et qui vont se multiplier dans les foyers ces prochaines années (caméra de surveillance, TV connectées, balance connectée, réfrigérateurs connectés, etc.). Au final, les téléchargements sont de plus en plus lourds et de plus en plus nombreux via la multiplication des appareils qui nous entourent. La consommation moyenne augmente avec le temps : on parle d’une augmentation de 50 % par an. Nombre d’écrans par foyer. De nouveaux usages naissent également et requièrent de plus en plus de bande passante dans le sens contraire (il s’agit alors d’envoyer des données de l’appareil vers les serveurs) : le télétravail, le partage de contenus via les réseaux sociaux ou l’usage du cloud pour le jeu ou le stockage de fichiers. Ces usages deviennent de plus en plus incontournables et souffrent des limites de bande passante dans ce sens montant (ou upload) imposées par la technologie asymétrique de l’ADSL2+ dont les débits montants sont bien inférieurs aux débits descendants (800Kbps vs 20Mbps). Cet attrait pour ces nouveaux usages (montants) s’observe d’ailleurs dans certains pays où la fibre est plus développée (comme le Japon) où l’on peut observer une explosion des flux montants, devenus plus importants que les flux descendants (les téléchargements). C’est un réel changement de comportement. Les limites du cuivre sont déjà atteintes. La paire de cuivre qui nous permet aujourd’hui de nous connecter à Internet atteint ses limites techniques (en terme de débits) et sa fiabilité devient de plus en plus un problème pour de nombreux clients. Il faut rappeler qu’au départ, la paire de cuivre a été prévue avant tout pour téléphoner. À cette époque, le cuivre était une alternative bien suffisante pour remplacer la ficelle et les gobelets. Sauf qu'aujourd’hui, le signal qui voyage dans ces câbles contient beaucoup plus d’informations qu’initialement, le signal en ressort donc beaucoup plus sensible aux imperfections de l’installation. Chaque perturbation électromagnétique le long de la ligne devient un réel problème ; le signal électrique circulant est très sensible aux aléas de l’environnement, il récupère toutes les imperfections environnantes (une multiprise défectueuse, par exemple) et les désynchronisations (les pertes de la connexion Internet) peuvent alors subvenir de manière intempestive. Ce qui devient particulièrement gênant sur des installations de surcroît vieillissantes. Pour le gestionnaire de ce réseau historique (Orange), le coût annuel pour le seul entretien du réseau est estimé entre 150 et 200 millions d’euros. Des milliers de paires de cuivre qu’il devient de plus en plus difficile à entretenir Les diverses perturbations ne sont malheureusement pas les seules contraintes. La distance des lignes en est une autre, et de taille. Le signal électrique qui circule le long des lignes est atténué à cause de la résistance, une loi d’ohm loin d’être négligeable puisque le signal devient inutilisable après 6 ou 7 km. L’atténuation est le plus gros problème au déploiement de l’Internet pour tous. Cet affaiblissement du signal s’observe notamment via la perte significative de bande passante observée dès le premier kilomètre : il en résulte qu’une grande partie des abonnés ne peut atteindre les débits théoriques promis par la technologie ADSL(2+). Pour l’exemple de Paris (la zone la plus dense avec 36 nœuds de raccordements abonnés – les centraux téléphoniques où les lignes abonnées se rejoignent), un tiers des abonnés n’ont pas accès à la TV Haute Définition par ADSL. À l’échelle nationale, cet affaiblissement au fil des kilomètres rend inéligibles de nombreux foyers et limite l’accès de milliers d’autres à des connexions ne dépassant pas le Mbps. Au final, les débits moyens pour l’ensemble des foyers (les plus proches comme les plus éloignés du noeud de raccordement) seront la principale limite du cuivre ces prochaines années. Les débits descendants (téléchargements) ont atteint leur limite théorique puisque les seules avancées futures (G.FAST notamment) ne concerneront que les premiers mètres après le nœud de raccordements abonnés (néanmoins utile pour une montée en débit intermédiaire). Quant aux débits montants (l’envoi de données), ils sont très limités (0,720Mbps) pour l’ADSL2+ et empêchent le développent de nombreux usages. Le cuivre est mort, vive la fibre Face à tous ces inconvénients, la fibre semble idéale pour couvrir nos besoins futurs. À la différence de la paire de cuivre qui fait circuler un signal électrique sensible aux perturbations électromagnétiques, la fibre fait transiter de la lumière. Les avantages sont multiples : une latence très faible, des débits élevés, une insensibilité aux perturbations de l’environnement et un affaiblissement extrêmement faible. Les débits et la latence sont incontestablement les éléments les plus importants pour les années à venir. La latence – un facteur qui influe notamment sur le confort de navigation – est bien plus faible que celle du cuivre, notamment car le signal se propage à environ 60 % de la vitesse de la lumière dans le vide, soit 200 000 km/s pour une fibre actuelle, et ce, de manière constante sur de très longues distances (les codes correcteurs d’erreurs et tampons nécessaires pour le cuivre sont coûteux en latence). Ainsi, la valeur de Ping observée est généralement de 1 à 2 ms. Concernant les débits, ils sont sans commune mesure avec ceux des technologies cuivre. Les offres commerciales actuelles proposent des débits descendants de l’ordre de 1 Gbps, soit 50 fois plus qu’une connexion ADSL2+ et 10 à 20 fois plus qu’une connexion VDSL, et ce, quelle que soit la distance de l’abonné aux nœuds de raccordements, puisque l’affaiblissement par kilomètre est négligeable contrairement aux technologies DSL (même si d’autres facteurs, les coupleurs entre autres, peuvent néanmoins avoir un impact sur l’affaiblissement, nous le verrons plus tard). Dans le sens montant, les débits sont encore plus impressionnants puisqu’ils sont jusqu’à 300 fois plus importants (200Mbps) que les débits d’une bonne connexion ADSL2+, et ce, toujours indépendamment de la distance au nœud de raccordement. Les débits sont ainsi très supérieurs aux meilleurs débits des technologies DSL actuelles, alors même que ces derniers ne seront obtenus que pour seulement 10 % des abonnés les plus proches du nœud de raccordement. Pour comparer, il faut donc également prendre en compte la distance moyenne des lignes DSL car, en effet, les débits DSL moyens observés sont loin d’être au niveau des débits annoncés : ils sont plutôt de l’ordre de 8-10 Mbps en moyenne sur la France entière, un point qui tranche avec les 100Mbps minimum proposés à n’importe quel client fibre (FTTH – Fiber To The Home). Répartition des lignes de cuivre en France (source DegroupNews) Par ailleurs, les limites théoriques de la fibre sont loin d’être atteintes puisque des tests chez Orange ont déjà permis de faire transiter plusieurs Tbps dans une fibre sur plusieurs centaines de kilomètres. Ainsi, l’utilisation de la fibre semble pérenne. En outre, les capacités de la fibre permettent un gain d’espace important, d’abord parce qu’elle est beaucoup plus fine (la taille d’un cheveu) que la paire de cuivre, mais aussi car les débits qu’elle autorise permettent de fournir 64 clients avec une même fibre sur la boucle locale, c’est-à-dire le réseau entre le client et le central de l’opérateur. Un câble de cuivre de 900 clients équivalent à 15 fibres de la taille d’un cheveu Se débarrasser du cuivre sera aussi une excellente source d’économie – 150 et 200 millions d’euros par an pour le seul entretien, déjà – et sa revente rapportera également beaucoup. Une étude des trottoirs des Hauts-de-Seine (92) a par exemple évalué le poids de cuivre de la boucle locale à 50 millions d’euros. Néanmoins, ce désinvestissement du cuivre n’interviendra pas avant 5 à 10 ans après le déploiement de la fibre. De nombreuses lignes classiques pour le téléphone, les alarmes ou les ascenseurs devront d’abord être remplacées. Par ailleurs, l’utilisation de la lumière permet d’utiliser des techniques de réflectométrie pour identifier la localisation des problèmes sur le réseau, ce qui est bien plus précis que les techniques à base d’injection d’air utilisées jusque-là pour le cuivre. Au final, la fibre apporte énormément de bénéfices pour le client qui profite de débits beaucoup plus importants et d’une connexion beaucoup plus stables (hormis les coups de pelleteuse sur les voiries…). Cela s’observe d’ailleurs à travers la consommation des abonnés qui bondit lors du passage à la fibre : leur consommation est généralement multipliée par deux. Objectif de déploiement En France, cela fait déjà des années que nous parlons du déploiement de la fibre, mais avec les mois perdus pour que soient fixées les règles d’ingénierie et de mutualisation, l’investissement n’a accéléré que récemment. Avant de rentrer dans le détail des chiffres, il est important de clarifier quelques éléments de vocabulaire. Comprendre le déploiement en quelques termes Les cartes de déploiement sont souvent trompeuses : elles nous montrent des zones de couverture extrêmement larges, mais qui ne correspondent pas vraiment à ce que nous attendons. Les zones couvertes sont celles où la fibre est déployée dans les rues ou dans le quartier (la boucle locale) : les logements de la rue sont alors dits adressables. Malheureusement, et cela arrive dans de nombreux cas, un quartier couvert par la fibre n’implique pas que tous les habitants puissent souscrire une offre fibre. En fait, pour profiter de la fibre, il faut que le logement (ou le pavillon) soit raccordable, c’est-à-dire que la fibre soit déployée dans l’immeuble (avec des points de branchements à chaque étage) ou que les rues pavillonnaires disposent de points de branchement. Dans ce cas, il y a un point de mutualisation en amont (en bas de l’immeuble ou dans une armoire de rue) sur lequel se connecteront les opérateurs commerciaux qui couvrent la zone. Nous y reviendrons plus en détail plus loin. Si un logement est raccordable et qu’un opérateur couvre le quartier (et a connecté sa boucle locale au point de mutualisation de l’immeuble), alors le client est dit éligible à l’offre fibre de cet opérateur. Lorsque le client souhaite s’abonner, la fibre est alors tirée du point de branchement (sur le palier d’immeuble ou dans la rue pour les pavillons) jusqu’à l’intérieur du logement ; le logement est alors raccordé. On note bien que ce raccordement final n’a lieu que lorsque le propriétaire ou le locataire signe un premier contrat fibre. L’état du déploiement en France Aujourd’hui, la fibre n’en est qu’à ses débuts (en France) : on comptait au 30 juin 2015 environ 4,7 millions de logements éligibles au FTTH (Fiber to the Home, ou fibre jusqu’au domicile) sur plus de 30 millions de lignes cuivre : l’effort à fournir est donc encore important. Le Plan Très Haut Débit prévoit de couvrir 80 % des foyers en FTTH d’ici à 2022, et les 20 % restants via des techniques de montée en débit (débits supérieurs à 30Mbps). FTTH = Fiber to the Home, ou fibre jusqu’au domicile Lorsqu’en 1975, le plan de rattrapage du téléphone a été adopté, l’objectif était de déployer 14 millions de nouvelles lignes téléphoniques en 7 ans. L’objectif fixé pour la fibre est donc sensiblement plus important, alors même qu’un élément majeur vient compliquer la tâche : la concurrence. À l’époque du monopole, la péréquation était bien plus facile via l’augmentation du prix des abonnements (ainsi que l’investissement de l’Etat). Aujourd’hui, l’investissement se fait avec l’argent des banques. Il est aujourd’hui beaucoup plus compliqué, en outre, d’entreprendre les démarches et les négociations nécessaires auprès des collectivités et des territoires (à l’époque, la volonté de l’État « suffisait »). Au final, le coût de l’investissement pour déployer la fibre dans tous les foyers est estimé entre 35 et 40 milliards d’euros ; l’État veut y mettre entre 4 et 5 milliards d’euros pour les zones moins denses, le reste sera essentiellement à la charge du privé (et des collectivités). Orange qui se positionne en leader du déploiement Dans ce déploiement de la fibre, Orange fait figure de moteur puisqu’il a pour ambition d’atteindre 12 millions de foyers raccordables d’ici 2018 et 20 millions d’ici à 2022. C’est un objectif très ambitieux qui sera atteint en multipliant par trois ses investissements, ce qui le met en première place des investisseurs privés avec 3 milliards d’euros prévus pour la période 2015 et 2018 (pour la France). Les objectifs d’Orange en terme de nombre de logements raccordables (illustration Orange) Du point de vue du génie civil, cela permet un gain d’espace et un gain de temps puisqu’il n’est pas obligatoire de tirer un nombre important de fibre pour le déploiement d’une zone donnée – nous y reviendrons plus tard. Concrètement, dans la ville de Paris, le nombre de nœuds de raccordements passera de 36 pour le cuivre à 6 pour la fibre optique. C’est ainsi beaucoup de mètres carrés de libérés, ce qui a au final un impact sur les coûts. L’illustration suivante nous permet de bien comprendre l’intérêt de ne pas déployer une fibre par client (via l’utilisation de coupleurs qui éclatent une fibre en plusieurs fibres). Orange se positionne également comme le premier opérateur à se fixer pour objectif de rendre raccordables 100 % des foyers de 9 villes françaises dont Paris, Lyon ou Lille. Il a mené une première expérimentation dans la ville de Palaiseau où 100 % des logements sont aujourd’hui raccordables. Cette expérimentation est un réel succès puisque les habitants montrent un véritable intérêt pour les nouveaux usages et les nouveaux services que cela autorise. Rendre raccordables 100 % des logements d’une zone couverture est un excellent élément pour accélérer la migration des clients d’une zone donnée (sur Paris par exemple, 35 % des logements demeurent non raccordables alors même que la fibre y est présente depuis plusieurs années). En effet, la fibre s’avère un élément moteur puissant pour reconquérir de nouveaux clients, ce qui devient un objectif important pour Orange alors qu’il n’est plus leader de l’Internet fixe dans ces zones très concurrentielles (il ne possède « que » 30 à 35% du marché). Actuellement en termes de recrutement, 90 % des nouveaux clients d’Orange sont des clients fibre : un chiffre assez éloquent. Par ailleurs, alors qu’il a aujourd’hui le monopole du cuivre, la construction du réseau de fibre optique concerne tous les opérateurs privés ainsi que les collectivités. Orange ne pourra donc pas contrôler 100 % des lignes fibre, comme c’est le cas aujourd’hui avec le cuivre. En investissant de manière massive, il peut néanmoins espérer s’octroyer une grosse part du gâteau (un objectif de 80 %) afin de garder sa position de leader auprès du grand public. L’architecture PON, un avantage de génie L’architecture P2P (point à point, c’est-à-dire une fibre par abonné de bout en bout) est déjà connue de tous puisque c’est la technique utilisée pour le déploiement du téléphone via la paire de cuivre . On trouve une paire de cuivre de chaque logement au nœud de raccordement, et donc une infrastructure conséquente à déployer. Ses inconvénients sont alors tout à fait observables à travers la boucle locale cuivre actuelle : les nœuds de raccordement où les lignes clients se rejoignent sont assez nombreux (on en compte 13000 en France) et sont généralement de taille importante puisque les câbles cuivre sont très volumineux (voir photo ci-dessous) et les différents équipements sont à multiplier par le nombre de clients. Cette architecture P2P, bien que naturelle pour les usagers qui s’attendent à posséder une connexion dédiée, n’est pas la plus optimale. Aujourd’hui, les capacités de la fibre permettent d’envisager d’autres méthodes beaucoup plus pratiques et économiques où une même fibre peut être partagée par plusieurs usagers : c’est l’architecture PON (Passive Optical Network) point à multipoints. Le raccordement final est identique : chaque foyer possède sa propre fibre. En revanche, entre le logement et le nœud de raccordement, l’utilisation de coupleurs dans le réseau permet de partager l’information transitant dans une fibre entre 64 clients, comme nous l’évoquions plus haut. Au final, 64 clients reçoivent un même signal lumineux. Les données sont donc chiffrées en amont puis « séparées » par l’équipement final du client (par l’ONT). Des goulots d’étranglement déjà existants Même si cette approche consistant à partager une même liaison peut en surprendre plus d’un, c’est une technique néanmoins courante dans les réseaux de collecte. Par exemple, les interconnexions entre les opérateurs et les serveurs des plateformes en ligne (Facebook, Google ou encore Netflix) sont déjà partagées entre les usagers (pas de fibre dédiée pour chaque usager ou abonné au service). Ainsi, même si nous avons bien une paire de cuivre dédiée du domicile au nœud de raccordement, ce n’est plus le cas sur la partie haute du réseau où les liaisons sont partagées. Si l’interconnexion est bien dimensionnée, alors l’usager ne perçoit aucun ralentissement ni phénomène de saturation ; à l’inverse, le sous-dimensionnement peut provoquer des ralentissements même chez les clients avec une connexion dédiée très performante. Concrètement, le risque de saturation pour l’architecture PON est, statistiquement, quasi nul puisque le GPON actuellement utilisé permet des débits de 2,5 Gbps dans le sens descendant et 1,25 Gbps dans le sens montant (partagé par les 64 clients). Ces chiffres peuvent paraître faibles, mais il ne faut pas oublier que les usages gourmands ne surviennent pas aux mêmes moments et sont relativement rares (peu de clients gourmands au final). Ils sont d’ailleurs limités en bande passante, laissant une place suffisamment large pour l’ensemble des utilisateurs. De plus, en cas de saturation avérée d’une fibre, l’opérateur peut très facilement doubler la bande passante (en basculant la moitié des abonnés sur une nouvelle carte au niveau du nœud de raccordement optique). En pratique, les débits actuels sont largement suffisants puisque Orange est capable de garantir des débits minimums assez élevés pour ses offres : 500 Mbps pour son offre premium. Il offre alors dans les faits des débits supérieurs à ceux qu’il promet : 1 Gbps au lieu de 500 Mbps. Dans les faits, l’architecture P2P n’apporte donc pas davantage en termes de débits. À noter par ailleurs que les débits partagés entre les 64 clients pourront bientôt être multipliés par 4 grâce au 10GPON et que d’autres technologies à venir permettront des montées en débit encore plus fulgurantes. Les avantages pour le nœud de raccordement optique Du point de vue de l’infrastructure, les avantages du PON sont multiples. D’une part, l’utilisation des coupleurs permet d’optimiser le génie civil puisqu’un nombre très limité de fibre part du nœud de raccordement. D’autre part, les équipements du nœud de raccordement prennent beaucoup moins d’espace puisque les clients sont regroupés par 64 comme on peut le voir sur l’illustration ci-dessus (grossièrement, on pourrait dire que le nombre d’équipements nécessaire est 64 fois moins important). Grâce aux deux photos suivantes, on peut distinguer la différence d’espace utilisé entre le nœud de raccordements abonnés cuivre actuel (en P2P) et l’équipement fibre PON. Le nœud de raccordement cuivre pour les 67000 logements de Levallois Et son équivalent fibre… L’équipement au niveau du nœud de raccordement optique (NRO) s’appelle la Terminaison Optique de Ligne (OLT) et est l’interface entre le réseau de collecte (le haut du réseau) et le réseau optique vers le client (la boucle locale). Les modules verticaux (voir photo) sont les cartes PON où chaque port gère 64 clients. Les meilleurs OLT peuvent gérer 8 ports par carte, soit 512 clients. Les équipements PON sont plus chers que ceux pour le P2P, mais le gain d’espace et de génie civil reste en faveur du PON puisque le P2P est au moins 30 % plus onéreux. En dehors de ces équipements, le reste du réseau jusqu’à l’abonné est passif. En cas de montée en débit, il suffit donc d’intervenir sur ces OLT. La Terminaison Optique de Ligne (OLT), l'équivalent du DSLAM de l'ADSL L’architecture PON permet également de limiter le nombre de NRO pour une même agglomération puisque les équipements sont moins volumineux et que la distance entre le client et ce nœud n’a plus autant d’importance. L’affaiblissement du signal par kilomètre est négligeable (notamment en comparaison du cuivre), et seuls les coupleurs ont un impact sur cet affaiblissement. Ainsi, 6 nœuds de raccordements optiques suffisent pour la ville de Paris, au lieu de 36 NRA pour le cuivre : un énorme gain d’espace ! Pour Free qui a choisi le P2P (le seul), le nombre de NRO devrait donc être beaucoup plus important (probablement 70). L’utilisation des coupleurs L’utilisation des coupleurs permet d’éclater une fibre en plusieurs fibres. L’idée du PON est de partir d’une fibre et d’en obtenir 64 au final. Pour optimiser le déploiement de la boucle locale, un premier niveau de coupleur est positionné dès le NRO (1 vers 2 fibres). Les avantages sont multiples : une arborescence plus fine (des branches de l’arbre à 32 clients au lieu de 64), moins de coupleurs dans la boucle locale, ce qui facilite le déploiement tout en diminuant les coûts et permet d’ajouter un deuxième OLT sur l’arbre (permettant de combiner deux technologies sur une même fibre). Dans cette situation, la portée avec l’ensemble des coupleurs est de 10,5 km seulement puisque chaque coupleur provoque un affaiblissement. Pour des immeubles plus éloignés, ce premier niveau de coupleur est supprimé (32 clients par fibre dans ce cas) et la portée est de 18,5km. Finalement, l’architecture PON a été privilégiée par de nombreux opérateurs dans le monde et en France pour la rapidité du déploiement et le coût plus faible de couverture de zones, même si la maintenance peut s’avérer plus coûteuse et problématique (un problème sur une fibre peut toucher plusieurs clients). Les débits théoriquement offerts par le P2P ne sont pas un avantage en réalité puisque le réseau de collecte est alors souvent le facteur limitant. En pratique, Free ne propose pas des débits supérieurs à ceux d’Orange. Les étapes du déploiement: Boucle locale optique : construction par plaques La construction du réseau optique se fait par plaques, c’est-à-dire en zones d’influence regroupant par exemple les logements raccordables d’un même quartier. Chaque plaque possède un Point d’Eclatement de Zone (ou PEZ), le siège du second niveau de couplage (le premier étant celui du NRO) où chaque fibre est éclatée vers 8 fibres qui sont alors réparties entre les différentes poches importantes de la plaque (les rues, les immeubles, etc.). La dérivation et le couplage se fait via un Boîtier de protection d’épissure (ou BPE, voir photo). Le PEZ est relié au NRO par un (et un seul) câble de transport pouvant contenir plusieurs dizaines de fibres. Il y est relié soit directement, soit indirectement lorsque le câble passe par un Point d’Epissurage et de Piquage (PEP) utilisé pour séparer une partie des fibres du câble de transport en direction de plusieurs plaques. Entre le PEZ et les logements, on peut alors trouver deux points de convergence : les points d’éclatement et les points de mutualisation. Les points d’éclatement ou de raccordements (qui correspondent à une poche de la plaque) n’ont aucune fonction de couplage et ne font qu’une dérivation d’une partie des fibres vers plusieurs secteurs de la poche. Le dernier niveau de couplage a lieu dans les points de mutualisation où se connecte directement l’ensemble des logements (avec donc une liaison dédiée par logement). Schéma de la boucle locale : une construction par plaques Les points de mutualisation Le point de mutualisation (PM) est un élément clé puisque c’est l’interface entre les boucles locales FTTH des différents opérateurs et les fibres mutualisées desservant l’ensemble des logements ou des pavillons. C’est donc sur ce point de mutualisation que se connectent tous les opérateurs. Dans chaque point de mutualisation, les opérateurs installent leur module qui se relie alors à leur boucle locale. Ensuite, à chaque signature de contrat ou changement d’opérateur, il suffit de changer les connecteurs. Il existe trois sortes de PM selon la densité de la zone : des points de mutualisation d’immeuble (> 12 logements), des points de mutualisations de rue (pour des immeubles de moins de 12 logements) ou des points de mutualisation de zone (desservant principalement des pavillons). L’ARCEP (le gendarme des télécoms) définit les cas d’utilisation de chaque type de point de mutualisation : Les différentes zones de déploiement définies par l’ARCEP Dans les zones peu denses ou les poches de basse densité, les points de mutualisation se situent dans le domaine public et regroupent de 300 à plus de 1000 lignes. En aval du PM, une fibre est tirée pour chaque logement et jusqu’au point de branchement (PB) généralement sur la voirie. Ce point de branchement est précisément le point qui différencie les logements raccordables des logements raccordés : chaque client qui signe un premier contrat est raccordé au PB via une (et une seule) fibre. Voici un exemple de point de mutualisation de zone (360 logements) déployée par Orange : Point de mutualisation de zone (PMZ) auquel est relié entre 300 et 1000 logements Dans les zones denses, il y a des points de mutualisation de rue (PMR), pour les immeubles de moins de 12 logements par exemple (et non accessibles par un réseau d’assainissement visitable). Ce sont des armoires de rue sur le domaine public. Soit ces armoires sont reliées à différents immeubles de moins de 12 logements (jusqu’à 100 lignes par PMR), et c’est alors de la monofibre, soit l’armoire est installée pour un immeuble en particulier est c’est alors de la multifibres (quatre fibres par logement). Les points de branchement se situent à chaque étage des immeubles. Enfin, les points de mutualisation d’immeubles se trouvent à l’intérieur des immeubles de plus de 12 logements. Il y a un point de branchement au niveau de chaque étage et les abonnés sont alors raccordés via quatre fibres. Déploiement de la colonne montante dans un immeuble en zone dense. En pratique, le déploiement du point de mutualisation et de toute la partie en aval se fait par un même opérateur. Dans les immeubles, le choix de cet opérateur est fait par les syndics, quand dans les zones peu denses, ce sont les mairies ou les collectivités, par exemple, qui s’en chargent. Ensuite, l’ensemble des opérateurs peut y installer leurs équipements s’ils le souhaitent et si la zone est couverte par leur boucle locale. Dans tous les cas, la commercialisation n’est pas possible dans un délai de trois mois après les travaux afin que l’opérateur qui a déployé cette partie mutualisée ne soit pas avantagé. Dans les faits, c’est Orange qui déploie principalement ces parties communes et 9 fois sur 10, il reste seul opérateur au bout des trois mois de carence. 70% des logements raccordables à la fibre en France l’ont été grâce à Orange. L’opérateur chargé du déploiement de cette partie mutualisée reste gestionnaire pour une durée de 25 ans reconductible. Lorsqu’un client signe un abonnement chez un opérateur commercial connecté au PM, ce dernier peut réaliser lui-même le raccordement final du logement du client (entre le point de raccordement et le domicile), mais toujours sous la responsabilité de l’opérateur gestionnaire. L’utilisation de ce réseau donne alors lieu au paiement d’un loyer. Il peut donc s’agir d’une rente pour un opérateur qui déploie massivement les immeubles. La technologie du superlatif Les promesses de la fibre sont assez nombreuses : meilleurs débits, meilleure latence, meilleure stabilité. Beaucoup de superlatifs pour cette technologie qui devrait entièrement remplacer la paire de cuivre qui nous relie actuellement à Internet. Mais le déploiement prend du temps, coûte très cher et nombreux sont ceux qui s’interrogent sur l’arrivée de cette technologie dans leur foyer. Aujourd’hui, Orange se positionne comme leader dans le déploiement de cette fibre en fixant pour objectif de rendre éligibles 20 millions de foyers d’ici 2022, loin devant ses concurrents. Plus fort encore, il rendra raccordables 100 % des logements de 9 grandes villes françaises d’ici la fin 2016. Cela, il le fera grâce à une augmentation de ses investissements et à l’architecture PON qui permet de déployer de manière beaucoup plus rapide et économique que l’architecture P2P utilisée jusque-là pour le cuivre. Cette architecture PON en surprend plus d’un puisque 64 clients partagent une même fibre, divisant par 64 les débits théoriques d’une fibre. Néanmoins, le réseau est construit de telle manière que les débits offerts en PON chez Orange sont équivalents à ceux offerts par Free en P2P. L’architecture n’est donc pas le seul élément à prendre en compte puisque le dimensionnement du réseau de collecte est un point essentiel (quelques clients Free relatent une saturation sur certains services, alors même que leur connexion dédiée est excellente). À l’avenir, les débits devraient augmenter encore et encore. Orange teste actuellement le 10GPON multipliant par 4 les capacités de chaque fibre. D’autres techniques sont déjà à l’étude et permettent d’envisager des montées en débit encore plus fulgurantes, comme l’utilisation du multiplexage par longueur d’onde (WDM-PON) permettant d’avoir une longueur d’onde dédiée pour 1 ou 2 clients. Le meilleur des deux mondes entre le P2P et le PON, en somme. Aujourd’hui, les offres fibre sont un succès d’un point de vue commercial : le client consomme plus de services à fortes valeurs ajoutées (VOD 3D/4K ou le stockage en ligne par exemple) tout en acceptant une montée en gamme et une augmentation du prix du forfait (5 à 10 euros). Mais sur ce terrain, les opérateurs ne se battent pas avec les mêmes armes : SFR propose des offres fibres qui au fond n’en sont pas. Les offres FTTLA (une boucle locale fibre mais une terminaison coaxiale) proposent des débits bien meilleurs que l’ADSL, mais en retrait par rapport à la « vraie » fibre (notamment sur les débits montants bien plus faibles) et de manière hétérogène car toutes les zones ne proposent pas les mêmes débits, contrairement à la majorité des offres fibre. De plus, les avantages en termes de stabilité sont alors complètement remis en cause pour cette technologie puisque la partie terminale en cuivre (chez le client) reste sensible aux perturbations de l’environnement. Le client sera-t-il capable de percevoir cette différence entre FTTLA et FTTH ? En réalité, rien n’est moins sûr. Rédaction : Luc-Aurélien Gauthier Illustration : Romain Gerardin Intégration : Ulrich Rozier
  12. Facebook Messenger propose depuis 2016 un mode permettant de chiffrer de bout en bout ses conversations. Mais encore faut-il connaître l'existence de cette option : voici comment l'activer. WhatsApp, Viber, Line, Signal, iMessages ou encore Telegram. Nombreuses sont les plateformes de messagerie instantanée à proposer du chiffrement de bout en bout pour renforcer un peu plus la sécurité des conversations. Mais toutes n’activent pas cette protection d’emblée : dans le cas de Telegram par exemple, il faut aller dans les options de l’application pour activer le mode Secret Chat. CHIFFREMENT DANS FACEBOOK MESSENGER C’est la même chose avec Facebook Messenger : le service du réseau social dispose depuis quelques années dans ses paramètres d’une option qui permet en principe à deux correspondants de tenir une « conversation secrète », c’est-à-dire qui ne peut pas être lue par un tiers. Mais encore faut-il connaître son existence, car le site ne fait pas particulièrement la promotion de ce réglage. Sécurisé en théorie. Certaines situations peuvent rendre ce mode inopérant : si un tiers s’empare par exemple du smartphone d’un des deux correspondants et parvient à le déverrouiller, il accédera à Messenger si aucun mot de passe spécifique ne protège l’application. Pour en profiter, vous devez ouvrir Messenger et vous rendre dans les paramètres de l’application, en cliquant sur votre portrait en haut à droite de l’écran. Descendez ensuite jusqu’à la ligne correspondante. Validez l’option et revenez dans Messenger. Choisissez celle qui va en bénéficier : ouvrez-la et cliquez sur l’icône symbolisant l’information (la lettre i dans un cercle). Sélectionnez alors « accéder à la conversation secrète ». Vous verrez apparaître une interface un peu différente, habillée de noir, ce qui permet de distinguer ce mode de celui proposé par défaut (qui est en bleu). De là, il suffit de taper votre message ou de joindre votre fichier, de cliquer ensuite sur le bouton d’envoi. Une fois le premier échange, la conversation secrète s’affichera dans la liste des discussions. Selon Facebook, « quand les conversations secrètes sont activées, celles-ci sont chiffrées de bout en bout sur tous vos appareils en même temps ». En clair, elles sont sécurisées d’emblée sur le terminal de départ, avant d’être envoyées par Internet. Ce n’est que lorsque le destinataire recevra le message chiffré qu’il pourra l’ouvrir sur son mobile, à condition d’avoir la clé de déchiffrement. Différentes étapes avant de bénéficier des conversations secrètes. UN PROTOCOLE RÉPUTÉ DERRIÈRE L’option des conversations secrètes a été lancée au mois d’octobre 2016. Elle repose sur le protocole open source de Signal pour chiffrer de bout en bout les échanges (c’est aussi le cas de WhatsApp, une filiale de Facebook), fait remarquer Wired, « qui jouit d’une excellente réputation au sein de la communauté de la sécurité ». Son seul gros défaut : qu’elle ne soit pas activée par défaut. Son développement est supervisé par Open Whisper Systems, une organisation fondée par l’activiste Moxie Marlinspike, un expert en cryptographie. On retrouve ce protocole dans la messagerie sécurisée Signal, proposé par Open Whisper Systems, que le lanceur d’alerte Edward Snowden conseille chaudement : « utilisez n’importe quoi [fait] par Open Whisper Systems ». Bien sûr, le doute sera toujours de mise avec Facebook, et cela même si le réseau social se sert du protocole d’Open Whisper Systems pour proposer du chiffrement de bout en bout sur Messenger. Qui dit en effet que l’implémentation du protocole Signal est correcte ? Cela étant, l’hypothèse d’un mauvais déploiement reste à démontrer ; et rien n’interdit bien sûr de passer sur une autre solution. Mais encore faut-il que son correspondant y soit aussi. Messenger, lui, peut se targuer de réunir une communauté de 1,3 milliard d’utilisateurs, selon des statistiques datant du mois de septembre 2017.
  13. Bonjour, Que ce soit pour un plasma ou un LCD/LED du 1080 reste du 1080. Après, entre le i et le p la différence se situe au niveau de la restitution de l'image. Elle est entrelacée pour le "i". Les trames paires et impaires sont affichées successivement pour former l'image. Cette technologie s'appuie sur la persistance rétinienne pour que le spectateur ne s'aperçoive de rien. L'image est progressive pour le "p"et l'image est affichée "entière". Le "i" affiche 50 demi images par seconde et le progressif "p" 50 images par seconde. Le progressif fournit donc une image plus fluide. Donc le 1080p est à privilégier. Mais les sources ne délivrent pas forcément du "p".... Mais un écran Full HD 1080p transforme de toute façon tout en image progressive avec plus ou moins de succès selon la technologie employée.
  14. Merci pour l'infos alors quelle est la meilleur résolution 1080i ou 1080p pour un plasma
  15. A l'heure où beaucoup vont se ruer sur des TV, écrans et autres, ce petit rappel me semble bien venu. La définition et la résolution sont deux éléments distincts, mais dépendants entre eux. Il arrive souvent qu’on utilise à tort ces deux termes. Un rapide dossier pour mieux comprendre la différence entre la définition et la résolution des écrans. À l’annonce d’un nouveau smartphone ou d’une nouvelle tablette, les constructeurs communiquent souvent des données relatives à l’écran à l’image de la définition ou de la taille d’écran. Parfois, les constructeurs parlent aussi de résolution. Il arrive d’ailleurs souvent que les acteurs de l’industrie s’emmêlent les pinceaux et mélangent résolution avec définition. Il faut dire que l’anglais ne facilite pas les choses puisque résolution, dans la langue de Shakespeare, se traduit aussi bien en français par définition que par résolution. Les anglophones sont donc obligés de passer par des expressions comme display resolution pour la définition ou pixel density pour la résolution. Partons ensemble à la découverte de ces deux termes qui sont finalement faciles à comprendre et qui ont toute leur importance sur une fiche technique. Définition : le nombre de pixels. La définition est le nombre de pixels présents sur la dalle. Elle se calcule en pixels, en multipliant une ligne horizontale de pixel avec une ligne verticale. À titre d’exemple, la définition QHD correspond à 2560 pixels en largeur par 1440 pixels en hauteur (ou l’inverse pour un smartphone tenu en mode portrait), soit au total 3 686 400 pixels. Une dalle 4K / UHD dispose d’un total de 8 294 400 pixels puisque sa définition est de 3840 x 2160 pixels. Comme on peut le voir dans le tableau ci-dessous, la définition QHD dispose d’environ 1,6 fois plus de pixels que la définition Full HD alors que la 4K / UHD intègre 4 fois plus de pixels. Pour rappel, plus la définition de l’affichage est élevée, plus le GPU (la puce graphique du SoC) aura besoin de puissance pour maintenir un débit d’images similaire à une fréquence de rafraîchissement de l’écran de 60 Hz. Pour maintenir un débit d’images de 60 images par seconde avec une définition QHD, il faut une puissance environ 1,5 fois supérieure pour disposer d’une fluidité équivalente à une définition Full HD, comme on avait pu le voir dans un dossier dédié (QHD vs Full HD). Résolution : la densité de pixels et le Rétina. La résolution est le rapport entre la définition de la dalle (exprimée en pixels) et sa taille (exprimée en pouces). On parle donc de Pixel Par Point (PPP) pour la résolution, ou en anglais Pixel Per Inch (PPI). Plus ce nombre est élevé et plus la densité de pixels sera élevée. Prenons deux exemples concrets : une tablette de 10 pouces équipée d’une dalle supportant une définition Full HD (1920 x 1080 pixels) et un smartphone de 6 pouces supportant la même définition. La tablette aura une résolution de 220 PPP contre 367 PPP pour le smartphone. Le calcul étant un peu plus complexe que la définition (il faut diviser le nombre total de pixels par la surface de la dalle), vous pouvez utiliser l’outil PPI Calculator, disponible en ligne. La résolution est un élément extrêmement important à prendre en compte pour le confort de lecture. En effet, entre le smartphone et la tablette de l’exemple ci-dessous, la qualité d’affichage ne sera pas identique. Sur la tablette, les pixels seront plus « gros » que sur le smartphone et il sera donc plus facile de les discerner à l’œil nu, en s’approchant de la tablette. 220 PPP est une résolution assez faible, et la lecture de site web ne sera pas très agréable puisque les caractères ne seront pas bien définis. Ils sembleront légèrement flous, et non pas nets, contrairement au smartphone dont la résolution de 367 PPP suffit. Rappelons que le terme Rétina a été inventé par Apple et fait référence à un smartphone doté d’une résolution supérieure à 300 PPP, jugé comme la densité la plus adaptée à une lecture sur un écran de la taille d’un smartphone (3,5 pouces à l’époque de la création de ce terme) et utilisé à une distance d’environ 25 à 30 cm. PenTile : la résolution amputée Au sujet de la résolution et de la définition, il faut prendre en compte une autre variable : le type de dalle. La plupart des écrans LCD utilisent trois sous pixels pour former un pixel : un sous pixel rouge, un sous pixel vert et un sous pixel bleu (RGB). Ce n’est pas le cas des dalles AMOLED de Samsung, qui utilisent la technologie PenTile RGBG. Elle permet de produire à moindre coût et plus facilement des dalles dotées d’une plus haute définition. Mais sur une dalle PenTile, un pixel est composé de deux sous-pixels : soit rouges et verts, soit bleus et verts. Ainsi, la définition annoncée par Samsung est uniquement atteinte par les sous-pixels verts alors que les sous pixels bleus et rouges sont deux fois moins nombreux. Avec des faibles résolutions, comme sur le Galaxy Nexus, la différence avec une dalle RGB classique sauter aux yeux comme on peut le voir sur la photo ci-dessous. Une situation qui ne se retrouve plus sur le Galaxy S6 grâce à sa résolution très élevée : près de 600 PPP pour les sous-pixels verts et 400 PPP pour les sous-pixels bleus et rouges. Le pouvoir de résolution de l’œil humain. On pourrait donc croire qu’une résolution plus élevée est toujours bonne à prendre. C’était sans compter sur la gourmandise des hautes définitions, que ce soit en termes d’autonomie, mais également en puissance GPU comme nous l’avons vu plus haut, mais aussi sur le pouvoir de résolution de l’œil humain. En quelques mots, l’œil humain n’est pas capable de discerner les très hautes résolutions. Apple considère que la résolution de 300 PPP est la limite idéale, mais il faut prendre en compte les personnes bénéficiant d’une excellente vue, mais aussi la distance d’affichage. Plus l’œil sera proche de l’écran, plus la résolution devra être élevée et certains réussissent à discerner des détails jusqu’à 600 PPP — sans loupe —, mais il s’agit d’une frange minoritaire de la population, avec l’œil collé à l’écran. Pour un usage normal, 300 — 400 PPP semblent donc constituer une résolution correcte. En dessous, les plus pointilleux commenceront à percevoir les pixels. Au-delà, la consommation d’énergie sera en hausse, pour un bénéfice pas forcément visible pour la majorité des utilisateurs. En fait, seule la réalité virtuelle nécessite de très hautes résolutions, du QHD, voire de la 4K / UHD pour ne pas discerner les pixels (la grille de pixels), l’image étant grossie par les lentilles. La liste des différentes définitions. Les définitions standardisées sur nos smartphones ont été légèrement revues avec le passage au format 18:9 (ou proche) et on trouve désormais des appellations comme « Full HD+ » ou « QHD+ » afin de s’adapter à ce changement de format. Déf. (pixels) Ratio Intitulé Nom courant Appareils 240 x 320 4:3 QVGA LG Optimus L3 II 320 x 480 3:2 HVGA iPhone 3G 480 x 800 5:3 WVGA Samsung Galaxy SIII Mini 480 x 854 16:9 FWVGA Sony Xperia L 540 x 960 16:9 qHD Samsung Galaxy S4 Mini 640 x 960 3:2 DVGA iPhone 4S 640 x 1136 16:9 WDVGA iPhone 5S 720 x 1280 16:9 WXGA HD / 720p Motorola Moto G 768 x 1280 16:10 WXGA Nokia Lumia 1020 1080 x 1800 15:9 Meizu MX3 1080 x 1920 16:9 FHD Full HD / 1080p / 1080i HTC One M8 1125 x 2436 19,5:9 Super Retina HD iPhone X 1200 x 1920 16:10 WUXGA Asus FonePad Note 6 1080 x 2048 17:9 Projecteurs Christie 1080 x 2160 18:9 FHD+ OnePlus 5T 1080 x 2240 18,7:9 Huawei P20 Pro 1080 x 2280 19:9 OnePlus 6 1440 x 2560 16:9 (W)QHD WQXGA 2K LG G3 1440 x 2880 18:9 (W)QHD+ LG G6 1440 x 2960 18,5:9 Samsung Galaxy S8 1440 x 3120 19,5:9 LG G7 ThinQ 1600 x 2560 16:10 WQXGA Galaxy NotePro 12.2 2160 x 3840 16:9 UHD 4K Toshiba Satellite P55t 2160 x 4096 17:9 DCI 4K Canon DP-V3010 4320 x 7680 16:9 FUHD 8K Prototype Sharp 85"
  16. Grâce à l'implémentation d'un nouvel algorithme CRC optimisé. Il existe de nombreux formats audio adaptés à divers usages. Certains permettent notamment de diminuer la taille des fichiers. À l’intérieur de ce dernier groupe, on distingue les formats audio dits destructifs ou avec perte (lossy) qui ne permettent pas de recréer l’original à partir d’un fichier audio compressé et les formats audio non destructifs ou sans perte (lossless). Les formats lossy comme Ogg permettent d’obtenir des fichiers audio de petite taille au détriment de la qualité. À l’inverse, les formats audio lossless comme FLAC (Free Lossless Audio Codec) sont utilisés lorsque la qualité d’un fichier audio prime sur l’espace de stockage qu’il est susceptible d’occuper. Le format Ogg est un format de compression audio libre qui se veut une alternative au format Mp3 plus populaire. Le format de compression audio libre FLAC, quant à lui, permettrait généralement de réduire d’environ 50 % la taille des fichiers Wav. Ces deux formats audio sont soutenus par la fondation Xiph.Org dont le but est de proposer des formats et codecs multimédias ouverts, libres et dégagés de tout brevet. FLAC et Ogg auraient désormais de meilleures capacités d’encodage et de décodage audio grâce aux améliorations récentes apportées au code qui sous-tend leur fonctionnement respectif. Ces deux formats utilisent désormais un algorithme CRC optimisé permettant d’accélérer les opérations d’encodage ou de décodage. Les gains annoncés sont d’environ 5 % en encodage et décodage pour FLAC, contre 10 % en encodage et 15 % en décodage pour Ogg. Les formats audio Opus et Monkey audio seraient également concernés par cette mise à jour, mais les gains attendus seraient plus modestes : environ 1 % en encodage pour le format audio Opus et environ 4 % en décodage pour le format audio Monkey Audio. Soulignons au passage que le format Opus (Harmony à l’origine) est un format audio avec perte qui a été développé par l’Internet Engineering Task Force (IETF) afin d’être utilisé par des applications interactives sur Internet. Source : Freac
  17. Chrome OS est un système d’exploitation développé par Google avec pour objectif de s’appuyer sur les applications web uniquement. La particularité avec ce système d’exploitation est qu’il ne peut être installé que sur les machines conçues par Google et ses partenaires accrédités. Disponible depuis 2011, Chrome est un fork de la distribution GNU/Linux Gnetoo. Toutefois, bien que ce système d’exploitation soit un embranchement de Linux, des outils officiels pour installer les applications Linux n’étaient jusque là pas disponibles. Une des solutions adoptées par les utilisateurs qui ne sont pas repoussés par le fait de mettre la main dans les entrailles du système est d’utiliser Crouton (ChRomium Os Universal chrooT envirONment), un ensemble de scripts regroupés sous la forme d’un générateur de chroot Chromium facile à utiliser. À l’instar de la virtualisation, les chroots fournissent au système d’exploitation invité leur propre système de fichiers séparé, ce qui permet aux applications de s’exécuter dans un environnement binaire différent du système d’exploitation hôte. Contrairement à la virtualisation, vous ne démarrez pas un deuxième système d’exploitation ; au lieu de cela, le système d’exploitation invité fonctionne à l’aide du système Chromium OS. Il faut se l’avouer, cela demandait un peu de travail : c’était relativement compliqué, mais ça fonctionnait. Toutefois, les choses pourraient devenir beaucoup plus simples pour ceux qui désirent lancer les applications Linux sur Chrome OS. Selon le directeur de la gestion des produits de Chrome OS, Kan Liu, les utilisateurs pourront utiliser les outils Linux, les éditeurs et les environnements de développement intégrés directement sur les Chromebooks, en les installant depuis leurs sources habituelles comme sur une machine Linux ordinaire. Liu a expliqué que « nous mettons l'environnement de l'application Linux dans un sandbox de sécurité, fonctionnant à l'intérieur d'une machine virtuelle », ces applications fonctionnant parfaitement aux côtés d'Android et des applications Web sur Chrome OS. Il est important de souligner que nous ne parlons pas ici d'un shell, mais d'un support complet pour les applications graphiques. Cela signifie que vous pourrez, par exemple, exécuter la version Linux de Visual Studio Code sur votre machine Chrome OS. Pour les plus curieux, vous pourrez même créer votre application Android dans Android Studio et la tester directement sur votre ordinateur portable, grâce au support intégré pour les applications Android qui sont arrivées sur Chrome OS l'année dernière. La prise en charge de Linux sur Chromebooks est encore à ses débuts chez Google, ce qui est l'une des raisons pour lesquelles elle n'est disponible pour le moment que pour le Pixelbook. Chrome OS ne proposera pas non plus de support d'application Linux par défaut. À la place, les utilisateurs devront l'activer manuellement avant de pouvoir profiter de la fonctionnalité. « L'utilisateur moyen n'a probablement pas besoin d'un terminal Linux et de la possibilité de coder », a noté Liu. « Donc, cela ne sera pas activé par défaut. Cependant, pour les personnes qui le désirent, elles peuvent simplement l'activer ». En clair, bientôt, tout ce que vous aurez à faire pour les exécuter sera d’activer un paramètre dans le menu. En effet, Google va commencer à livrer Chrome OS avec une machine virtuelle personnalisée qui exécute Debian Stretch, la version stable actuelle du système d'exploitation. La prise en charge des applications Linux signifie que les développeurs pourront enfin utiliser un appareil Google pour développer pour les plateformes de Google, plutôt que de dépendre de machines Windows, Mac ou Linux. De plus, Chrome OS n'étant plus uniquement compatible avec les applications spécifiques à Chrome OS, les développeurs pourront créer, tester et exécuter toute application Android ou Web pour smartphones, tablettes et ordinateurs portables sur leurs Chromebooks. Sans avoir à changer de périphérique, vous pouvez exécuter votre IDE préféré (tant qu'il existe une version pour Debian Linux), coder dans votre langage préféré et lancer des projets sur Google Cloud en ligne de commande. Si la première préversion de Linux sur Chrome OS est maintenant disponible sur le Pixelbook, la prise en charge d’autres appareils quant à elle sera « bientôt » effective. Source : CNet
  18. @satamuse, salut! Recherche compliquée... Mais bon rien est impossible. A tout hasard, regardes sur Alibaba.
  19. La nouvelle de la disponibilité du Raspberry Pi 3B + (Rpi 3B +), le dernier modèle de nano-ordinateur de la fondation du même nom, a filtré sur cette plateforme il y a approximativement un mois. Le bref comparatif entre ce dernier et son prédécesseur, le Raspberry Pi 3B, est clair quant à ce qui concerne la supériorité du modèle 3B + sur plusieurs aspects (processeur de 15 % plus rapide, Wi-Fi et Ethernet plus speed, etc.). Toutefois, comme l’ont relevé nos chers lecteurs, la fondation a manqué de combler certaines des atteintes des mordus par l’ordinateur monocarte : une mémoire vive à 2 Go mini et un GPU capable d’assurer la lecture de vidéos en 4K sans tweak. L’offre en ordinateurs monocartes continue d’aller croissant sur les étals. La société coréenne Hardkernel développe les Odroid. Dans ce marché des alternatives au Raspberry Pi qui mobilise le maximum d’aura, il faut également compter avec Asus. L’entreprise taïwanaise propose la Tinker Board – lancée le 1er janvier 2017 – que le blogueur Jeff Gerling a comparé au Rpi 3B + et eu l’amabilité de partager ses trouvailles. D’abord, un tableau comparatif pour, de façon brossée, se faire une idée de ce que chacun de ces ordinateurs a dans le ventre. Les différences sautent aux yeux : un processeur quatre cœurs plus performant et deux fois plus de mémoire vive ; le tout pour un facteur de forme qui permet d’utiliser un boîtier de Raspberry Pi comme on peut le voir sur l’image qui suit – Rpi 3B+ et Tinker Board respectivement à gauche et à droite. Dans le détail des cuisines internes de ces ordinateurs on notera que : la Tinker Board est capable d’effectuer des copies de fichiers trois fois plus rapides qu’un Rpi 3B+ au travers de son interface LAN ; le contrôleur de microSD fonctionne à des débits en écriture et en lecture beaucoup plus élevés que celui du Rpi 3B+ (35 % en plus dans le cas de la lecture et de l’écriture de blocs 4k d’après les résultats de benchmark du blogueur) ; la Tinker Board tient mieux la route comme serveur (la carte est capable de gérer un nombre de requêtes bien plus important qu’un Rpi 3B +). Si à tous ces éléments on ajoute le fait que, contrairement au Rpi 3B +, le hardware de la Tinker Board débouche sur une sortie vidéo HDMI compatible H.264 jusqu’à 4K H.265, alors on serait bien tenté de dire que pour 15 $ de plus, la Tinker Board offre un meilleur rapport performance-prix. Mais, le Rpi 3B + a des atouts à faire valoir. Pour ce qui est des aspects liés au matériel, il faut signaler que sa connexion Wi-Fi offre une meilleure bande passante que celle de la TinkerBoard, ce qui lui permet d’effectuer des transferts plus rapides et stables par ce canal. En sus, il y a l’énorme communauté autour des cartes de la fondation Raspberry Pi qui est très probablement le facteur qui joue le plus en faveur de ces dernières. Grosso modo, au-delà des griefs relevés par les lecteurs et auxquels la Tinker Board apporte réponse, Jeff Geerling la conseille pour des cas d’utilisation où l’on a besoin de tirer le maximum de puissance d’un ordinateur monocarte. Dans tous les autres cas de figure, les caractéristiques du Rpi 3B + lui permettront d’être à la hauteur des attentes. Sources Blog
  20. bonjour je recherche la notice/mode d'emploi/manual ( le document , pas le Facebook )pour ce boitier iptv modèle " Q " merci d'avance
  21. Presque tous les jeux sous Windows utilisent DirectX pour leur rendu. Cette technologie de Microsoft fournit une certaine couche d’abstraction des cartes graphiques et facilite l’utilisation de leurs fonctionnalités avancées. Après la version 11, sortie en 2009 avec Windows Vista, DirectX semblait quelque peu stagner : peu d’évolutions, alors que les cartes graphiques ont continué à se perfectionner. Six ans plus tard, avec Windows 10, Microsoft a annoncé DirectX 12, une toute nouvelle génération : l’API cherche plus à exposer directement le matériel qu’à fournir une couche d’abstraction (la différence entre ces deux versions est très similaire à celle entre OpenGL et Vulkan). Malgré ces améliorations techniques, le rendu en lui-même des jeux n’a pas beaucoup changé depuis le début de la 3D sur ordinateur : il se base toujours sur le principe de la matricialisation de l’image (rasterisation). Les objets en 3D sont projetés sur un plan, celui de la caméra, ce qui forme l’image à afficher. Cette opération s’effectue par un produit matriciel, pour lequel les cartes graphiques fournissent une excellente performance. Avec les années et la puissance de calcul, divers effets ont pu être implémentés par-dessus à l’aide de diverses sortes de nuanceurs (shaders) : appliqués par pixel (pixel ou fragment shader), par polygone (geometry shader) ou par sommet (vertex shader), ils peuvent influencer considérablement le rendu et l’amener à un très haut niveau de photoréalisme. Depuis le début, une autre technique de rendu est annoncée : le lancer de rayons (ray tracing). Le principe en est totalement différent : il s’agit de simuler l’entièreté du trajet des rayons de lumière (d’où le nom), entre le moment où ils sont émis par une lumière jusqu’à l’instant où ils franchissent le plan de la caméra, en étant notamment réfléchis sur tout objet se trouvant sur le chemin. Évidemment, le réalisme d’un tel rendu est bien meilleur que par matricialisation, mais demande une puissance de calcul phénoménale — pour afficher ne fût-ce qu’une image, il peut falloir plusieurs heures. C’est la raison pour laquelle les films 3D utilisent le lancer de rayons, sur une batterie d’ordinateurs puissants, depuis plus d’une dizaine d’années (par exemple, Renderman, le moteur de rendu utilisé par le célèbre studio d’animation Pixar, est passé d’un rendu par matricialisation dans les années 1980 à un rendu uniquement par lancer de rayons en 2016). Au niveau matériel, Imagination Technologies avait déjà proposé des cartes graphiques avec une accélération particulière du lancer de rayons, mais avec un succès assez mitigé à l’époque (c’était en 2016). DirectX Raytracing Avec des cartes graphiques de plus en plus puissantes, le rêve d’utiliser le lancer de rayons pour l’entièreté de scènes interactives (où les images doivent être prêtes en une fraction de seconde, car l’utilisateur interagit sans cesse avec l’application — déplacer la caméra, un objet, etc.) persiste depuis des décennies… et pourrait très bientôt devenir réalité ! En effet, la nouveauté principale annoncée cette année par Microsoft lors de la Game developer conference est DXR, l’acronyme de DirectX Raytracing. Il s’agit d’une interface pour réaliser un rendu en temps réel par lancer de rayons. Celle-ci a déjà permis de réaliser un certain nombre de démonstrations technologiques. L’effet sur le rendu est bluffant, surtout quand on le compare à un rendu plus traditionnel. Le lancer de rayons permet ainsi d’afficher des réflexions très précises d’objets qui n’existent pas dans la vue de la caméra. Les réflexions montrées sont entièrement correctes d’un point de vue physique, peu importe la surface considérée. De manière générale, toute la scène profite de ce regain de réalisme. Techniquement, toute la scène n’est pas encore affichée par lancer de rayons — la puissance de calcul n’est pas encore disponible. DirectX Raytracing fonctionne en spécifiant une certaine zone qui doit être affichée par lancer de rayons (souvent bien plus petite que l’écran au complet), par exemple les objets dont la surface est réfléchissante. Le rendu est configuré par un nouveau type de nuanceurs, appliqués pour chaque objet dans la scène, pour indiquer les cas d’intersection entre un rayon et une surface (sans oublier les cas où le rayon rebondit sur plusieurs surfaces). Par ailleurs, Microsoft est déjà prêt au niveau de l’outillage : son débogueur PIX gère nativement l’intégralité des nouvelles fonctionnalités apportées par DirectX Raytracing, bien que de manière expérimentale. Il suffit de mettre à jour sa version de Windows 10 (pour bénéficier de la mise à jour de DirectX, uniquement disponible à ceux en mode fast ring pour le moment), puis d’installer la dernière version de PIX. Côté implémentation Comme pour le reste de DirectX, Microsoft fournit surtout une interface à respecter, une bonne partie du travail doit être faite par les fabricants des cartes graphiques à travers leurs pilotes. La performance dépendra donc fortement de ces implémentations et du matériel disponible. Néanmoins, une implémentation utilisant DirectCompute sera disponible et utilisée chaque fois qu’une implémentation plus spécifique n’est pas disponible — de telle sorte que toute carte graphique compatible DirectX 12 pourra utiliser ce module. Ce mode de fonctionnement pourrait se répéter à l’avenir : selon Microsoft, le futur des cartes graphiques ne se situe pas au niveau d’un matériel spécifique pour des fonctions fixes, mais bien d’opérations flexibles et généralistes. D'un côté, AMD ne se mouille pas trop : un pilote sera disponible dans le futur, mais la compagnie semble se focaliser sur ses solutions pour le lancer de rayons. Ainsi, le moteur de rendu maison Radeon ProRender pourra utiliser ce lancer de rayons en temps réel ; il n'est pas vraiment prévu pour du jeu vidéo, mais plutôt des applications professionnelles. AMD travaille également depuis des mois sur Radeon Rays, une bibliothèque de lancer de rayons pouvant exploiter OpenCL, Vulkan ou encore Embreepour l'accélération matérielle (GPU pour OpenCL et Vulkan, CPU pour OpenCL et Embree), aussi prévu pour des jeux vidéo. NVIDIA semble avoir une longueur d’avance D’un autre côté, NVIDIA travaille depuis très longtemps sur le sujet du lancer de rayons, avec par exemple son moteur OptiX dès 2009 ; la société a également racheté Mental Ray en 2007, devenu depuis lors Iray, un moteur de rendu utilisé dans des applications professionnelles comme la conception par ordinateur (AutoCAD, CATIA, SolidWorks, etc.) ou l’animation (3D Studio Max, Cinema 4D, Maya, Houdini…). Spécifiquement pour DirectX Raytracing, NVIDIA ne parle que de son implémentation RTX : une API spécifique sera disponible, mais RTX sera aussi utilisé derrière DirectX Raytracing. Élément intéressant : RTX fonctionnera particulièrement bien sur les GPU de génération Volta ou plus récente ; pour les joueurs, cela signifie uniquement la Titan V (ou les prochains GPU dont on attend l’annonce depuis longtemps). On peut s’attendre à ce que les nouveaux cœurs tensoriels soient mis à l’épreuve pour ce lancer de rayons. Dernier détail : RTX sera disponible dès la prochaine version des pilotes NVIDIA, la 396. Elle arrivera début avril pour le grand public. Et les jeux, donc ? Plusieurs studios de développement de jeux étaient associés à l’annonce de DirectX Raytracing. Notamment, Unreal Engine intègre déjà cette technologie dans certaines versions de développement, tout comme Unity. Des développeurs comme Epic Games, DICE et Electronic Arts ont déjà annoncé qu’ils intégreront DirectX Raytracing dans leurs moteurs et leurs jeux. On pourrait déjà voir des effets utilisant ces nouvelles possibilités dans des jeux cette année. En manque de détails techniques ? L’annonce détaillée de Microsoft. Le guide de NVIDIA sur l’utilisation de l’API. Téléchargement : SDK DXR, PIX. Sources et images : Futuremark Demonstrates Raytracing Demo with DirectX 12, Random Thoughts on Raytracing, AMD Announces Real-time Ray Tracing Support for ProRender and Radeon GPU Profiler 1.2, Expanding DirectX 12: Microsoft Announces DirectX Raytracing, Announcing Microsoft DirectX Raytracing!, NVIDIA Announces RTX Technology: Real Time Ray Tracing Acceleration for Volta GPUs and Later, Nvidia talks ray tracing and Volta hardware.
  22. Spotify fait la chasse aux applications qui piratent son Premium Alors que se service de streaming musical prépare son introduction en bourse, Spotify s'attaque aux fraudeurs qui utilisent des applications tierces pour obtenir les fonctionnalités des comptes Premium, gratuitement. Par Roch Arène Avant son IPO, Spotify montre les muscles face à ses concurrents (Apple Music en tête) et durcit le ton face aux fraudeurs. Rappelons que le service de streaming musical propose deux offres, la première permet d’écouter gratuitement de la musique, mais avec une qualité sonore réduite, de la publicité et diverses limites. La seconde, dite « Premium » est proposée à 9,99€ / mois, elle offre un accès illimité aux playlists que ce soit sur ordinateur ou smartphone dans une qualité 320 kbit/s (au mieux). Mais comme c’est souvent le cas, des petits malins utilisent des logiciels frauduleux pour tromper l’application et obtenir les fonctionnalités des comptes Premium. Une réponse graduée Résultat, la contre-attaque se prépare enfin, de manière très graduée. La société suédoise demande tout d’abord par mail « de désinstaller toute version non autorisée ou modifiée de Spotify », si toutefois le fraudeur ne s'execute pas, son compte Spotify sera suspendu et l'accès au service sera ainsi coupé. Le site TorrentFreak dédié aux informations sur les torrents, le droit d’auteur ou encore la vie privée indique que d’anciennes versions de Spotify permettent aux utilisateurs non payants de contourner encore certaines limites, comme la lecture aléatoire des pistes ou le nombre de musiques que l’on peut sauter. Autre précision, Spotify serait partie en croisade contre « Dogfood » une version modifiée de son application qui permet justement de contourner certains blocages. Nul doute que cette offensive contre les pirates est liée à la demande d’introduction en bourse déposée fin février. Pour rappel, Spotify revendique 70 millions d’utilisateurs payants et 159 millions d’utilisateurs actifs chaque mois. Spotify se dit deux fois plus gros qu'Apple Music et prépare son entrée en Bourse
  23. Maciej Kocemba, le responsable produit chez Opera, a récemment fait part de la disponibilité de la version 52 bêta du navigateur Opera dans un article de blog. Cette nouvelle version serait dotée d’un bloqueur de publicité amélioré qui permettrait de charger les pages plus rapidement qu’avec Opera 51 ou Google Chrome. D’après Kocemba, le bloqueur de publicités intégré à Opera qui, à l’origine, a été conçu pour fournir des fonctionnalités de sécurité, incluant la protection contre les attaques de cryptojacking, a cette fois-ci été optimisé en se focalisant sur la vitesse de navigation. Les tests réalisés en interne par les équipes d’Opera indiquent que cette nouvelle version serait jusqu’à 16 % plus rapide qu’Opera 51 et jusqu’à 44 % plus rapide que Chrome 64 lorsqu’il s’agit de charger une page Web. Les augmentations de performance évoquées résulteraient d’une amélioration de l’algorithme utilisé. Le navigateur Opera 52 bêta introduit, par ailleurs, une nouvelle fonction qui permet de sélectionner et manipuler plusieurs onglets à la fois. Il suffira désormais de cliquer sur les onglets de votre choix en maintenant la touche Ctrl (⌘ sur macOS) enfoncée pour sélectionner individuellement plusieurs onglets ou de cliquer sur un onglet en maintenant la touche Maj enfoncée pour sélectionner une série d’onglets, de la gauche vers la droite. Il est même possible d’appliquer une commande similaire (dupliquer, épingler, fermer, recharger, couper, enregistrer, etc.) à plusieurs onglets sélectionnés comme s’il s’agissait d’un seul onglet. Notez que, pour fermer un onglet, il suffit désormais de maintenir la touche « alt » en cliquant sur l’onglet cible, alors qu’auparavant il fallait utiliser la touche « Maj » plus un clic sur l’onglet cible pour obtenir le même résultat. Une nouvelle option « Copier l'adresse de la page » qui s’affiche dans le menu contextuel permet comme son nom l’indique de copier les adresses de vos sites Web sélectionnés directement dans le presse-papier afin, par exemple, de les envoyer plus tard à d’autres personnes. En outre, plutôt que d’enregistrer la totalité de votre session de navigation actuelle pour une session future, vous pouvez maintenant spécifier les onglets particuliers que vous souhaitez consulter plus tard dans un dossier. De nouvelles animations permettant de caractériser différents statuts d’erreur lors d’une tentative de connexion ratée ou de problèmes de chargement de pages Web sont également au programme.
  24. Spectre et Meltdown : Intel diffuse un patch pour les CPU de 6e, 7e et 8e générations par BRUNO MATHIEU 24 févr. 2018 14:00 - Source: Intel Les failles Spectre et Meltdown, qui touchent quasiment tous les processeurs de ces dix dernières années, ne sont toujours pas totalement comblées. Pour contrer les effets de Spectre, Intel vient de publier des correctifs dédiés aux processeurs de 6e, de 7e et de 8e générations. Une mise à jour de firmware à destination des architectures Skylake (6e génération), Kaby Lake (7e génération) et Coffee Lake (8e génération) vient d'être publiée par Intel. Notez au passage que cela concerne également les CPU Core X, Xeon Scalable et Xeon D. La bonne nouvelle, c'est qu'il est possible de mettre à jour son PC à l'aide d'un petit programme livré par le constructeur du PC (sans passer par Windows Update, donc). Chez HP par exemple, il suffit de faire appel au logiciel Support Assistant, lequel va se charger de télécharger et d'installer la mise à jour adéquate. Même chose chez Lenovo avec le programme Lenovo Vantage pour Windows 10, avec Asus Manager pour les machines Asus, etc. Rappelons que fondeurs et éditeurs tentent par tous les moyens de minimiser les effets de Spectre et Meltdown, parfois au détriment de la rapidité et de la stabilité du système. En janvier dernier, un patch entraînait même un reboot intempestif sur les plateformes Broadwell et Haswell. La plupart des experts s'accordent à dire que la résolution définitive de ces vulnérabilités ne passera que par une nouvelle architecture matérielle, et que les multiples correctifs logiciels ne pourront jamais les combler totalement. On espère que les nouveaux processeurs Cannon Lake, qui devraient sortir cette année et qui auraient même été déjà livrés à certains constructeurs, s'affranchiront complètement de ce genre de faille. >> Spectre et Meltdown : tous nos conseils pour mettre à jour vos PC, Mac, Android et iPhone
  25. Reprise - Blog Korben - 10-07-17 Oui, mais pas n'importe comment. Il y a un truc simple que vous devez absolument faire sur tous les services que vous utilisez (ou au moins ceux que vous jugez comme cruciaux), c’est activer l’authentification double facteur appelée aussi 2FA. Le concept est simple, une fois activé, en plus de votre mot de passe, on vous demandera un code unique valide sur une durée limitée. Ce code unique est parfois envoyé par email, parfois par SMS, et parfois disponible dans une application dédiée rien qu’à ça. C’est très important d’activer l’authentification double facteur, car en cas de vol de mot de passe (via une attaque man in the middle, un phishing ou autre), il n’y a plus de barrière qui s’oppose au criminel qui veut se connecter sur l’un de vos comptes. Et cela peut avoir des conséquences dramatiques comme le vol d’argent (PayPal, la banque…etc.), ou l’usurpation d’identité (Twitter, Facebook, votre boite mail…etc.). L’envoi de code par SMS ou email est la méthode la plus courante, car la plus commode. Il suffit d’avoir accès à votre boite mail ou à votre carte SIM avec le bon numéro de téléphone et c’est réglé. MAIS si j’écris cet article aujourd’hui, c’est pour vous décourager d’utiliser l’authentification double facteur autrement qu’avec une application dédiée. Prenons d’abord l’exemple de la boite mail. Si un quelqu’un prend le contrôle de votre boite mail, il pourra tout faire, y compris réinitialiser vos mots de passe sur tous vos sites préférés et lorsqu’un code 2FA lui sera demandé, il le recevra direct par mail. Donc ça ou rien c’est presque la même chose. Le code 2FA reçu par SMS est-ce qu’il y a de plus pratique et c’est ce que la plupart des gens choisissent. Il suffit d’avoir accès à une SIM avec son numéro et c’est bon. Évidemment, le jour où vous changez brusquement de numéro de téléphone, vous l’avez dans l’os. Et là, ça dépendra des sites. Pour certains, ce sera mort et perdrez à tout jamais votre compte. Pour d’autre, il y aura toujours moyen de récupérer un mot de passe et de faire sauter le 2FA (mais à quoi bon avoir mis cette protection dans ce cas ?) et dans d’autres cas, l’accès pourra vous être rendu, mais toutes les données de votre compte seront effacées. Ce qui peut aussi être problématique. Mais je vous déconseille aussi d’activer le 2FA par SMS. Pour 2 raisons… La première, c’est que certains ont trouvé le moyen d’exploiter une faille dans le protocole SS7 des réseaux mobiles afin de détourner des SMS. Comme l’explique cet article, des gens se sont fait piller leur compte en banque juste comme ça à cause de cette faille. Mais il n’est pas nécessaire d’aller aussi loin dans la technique quand on peut compter sur la négligence de nos opérateurs téléphoniques (et ça, c’est la seconde raison). En effet, je vois souvent des articles ou des tweets qui expliquent qu’un criminel à trompé le call center d’un opérateur pour se faire envoyer une copie de la carte SIM de sa victime et ainsi lui dérober de l’argent. C’est moche hein. C’est donc aussi pour ça que je vous déconseille de vous faire envoyer vos codes 2FA par SMS. Alors que nous reste-t-il ? Et bien la dernière option, c’est une application qui vous génère des codes 2FA à la volée. Et là sans être infaillible, c’est déjà un peu plus costaud, car si quelqu’un veut accéder à vos comptes, il devra, en plus de récupérer votre mot de passe, vous voler votre téléphone et connaitre le code pour le déverrouiller. Bien sûr si vous n’avez mis aucune sécurité de verrouillage à votre smartphone, que votre application 2FA ne vous réclame pas de code PIN ou de mot de passe et qu’en plus, vos mots de passe de sites web sont enregistrés dans votre navigateur, je ne peux rien faire pour vous. Limite, vous méritez de vous faire piller votre compte bancaire. Notez que quand vous activez l’authentification double facteur pour l’utiliser via une app, il faut être très précautionneux. En effet, le site vous fournira une clé ou un QR code qu’il faudra conserver en sécurité quelque part pour que si vous perdez votre téléphone ou que vous le formatez, vous puissiez toujours accéder à votre compte. Il existe masse d’applications 2FA donc loin de moi l’idée de vous en conseiller une ultime… Mais évitez Google Authenticator ou FreeOTP qui ne permettent pas de configurer un code de verrouillage (Pin ou mot de passe). Évitez aussi toutes les apps qui vous force à stocker vos configs 2FA dans le cloud en échange de la création d’un compte chez eux. De toutes celles que j’ai testées, mes préférées sont Authy et LastPass Authenticator (qui propose un backup sur votre compte Lastpass, mais vous n’êtes pas obligé de l’activer). Voilà… Donc pour résumer : Activez l’authentification 2FA partout si c’est dispo. Ne demandez jamais à recevoir de code 2FA par email. Ne demandez jamais à recevoir de code 2FA par SMS. Utilisez uniquement une application 2FA qui propose une protection PIN ou mot de passe. Évitez les applications qui stockent vos 2FA dans le cloud. Pensez bien à conserver en lieu sûr vos clés secrètes ou QR code 2FA pour les réactiver en cas de perte, de panne ou de formatage de votre mobile. Vous pouvez aussi opter pour les systèmes 2FA physiques mais cela fera l’objet d’un probable autre article car je n’en ai pas encore testé réellement.
  26. Par Louis Adam | Mercredi 14 Février 2018 La faille permettait à des attaquants de faire passer des fichiers malveillants envoyés via l’application pour de simples images. Le terme de faille zero day désigne l’ensemble des failles inconnues de l’éditeur et qui n’ont donc pas de correctif disponible. Le terme est aujourd’hui fortement connoté et est fréquemment employé pour designer certaines vulnérabilités exploitées par des cybercriminels de haut vol ou des agences de renseignement qui souhaitent contourner les protections mises en place par l’utilisateur. Il est également utilisé par les entreprises de sécurité qui veulent mettre en lumière leur dernière découverte. Kaspersky explique ainsi avoir découvert une faille de sécurité zero day au sein de l’application desktop de Telegram. Comme le relate l’éditeur antivirus, celle-ci résidait dans la façon dont l’application gérait l’un des caractères spéciaux prévus par unicode : la « marque droite-gauche. » Ce caractère invisible est utilisé par Unicode afin de signaler à la machine que les prochains caractères doivent être affichés de droite à gauche et non l’inverse comme c’est souvent le cas dans les langues occidentales. Les noms de fichier ont un sens Comme le montre Kaspersky, ce caractère peut être utilisé pour dissimuler un fichier malveillant en dissimulant le véritable nom et l’extension de celui-ci. Ainsi, il devient possible de dissimuler un fichier JavaScript en lui donnant l’apparence d’une simple image : la chaine de caractère « photo_high_re*U+202E*gnp.js », ou U+202E désigne en Unicode la marque droite gauche, sera affiché « photo_high_resj.png » par l’application Telegram. Si un utilisateur sera probablement découragé de cliquer sur un fichier .js, qui désigne un programme en JavaScript, l’affichage d’un .png est en revanche nettement moins alarmant. Lorsque l’utilisateur clique sur le lien envoyé, un avertissement s’affiche néanmoins pour indiquer à l’utilisateur qu’il s’apprête à ouvrir un programme non signé numériquement et qu’il s’expose donc au danger. Selon Kaspersky, un groupe de cybercriminels emploie cette technique depuis le milieu de l’année dernière afin de disséminer des programmes malveillants à l’insu des utilisateurs : Kaspersky explique avoir découvert plusieurs cas ou les programmes étaient des mineurs de cryptomonnaies, qui utilisent le processeur de la cible à son insu pour miner des cryptomonnaies pour le compte des attaquants, ou bien pour installer une backdoor sur l’appareil de la cible afin de voler des données. Kaspersky est ainsi parvenu à découvrir un répertoire FTP stockant des messages privés dérobés par le groupe d’attaquant à travers leurs logiciels malveillants : ceux-ci sont néanmoins chiffrés, ce qui signifie que les attaquants n’ont pas pu les lire. Kaspersky a informé Telegram de la situation et l’application a corrigé le problème. Au vu de la nature de la faille, le terme de 0day parait ici presque galvaudé : le problème réside dans un bug d’affichage, problématique, mais qui ne remet pas en question le chiffrement offert par Telegram sur les messages privés. Telegram n’était pas au courant de ce problème d’affichage, ce qui permet à Kaspersky d’utiliser le terme Zero Day. En lisant le descriptif, on reste un peu sur sa faim malgré la sophistication de l’astuce. L’affichage d’un message d’alerte Windows lors de l’exécution du programme malveillant offrait une couche de sécurité supplémentaire qui aurait pu mettre la puce à l’oreille des victimes. De plus, la faille en question n’affectait que la version Windows de l’application. On saluera néanmoins la créativité des cybercriminels qui ont exploité cette particularité d’unicode autrement que pour enregistrer des noms de domaines frauduleux, domaine où les manipulations avec unicode restent rois.
  27.  
  • En ligne récemment   0 membre est en ligne

    Aucun utilisateur enregistré regarde cette page.

×