Aller au contenu
  1. Quoi de neuf dans ce club
  2. Facebook Messenger propose depuis 2016 un mode permettant de chiffrer de bout en bout ses conversations. Mais encore faut-il connaître l'existence de cette option : voici comment l'activer. WhatsApp, Viber, Line, Signal, iMessages ou encore Telegram. Nombreuses sont les plateformes de messagerie instantanée à proposer du chiffrement de bout en bout pour renforcer un peu plus la sécurité des conversations. Mais toutes n’activent pas cette protection d’emblée : dans le cas de Telegram par exemple, il faut aller dans les options de l’application pour activer le mode Secret Chat. CHIFFREMENT DANS FACEBOOK MESSENGER C’est la même chose avec Facebook Messenger : le service du réseau social dispose depuis quelques années dans ses paramètres d’une option qui permet en principe à deux correspondants de tenir une « conversation secrète », c’est-à-dire qui ne peut pas être lue par un tiers. Mais encore faut-il connaître son existence, car le site ne fait pas particulièrement la promotion de ce réglage. Sécurisé en théorie. Certaines situations peuvent rendre ce mode inopérant : si un tiers s’empare par exemple du smartphone d’un des deux correspondants et parvient à le déverrouiller, il accédera à Messenger si aucun mot de passe spécifique ne protège l’application. Pour en profiter, vous devez ouvrir Messenger et vous rendre dans les paramètres de l’application, en cliquant sur votre portrait en haut à droite de l’écran. Descendez ensuite jusqu’à la ligne correspondante. Validez l’option et revenez dans Messenger. Choisissez celle qui va en bénéficier : ouvrez-la et cliquez sur l’icône symbolisant l’information (la lettre i dans un cercle). Sélectionnez alors « accéder à la conversation secrète ». Vous verrez apparaître une interface un peu différente, habillée de noir, ce qui permet de distinguer ce mode de celui proposé par défaut (qui est en bleu). De là, il suffit de taper votre message ou de joindre votre fichier, de cliquer ensuite sur le bouton d’envoi. Une fois le premier échange, la conversation secrète s’affichera dans la liste des discussions. Selon Facebook, « quand les conversations secrètes sont activées, celles-ci sont chiffrées de bout en bout sur tous vos appareils en même temps ». En clair, elles sont sécurisées d’emblée sur le terminal de départ, avant d’être envoyées par Internet. Ce n’est que lorsque le destinataire recevra le message chiffré qu’il pourra l’ouvrir sur son mobile, à condition d’avoir la clé de déchiffrement. Différentes étapes avant de bénéficier des conversations secrètes. UN PROTOCOLE RÉPUTÉ DERRIÈRE L’option des conversations secrètes a été lancée au mois d’octobre 2016. Elle repose sur le protocole open source de Signal pour chiffrer de bout en bout les échanges (c’est aussi le cas de WhatsApp, une filiale de Facebook), fait remarquer Wired, « qui jouit d’une excellente réputation au sein de la communauté de la sécurité ». Son seul gros défaut : qu’elle ne soit pas activée par défaut. Son développement est supervisé par Open Whisper Systems, une organisation fondée par l’activiste Moxie Marlinspike, un expert en cryptographie. On retrouve ce protocole dans la messagerie sécurisée Signal, proposé par Open Whisper Systems, que le lanceur d’alerte Edward Snowden conseille chaudement : « utilisez n’importe quoi [fait] par Open Whisper Systems ». Bien sûr, le doute sera toujours de mise avec Facebook, et cela même si le réseau social se sert du protocole d’Open Whisper Systems pour proposer du chiffrement de bout en bout sur Messenger. Qui dit en effet que l’implémentation du protocole Signal est correcte ? Cela étant, l’hypothèse d’un mauvais déploiement reste à démontrer ; et rien n’interdit bien sûr de passer sur une autre solution. Mais encore faut-il que son correspondant y soit aussi. Messenger, lui, peut se targuer de réunir une communauté de 1,3 milliard d’utilisateurs, selon des statistiques datant du mois de septembre 2017.
  3. Bonjour, Que ce soit pour un plasma ou un LCD/LED du 1080 reste du 1080. Après, entre le i et le p la différence se situe au niveau de la restitution de l'image. Elle est entrelacée pour le "i". Les trames paires et impaires sont affichées successivement pour former l'image. Cette technologie s'appuie sur la persistance rétinienne pour que le spectateur ne s'aperçoive de rien. L'image est progressive pour le "p"et l'image est affichée "entière". Le "i" affiche 50 demi images par seconde et le progressif "p" 50 images par seconde. Le progressif fournit donc une image plus fluide. Donc le 1080p est à privilégier. Mais les sources ne délivrent pas forcément du "p".... Mais un écran Full HD 1080p transforme de toute façon tout en image progressive avec plus ou moins de succès selon la technologie employée.
  4. Merci pour l'infos alors quelle est la meilleur résolution 1080i ou 1080p pour un plasma
  5. A l'heure où beaucoup vont se ruer sur des TV, écrans et autres, ce petit rappel me semble bien venu. La définition et la résolution sont deux éléments distincts, mais dépendants entre eux. Il arrive souvent qu’on utilise à tort ces deux termes. Un rapide dossier pour mieux comprendre la différence entre la définition et la résolution des écrans. À l’annonce d’un nouveau smartphone ou d’une nouvelle tablette, les constructeurs communiquent souvent des données relatives à l’écran à l’image de la définition ou de la taille d’écran. Parfois, les constructeurs parlent aussi de résolution. Il arrive d’ailleurs souvent que les acteurs de l’industrie s’emmêlent les pinceaux et mélangent résolution avec définition. Il faut dire que l’anglais ne facilite pas les choses puisque résolution, dans la langue de Shakespeare, se traduit aussi bien en français par définition que par résolution. Les anglophones sont donc obligés de passer par des expressions comme display resolution pour la définition ou pixel density pour la résolution. Partons ensemble à la découverte de ces deux termes qui sont finalement faciles à comprendre et qui ont toute leur importance sur une fiche technique. Définition : le nombre de pixels. La définition est le nombre de pixels présents sur la dalle. Elle se calcule en pixels, en multipliant une ligne horizontale de pixel avec une ligne verticale. À titre d’exemple, la définition QHD correspond à 2560 pixels en largeur par 1440 pixels en hauteur (ou l’inverse pour un smartphone tenu en mode portrait), soit au total 3 686 400 pixels. Une dalle 4K / UHD dispose d’un total de 8 294 400 pixels puisque sa définition est de 3840 x 2160 pixels. Comme on peut le voir dans le tableau ci-dessous, la définition QHD dispose d’environ 1,6 fois plus de pixels que la définition Full HD alors que la 4K / UHD intègre 4 fois plus de pixels. Pour rappel, plus la définition de l’affichage est élevée, plus le GPU (la puce graphique du SoC) aura besoin de puissance pour maintenir un débit d’images similaire à une fréquence de rafraîchissement de l’écran de 60 Hz. Pour maintenir un débit d’images de 60 images par seconde avec une définition QHD, il faut une puissance environ 1,5 fois supérieure pour disposer d’une fluidité équivalente à une définition Full HD, comme on avait pu le voir dans un dossier dédié (QHD vs Full HD). Résolution : la densité de pixels et le Rétina. La résolution est le rapport entre la définition de la dalle (exprimée en pixels) et sa taille (exprimée en pouces). On parle donc de Pixel Par Point (PPP) pour la résolution, ou en anglais Pixel Per Inch (PPI). Plus ce nombre est élevé et plus la densité de pixels sera élevée. Prenons deux exemples concrets : une tablette de 10 pouces équipée d’une dalle supportant une définition Full HD (1920 x 1080 pixels) et un smartphone de 6 pouces supportant la même définition. La tablette aura une résolution de 220 PPP contre 367 PPP pour le smartphone. Le calcul étant un peu plus complexe que la définition (il faut diviser le nombre total de pixels par la surface de la dalle), vous pouvez utiliser l’outil PPI Calculator, disponible en ligne. La résolution est un élément extrêmement important à prendre en compte pour le confort de lecture. En effet, entre le smartphone et la tablette de l’exemple ci-dessous, la qualité d’affichage ne sera pas identique. Sur la tablette, les pixels seront plus « gros » que sur le smartphone et il sera donc plus facile de les discerner à l’œil nu, en s’approchant de la tablette. 220 PPP est une résolution assez faible, et la lecture de site web ne sera pas très agréable puisque les caractères ne seront pas bien définis. Ils sembleront légèrement flous, et non pas nets, contrairement au smartphone dont la résolution de 367 PPP suffit. Rappelons que le terme Rétina a été inventé par Apple et fait référence à un smartphone doté d’une résolution supérieure à 300 PPP, jugé comme la densité la plus adaptée à une lecture sur un écran de la taille d’un smartphone (3,5 pouces à l’époque de la création de ce terme) et utilisé à une distance d’environ 25 à 30 cm. PenTile : la résolution amputée Au sujet de la résolution et de la définition, il faut prendre en compte une autre variable : le type de dalle. La plupart des écrans LCD utilisent trois sous pixels pour former un pixel : un sous pixel rouge, un sous pixel vert et un sous pixel bleu (RGB). Ce n’est pas le cas des dalles AMOLED de Samsung, qui utilisent la technologie PenTile RGBG. Elle permet de produire à moindre coût et plus facilement des dalles dotées d’une plus haute définition. Mais sur une dalle PenTile, un pixel est composé de deux sous-pixels : soit rouges et verts, soit bleus et verts. Ainsi, la définition annoncée par Samsung est uniquement atteinte par les sous-pixels verts alors que les sous pixels bleus et rouges sont deux fois moins nombreux. Avec des faibles résolutions, comme sur le Galaxy Nexus, la différence avec une dalle RGB classique sauter aux yeux comme on peut le voir sur la photo ci-dessous. Une situation qui ne se retrouve plus sur le Galaxy S6 grâce à sa résolution très élevée : près de 600 PPP pour les sous-pixels verts et 400 PPP pour les sous-pixels bleus et rouges. Le pouvoir de résolution de l’œil humain. On pourrait donc croire qu’une résolution plus élevée est toujours bonne à prendre. C’était sans compter sur la gourmandise des hautes définitions, que ce soit en termes d’autonomie, mais également en puissance GPU comme nous l’avons vu plus haut, mais aussi sur le pouvoir de résolution de l’œil humain. En quelques mots, l’œil humain n’est pas capable de discerner les très hautes résolutions. Apple considère que la résolution de 300 PPP est la limite idéale, mais il faut prendre en compte les personnes bénéficiant d’une excellente vue, mais aussi la distance d’affichage. Plus l’œil sera proche de l’écran, plus la résolution devra être élevée et certains réussissent à discerner des détails jusqu’à 600 PPP — sans loupe —, mais il s’agit d’une frange minoritaire de la population, avec l’œil collé à l’écran. Pour un usage normal, 300 — 400 PPP semblent donc constituer une résolution correcte. En dessous, les plus pointilleux commenceront à percevoir les pixels. Au-delà, la consommation d’énergie sera en hausse, pour un bénéfice pas forcément visible pour la majorité des utilisateurs. En fait, seule la réalité virtuelle nécessite de très hautes résolutions, du QHD, voire de la 4K / UHD pour ne pas discerner les pixels (la grille de pixels), l’image étant grossie par les lentilles. La liste des différentes définitions. Les définitions standardisées sur nos smartphones ont été légèrement revues avec le passage au format 18:9 (ou proche) et on trouve désormais des appellations comme « Full HD+ » ou « QHD+ » afin de s’adapter à ce changement de format. Déf. (pixels) Ratio Intitulé Nom courant Appareils 240 x 320 4:3 QVGA LG Optimus L3 II 320 x 480 3:2 HVGA iPhone 3G 480 x 800 5:3 WVGA Samsung Galaxy SIII Mini 480 x 854 16:9 FWVGA Sony Xperia L 540 x 960 16:9 qHD Samsung Galaxy S4 Mini 640 x 960 3:2 DVGA iPhone 4S 640 x 1136 16:9 WDVGA iPhone 5S 720 x 1280 16:9 WXGA HD / 720p Motorola Moto G 768 x 1280 16:10 WXGA Nokia Lumia 1020 1080 x 1800 15:9 Meizu MX3 1080 x 1920 16:9 FHD Full HD / 1080p / 1080i HTC One M8 1125 x 2436 19,5:9 Super Retina HD iPhone X 1200 x 1920 16:10 WUXGA Asus FonePad Note 6 1080 x 2048 17:9 Projecteurs Christie 1080 x 2160 18:9 FHD+ OnePlus 5T 1080 x 2240 18,7:9 Huawei P20 Pro 1080 x 2280 19:9 OnePlus 6 1440 x 2560 16:9 (W)QHD WQXGA 2K LG G3 1440 x 2880 18:9 (W)QHD+ LG G6 1440 x 2960 18,5:9 Samsung Galaxy S8 1440 x 3120 19,5:9 LG G7 ThinQ 1600 x 2560 16:10 WQXGA Galaxy NotePro 12.2 2160 x 3840 16:9 UHD 4K Toshiba Satellite P55t 2160 x 4096 17:9 DCI 4K Canon DP-V3010 4320 x 7680 16:9 FUHD 8K Prototype Sharp 85"
  6. Grâce à l'implémentation d'un nouvel algorithme CRC optimisé. Il existe de nombreux formats audio adaptés à divers usages. Certains permettent notamment de diminuer la taille des fichiers. À l’intérieur de ce dernier groupe, on distingue les formats audio dits destructifs ou avec perte (lossy) qui ne permettent pas de recréer l’original à partir d’un fichier audio compressé et les formats audio non destructifs ou sans perte (lossless). Les formats lossy comme Ogg permettent d’obtenir des fichiers audio de petite taille au détriment de la qualité. À l’inverse, les formats audio lossless comme FLAC (Free Lossless Audio Codec) sont utilisés lorsque la qualité d’un fichier audio prime sur l’espace de stockage qu’il est susceptible d’occuper. Le format Ogg est un format de compression audio libre qui se veut une alternative au format Mp3 plus populaire. Le format de compression audio libre FLAC, quant à lui, permettrait généralement de réduire d’environ 50 % la taille des fichiers Wav. Ces deux formats audio sont soutenus par la fondation Xiph.Org dont le but est de proposer des formats et codecs multimédias ouverts, libres et dégagés de tout brevet. FLAC et Ogg auraient désormais de meilleures capacités d’encodage et de décodage audio grâce aux améliorations récentes apportées au code qui sous-tend leur fonctionnement respectif. Ces deux formats utilisent désormais un algorithme CRC optimisé permettant d’accélérer les opérations d’encodage ou de décodage. Les gains annoncés sont d’environ 5 % en encodage et décodage pour FLAC, contre 10 % en encodage et 15 % en décodage pour Ogg. Les formats audio Opus et Monkey audio seraient également concernés par cette mise à jour, mais les gains attendus seraient plus modestes : environ 1 % en encodage pour le format audio Opus et environ 4 % en décodage pour le format audio Monkey Audio. Soulignons au passage que le format Opus (Harmony à l’origine) est un format audio avec perte qui a été développé par l’Internet Engineering Task Force (IETF) afin d’être utilisé par des applications interactives sur Internet. Source : Freac
  7. Chrome OS est un système d’exploitation développé par Google avec pour objectif de s’appuyer sur les applications web uniquement. La particularité avec ce système d’exploitation est qu’il ne peut être installé que sur les machines conçues par Google et ses partenaires accrédités. Disponible depuis 2011, Chrome est un fork de la distribution GNU/Linux Gnetoo. Toutefois, bien que ce système d’exploitation soit un embranchement de Linux, des outils officiels pour installer les applications Linux n’étaient jusque là pas disponibles. Une des solutions adoptées par les utilisateurs qui ne sont pas repoussés par le fait de mettre la main dans les entrailles du système est d’utiliser Crouton (ChRomium Os Universal chrooT envirONment), un ensemble de scripts regroupés sous la forme d’un générateur de chroot Chromium facile à utiliser. À l’instar de la virtualisation, les chroots fournissent au système d’exploitation invité leur propre système de fichiers séparé, ce qui permet aux applications de s’exécuter dans un environnement binaire différent du système d’exploitation hôte. Contrairement à la virtualisation, vous ne démarrez pas un deuxième système d’exploitation ; au lieu de cela, le système d’exploitation invité fonctionne à l’aide du système Chromium OS. Il faut se l’avouer, cela demandait un peu de travail : c’était relativement compliqué, mais ça fonctionnait. Toutefois, les choses pourraient devenir beaucoup plus simples pour ceux qui désirent lancer les applications Linux sur Chrome OS. Selon le directeur de la gestion des produits de Chrome OS, Kan Liu, les utilisateurs pourront utiliser les outils Linux, les éditeurs et les environnements de développement intégrés directement sur les Chromebooks, en les installant depuis leurs sources habituelles comme sur une machine Linux ordinaire. Liu a expliqué que « nous mettons l'environnement de l'application Linux dans un sandbox de sécurité, fonctionnant à l'intérieur d'une machine virtuelle », ces applications fonctionnant parfaitement aux côtés d'Android et des applications Web sur Chrome OS. Il est important de souligner que nous ne parlons pas ici d'un shell, mais d'un support complet pour les applications graphiques. Cela signifie que vous pourrez, par exemple, exécuter la version Linux de Visual Studio Code sur votre machine Chrome OS. Pour les plus curieux, vous pourrez même créer votre application Android dans Android Studio et la tester directement sur votre ordinateur portable, grâce au support intégré pour les applications Android qui sont arrivées sur Chrome OS l'année dernière. La prise en charge de Linux sur Chromebooks est encore à ses débuts chez Google, ce qui est l'une des raisons pour lesquelles elle n'est disponible pour le moment que pour le Pixelbook. Chrome OS ne proposera pas non plus de support d'application Linux par défaut. À la place, les utilisateurs devront l'activer manuellement avant de pouvoir profiter de la fonctionnalité. « L'utilisateur moyen n'a probablement pas besoin d'un terminal Linux et de la possibilité de coder », a noté Liu. « Donc, cela ne sera pas activé par défaut. Cependant, pour les personnes qui le désirent, elles peuvent simplement l'activer ». En clair, bientôt, tout ce que vous aurez à faire pour les exécuter sera d’activer un paramètre dans le menu. En effet, Google va commencer à livrer Chrome OS avec une machine virtuelle personnalisée qui exécute Debian Stretch, la version stable actuelle du système d'exploitation. La prise en charge des applications Linux signifie que les développeurs pourront enfin utiliser un appareil Google pour développer pour les plateformes de Google, plutôt que de dépendre de machines Windows, Mac ou Linux. De plus, Chrome OS n'étant plus uniquement compatible avec les applications spécifiques à Chrome OS, les développeurs pourront créer, tester et exécuter toute application Android ou Web pour smartphones, tablettes et ordinateurs portables sur leurs Chromebooks. Sans avoir à changer de périphérique, vous pouvez exécuter votre IDE préféré (tant qu'il existe une version pour Debian Linux), coder dans votre langage préféré et lancer des projets sur Google Cloud en ligne de commande. Si la première préversion de Linux sur Chrome OS est maintenant disponible sur le Pixelbook, la prise en charge d’autres appareils quant à elle sera « bientôt » effective. Source : CNet
  8. @satamuse, salut! Recherche compliquée... Mais bon rien est impossible. A tout hasard, regardes sur Alibaba.
  9. La nouvelle de la disponibilité du Raspberry Pi 3B + (Rpi 3B +), le dernier modèle de nano-ordinateur de la fondation du même nom, a filtré sur cette plateforme il y a approximativement un mois. Le bref comparatif entre ce dernier et son prédécesseur, le Raspberry Pi 3B, est clair quant à ce qui concerne la supériorité du modèle 3B + sur plusieurs aspects (processeur de 15 % plus rapide, Wi-Fi et Ethernet plus speed, etc.). Toutefois, comme l’ont relevé nos chers lecteurs, la fondation a manqué de combler certaines des atteintes des mordus par l’ordinateur monocarte : une mémoire vive à 2 Go mini et un GPU capable d’assurer la lecture de vidéos en 4K sans tweak. L’offre en ordinateurs monocartes continue d’aller croissant sur les étals. La société coréenne Hardkernel développe les Odroid. Dans ce marché des alternatives au Raspberry Pi qui mobilise le maximum d’aura, il faut également compter avec Asus. L’entreprise taïwanaise propose la Tinker Board – lancée le 1er janvier 2017 – que le blogueur Jeff Gerling a comparé au Rpi 3B + et eu l’amabilité de partager ses trouvailles. D’abord, un tableau comparatif pour, de façon brossée, se faire une idée de ce que chacun de ces ordinateurs a dans le ventre. Les différences sautent aux yeux : un processeur quatre cœurs plus performant et deux fois plus de mémoire vive ; le tout pour un facteur de forme qui permet d’utiliser un boîtier de Raspberry Pi comme on peut le voir sur l’image qui suit – Rpi 3B+ et Tinker Board respectivement à gauche et à droite. Dans le détail des cuisines internes de ces ordinateurs on notera que : la Tinker Board est capable d’effectuer des copies de fichiers trois fois plus rapides qu’un Rpi 3B+ au travers de son interface LAN ; le contrôleur de microSD fonctionne à des débits en écriture et en lecture beaucoup plus élevés que celui du Rpi 3B+ (35 % en plus dans le cas de la lecture et de l’écriture de blocs 4k d’après les résultats de benchmark du blogueur) ; la Tinker Board tient mieux la route comme serveur (la carte est capable de gérer un nombre de requêtes bien plus important qu’un Rpi 3B +). Si à tous ces éléments on ajoute le fait que, contrairement au Rpi 3B +, le hardware de la Tinker Board débouche sur une sortie vidéo HDMI compatible H.264 jusqu’à 4K H.265, alors on serait bien tenté de dire que pour 15 $ de plus, la Tinker Board offre un meilleur rapport performance-prix. Mais, le Rpi 3B + a des atouts à faire valoir. Pour ce qui est des aspects liés au matériel, il faut signaler que sa connexion Wi-Fi offre une meilleure bande passante que celle de la TinkerBoard, ce qui lui permet d’effectuer des transferts plus rapides et stables par ce canal. En sus, il y a l’énorme communauté autour des cartes de la fondation Raspberry Pi qui est très probablement le facteur qui joue le plus en faveur de ces dernières. Grosso modo, au-delà des griefs relevés par les lecteurs et auxquels la Tinker Board apporte réponse, Jeff Geerling la conseille pour des cas d’utilisation où l’on a besoin de tirer le maximum de puissance d’un ordinateur monocarte. Dans tous les autres cas de figure, les caractéristiques du Rpi 3B + lui permettront d’être à la hauteur des attentes. Sources Blog
  10. bonjour je recherche la notice/mode d'emploi/manual ( le document , pas le Facebook )pour ce boitier iptv modèle " Q " merci d'avance
  11. Presque tous les jeux sous Windows utilisent DirectX pour leur rendu. Cette technologie de Microsoft fournit une certaine couche d’abstraction des cartes graphiques et facilite l’utilisation de leurs fonctionnalités avancées. Après la version 11, sortie en 2009 avec Windows Vista, DirectX semblait quelque peu stagner : peu d’évolutions, alors que les cartes graphiques ont continué à se perfectionner. Six ans plus tard, avec Windows 10, Microsoft a annoncé DirectX 12, une toute nouvelle génération : l’API cherche plus à exposer directement le matériel qu’à fournir une couche d’abstraction (la différence entre ces deux versions est très similaire à celle entre OpenGL et Vulkan). Malgré ces améliorations techniques, le rendu en lui-même des jeux n’a pas beaucoup changé depuis le début de la 3D sur ordinateur : il se base toujours sur le principe de la matricialisation de l’image (rasterisation). Les objets en 3D sont projetés sur un plan, celui de la caméra, ce qui forme l’image à afficher. Cette opération s’effectue par un produit matriciel, pour lequel les cartes graphiques fournissent une excellente performance. Avec les années et la puissance de calcul, divers effets ont pu être implémentés par-dessus à l’aide de diverses sortes de nuanceurs (shaders) : appliqués par pixel (pixel ou fragment shader), par polygone (geometry shader) ou par sommet (vertex shader), ils peuvent influencer considérablement le rendu et l’amener à un très haut niveau de photoréalisme. Depuis le début, une autre technique de rendu est annoncée : le lancer de rayons (ray tracing). Le principe en est totalement différent : il s’agit de simuler l’entièreté du trajet des rayons de lumière (d’où le nom), entre le moment où ils sont émis par une lumière jusqu’à l’instant où ils franchissent le plan de la caméra, en étant notamment réfléchis sur tout objet se trouvant sur le chemin. Évidemment, le réalisme d’un tel rendu est bien meilleur que par matricialisation, mais demande une puissance de calcul phénoménale — pour afficher ne fût-ce qu’une image, il peut falloir plusieurs heures. C’est la raison pour laquelle les films 3D utilisent le lancer de rayons, sur une batterie d’ordinateurs puissants, depuis plus d’une dizaine d’années (par exemple, Renderman, le moteur de rendu utilisé par le célèbre studio d’animation Pixar, est passé d’un rendu par matricialisation dans les années 1980 à un rendu uniquement par lancer de rayons en 2016). Au niveau matériel, Imagination Technologies avait déjà proposé des cartes graphiques avec une accélération particulière du lancer de rayons, mais avec un succès assez mitigé à l’époque (c’était en 2016). DirectX Raytracing Avec des cartes graphiques de plus en plus puissantes, le rêve d’utiliser le lancer de rayons pour l’entièreté de scènes interactives (où les images doivent être prêtes en une fraction de seconde, car l’utilisateur interagit sans cesse avec l’application — déplacer la caméra, un objet, etc.) persiste depuis des décennies… et pourrait très bientôt devenir réalité ! En effet, la nouveauté principale annoncée cette année par Microsoft lors de la Game developer conference est DXR, l’acronyme de DirectX Raytracing. Il s’agit d’une interface pour réaliser un rendu en temps réel par lancer de rayons. Celle-ci a déjà permis de réaliser un certain nombre de démonstrations technologiques. L’effet sur le rendu est bluffant, surtout quand on le compare à un rendu plus traditionnel. Le lancer de rayons permet ainsi d’afficher des réflexions très précises d’objets qui n’existent pas dans la vue de la caméra. Les réflexions montrées sont entièrement correctes d’un point de vue physique, peu importe la surface considérée. De manière générale, toute la scène profite de ce regain de réalisme. Techniquement, toute la scène n’est pas encore affichée par lancer de rayons — la puissance de calcul n’est pas encore disponible. DirectX Raytracing fonctionne en spécifiant une certaine zone qui doit être affichée par lancer de rayons (souvent bien plus petite que l’écran au complet), par exemple les objets dont la surface est réfléchissante. Le rendu est configuré par un nouveau type de nuanceurs, appliqués pour chaque objet dans la scène, pour indiquer les cas d’intersection entre un rayon et une surface (sans oublier les cas où le rayon rebondit sur plusieurs surfaces). Par ailleurs, Microsoft est déjà prêt au niveau de l’outillage : son débogueur PIX gère nativement l’intégralité des nouvelles fonctionnalités apportées par DirectX Raytracing, bien que de manière expérimentale. Il suffit de mettre à jour sa version de Windows 10 (pour bénéficier de la mise à jour de DirectX, uniquement disponible à ceux en mode fast ring pour le moment), puis d’installer la dernière version de PIX. Côté implémentation Comme pour le reste de DirectX, Microsoft fournit surtout une interface à respecter, une bonne partie du travail doit être faite par les fabricants des cartes graphiques à travers leurs pilotes. La performance dépendra donc fortement de ces implémentations et du matériel disponible. Néanmoins, une implémentation utilisant DirectCompute sera disponible et utilisée chaque fois qu’une implémentation plus spécifique n’est pas disponible — de telle sorte que toute carte graphique compatible DirectX 12 pourra utiliser ce module. Ce mode de fonctionnement pourrait se répéter à l’avenir : selon Microsoft, le futur des cartes graphiques ne se situe pas au niveau d’un matériel spécifique pour des fonctions fixes, mais bien d’opérations flexibles et généralistes. D'un côté, AMD ne se mouille pas trop : un pilote sera disponible dans le futur, mais la compagnie semble se focaliser sur ses solutions pour le lancer de rayons. Ainsi, le moteur de rendu maison Radeon ProRender pourra utiliser ce lancer de rayons en temps réel ; il n'est pas vraiment prévu pour du jeu vidéo, mais plutôt des applications professionnelles. AMD travaille également depuis des mois sur Radeon Rays, une bibliothèque de lancer de rayons pouvant exploiter OpenCL, Vulkan ou encore Embreepour l'accélération matérielle (GPU pour OpenCL et Vulkan, CPU pour OpenCL et Embree), aussi prévu pour des jeux vidéo. NVIDIA semble avoir une longueur d’avance D’un autre côté, NVIDIA travaille depuis très longtemps sur le sujet du lancer de rayons, avec par exemple son moteur OptiX dès 2009 ; la société a également racheté Mental Ray en 2007, devenu depuis lors Iray, un moteur de rendu utilisé dans des applications professionnelles comme la conception par ordinateur (AutoCAD, CATIA, SolidWorks, etc.) ou l’animation (3D Studio Max, Cinema 4D, Maya, Houdini…). Spécifiquement pour DirectX Raytracing, NVIDIA ne parle que de son implémentation RTX : une API spécifique sera disponible, mais RTX sera aussi utilisé derrière DirectX Raytracing. Élément intéressant : RTX fonctionnera particulièrement bien sur les GPU de génération Volta ou plus récente ; pour les joueurs, cela signifie uniquement la Titan V (ou les prochains GPU dont on attend l’annonce depuis longtemps). On peut s’attendre à ce que les nouveaux cœurs tensoriels soient mis à l’épreuve pour ce lancer de rayons. Dernier détail : RTX sera disponible dès la prochaine version des pilotes NVIDIA, la 396. Elle arrivera début avril pour le grand public. Et les jeux, donc ? Plusieurs studios de développement de jeux étaient associés à l’annonce de DirectX Raytracing. Notamment, Unreal Engine intègre déjà cette technologie dans certaines versions de développement, tout comme Unity. Des développeurs comme Epic Games, DICE et Electronic Arts ont déjà annoncé qu’ils intégreront DirectX Raytracing dans leurs moteurs et leurs jeux. On pourrait déjà voir des effets utilisant ces nouvelles possibilités dans des jeux cette année. En manque de détails techniques ? L’annonce détaillée de Microsoft. Le guide de NVIDIA sur l’utilisation de l’API. Téléchargement : SDK DXR, PIX. Sources et images : Futuremark Demonstrates Raytracing Demo with DirectX 12, Random Thoughts on Raytracing, AMD Announces Real-time Ray Tracing Support for ProRender and Radeon GPU Profiler 1.2, Expanding DirectX 12: Microsoft Announces DirectX Raytracing, Announcing Microsoft DirectX Raytracing!, NVIDIA Announces RTX Technology: Real Time Ray Tracing Acceleration for Volta GPUs and Later, Nvidia talks ray tracing and Volta hardware.
  12. Spotify fait la chasse aux applications qui piratent son Premium Alors que se service de streaming musical prépare son introduction en bourse, Spotify s'attaque aux fraudeurs qui utilisent des applications tierces pour obtenir les fonctionnalités des comptes Premium, gratuitement. Par Roch Arène Avant son IPO, Spotify montre les muscles face à ses concurrents (Apple Music en tête) et durcit le ton face aux fraudeurs. Rappelons que le service de streaming musical propose deux offres, la première permet d’écouter gratuitement de la musique, mais avec une qualité sonore réduite, de la publicité et diverses limites. La seconde, dite « Premium » est proposée à 9,99€ / mois, elle offre un accès illimité aux playlists que ce soit sur ordinateur ou smartphone dans une qualité 320 kbit/s (au mieux). Mais comme c’est souvent le cas, des petits malins utilisent des logiciels frauduleux pour tromper l’application et obtenir les fonctionnalités des comptes Premium. Une réponse graduée Résultat, la contre-attaque se prépare enfin, de manière très graduée. La société suédoise demande tout d’abord par mail « de désinstaller toute version non autorisée ou modifiée de Spotify », si toutefois le fraudeur ne s'execute pas, son compte Spotify sera suspendu et l'accès au service sera ainsi coupé. Le site TorrentFreak dédié aux informations sur les torrents, le droit d’auteur ou encore la vie privée indique que d’anciennes versions de Spotify permettent aux utilisateurs non payants de contourner encore certaines limites, comme la lecture aléatoire des pistes ou le nombre de musiques que l’on peut sauter. Autre précision, Spotify serait partie en croisade contre « Dogfood » une version modifiée de son application qui permet justement de contourner certains blocages. Nul doute que cette offensive contre les pirates est liée à la demande d’introduction en bourse déposée fin février. Pour rappel, Spotify revendique 70 millions d’utilisateurs payants et 159 millions d’utilisateurs actifs chaque mois. Spotify se dit deux fois plus gros qu'Apple Music et prépare son entrée en Bourse
  13. Maciej Kocemba, le responsable produit chez Opera, a récemment fait part de la disponibilité de la version 52 bêta du navigateur Opera dans un article de blog. Cette nouvelle version serait dotée d’un bloqueur de publicité amélioré qui permettrait de charger les pages plus rapidement qu’avec Opera 51 ou Google Chrome. D’après Kocemba, le bloqueur de publicités intégré à Opera qui, à l’origine, a été conçu pour fournir des fonctionnalités de sécurité, incluant la protection contre les attaques de cryptojacking, a cette fois-ci été optimisé en se focalisant sur la vitesse de navigation. Les tests réalisés en interne par les équipes d’Opera indiquent que cette nouvelle version serait jusqu’à 16 % plus rapide qu’Opera 51 et jusqu’à 44 % plus rapide que Chrome 64 lorsqu’il s’agit de charger une page Web. Les augmentations de performance évoquées résulteraient d’une amélioration de l’algorithme utilisé. Le navigateur Opera 52 bêta introduit, par ailleurs, une nouvelle fonction qui permet de sélectionner et manipuler plusieurs onglets à la fois. Il suffira désormais de cliquer sur les onglets de votre choix en maintenant la touche Ctrl (⌘ sur macOS) enfoncée pour sélectionner individuellement plusieurs onglets ou de cliquer sur un onglet en maintenant la touche Maj enfoncée pour sélectionner une série d’onglets, de la gauche vers la droite. Il est même possible d’appliquer une commande similaire (dupliquer, épingler, fermer, recharger, couper, enregistrer, etc.) à plusieurs onglets sélectionnés comme s’il s’agissait d’un seul onglet. Notez que, pour fermer un onglet, il suffit désormais de maintenir la touche « alt » en cliquant sur l’onglet cible, alors qu’auparavant il fallait utiliser la touche « Maj » plus un clic sur l’onglet cible pour obtenir le même résultat. Une nouvelle option « Copier l'adresse de la page » qui s’affiche dans le menu contextuel permet comme son nom l’indique de copier les adresses de vos sites Web sélectionnés directement dans le presse-papier afin, par exemple, de les envoyer plus tard à d’autres personnes. En outre, plutôt que d’enregistrer la totalité de votre session de navigation actuelle pour une session future, vous pouvez maintenant spécifier les onglets particuliers que vous souhaitez consulter plus tard dans un dossier. De nouvelles animations permettant de caractériser différents statuts d’erreur lors d’une tentative de connexion ratée ou de problèmes de chargement de pages Web sont également au programme.
  14. Spectre et Meltdown : Intel diffuse un patch pour les CPU de 6e, 7e et 8e générations par BRUNO MATHIEU 24 févr. 2018 14:00 - Source: Intel Les failles Spectre et Meltdown, qui touchent quasiment tous les processeurs de ces dix dernières années, ne sont toujours pas totalement comblées. Pour contrer les effets de Spectre, Intel vient de publier des correctifs dédiés aux processeurs de 6e, de 7e et de 8e générations. Une mise à jour de firmware à destination des architectures Skylake (6e génération), Kaby Lake (7e génération) et Coffee Lake (8e génération) vient d'être publiée par Intel. Notez au passage que cela concerne également les CPU Core X, Xeon Scalable et Xeon D. La bonne nouvelle, c'est qu'il est possible de mettre à jour son PC à l'aide d'un petit programme livré par le constructeur du PC (sans passer par Windows Update, donc). Chez HP par exemple, il suffit de faire appel au logiciel Support Assistant, lequel va se charger de télécharger et d'installer la mise à jour adéquate. Même chose chez Lenovo avec le programme Lenovo Vantage pour Windows 10, avec Asus Manager pour les machines Asus, etc. Rappelons que fondeurs et éditeurs tentent par tous les moyens de minimiser les effets de Spectre et Meltdown, parfois au détriment de la rapidité et de la stabilité du système. En janvier dernier, un patch entraînait même un reboot intempestif sur les plateformes Broadwell et Haswell. La plupart des experts s'accordent à dire que la résolution définitive de ces vulnérabilités ne passera que par une nouvelle architecture matérielle, et que les multiples correctifs logiciels ne pourront jamais les combler totalement. On espère que les nouveaux processeurs Cannon Lake, qui devraient sortir cette année et qui auraient même été déjà livrés à certains constructeurs, s'affranchiront complètement de ce genre de faille. >> Spectre et Meltdown : tous nos conseils pour mettre à jour vos PC, Mac, Android et iPhone
  15. Reprise - Blog Korben - 10-07-17 Oui, mais pas n'importe comment. Il y a un truc simple que vous devez absolument faire sur tous les services que vous utilisez (ou au moins ceux que vous jugez comme cruciaux), c’est activer l’authentification double facteur appelée aussi 2FA. Le concept est simple, une fois activé, en plus de votre mot de passe, on vous demandera un code unique valide sur une durée limitée. Ce code unique est parfois envoyé par email, parfois par SMS, et parfois disponible dans une application dédiée rien qu’à ça. C’est très important d’activer l’authentification double facteur, car en cas de vol de mot de passe (via une attaque man in the middle, un phishing ou autre), il n’y a plus de barrière qui s’oppose au criminel qui veut se connecter sur l’un de vos comptes. Et cela peut avoir des conséquences dramatiques comme le vol d’argent (PayPal, la banque…etc.), ou l’usurpation d’identité (Twitter, Facebook, votre boite mail…etc.). L’envoi de code par SMS ou email est la méthode la plus courante, car la plus commode. Il suffit d’avoir accès à votre boite mail ou à votre carte SIM avec le bon numéro de téléphone et c’est réglé. MAIS si j’écris cet article aujourd’hui, c’est pour vous décourager d’utiliser l’authentification double facteur autrement qu’avec une application dédiée. Prenons d’abord l’exemple de la boite mail. Si un quelqu’un prend le contrôle de votre boite mail, il pourra tout faire, y compris réinitialiser vos mots de passe sur tous vos sites préférés et lorsqu’un code 2FA lui sera demandé, il le recevra direct par mail. Donc ça ou rien c’est presque la même chose. Le code 2FA reçu par SMS est-ce qu’il y a de plus pratique et c’est ce que la plupart des gens choisissent. Il suffit d’avoir accès à une SIM avec son numéro et c’est bon. Évidemment, le jour où vous changez brusquement de numéro de téléphone, vous l’avez dans l’os. Et là, ça dépendra des sites. Pour certains, ce sera mort et perdrez à tout jamais votre compte. Pour d’autre, il y aura toujours moyen de récupérer un mot de passe et de faire sauter le 2FA (mais à quoi bon avoir mis cette protection dans ce cas ?) et dans d’autres cas, l’accès pourra vous être rendu, mais toutes les données de votre compte seront effacées. Ce qui peut aussi être problématique. Mais je vous déconseille aussi d’activer le 2FA par SMS. Pour 2 raisons… La première, c’est que certains ont trouvé le moyen d’exploiter une faille dans le protocole SS7 des réseaux mobiles afin de détourner des SMS. Comme l’explique cet article, des gens se sont fait piller leur compte en banque juste comme ça à cause de cette faille. Mais il n’est pas nécessaire d’aller aussi loin dans la technique quand on peut compter sur la négligence de nos opérateurs téléphoniques (et ça, c’est la seconde raison). En effet, je vois souvent des articles ou des tweets qui expliquent qu’un criminel à trompé le call center d’un opérateur pour se faire envoyer une copie de la carte SIM de sa victime et ainsi lui dérober de l’argent. C’est moche hein. C’est donc aussi pour ça que je vous déconseille de vous faire envoyer vos codes 2FA par SMS. Alors que nous reste-t-il ? Et bien la dernière option, c’est une application qui vous génère des codes 2FA à la volée. Et là sans être infaillible, c’est déjà un peu plus costaud, car si quelqu’un veut accéder à vos comptes, il devra, en plus de récupérer votre mot de passe, vous voler votre téléphone et connaitre le code pour le déverrouiller. Bien sûr si vous n’avez mis aucune sécurité de verrouillage à votre smartphone, que votre application 2FA ne vous réclame pas de code PIN ou de mot de passe et qu’en plus, vos mots de passe de sites web sont enregistrés dans votre navigateur, je ne peux rien faire pour vous. Limite, vous méritez de vous faire piller votre compte bancaire. Notez que quand vous activez l’authentification double facteur pour l’utiliser via une app, il faut être très précautionneux. En effet, le site vous fournira une clé ou un QR code qu’il faudra conserver en sécurité quelque part pour que si vous perdez votre téléphone ou que vous le formatez, vous puissiez toujours accéder à votre compte. Il existe masse d’applications 2FA donc loin de moi l’idée de vous en conseiller une ultime… Mais évitez Google Authenticator ou FreeOTP qui ne permettent pas de configurer un code de verrouillage (Pin ou mot de passe). Évitez aussi toutes les apps qui vous force à stocker vos configs 2FA dans le cloud en échange de la création d’un compte chez eux. De toutes celles que j’ai testées, mes préférées sont Authy et LastPass Authenticator (qui propose un backup sur votre compte Lastpass, mais vous n’êtes pas obligé de l’activer). Voilà… Donc pour résumer : Activez l’authentification 2FA partout si c’est dispo. Ne demandez jamais à recevoir de code 2FA par email. Ne demandez jamais à recevoir de code 2FA par SMS. Utilisez uniquement une application 2FA qui propose une protection PIN ou mot de passe. Évitez les applications qui stockent vos 2FA dans le cloud. Pensez bien à conserver en lieu sûr vos clés secrètes ou QR code 2FA pour les réactiver en cas de perte, de panne ou de formatage de votre mobile. Vous pouvez aussi opter pour les systèmes 2FA physiques mais cela fera l’objet d’un probable autre article car je n’en ai pas encore testé réellement.
  16. Par Louis Adam | Mercredi 14 Février 2018 La faille permettait à des attaquants de faire passer des fichiers malveillants envoyés via l’application pour de simples images. Le terme de faille zero day désigne l’ensemble des failles inconnues de l’éditeur et qui n’ont donc pas de correctif disponible. Le terme est aujourd’hui fortement connoté et est fréquemment employé pour designer certaines vulnérabilités exploitées par des cybercriminels de haut vol ou des agences de renseignement qui souhaitent contourner les protections mises en place par l’utilisateur. Il est également utilisé par les entreprises de sécurité qui veulent mettre en lumière leur dernière découverte. Kaspersky explique ainsi avoir découvert une faille de sécurité zero day au sein de l’application desktop de Telegram. Comme le relate l’éditeur antivirus, celle-ci résidait dans la façon dont l’application gérait l’un des caractères spéciaux prévus par unicode : la « marque droite-gauche. » Ce caractère invisible est utilisé par Unicode afin de signaler à la machine que les prochains caractères doivent être affichés de droite à gauche et non l’inverse comme c’est souvent le cas dans les langues occidentales. Les noms de fichier ont un sens Comme le montre Kaspersky, ce caractère peut être utilisé pour dissimuler un fichier malveillant en dissimulant le véritable nom et l’extension de celui-ci. Ainsi, il devient possible de dissimuler un fichier JavaScript en lui donnant l’apparence d’une simple image : la chaine de caractère « photo_high_re*U+202E*gnp.js », ou U+202E désigne en Unicode la marque droite gauche, sera affiché « photo_high_resj.png » par l’application Telegram. Si un utilisateur sera probablement découragé de cliquer sur un fichier .js, qui désigne un programme en JavaScript, l’affichage d’un .png est en revanche nettement moins alarmant. Lorsque l’utilisateur clique sur le lien envoyé, un avertissement s’affiche néanmoins pour indiquer à l’utilisateur qu’il s’apprête à ouvrir un programme non signé numériquement et qu’il s’expose donc au danger. Selon Kaspersky, un groupe de cybercriminels emploie cette technique depuis le milieu de l’année dernière afin de disséminer des programmes malveillants à l’insu des utilisateurs : Kaspersky explique avoir découvert plusieurs cas ou les programmes étaient des mineurs de cryptomonnaies, qui utilisent le processeur de la cible à son insu pour miner des cryptomonnaies pour le compte des attaquants, ou bien pour installer une backdoor sur l’appareil de la cible afin de voler des données. Kaspersky est ainsi parvenu à découvrir un répertoire FTP stockant des messages privés dérobés par le groupe d’attaquant à travers leurs logiciels malveillants : ceux-ci sont néanmoins chiffrés, ce qui signifie que les attaquants n’ont pas pu les lire. Kaspersky a informé Telegram de la situation et l’application a corrigé le problème. Au vu de la nature de la faille, le terme de 0day parait ici presque galvaudé : le problème réside dans un bug d’affichage, problématique, mais qui ne remet pas en question le chiffrement offert par Telegram sur les messages privés. Telegram n’était pas au courant de ce problème d’affichage, ce qui permet à Kaspersky d’utiliser le terme Zero Day. En lisant le descriptif, on reste un peu sur sa faim malgré la sophistication de l’astuce. L’affichage d’un message d’alerte Windows lors de l’exécution du programme malveillant offrait une couche de sécurité supplémentaire qui aurait pu mettre la puce à l’oreille des victimes. De plus, la faille en question n’affectait que la version Windows de l’application. On saluera néanmoins la créativité des cybercriminels qui ont exploité cette particularité d’unicode autrement que pour enregistrer des noms de domaines frauduleux, domaine où les manipulations avec unicode restent rois.
  17. En France, environ 150 millions de portables inutilisés dorment dans un tiroir. Est-ce aussi le cas de votre ancien smartphone Android ? Nous vous proposons de lui donner une seconde jeunesse en le transformant en caméra de surveillance. "Attention, vous êtes filmés !" Voici ce que vous pourrez annoncer en guise de plaisanterie à vos invités lorsqu’ils passeront le pas de votre porte. En plus de vanter votre ingéniosité et vous faire passer pour un véritable "geek", vous pourrez sécuriser votre habitation. Génial non ? D’autant plus qu’avec une application gratuite et un pied pour mobile, transformer votre ancien smartphone Android en caméra de surveillance Wi-Fi devient un jeu d’enfant. Pratique, pour surveiller les enfants, pour déterminer qui du chien ou du chat à renverser la poubelle, ou simplement pour partir en vacances l’esprit léger. Téléchargez une application gratuite caméra IP Faîtes de votre mobile une caméra Wi-Fi gratuite. Sur Google Play Store, une multitude d’applications de ce type vous sera proposée : Camera Live Viewer Cams IP, IP Cam Viewer Lite, Picket caméra de sécurité, Videosurveillance Ivideon, At Home Camera… Nous vous conseillons de télécharger AtHome Video Streamer, car celle-ci est accessible depuis plusieurs plateformes (ordinateurs PC, iPhone, iPad mais aussi mobile et tablette Android). Une fois celle-ci installée, lancez-la et créez votre compte, afin d’y sécuriser l’accès. Associez votre ancien smartphone à votre nouveau mobile Munissez-vous ensuite de votre nouveau smartphone ou tablette Android (cela marche également sur PC) et installez-y l’application AtHome Camera. Joignez à présent les deux applications en suivant la procédure suivante. Cela vous permettra d’afficher les images prises par votre vieux smartphone sur votre nouvel appareil. • Via AtHome Video Streamer, cliquez sur le bouton "Generate QR Code for this camera". • Lancez ensuite AtHome Camera sur votre nouveau téléphone en vous assurant d’être connecté à Internet. • Appuyez à présent sur le bouton "Menu" puis sur la rubrique "Add by QR Code". • Placez maintenant la caméra de votre mobile devant le QR Code afin de le scanner. La connexion devrait se faire automatiquement. • Pour terminer, cliquez sur "New" et sélectionnez dans la liste proposée le nom de votre mobile. Victoire ! L’image prise par votre webcam Wi-Fi devrait s’afficher sur votre écran. Les différentes icônes situées en bas de la fenêtre vous permettront d’enregistrer la séquence vidéo, d’écouter ce qui se passe via le micro de votre mobile ou encore d’activer ou désactiver à distance le flash. Un bon moyen de garder un œil sur votre domicile, n’importe où, et à n’importe quel moment de la journée, ou de la nuit. <--EDIT: Testé et fonctionnel, mais gratuit = pubs... -->
  18. La 5G se profile, des tests sont prévus dans 9 villes françaises en 2018 Pour préparer l’arrivée de la 5G, l’Arcep ouvre un guichet « pilotes 5G » accessible à tout type d’acteurs. Dès cette année, celle qui succèdera à la 4G, sera testée dans 9 villes dans l’hexagone sur la bande 3400-3800 MHz. Si le gouvernement a lancé une consultation publique sur les technologies 5G afin de construire une stratégie nationale, La 3GPP (3rd Generation Partnership Project), comprendre ici la coopération entre organismes de standardisation en télécommunications, a validé en décembre dernier la norme « Non-Standalone 5G », une ratification d’un premier standard qui ne sera pas définitif puisque celui-ci permet aux opérateurs d’exploiter la 5G sur un réseau 4G. Dans ce contexte, l’Arcep lance aujourd’hui un guichet pour la réalisation de pilotes 5G. Dès à présent, le régulateur peut délivrer des autorisations d’utilisation de fréquences, à titre transitoire, pour développer des pilotes 5G. Dans la bande 3400-3800 MHz, des fréquences sont déjà disponibles dans les agglomérations de Lyon, Bordeaux, Nantes, Lille, Le Havre, Saint-Étienne, Douai, Montpellier et Grenoble. C’est dans ces 9 métropoles que va donc être testée la 5G cette année, sur une durée de 18 à 24 mois. Sébastien Soriano a d’ailleurs appelé hier "les opérateurs mobiles mais aussi les acteurs d’infrastructures d’énergie, routière, portuaire, ferroviaire et les industriels" à participer à cette phase de test. Le président de l’Arcep a également souligné que la 5G est en cours de normalisation et qu’elle ne sera pas disponible avant 5 ans. Pourtant Orange a dévoilé récemment son nouveau calendrier de déploiement de cette nouvelle technologie. L’opérateur historique prévoit de couvrir une première ville, probablement en France dès 2019 conformément au souhait de la Commission européenne vis à vis des opérateurs, à savoir un déploiement sur au moins une grande ville par pays européen à l’horizon 2020. Le processus s’accélère donc, Orange débutera les déploiements commerciaux de la 5G dans l’hexagone au compte-gouttes à partir de 2020, a t-il informé. source
  19. Ceci est un rappel des normes en vigueur en juillet 2017. Le Wi-Fi est partout : des ordinateurs à certaines montres connectées en passant par les smartphones et les tablettes. La quasi-totalité de nos appareils électroniques possède une puce Wi-Fi, mais elles ne se valent pas toutes. Que ce soit la norme utilisée ou le nombre d’antennes, les débits peuvent être multipliés par plus de 100 ! Petit tour d’horizon des différentes solutions Wi-Fi proposées par les constructeurs sur les terminaux mobiles. Le Wi-Fi a vu le jour à la fin des années 90. A l’époque, on ne parlait pas encore de Wi-Fi mais on trouvait l’AirPort d’Apple dans l’iBook en 1999. Quelques années plus tard, le terme Wi-Fi se généralisait pour l’ensemble des normes 802.11 dont la certification est prise en charge par la WECA (devenue Wi-Fi Alliance). Le Wi-Fi couvre de nombreuses normes différentes qui ont toutes le préfixe 802.11. Un suffixe sous forme de lettre permet de distinguer les normes entre elles. Pour les particuliers, il existe en tout cinq normes différentes : 802.11a/b/g/n/ac. Chacune représente une évolution par rapport à la précédente. Intéressons- nous de plus près à leurs spécificités ! 802.11 Fréquence Débit théorique max Portée Congestion Largeur canal MIMO Bande de fréquence Débit théorique maximal Portée Congestion Largeur canal a 5 GHz 54 Mbps Faible Faible 20 MHz Non b 2,4 GHz 11 Mbps Correcte Elevée 20 MHz Non g 2,4 GHz 54 Mbps Correcte Elevée 20 MHz Non n 2,4 GHz De 72 à 288 Mbps Bonne Elevée 20 MHz Non n 5 GHz De 72 à 600 Mbps Correcte Faible 20 ou 40 MHz Oui ac (Wave 1) 5 GHz De 433 à 1300 Mbps Correcte Faible 20, 40 ou 80 MHz Oui ac (Wave 2) 5 GHz De 433 à 2600 Mbps Correcte Faible 20, 40, 80 ou 160 MHz Oui (+MU-MIMO) Comme on peut le voir dans le tableau ci-dessus, il existe énormément de débits théoriques différents. Avant d’entrer davantage dans les détails, il faut noter que le débit relevé en pratique est largement inférieur au débit théorique maximal.Cela est dû au fonctionnement du protocole 802.11. De plus, le débit est fortement dépendant de la distance entre les appareils mais également des obstacles (comme les murs) qui se dressent sur le passage. Dans le meilleur des cas, il faut compter sur un débit pratique environ deux fois inférieur au débit théorique. Et dans le pire des cas (murs, interférences), le débit peut littéralement s’effondrer jusqu’à une perte de signal. Wi-Fi 802.11b : les débuts Le Wi-Fi a donc fait ses débuts en 1999 avec les normes 802.11a destinée à l’entreprise et 802.11b destinée aux particuliers. Le Wi-Fi B exploite la bande des 2,4 GHz et une modulation DSSS avec laquelle il plafonne à 11 Mb/s. Le Wi-Fi A exploite quant à lui la bande des 5 GHz et une modulation OFDM qui lui permettent d’atteindre 54 Mb/s. Rappelons, et c’est une vérité générale, que plus la fréquence est basse, plus le signal porte, mais en contrepartie plus il est soumis aux interférences. Non seulement aux interférences d’autres réseaux Wi-Fi, en l’occurrence, mais aussi et surtout à celles d’autres signaux, la bande des 2,4 GHz étant aussi celle du Bluetooth, des téléphones sans-fil DECT et… des micro-ondes. Wi-Fi 802.11g : l’unification Le Wi-Fi G remplace à lui seul les Wi-Fi A et B en 2003. La norme IEEE 802.11g associe effectivement la modulation OFDM plus performante du Wi-Fi A à la bande de fréquences 2,4 GHz du Wi-Fi B, ce qui permet d’offrir au grand public le débit maximal théorique de 54 Mb/s du Wi-Fi A, avec la portée supérieure du Wi-Fi B, tout en assurant la rétro-compatibilité avec les équipements Wi-Fi B pré-existants. Le Linksys WRT54G, routeur Wi-Fi emblématique de l’ère Wi-Fi G Wi-Fi 802.11n : la montée en débit L’IEEE 802.11n est une révision majeure qui décuple littéralement le débit maximal théorique. La norme apporte pour ce faire deux évolutions : la technologie MIMO et une bande passante doublée. Le Wi-Fi N peut fonctionner avec une bande de 20 MHz de large, comme auparavant — auquel cas il délivre un maximum de 72,2 Mb/s — et désormais de 40 MHz de large. Le débit étant proportionnel à la bande passante, comme avec la 4G, un flux de 40 MHz est deux fois plus rapide qu’un flux de 20 MHz, soit 150 Mb/s. MIMO signifie Multiple Input Multiple Output. Comme son nom l’indique, cette technologie permet au Wi-Fi d’exploiter simultanément plusieurs flux. On parle par exemple de MIMO 2×2 pour deux antennes en émission et deux en réception, ce qui double le débit par rapport à une configuration sans MIMO, soit 300 Mb/s avec 40 MHz. Le Wi-Fi N peut atteindre du MIMO 4×4, soit un maximum absolu de 600 Mb/s. Wi-Fi 802.11ac : jusqu’à 2600 Mbps Le Wi-Fi AC est la base en 2017. Il multiplie encore les débits en améliorant chacune des techniques de transmission employée : compte-tenu de la largeur de canal, le Wi-Fi AC ne fonctionne que sur la bande des 5 GHz, les points d’accès basculent en Wi-Fi N sur la bande des 2,4 GHz le beamforming, qui permet aux points d’accès d’orienter les ondes vers les terminaux, est désormais standardisé la modulation passe du 64QAM au 256QAM, ce qui augmente la bande passante de 25% nouvelles largeurs de canal de 80 MHz et de 160 MHz, ce qui double et quadruple la bande passante par rapport aux 40 MHz maximum du Wi-Fi N jusqu’à 8 flux en MIMO, ce qui double encore la bande passante par rapport aux 4 flux maximum du Wi-Fi N prise en charge du Multi-user (le MU de MU-MIMO), qui permet aux points d’accès de communiquer avec plusieurs terminaux simultanément, plutôt que tour à tour (à très haute fréquence) L’IEEE a spécifié le 802.11ac, mais la Wi-Fi Alliance a certifié les appareils en deux vagues. On a donc vu les premiers appareils 802.11ac Wave 1 dès 2014. Limités au Single User et à 3 flux de 80 MHz, ils délivraient déjà une bande passante maximale de 1300 Mb/s (433 Mb/s par flux de 80 MHz) Depuis 2017, on trouve des produits 802.11ac Wave 2 compatibles Multi User avec 4 flux de 80 MHz, qui permettent d’atteindre 1733 Mb/s par appareil. Certains appareils revendiquent 2166 Mb/s, mais c’est avec une modulation 1024QAM qui n’est pas standardisée, ce qui peut poser des problèmes d’interopérabilité entre équipements de marques différentes. Il n’en existe encore aucun mi-2017, mais à terme on trouvera des appareils avec 8 flux ou avec 160 MHz, ce qui portera le débit maximal théorique à… 6,9 Gb/s ! Un routeur « AC5300 » (addition des débits sur 3 bandes) bardé d’antennes Wi-Fi 802.11ad : le très haut débit à très courte portée Vient ensuite le Wi-Fi AD, qui n’est pas tant le successeur du Wi-Fi AC qu’une norme complémentaire. L’IEEE 802.11ad a d’ailleurs été ratifié avant l’IEEE 802.11ac et jouit de sa propre WiGig Alliance, littéralement alliance pour le sans-fil Gigabit. Comme son nom l’indique, le WiGig atteint avec un seul flux des débits exprimés en gigabits par seconde. Il fonctionne pour ce faire à très haute fréquence, sur la bande des 60 GHz, avec une largeur de canal de… 2160 MHz. Le Wi-Fi AD ne traverse donc pas les murs, il peut tout juste se réfléchir contre les surfaces pour atteindre des appareils en vue indirecte. Sa portée maximale est de 10 mètres. En pratique, un mode Single Carrier offre un débit maximal de 4,6 Gb/s, et un mode OFDM triple bande exploitant aussi les bandes 2,4 et 5 GHz offre un débit maximal de 7,2 Gb/s. En 2017, le WiGig sert essentiellement à concevoir des stations d’accueil sans fil pour ordinateurs portables professionnels. Les débits très élevés permettent de raccorder un ou deux écrans et des périphériques USB. Pour les réseaux locaux, on se contente encore du Wi-Fi AC. La compatibilité entre toutes ces normes Dans le meilleur des mondes, toutes ces normes seraient compatibles entre elles. Malheureusement, nous sommes dans le monde de l’informatique, et l’interopérabilité entre toutes les normes est parfois délicate. Tout d’abord, si le routeur est configuré sur la bande des 5 GHz, il ne sera pas visible par les appareils de la bande des 2,4 GHz et vice versa. Pour outrepasser cette limitation, la plupart des routeurs sont dual-band pour que l’utilisateur puisse configurer deux réseaux Wi-Fi différents : un sur la bande des 2,4 GHz et un autre sur celle des 5 GHz. Mis à part cette contrainte, toutes les normes Wi-Fi évoquées dans cet articles sont rétrocompatibles entre elles. Du moment que les deux appareils sont situés sur la même bande de fréquence, l’appareil qui supporte la norme la plus récente (ou plus performante) s’adaptera à la norme la plus ancienne (ou moins performante). Par exemple, un smartphone Wi-Fi 802.11g pourra se connecter à un routeur ac si ce dernier est dual-band et possède donc un réseau sur la bande des 2,4 GHz. Et dans la pratique ? Toutes ces normes et ces débits théoriques sont bien jolis, mais dans la pratique, qu’est-ce que ça donne ? Comme nous l’avons déjà abordé dans l’article, par rapport au débit théorique, le débit pratique est à peu près divisé par deux, même si l’appareil se trouve à côté du routeur. Avec un smartphone ou une tablette, les usages s’orientent de plus en plus vers le visionnage de contenu multimédia comme les vidéos ou le streaming musical. Pour ce dernier, le Wi-Fi 802.11g devrait suffire. En revanche, pour la lecture de flux Full HD, le Wi-Fi 802.11n peut se révéler nécessaire afin d’éviter les micro-coupures. De plus, si vous avez la fibre, votre connexion Internet débite au moins du 100 Mbps. Il serait donc dommage de la brider avec du Wi-Fi trop lent. Le Wi-Fi 802.11n sur un flux monte à environ 70 Mbps en pratique, il faudra donc au moins du Wi-Fi 802.11ac pour profiter pleinement de la fibre. Et encore, c’est sans compter sur les offres Gigabits qui nécessitent alors le Wi-Fi 802.11ac dans sa toute dernière version. La Livebox d’Orange Le Wi-Fi sur les ordinateurs et smartphones Concernant les ordinateurs portables, la situation est un peu différente puisqu’ils intègrent souvent plusieurs flux spatiaux. Les plus haut de gamme comme les MacBook Pro 15 pouces avec touch bar intègrent trois flux (trois antennes), ce qui permet d’atteindre les 1300 Mbps théoriques. Mais le MacBook Pro 13 pouces sans touch bar, lui n’intègre que 2 antennes et se voit donc limité à 867 Mbps théoriques. En tout cas, pour profiter de ces 3 antennes, il faut également que le routeur supporte lui aussi les 3 flux spatiaux, ce qui n’est pas le cas de toutes les box des opérateurs. En effet, seule la Livebox 4, sortie il y a quelques mois supporte le MU-MIMO avec 4 antennes en réception sur la bande 5 GHz. Dans les autres cas, il vous faudra acheter un routeur compatible, dont le prix peut vite grimper. Au final, à moins d’être prêt à acheter un routeur compatible et avoir des besoins énormes en débit le Wi-Fi 802.11ac Wave 1 représente toujours pour le moment le meilleur compromis en terme de débit-prix. Cependant, ceux qui veulent un smartphone ou une tablette qui supporte dès aujourd’hui la norme 802.11ac Wave 2 verront leur choix limité. Actuellement, une cinquantaine d’appareils mobiles sont compatibles MU-MIMO comme on peut le voir sur le site de Qualcomm. On peut citer les Galaxy S7 de Samsung ou encore le OnePlus 3, mais également des appareils plus anciens comme le Moto G premier du nom avec son Snapdragon 400. Source
  20. PowerShell ou Windows PowerShell est une suite logicielle développée par Microsoft qui intègre une interface en ligne de commande, un langage de script nommé PowerShell ainsi qu'un kit de développement. Il est inclus dans Windows 7 à Windows 10 (y compris les versions grand public) et s'appuie sur le framework Microsoft .NET. Avec le passage de .NET Framework à .NET Core, Microsoft a décidé de développer une version de PowerShell qui va utiliser .NET Core 2.0 comme runtime et non .NET Framework. C’est ainsi qu’en août 2016, le géant du logiciel a annoncé le passage de PowerShell en open source et lancé PowerShell Core. Après quelques préversions, Microsoft a annoncé hier la disponibilité générale et la prise en charge de PowerShell Core 6.0. Il s'agit de la première version de la nouvelle édition de PowerShell qui est multiplateforme, open source et conçue pour les environnements hétérogènes et le cloud hybride. « PowerShell Core est un outil / framework d'automatisation et de configuration multiplateforme (Windows, Linux et macOS) qui fonctionne bien avec vos outils existants et qui est optimisé pour traiter les données structurées (par exemple JSON, CSV, XML, etc.), les API REST et des modèles d'objets. Il comprend un shell en ligne de commande, un langage de script associé et une infrastructure pour le traitement des cmdlets », explique Microsoft sur la page GitHub du projet. Il s’agit en fait d’un fork de la base de code de PowerShell (version 5.1) auquel des changements ont été apportés pour en faire un outil multiplateforme. La différence entre Windows PowerShell et PowerShell Core Il y a maintenant deux éditions de PowerShell : Windows PowerShell qui est l'édition de PowerShell basée sur .NET Framework (parfois appelé "FullCLR") ; et PowerShell Core qui est l'édition de PowerShell construite sur .NET Core (parfois appelé simplement "CoreCLR"). Windows PowerShell : c'est le PowerShell qui a été largement utilisé pendant la dernière décennie. Mais en raison de sa dépendance à .NET Framework, Windows PowerShell n'est disponible que sous Windows ; les versions publiées de Windows PowerShell incluent les versions 1.0, 2.0, 3.0, 4.0, 5.0 et 5.1 ; Windows PowerShell est disponible en tant que composant intégré dans le client Windows et Windows Server ; Windows PowerShell est lancé en tant que powershell.exe ; sur Windows PowerShell 5.0/5.1, la valeur de $PSVersionTable.PSEdition est définie à Desktop ; toute utilisation des fonctionnalités basées sur .NET (par exemple, applets de commande C#, Add-Type et invocation de méthodes .NET statiques) repose sur l'environnement d'exécution .NET Framework. Cela signifie que l'utilisation de .NET par Windows PowerShell est limitée aux fonctionnalités exposées par .NET Framework et .NET Standard. PowerShell Core : il est multiplateforme, disponible sur Windows, macOS et Linux, grâce à la nature multiplateforme de .NET Core ; PowerShell Core est lancé en tant que pwsh.exe sous Windows et pwsh sous macOS et Linux sur PowerShell Core, la valeur de $PSVersionTable.PSEdition est définie à Core ; il faut noter que bien que PowerShell Core 6.0 soit multiplateforme, il existe également un PowerShell Core 5.0/5.1 publié exclusivement en tant que partie de Microsoft Nano Server ; toute utilisation des fonctionnalités basées sur .NET (par exemple, applets de commande C#, Add-Type et invocation de méthodes .NET statiques) repose sur l'environnement d'exécution .NET Core. Cela signifie que PowerShell Core est limité aux fonctionnalités exposées par .NET Core et .NET Standard. Pour ceux qui se demandent si PowerShell Core pourrait affecter leur installation de Windows PowerShell, il faut préciser que PowerShell Core peut complètement fonctionner côte à côte avec Windows PowerShell sans l'affecter, et le nom binaire de PowerShell Core a été également changé de powershell(.exe) en pwsh(.exe). Cette modification fournit aux utilisateurs un moyen déterministe d'exécuter PowerShell Core sur des machines pour prendre en charge les installations Windows PowerShell et PowerShell Core côte à côte. Plateformes supportées par PowerShell Core PowerShell Core est officiellement pris en charge sur les plateformes suivantes : Windows (7, 8.1 et 10), Windows Server (2008 R2, 2012 R2, 2016), Windows Server Semi-Annual Channel, Ubuntu (14.04, 16.04 et 17.04), Debian (8.7+ et 9), CentOS 7, Red Hat Enterprise Linux 7, OpenSUSE 42.2, Fedora 25 et 26 et macOS 10.12+. La communauté PowerShell Core a également contribué avec des paquets pour les plateformes suivantes, mais ils ne sont pas officiellement pris en charge : Arch Linux, Kali Linux, AppImage (fonctionne sur plusieurs plateformes Linux). Microsoft a également des versions expérimentales (non supportées) pour les plateformes suivantes : Windows sur ARM32/ARM64, Raspbian (Stretch). PowerShell Core et les modules Pour les modules qui fonctionnent avec PowerShell Core, Microsoft explique dans une FAQ qu'avec la sortie de PowerShell Core 6.0, ont été livrés les ensembles de modules intégrés suivants : CimCddlets Microsoft.PowerShell.Archive Microsoft.PowerShell.Diagnostics Microsoft.PowerShell.Host Microsoft.PowerShell.Management Microsoft.PowerShell.Security Microsoft.PowerShell.Utility Microsoft.WSMan.Management PackageManagement PowerShellGet PSDesiredStateConfiguration PSDiagnostics PSReadLine Vous pouvez parcourir la référence de ces modules via le PowerShell Module Browser. Pour voir les commandes disponibles dans ces modules, vous pouvez aussi lancer Get-Command : Get-Command -Module Microsoft.PowerShell.Management. Microsoft précise toutefois que certaines applets de commande fournies avec Windows PowerShell dans ces modules ne sont pas disponibles aujourd'hui dans PowerShell Core. Pour les modules first-party de Microsoft, à moins qu'ils soient explicitement pris en charge, il n'existe aucune garantie qu'ils fonctionneront avec PowerShell Core. Ces modules appartiennent généralement à l'une des trois catégories suivantes : modules livrés avec le client Windows ou Windows Server ; modules livrés en tant que partie d'un produit Microsoft ; modules livrés sur la galerie PowerShell. Microsoft assure toutefois qu'en raison des garanties de .NET Standard et CDXML, de nombreux modules conçus pour Windows PowerShell sont hautement compatibles avec PowerShell Core. Il faut également savoir que les modules de la galerie PowerShell qui fonctionnent avec PowerShell Core peuvent être trouvés en faisant une recherche dans la galerie pour le tag PSEdition_Core. Avenir de Windows PowerShell Qu'adviendra-t-il à présent de Windows PowerShell ? À cette question, Microsoft a répondu que Windows PowerShell est toujours utile et pris en charge. Les versions 3.0, 4.0 et 5.1 continueront d'être prises en charge sur les versions prises en charge de Windows et de Windows Server. Microsoft rappelle aussi que bien que Windows PowerShell 2.0 soit toujours supporté, il est désormais déconseillé. Il est donc recommandé de migrer les charges de travail vers les versions plus récentes de PowerShell. Pour revenir à l'avenir de Windows PowerShell, Microsoft note cependant qu'il n'est actuellement pas prévu de lui apporter de nouvelles fonctionnalités. Cela signifie, d'après l'équipe PowerShell que le risque de régression sera très faible pour Windows PowerShell, et que vous pouvez donc le considérer comme une plateforme stable pour vos charges de travail existantes. Rappel : une extension PowerShell pour Visual Studio Code disponible depuis quelques mois Jusqu’à l’ouverture de PowerShell, Windows PowerShell Integrated Scripting Environment (PowerShell ISE) a été l'éditeur officiel de PowerShell pendant la majeure partie de l'histoire de Windows PowerShell. Mais maintenant, avec l'avènement de la version multiplateforme de PowerShell (PowerShell Core), il fallait trouver un nouvel éditeur officiel qui serait disponible sur tous les OS et versions d'OS supportés. Visual Studio Code a été choisi pour être cet éditeur et depuis lors, l’équipe PowerShell a commencé à développer une extension pour permettre aux développeurs d’écrire et déboguer les scripts PowerShell en utilisant Visual Studio Code. En mai dernier, Microsoft a annoncé la disponibilité de la version 1.0 de l'extension PowerShell pour Visual Studio Code sur Windows, macOS et Linux. Cette extension fournit un riche support du langage PowerShell dans l’éditeur de code et vient avec un certain nombre de fonctionnalités, y compris : la mise en évidence de syntaxe et un formateur de code hautement configurable basé sur les meilleures pratiques de la communauté ; les snippets de code ; IntelliSense pour les cmdlets ; l'analyse de script intégrée fournie par PowerShell Script Analyzer, un analyseur de code statique pour les modules et scripts Windows PowerShell ; Go to Definition pour les cmdlets et variables ; Find References pour les cmdlets et variables ; exécution d’une sélection du code PowerShell à l'aide de la touche F8 ; lancement de l'aide en ligne pour le symbole sous le curseur en utilisant Ctrl+F1 ; expérience de développement interactive de style PowerShell ISE avec la console PowerShell intégrée ; etc. Il faut toutefois préciser que PowerShell ISE restera – et il n’y a aucune intention de le supprimer – dans Windows avec le support de Windows PowerShell. Sources : Blog de l’équipe PowerShell, Nouveautés dans PowerShell Core 6.0
  21. Le MIT Technology Review nous donne ses prédictions. MIT Technology Review est un magazine américain publié par Technology Review, Inc, une société de médias appartenant au Massachusetts Institute of Technology (MIT). Il se focalise sur les technologies émergentes. Alors que nous commençons une nouvelle année, le MIT Technlogy Review a publié ses prédictions en matière de cybermenaces, en se basant notamment sur les attaques qui se sont récemment produites dans l'espace cybernétique, mais aussi sur l'avis de certains experts en cybersécurité. Au vu des évènements passés, on retient que les hackers recherchent constamment de nouvelles cibles et affinent les outils qu'ils utilisent pour casser les cyberdéfenses. Pour l'année 2018, il y a, d'après le magazine du MIT, six cybermenaces que nous devons vraiment prendre au sérieux et surveiller. Elles partent des piratages propulsés par l'intelligence artificielle à la falsification des systèmes de vote de certains pays. Encore plus de violations massives de données L'année 2017 a été marquée par la cyberattaque de grande envergure de la société d'évaluation de la cote de crédit Equifax. Cela a entraîné le vol de numéros de sécurité sociale, de dates de naissance et d'autres données sur près de la moitié de la population américaine. « Cela nous montre que les pirates informatiques réfléchissent beaucoup quand il s'agit de leurs cibles », explique Martin Giles, chef du bureau de San Francisco du MIT Technology Review. Ce genre d'attaques contre les courtiers de données est susceptible de se produire plus fréquemment en 2018. C'est d'ailleurs ce que pense Marc Goodman, expert en sécurité et auteur de Future Crimes. « Les courtiers en données qui détiennent des informations sur des choses telles que les habitudes personnelles de navigation des internautes seront des cibles particulièrement populaires », rapporte Martin Giles. Ransomware dans le cloud Les douze derniers mois ont aussi été marqués par une vague d'attaques de ransomware, avec des cibles comme le National Health Service (NHS) britannique, le réseau de tramway de San Francisco et de grandes entreprises telles que FedEx. Le ransomware est une forme de malware tellement répandue aujourd'hui qu'il n'est plus vraiment à présenter, du moins pour ceux qui s'intéressent un peu à l'actualité informatique. Après avoir infecté une machine, il verrouille les fichiers de sa victime en utilisant un chiffrement plus ou moins fort. Les hackers demandent ensuite de l'argent en échange de clés numériques pour déchiffrer les données. Les victimes paieront souvent, surtout si le contenu chiffré n'a pas été sauvegardé sur un autre dispositif. Cette forme de malware a de la cote auprès des pirates informatiques, qui exigent souvent des paiements dans des cryptomonnaies difficiles à retracer. Certains ransomwares comme WannaCry ont pu compromettre des centaines de milliers d'ordinateurs. En 2018, la croissance des ransomwares est susceptible d'être plus forte, d'après le MIT Technology Review. Et l'une des grandes cibles cette année sera les entreprises de cloud computing, qui hébergent des quantités énormes de données pour les entreprises. Certaines d'entre elles gèrent également des services dédiés aux consommateurs tels que les photothèques et les emails. Martin Giles estime que les plus grands opérateurs de cloud computing, tels que Google, Amazon, Microsoft et IBM, ont embauché certains des plus grands cerveaux en matière de sécurité informatique. Il sera donc très difficile de compromettre leurs plateformes. Mais les petites entreprises de cloud computing sont quant à elles susceptibles d'être plus vulnérables, et même une violation modeste pourrait générer des revenus importants pour les pirates impliqués. Militarisation de l'IA Cette année verra aussi l'émergence d'une course aux armements basée sur l'IA. Les entreprises de sécurité et les chercheurs utilisent depuis un certain temps des modèles d'apprentissage automatique, des réseaux de neurones et d'autres technologies de l'IA pour mieux anticiper les attaques et repérer celles qui sont déjà en cours. Mais il est fort probable que les pirates adoptent la même technologie pour riposter. « L'IA donne malheureusement aux attaquants les outils pour obtenir un retour sur investissement beaucoup plus important », explique Steve Grobman, directeur de la technologie chez McAfee. Un exemple cité par le magazine du MIT est le spear phishing qui utilise des messages fortement personnalisés pour inciter les cibles à installer des logiciels malveillants ou à partager des données sensibles. Martin Gilles estime que les modèles d'apprentissage automatique peuvent maintenant désormais égaler les humains dans l'art d'élaborer des faux messages pour convaincre leurs cibles. Mieux encore, l'IA peut en produire beaucoup plus sans se fatiguer. Les pirates informatiques vont donc en profiter pour augmenter le nombre d'attaques de phishing. Ils sont par ailleurs susceptibles d'utiliser l'intelligence artificielle pour concevoir des logiciels malveillants encore plus efficaces pour tromper les bacs à sable ou les programmes de sécurité qui tentent de repérer le code malveillant avant qu'il ne soit déployé dans les systèmes des entreprises. Attaques « cyber-physiques » Comme son nom pourrait l'indiquer, une attaque cyber-physique fait allusion à une cyberattaque qui peut cibler par exemple les réseaux électriques, les systèmes de transport et d'autres parties de l'infrastructure critique des pays. D'après le MIT Technology Review, il y aura plus d'attaques de ce type qui vont avoir lieu en 2018. Certaines seront conçues pour causer des perturbations immédiates, tandis que d'autres impliqueront des ransomwares qui détournent des systèmes vitaux et menacent de faire des ravages à moins que les propriétaires ne paient rapidement pour reprendre le contrôle de leurs systèmes. Au cours de l'année 2018, les chercheurs – et les pirates informatiques – sont susceptibles de découvrir davantage de failles dans les défenses des anciens avions, trains, navires et autres moyens de transport, et ces découvertes pourraient rendre ces systèmes plus vulnérables. Minage de cryptomonnaies : détournement de puissance de calcul Si en 2017, les hackers ont ciblé les détenteurs de bitcoins et d'autres monnaies numériques, le vol de cryptomonnaies n'est pas la plus grande menace dont il faut s'inquiéter en 2018, d’après le magazine du MIT. C'est plutôt le vol ou détournement de la puissance de traitement informatique. Miner des cryptomonnaies nécessite en effet de grandes capacités de calcul pour résoudre des problèmes mathématiques complexes. Et comme nous avons pu le constater vers la fin de 2017, avec la forte croissance du cours du bitcoin, cela encourage les pirates informatiques à compromettre des millions d'ordinateurs afin de les utiliser pour le minage de cryptomonnaies. La tentation de pirater de nombreux réseaux d'ordinateurs est donc susceptible d'être plus forte en 2018. Et si les pirates ciblent les hôpitaux, les aéroports et d'autres lieux sensibles, le potentiel de dommages collatéraux sera très important et profondément inquiétant. Piratage des élections Les fake news ne sont pas la seule menace à laquelle est confronté un pays qui organise une élection. Il y a aussi le risque de cyberattaques contre le processus de vote lui-même. Des rapports ont déjà indiqué que les pirates informatiques russes ont ciblé les systèmes de vote dans de nombreux États américains avant l'élection présidentielle de 2016. Avec les élections US de mi-mandat qui auront lieu en novembre, les responsables ont travaillé dur pour éliminer les vulnérabilités. Mais d'après le MIT Technology Review, les attaquants déterminés ont encore beaucoup de cibles potentielles, allant des listes électorales électroniques aux machines de vote et les logiciels utilisés pour assembler et auditer les résultats. Des cybermenaces… mais aussi le renforcement des sanctions et des règles de protection des données personnelles Avec les risques de cybermenaces qui vont augmenter en 2018, les pénalités pour les entreprises qui ne parviendront pas à y faire face efficacement le seront également, d’après Martin Gilles. Il fait par exemple allusion au fait que le 25 mai, le règlement général sur la protection des données entrera en vigueur en Europe. Première grande révision des règles de protection des données en Europe depuis plus de deux décennies, le GDPR exigera des entreprises qu'elles signalent les violations de données aux régulateurs – et informent les clients que leurs données ont été volées – dans les 72 heures suivant la découverte d'une violation. Le non-respect pourrait entraîner des amendes allant jusqu'à 20 millions d'euros ou 4 % du chiffre d'affaires global d'une entreprise, en fonction du montant qui sera le plus élevé. Source : MIT Technology Review
  22. A côté de la 4G fixe, une nouvelle solution technologique va être déployée pour offrir du très haut débit à ceux qui en sont encore privés : le THD Radio. Avec sa 4G box lancée au mois de janvier de cette année, Bouygues Telecom a remis au goût du jour une vieille idée française : fournir un accès Internet fixe par les ondes radio aux délaissés de l’ADSL. C’est au tour maintenant du gouvernement de mettre en avant le herztien. Pressé de tenir la promesse du président qui veut du bon débit à 8 Mbit/s pour tous dès 2020 et du très haut débit en 2022, le Premier ministre a annoncé ce 14 décembre que des aides financières seront accordées pour s’équiper en antenne, parabole ou box 4G. Deux millions de foyers seraient potentiellement concernées. une nouvelle version du WiMax Parmi les solutions subventionnées, il y a une nouveauté : le THD radio. Contrairement aux box 4G qui exploitent le réseau mobile, il consiste à utiliser une bande de fréquences dédiée. Le réseau est géré par un opérateur de gros, la commercialisation par un opérateur de détail. Une version renouvelée du WiMAX en quelque sorte, mais avec davantage de largeur de spectre pour obtenir un meilleur débit. uniquement pour les zones les moins denses L’Arcep vient tout juste d’ouvrir un guichet destiné aux opérateurs. Et c’est la bande de fréquence entre 3410 et 3460 MHz qui a été retenue.Les conditions sont toutefois contraignantes. Seuls les départements où les réseaux filaires « ne sont pas prévus à court ou moyen terme » seront éligibles. Comprenez les zones les moins denses, notamment de la France rurale. Les autorisations seront assorties « d’obligations fortes de déploiement, couverture et disponibilité » les opérateurs intégrés dubitatifs Les opérateurs intégrés se sont montrés réticents à cette idée, craignant « une utilisation non efficace du spectre, contraire à l’intérêt général », dixit Orange, par exemple. Il faut dire que la fréquence retenue est destinée à terme à servir la 5G. Les grands groupes voient donc d’un mauvais œil son utilisation pour un usage fixe, même de façon localisée et temporaire. Il y a donc fort à parier qu’ils ne soient pas candidats au THD radio. Mais d’autres acteurs déjà présents dans les RIP (réseaux d’initiative publique), comme la société NomoTech, sont intéressés. du tripleplay à 30 Mbit/s Les opérateurs auront pour obligation de fournir un débit descendant d'au moins 30 Mbit/s (95% du temps), un débit montant d'au moins 5 Mbit/s (95% du temps), une latence inférieure à 100 millisecondes et de ne fixer aucune limitation de données. Des antennes mobiles seront déployées sur des points hauts. Et lorsqu'un utilisateur souhaitera souscrire à une offre, il devra installer une antenne à l'extérieur de ses murs et s'équiper d'une box servant de routeur pour connecter ses appareils en Wi-Fi à son domicile. à partir de 2018 Les premières autorisations de l’Arcep seront délivrées début 2018. Mais les aides financières de 150 euros par foyer ne devraient pas intervenir avant le deuxième semestre. Le guichet restera ouvert jusqu’en 2019. Car le THD radio n’a pas pour vocation à se pérenniser. C’est une solution par défaut, en attendant que tout le territoire puisse un jour bénéficier de la fibre. Des départements comme la Seine-et-Marne ont déjà anticipé le THD Radio, expérimentant un accès fixe sur des bandes de fréquences 4G dès l’été 2016. Les territoires qui bénéficiaient déjà du WiMax devraient être intéressés par une migration vers le THD Radio. Reste à savoir si les débits promis et l'expérience utilisateur seront bien à la hauteur de ce qui est annoncé.
  23. Shadow, le PC gamer dans le cloud, sera lancé à grande échelle dès le 29 novembre avec plus de puissance À l’occasion d’une conférence de presse qu’elle tenait hier dans son nouveau siège parisien, la start-up Blade a annoncé qu’elle allait ouvrir plus largement son service de PC gamer dans le cloud, Shadow, aux clients français dès le 29 novembre prochain. Blade a également indiqué qu’elle avait fait évoluer la puissance de son PC dématérialisé et qu’elle comptait se lancer à l’international dans les prochaines semaines. Si, officiellement, le PC gamer dans le Cloud Blade a été lancé à la fin de l’année dernière, ce lancement a été réalisé à une échelle relativement réduite. Seuls 5000 clients pouvaient en effet profiter de ce PC dématérialisé, que nous avons testé au début de l’année. Ces premiers clients ont toutefois permis à Blade de peaufiner son service et d’améliorer ses technologies. Et aujourd’hui, la start-up française est prête à se lancer à plus grande échelle. • Lire aussi : On a testé Shadow, un ordinateur dans le cloud pour remplacer sa tour de jeu De nouvelles cartes graphiques et un service plus facilement accessible aux petites connexions Blade a en effet annoncé hier qu’elle allait ouvrir son service au plus grand nombre. Dès le 29 novembre prochain, il sera en effet possible de souscrire à un abonnement Shadow. Pour l’occasion, Blade a décidé de revoir légèrement son offre, mais pas ses tarifs. Shadow va ainsi gagner en puissance et passer de cartes graphiques GeForce 1070, à « des cartes graphiques haut de gamme dédiées ». Shadow va désormais tourner avec des cartes graphiques professionnelles, des Nvidia Quadro P5000, dont la puissance est équivalente à des GeForce 1080. L’un des représentants de Nvidia nous a assuré que les drivers sont exactement les mêmes que pour les cartes graphiques grand public, ce qui ne devrait donc pas poser de problème pour faire tourner les jeux. Pour le reste, la configuration des PC dans le cloud sera basée sur un processeur Intel Xeon avec 8 threads dédiés, 12 Go de mémoire vive DDR4, mais toujours un espace de stockage réduit de 256 Go. C’est l’un des points faibles de l’offre actuellement, Blade en est bien conscient et travaille à l’améliorer dans les semaines à venir. Techniquement, il semble qu’améliorer le stockage pose de gros problèmes techniques et économiques. Quoi qu’il en soit, Blade communique sur le fait que son Shadow équivaut désormais en termes de caractéristiques techniques à un PC d’une valeur de 1600 euros. Enfin la dernière nouveauté technique majeure que Blade a développée pour le lancement de son Shadow est la gestion dynamique de la bande passante. Il s’agit d’une technologie qui permet au Shadow de s’adapter à la bande passante de l’utilisateur, même quand celle-ci est réduite parce qu’un proche utilise la bande passante pour regarder Netflix, par exemple. Sa principale utilité, toutefois, c’est qu’elle permet au Shadow d’être accessible avec une simple connexion ADSL, à partir de 15 Mb/s. Concrètement, la gestion dynamique de la bande passante va détecter lorsque la bande passante est plus faible et adapter la qualité de la vidéo streamée en conséquence. Le résultat est tout à fait probant, le jeu ne se coupe jamais, mais les textures deviennent un peu moins détaillées, sans pour autant afficher de vilains artefacts. Difficile toutefois de dire si Shadow fonctionnera tout de même correctement sur une petite connexion ADSL au fin fond de la Creuse. Des tarifs inchangés et une internationalisation ambitieuse La bonne nouvelle, c'est que les prix ne vont pas augmenter. Trois formules seront proposées le 29 novembre. La première, et la plus économique, nécessite de s’engager pour un an et permet d’accéder à Shadow contre 29,95 euros par mois. Une formule avec engagement de 3 mois est aussi proposée à 34,95 euros et enfin, pour ceux qui voudraient essayer sans s’engager, une formule sans engagement est proposée à 44,95 euros par mois. À noter toutefois que Shadow ne liera plus son boîtier aux abonnements pour accéder au PC dans le Cloud. Ce dernier pourra toujours être acheté (119,95 euros) ou loué (7,95 euros par mois), mais Blade considère désormais que ses clients pour Windows, Mac et Android sont suffisamment optimisés pour s’en passer. D’autant plus que leur interface a été revue et a enfin été unifiée. Dernier point, Blade a profité de cette conférence de presse pour annoncer son internationalisation. L’objectif affiché de la start-up française est ambitieux : attirer pas moins de 100 000 clients avant la fin de l’année prochaine. Les premiers servis seront les pays francophones européens, à savoir la Suisse et la Belgique, qui pourront avoir accès à Shadow, « dans les semaines suivant le 29 novembre ». L’Allemagne et le Royaume-Uni suivront puisque Shadow sera lancé sur ces territoires au début de l’année prochaine. Blade, enfin, a annoncé avoir ouvert des bureaux à San Francisco et se lancer bientôt sur la côte Ouest des États-Unis. Pour l’instant ses plans sont assez flous, mais il fait peu de doutes que Blade aura quelques annonces à faire lors du prochain CES, qui se tiendra au début du mois de janvier à Las Vegas, où elle sera présente. • Le site officiel de Shadow • Le PC gamer dans le cloud sera lancé le 20 avril 2018 Source
  24. Box'n TV - Freebox Multiposte Salut, j'aimerai partager cette application ( Box’n TV ) avec les abonnés free qui cherche à avoir la télé en multiposte, ça va éviter de chercher des m3u et profiter pleinement du service télé avec plus de 200 chaînes disponibles* Rien de plus simple télécharger l'application sur app store (Android ici ou iOS ici ) et l'installer et voilà votre téléphone ou tablette deviennent de véritables TV ! Box’n TV permet de visualiser toutes les chaînes disponibles dans le service « multiposte » fournis par votre Freebox*, tout en bénéficiant de fonctionnalités qui n’ont rien à envier à votre téléviseur !mais nécessite d’être connecté au WiFi « personnel » d’une Freebox, pas en Free WiFi et de disposer de l'option "Freebox TV"
  25. La Freebox Révolution pour 10 euros/mois cette semaine sur Vente-privee.com Free n’est pas rassasié. Après avoir lancé récemment une offre Freebox Crystal sur Vente Privée prolongée à tout va, suivie la semaine dernière d’une offre mobile surprise (forfait 100 Go à 0,99 euros) , l’opérateur de Xavier Niel s’apprête à lancer une nouvelle Vente Privée demain à 19h et ce jusqu’au 12 décembre à 6h. D’après l’image d’illustration, il s’agira d’une promotion sur la Freebox Révolution possiblement à 9,99 euros pendant 12 mois.
  26. Slt j aime bien la photo 5 et la 8 car ça fait plus "été"
  27.  
  • En ligne récemment   0 membre est en ligne

    Aucun utilisateur enregistré regarde cette page.

×