mk78

Membres +
  • Compteur de contenus

    2 423
  • Inscription

  • Dernière visite

  • Jours gagnés

    13

Tout ce qui a été posté par mk78

  1. Nintendo préparerait sa N64 Classic Mini : voici les 10 jeux qu’on veut dedans ! En déposant un logo stylisé de la manette de sa Nintendo 64 auprès de l’Office européen de la propriété intellectuelle, la firme japonaise a attisé les attentes autour la sortie supposée d’une version « Classic Mini » de cette console. La Super Nintendo Classic Mini n’est pas encore sortie que déjà certains éléments laissent supposer que Nintendo est déjà en train de préparer une version « mini » de sa célèbre console N64. Un membre du forum spécialisé dans les jeux vidéo NeoGAF a en effet détecté plusieurs dépôts de marque de la part de la firme japonaise : des logos de manettes stylisés. Les deux premiers sont ceux utilisés par Nintendo pour symboliser ses NES Classic Mini et SNES Classic Mini, les suivants sont une manette de Nintendo Switch (on n’est jamais trop prévoyant !) et la fameuse manette en forme de vaisseau spatial de la Nintendo 64. C’est la publication de cette dernière manette qui a mené de nombreux commentateurs et journalistes à affirmer – sans grand risque – que le japonais préparerait une version Classic Mini de sa console de salon qui fonctionnait avec des cartouches. Lancée entre 1996 et 1997 selon les régions du monde, la N64 s’est vendue à 33 millions d’exemplaires, un échec au regard des ventes de la Super NES, écoulée à presque 50 millions d’exemplaires mais surtout face au champion de sa génération, un challenger nommé Sony dont la première console, la PlayStation, s’est écoulée à plus de 100 millions d’exemplaires. Evan-Amos / Domaine Public / Wikimedia - L’arrivée dans les années qui viennent – 2018 ? 2019 ? – d’une N64 Classic semble tout à fait logique au vu des succès de vente de la NES Classic et du nombre de précommandes de la SNES Classic qui sera lancée en 29 septembre prochain. Les jeux incontournables La sélection des jeux de la Super NES Classic n’a pas déçu. Logique, la console originale fut un succès et son parc de jeux, immense. Malheureusement, le demi-échec de la N64 fut, notamment, causé par un manque de jeux d’éditeurs tiers. En effet, entre le format de cartouche, plus limité en termes de coût et d’espace que le CD de la PlayStation, les conditions drastiques (pas de nudité, pas de sang) et les royalties élevées que Nintendo ponctionnait à l’époque, peu d’éditeurs et peu de studios ont tenté l’aventure de la N64, ce d’autant plus que l’univers Nintendo a toujours été plus favorable aux jeux de la maison. Heureusement, « Big N » a développé quelques bons titres en interne et avait passé un partenariat avec le génial studio Rare. Voici notre top 10 des jeux qu’on attend le plus… si Nintendo décide vraiment de sortir sa N64 Classic, of course. 01. The Legend of Zelda: Ocarina of Time Certains joueurs n’ont acheté la N64 que pour ce titre : c’est avec Ocarina of Time que la franchise Zelda a fait - et réussit - sa mue 3D. C’est l’un des titres les mieux notés de l’histoire. 02. The Legend of Zelda: Majora’s Mask Suite plus sombre d’Ocarina of Time, Majora’s Mask poursuit l’aventure Zelda. S’il ne profite pas de l’effet « wow » de son prédécesseur qui initiait le mode 3D, il s’impose tout de même comme une référence. 03. Banjo-Kazooie L’un des rares titres non Nintendo à se placer dans tous les top 10 des meilleurs jeux de la console. Mélange de jeu d’aventure et de jeu de plateforme/exploration, Banjo-Kazooie est l’un des titres phare de la console, un titre que l’on doit au génial studio Rare, référence de son époque. 04. Super Mario 64 Les premières aventures en trois dimensions du plombier italien furent une franche réussite et ont marqué une rupture nette avec le look 2D si pixélisé des générations précédentes. 05. GoldenEye 007 Meilleur FPS de la console, cette adaptation des tribulations meurtrières du plus célèbre agent secret fictif britannique fut surtout l’un des meilleurs jeux multijoueurs de l’époque avec son mode fenêtré sur un seul écran. Encore une merveille de Rare. 06. Star Fox 64 Le retour des aventures aériennes de Mr Renard et de ses amis le lapin et la grenouille aux commandes de leurs chasseurs spatiaux. Le meilleur jeu de simulation aérienne de la console, même si son prédécesseur reste la référence, au regard du caractère exceptionnel qu’avait la 3D sur la SNES. 07. Mario Kart 64 Remake tri-dimensionnel de la franchise née sur Super NES, Mario Kart 64 est devenu le maître étalon du genre auquel toutes les itérations 3D des consoles suivantes doivent se mesurer. 08. Perfect Dark Ce jeu de tir à la première personne en mode infiltration est l’héritier spirituel de GoldenEye et sans doute l’un des plus beaux titres de la console. On vous le donne en mille : encore un titre du studio Rare. 09. Super Smash Bros Jeu de combat façon sumo – il faut sortir l’adversaire du ring - Super Smash Bros tirait pleinement partie des 4 prises pour manettes de la N64 et fut la première occasion de voir s’affronter Mario, Link ou Kirby dans le même jeu. 10. Ogre Battle 64 Si les RPG étaient rares sur N64, les tactical RPG l’étaient encore plus. Inédit en Europe, ce titre de la saga Ogre Battle est pourtant l’un des plus beaux jeux mélangeant 2D et 3D de l’époque. A réserver aux fans de FF Tactics. Et s'il reste un peu de place dans la mémoire intégrée - et pour éviter de se faire incendier par certain(e)s fangirls/fanboys, voici les 10 autres jeux qui méritent une place : 11. Donkey Kong 64 12. Paper Mario 13. 1080 Snowboarding 14. Mario Party 3 15. Killer Instinct 64 16. Pokémon Stadium 17. Star Wars: Shadow of the Empire 18. Wave Race 64 19. Resident Evil 2 20. Kirby 64: The Crystal Shards La balle est désormais dans le camp de Nintendo qui jugera sans doute au regard des ventes de sa SNES Classic.
  2. Google Home débarque chez nous le 3 août mais il parle déjà français... avec l'accent québécois ! Quinze jours avant sa sortie officielle en France, l’assistant vocal de Google est déjà capable de parler en français. La version québécoise est disponible depuis quelques jours. « Je pète le feu et j’brule d’envie d’vous aider ». Ça y est, l’enceinte connectée du géant américain s’exprime enfin dans la langue de Molière et de... Céline Dion ! Surprise, elle possède un délicieux petit accent québécois. Certes, la notion d’accent est toute relative car, pour nos cousins de la Belle Province, c’est plutôt nous, Français, qui nous exprimons d'une drôle de façon). Google Home doit être commercialisé officiellement dans l’hexagone le 3 août prochain (l’appareil sera vendu 149 euros). En attendant, le « québécois » est d’ores et déjà disponible, en plus de l’anglais et de l’allemand. Il suffit d’aller dans les paramètres de l’application pour sélectionner cette langue par défaut. Les heureux pionniers - dont nous sommes - qui ont importé une version américaine du produit, n’auront qu’à faire la mise à jour de l’application début août pour pouvoir paramétrer la langue française « de France » et rendre ainsi leur assistant compatible. Fonctions identiques à la version US Google Home en français, ça donne quoi ? C’est à peu près la même chose qu’en anglais. Autant qu’on puisse en juger, les fonctions sont identiques à celles offertes par la version américaine : infos pratiques (météo, trafic, distances, recherche de commerces à proximité, etc.), informations encyclopédiques, musique (à partir de Google Music ou Spotify) ou encore calculs arithmétiques et conversion d’unités (ex : litres en décilitres). Le service d’actualité a été localisée et il est possible d’écouter le dernier bulletin francophone de Radio Canada en plus des flashs de la BBC ou de CNN. Seules les commandes domotiques, pour piloter des objets connectés, ne sont pas encore disponibles dans la version « québécoise » que nous avons testée. Google Home sera le premier assistant vocal domestique commercialisé en France. La version francisée d’Amazon Echo (Alexa) n’est toujours pas annoncée et Djingo d’Orange ne sortira pas avant 2018.
  3. YouTube met fin à ses outils d'édition photo et vidéo Les applications de montage vidéo et de diaporamas photo de YouTube ne seront plus disponibles à partir du 20 septembre prochain. La plateforme de Google renvoie ses utilisateurs sans plus de formalité vers des applications tierces. YouTube fait le ménage dans ses fonctionnalités. La plateforme de Google ne veut plus s’embarrasser de ses outils d’édition, à savoir le montage vidéo et les diaporamas photo. Elle a décidé d’y mettre fin à partir du 20 septembre. Dommage ! Ces applications étaient efficaces et directement intégrées à la plateforme. Ce qui permettait, lorsque l’on a une chaîne YouTube, d’importer du contenu, de l’éditer et de le mettre en ligne en même temps et au même endroit. Voici le message affiché par le site : YouTube - L’application de montage offre la possibilité de réaliser des montages avec des effets, des transitions, des synthés, de la musique et l’accès à une bibliothèque de contenus libres. A condition de se concentrer sur des vidéos courtes sans ambitionner un rendu professionnel, c’est une alternative en ligne et gratuite aux lourds et dispendieux logiciels de montage à télécharger en dur. Idem pour l’outil de diaporama qui sert à convertir des fichiers audio ou des images en fichiers vidéos lisibles sur YouTube. On pourra toujours récupérer ses fichiers d'origine L’onglet "Retouches" restera disponible dans le Gestionnaire de vidéos mais vous ne pourrez plus accéder à vos anciens projets et les modifier à partir de cette date. Pour retrouver vos fichiers d’origine, il faudra passer par Google Takeout (outil de récupération). A l’avenir, vous devrez utiliser d’autres outils de montage et diaporama. YouTube renvoie d’ailleurs avec désinvolture vers les forums de sa propre communauté pour trouver d’autres solutions. Sauf qu’il n’est pas du tout aisé d’y faire son marché. Citons de notre côté différentes plateformes comme Kaltura, Stuppeflix, Kizoa ou encore PhotoBucket mais il en existe bien d’autres.
  4. C’est la fin des mises à jour Windows 10 pour certains processeurs Intel Atom La fin du support par Intel des processeurs Atom Clover Trail force Microsoft à stopper les futures mises à jour fonctionnelles de Windows 10 sur ces plateformes. L'éditeur garantit le maintien des mises à jours de sécurité jusqu’en 2023. C’est un petit coup de poignard dans la stratégie d’un Windows 10 « éternel et toujours à jour » : Microsoft a confirmé les informations publiées par ZDNet en début de semaine indiquant que les machines à base de processeurs Atom de génération Clovertrail (Z2760, Z2520, Z2560, Z2580) ne profiteront plus de nouvelles mises à jour majeure de Windows 10. La Creators Update est ainsi la dernière disponible pour ces PC à bas coûts, tous nés sous la génération Windows 8 et passés sous Windows 10 par le biais du système de mise à jour. Microsoft ne ferme cependant pas totalement le robinet puisque tous les PC sous Atom Clovertrail exécutant actuellement un Windows 10 Creators Update profiteront de mises à jour de sécurité régulières « jusqu’en janvier 2023 », date de la fin du support de Windows 8.1. Effet boule de neige Cette fin de vie microsoftienne – on pourra toujours installer un bon GNU/Linux sur les machines concernée – n’est pas le fait de Microsoft, mais d’Intel qui a mis fin au support logiciel (développement des drivers) de ses processeurs. En regardant un peu dans les spécifications de l’architecture Clovertrail, on remarque que la partie graphique n’était pas le fait d’Intel mais d’Imagination Technology, ces Atom embarquant en effet une puce PowerVR SGX544 et non une solution maison de type HD ou Iris Graphic. Il est ainsi possible que ce soit Imagination Technology qui ait interrompu le support de la SGX544 (une puce vieillissante), forçant ainsi Intel à faire de même. Ce qui aurait conduit Microsoft à mettre, en bout de chaîne, un terme à la vie logicielle de cette puce... Un effet boule de neige qui fait une belle jambe aux - heureusement peu nombreux - utilisateurs de cette puce aux performances plutôt médiocres.
  5. Pourquoi Windows 10 pour ARM ne tournera pas sur les smartphones actuels Si vous espériez que le portage de Windows 10 sur plate-forme ARM apporterait une nouvelle vie à votre Windows Phone, vous allez être déçus... Depuis plusieurs mois maintenant, Microsoft planche sur l'émulation de Windows 10 sur des plates-formes à base de processeurs ARM. Et plus précisément, sur des PC. « Des PC cellulaires », pour reprendre les termes de Microsoft, qui devraient pointer le bout de leurs claviers dans les semaines à venir. Mais quid des Windows Phone, comme les Lumia 950 ou 950 XL, qui sont propulsés par un processeur ARM véloce ? Est-ce qu'ils pourront faire tourner cette future version de l'OS ? Lors d'une Web conférence avec les Windows Insiders, Joe Belfiore (vice Président de la division en charge des systèmes d'exploitation chez Microsoft) a clairement répondu « non » à la seconde question. Une réponse qu'il a justifiée de la façon suivante : « La version Windows 10 pour ARM est pensée pour une expérience PC ou avoisinante. Le but est de proposer des appareils très endurants, capables d'être et de rester connectés de très longues heures. L'environnement de l'OS est donc conçu pour être utilisé sur un PC et non un smartphone. Pour les smartphones, nous avons Windows 10 Mobile. Par ailleurs, sachez que lorsqu'on développe un logiciel pour une plate-forme ARM précise, il n'est pas si facile de la porter sur d'autres. » « Pour le cas précis d'un système d'exploitation, ce dernier est interconnecté et dialogue avec [un logiciel] le BSP (Board Support Package) qui lui-même échange avec le SoC (NDLR : le processeur ARM, en l'occurrence). A l'inverse de l'univers PC x86 (NDLR : équipés de processeurs Intel ou AMD) dont le code binaire de l'OS est interprété peu importe la nature des composants, chaque plate-forme ARM possède ses propres subtilités. C'est donc pour cela que nous n'investirons pas de temps et d'énergie à porter Windows 10 sur toutes les plates-formes ARM actuelles. Et en particulier sur celles utilisées par de moins en moins d'utilisateurs. » A l'occasion du Computex 2017 à Taipei (Taïwan), Qualcomm et Microsoft ont mené une conférence commune dont le principal sujet était les PC Windows 10 équipés de Snapdragon 835 (le seul SoC supporté pour le moment). On notera cependant que Belfiore précise bien que Windows 10 n'est pas prévu sur les smartphones existants... mais n'a pas dit que cela ne serait jamais le cas ni qu'il ne préparait pas quelque chose pour des terminaux mobiles. Source : Windows Central
  6. windob iOS 10 : une faille permet de prendre le contrôle de votre iPhone, mettez-le à jour de toute urgence Apple vient de mettre à disposition une nouvelle mise à jour : iOS 10.3.3. Il est vivement recommandé de l’adopter car elle corrige de nombreuses failles, dont une qui permet de prendre le contrôle de votre appareil à distance. 47 ! C’est le nombre de failles que vient de corriger la nouvelle mise à jour d’iOS 10, la version actuelle de son système d’exploitation mobile utilisée sur 86% des iDevices (iPhone 5 et supérieur, iPad de quatrième génération et suivant, etc.). Numérotée 10.3.3, cette update corrige plusieurs failles importantes qui permettent entre autres l’exécution de code à distance sur votre iPhone, iPad ou iPod touch, sans que vous le sachiez. Sur ce total de 47 failles, 23 ont été trouvées dans WebKit, le moteur de Safari, le navigateur d’Apple. Mais une des failles les plus inquiétantes touche aux puces Wi-Fi, fournies par Broadcom – les modules BCM4354, 4358 et 4359, pour être précis. Elle concerne d’ailleurs aussi bien iOS que macOS. Le bug permet à une personne mal intentionnée d’exécuter du code sur la puce sans-fil, avant d’accéder au processeur principal et de prendre le contrôle à distance de votre appareil pour peu que l’attaquant se trouve à portée du même réseau Wi-Fi. Nitay Artenstein, l’ingénieur qui l’a découverte, présentera d’ailleurs son travail sur ce point lors de la prochaine Black Hat, à la fin du mois. Cela nous permet d’en savoir un peu plus. Cette faille, qui « touche des millions d’appareils Android ou iOS », peut être déclenchée à distance, sans aucune interaction de l’utilisateur, explique-t-il. Autrement dit, il n’est pas nécessaire que le propriétaire de l’iPhone se rende sur un site particulier. Google a déjà publié un bulletin de sécurité Android sur ce point, qui concerne des smartphones LG, HTC ou encore Samsung. Cette faille est particulièrement inquiétante car les éditeurs de système d’exploitation comme Google et Apple font tout leur possible pour renforcer la sécurité des données et des codes exécutés sur leurs plates-formes. Néanmoins, ils ne peuvent rien contre une faille liée à un défaut de conception et de fonctionnement d’une puce embarquée dans leur appareil. Google a donc lui aussi patché cette faille, mais encore faut-il que les mises à jour soient mises à disposition par les fabricants ou les opérateurs. Sur vos iDevices, en tout cas, n’hésitez pas à vous rendre dans Réglages, Général et Mise à jour logicielle. Le fichier pèse environ 90 Mo. N’hésitez pas à le télécharger et l’installer. Source : Apple
  7. Comment SFR compte fibrer 100 % des foyers français L’opérateur affirme pouvoir couvrir l’intégralité des foyers français en très haut débit d’ici 2025. Une annonce accueillie avec scepticisme. Mais l’acteur avance ses arguments. Depuis que le président Macron, à peine élu, s’est emparé du sujet du très haut débit, pas un jour ne passe sans une nouvelle annonce fracassante pour connecter tout notre territoire à la traîne. La plus impressionnante est à coup sûr celle de SFR*. L’opérateur a affirmé le 12 juillet dernier pouvoir couvrir tout le territoire en THD à l’horizon 2025, tout seul, avec ses infrastructures propres, et sans faire appel aux aides publiques. Des réactions sceptiques Une déclaration accueillie avec froideur en France. Le sénateur Hervé Maurey, président de la commission de l’aménagement du territoire et du développement durable, a ainsi affirmé ce matin lors d’une table ronde qu’il restait dubitatif devant les engagements de SFR. D’autres se sont montrés plus virulents. « Comment croire un acteur qui se découvre subitement une vocation de service public en affirmant pouvoir fibrer toute la France (36 millions de prises), d'ici 2025, sans financement de l'État, alors qu'il n'a pas respecté ses annonces de 2011 concernant la construction de 1,6 million de prises dans des communes qu'il considère comme rentables ? » s’est aussitôt insurgé dans un communiqué de presse Etienne Dugas, le président de la FIRIP qui regroupe les industriels des réseaux d’initiatives publics. Pour la petite histoire, SFR avait signé en 2011 un accord de répartition pour le FttH (fibre jusqu'à l'abonné) dans les zones moyennement denses avec Orange. Mais il n’a pas tenu ses engagements dans les localités où était déjà installé le câble de Numericable (racheté par SFR entre-temps). Et c’est Orange qui a été appelé à la rescousse pour le remplacer. « Tout cela, c’est du passé », se défend Michel Paulin le directeur général de SFR, lors d’une conférence de presse qui s’est tenue ce 19 juillet. « Nous sommes aujourd’hui en mesure de déployer nos infrastructures propres dans tout le pays comme nous l’avons fait dans le mobile où nous avons rattrapé notre retard en 4G, au point d’être aujourd’hui le premier opérateur en nombre d’antennes ». Le directeur général d‘Altice Michel Combes, lui, fait mine de s'offusquer. « C’est quand même incroyable ! Quand je vais au Portugal ou aux Etats-Unis pour annoncer qu’Altice va couvrir l’intégralité du territoire, je suis applaudi. C’est tout le contraire en France ». Du Très Haut Débit et pas du FttH Commençons par décrypter les effets de manche du discours de SFR. Premièrement, il ne s’agit pas de fibrer « tout le territoire » mais l’ensemble des foyers français, des bâtiments de service public et des locaux d’entreprises d’ici 2025. Soit environ 33 millions de lignes, selon SFR. Avec un point d’étape en 2022 avec 80% de la couverture atteinte. Il n’est pas non plus question tout à fait de « fibrer » tous les foyers français mais de leur apporter du Très Haut Débit, soit au moins 30 Mbit/s, quelle que soit la technologie employée. Pas seulement avec du FttH donc, mais en faisant aussi monter en gamme le cuivre et le câble. « Cet éternel débat en France sur l’emploi du mot fibre est un faux problème », s’agace Michel Paulin. « Il s’agit dans tous les cas de dérouler des câbles en fibre optique dans les voiries pour augmenter les débits, même si on ne va pas jusqu’à l’abonné. Donc nous considérons que nous fibrons bien la France ». Flickr/Twilight Jones - Fibre optique. 23,4 millions de prises à raccorder L’Arcep estime qu’au 31 mars dernier, 12 millions de logements étaient éligibles au Très Haut Débit dans notre pays. Sur ce total, SFR revendique 9,6 millions de prises et 1,7 millions d’abonnés effectifs, ce qui lui permet de décrocher le titre de premier opérateur THD. Le calcul est simple, il reste donc 23,4 millions de logements et locaux à raccorder. Pour cela, une nouvelle structure est créée : Altice Infrastructures. Elle sera dédiée au déploiement de la fibre et opérationnelle dès septembre. Les travaux commenceront dans la foulée pour aboutir sur de premières commercialisations à l’automne. Une organisation industrielle SFR a atteint un rythme de croisière de 1,7 million de nouvelles prises éligibles par an. Il estime désormais qu'il va devoir passer à 2 et 3 millions pour tenir ses objectifs. Et pour cela, il compte tout simplement importer le modèle qui lui a déjà permis de couvrir l’intégralité du territoire au Portugal qui ne compte, il est vrai, que 5,3 millions de lignes. Un véritable processus industriel, hyper rodé si l’on en croit les présentations à Paris de Luis Alveirinho, le directeur du réseau et des opérations de Portugal Telecom qui appartient à Altice. Seulement, ce programme va forcément induire des investissements financiers supplémentaires. « Secret des affaires », répond Michel Combes lorsque la question du montant lui est posée. Il va aussi falloir recourir à davantage de main d’œuvre. 1000 salariés de SFR travaillent déjà actuellement au déploiement de la Fibre en France. Plusieurs milliers d'agents de partenaires techniques devraient s’y greffer dont ceux de la nouvelle filiale du groupe Altice Technical Services. Et l’opérateur compte mettre sur pied des formations à l’échelon local pour maintenir son réseau. Maxime Dufour/SFR. - Un NRO de SFR (Noeud de Raccordement Optique). Un cadre légal trop contraignant selon SFR Le chiffre de 33 millions de prises pour 2025 donne toutefois le tournis, étant donné que les déploiements les plus faciles dans les zones très denses ont déjà été réalisés ou sont en train de l’être. Restent les cas plus épineux des zones moyennement denses et des zones moins denses. Dans les ZMD où les infrastructures sont mutualisées, SFR est actuellement freiné par son accord passé avec Orange. Un accord qu’il cherche à tout prix à remettre en cause puisque seulement 10% du territoire lui reviennent. S’il n'y parvient pas, il sera contraint de s’arrêter de déployer dans ce périmètre dès 2019 lorsqu’il aura atteint son quota. Un avertissement en forme de chantage qui devrait faire réfléchir l’Etat. Dans les zones moins denses, l'opérateur envisage carrément de renégocier ses implications dans les RIP (Réseaux d’Initiatives Publiques) au cas par cas. Voire d’installer ses propres infrastructures en plus de celles des autres, promettant que cela ne coûtera pas un centime aux collectivités locales. Car le principal objectif de SFR, c’est bien de recouvrir toute la France avec son réseau fixe en propre. « La situation qui se dessine dans tous les pays, ce sont deux opérateurs qui déploient leur réseau et les autres qui les utilisent », souligne Michel Combes. « Avec le Plan France Très Haut Débit, l’Etat a retiré la détention des réseaux aux opérateurs. Il est temps désormais de redonner la main à l’initiative privée », conclut-il. (*) 01net.com est édité par une filiale de NextRadioTV, elle-même propriété à 49% de SFR Médias.
  8. Comment la France a inventé le « bon haut débit »... pour patienter L’Etat clarifie aujourd’hui officiellement les nouveaux objectifs fixés par le président. Il s’agira d’apporter un débit d’au moins 3 Mbit/s à l’ensemble des foyers français d’ici 2020. Jusqu’à maintenant les choses étaient claires. Pour parler de la vitesse d’une connexion Internet fixe, on parlait de haut débit (entre 512 kb/s et 30 Mbit/s) ou de très haut débit (égal ou supérieur à 30 Mbit/s). Des seuils établis par la Commission européenne pour les Etats membres et adoptés en France par l’Arcep. Surprise, un nouveau concept vient d’émerger ces jours-ci dans notre pays : celui de « bon haut débit ». Et il ne correspond à aucune norme officielle. Il surprend même par la présence de l’adjectif « bon », un terme éminemment subjectif alors qu’il est question de qualifier des performances techniques très précises. Du bon haut débit pour tous en 2020 L’expression est apparue ce lundi 17 juillet dans la bouche de l’entourage du président de la République. Ce dernier venait alors d’annoncer vouloir apporter le haut et très haut débit à tous les foyers français d’ici 2020. Une déclaration qui a effrayé l’ensemble des acteurs des télécoms et des pouvoirs publics. S’agissait-il d’accélérer le Plan France Très Haut Débit (PFTHD) qui prévoyait d’apporter 30 Mbit/s à tous les foyers français d’ici 2022 ? Ou bien de le remettre en cause en revoyant à la baisse ses ambitions ? Le directeur de l’Agence du numérique Antoine Darodes a clarifié ces propos lors de son audition ce 19 juillet par la Commission de l'aménagement du territoire et du développement durable. Sénat - Le directeur de l'Agence du numérique Antoine Darodes lors de son audition par le Sénat le 19 juillet. Entre 3 et 8 Mbits/s Pas question de revoir le PFTHD. Emmanuel Macron souhaite juste ajouter un point d’étape supplémentaire en 2020 avec du « bon haut débit » pour tous. «On peut situer le bon haut débit entre 3 et 8 Mbit/s», a déclaré Antoine Darodes. Cette nouvelle notion aurait été introduite pour ne pas laisser sur le carreau les 5 millions de foyers identifiés qui ne pourront toujours pas bénéficier d’un débit de 8 Mbit/s et le million de lignes qui n'atteindront pas les 3 Mbit/s en 2022, même si le PFTHD se passe comme prévu. Il s’agit donc d’accélérer les choses en ciblant précisément cette population-là et en lui proposant des solutions plus adaptées que le FttH pour doper la vitesse de sa connexion. «Nous sommes en train d’identifier les technologies qui pourront être retenues mais de nouveaux contrats entre les opérateurs et l’Etat seront nécessaires», a encore précisé le directeur de l’Agence du numérique. Un concept pas si nouveau Mais la paternité du « bon haut débit» est maintenant revendiquée par d’autres. Le sénateur Hervé Maurey, président de la commission de l’aménagement du territoire et du développement durable, a rappelé que les parlementaires avaient élaboré dès 2012 un projet de loi sur l’aménagement numérique du territoire imposant le principe d’un « bon haut débit pour tous» de 8 Mbit/s avant fin 2015. Un objectif alors jugé irréalisable par la fédération des télécoms et qui fut vite enterré.
  9. Facebook intensifie sa lutte contre les « fake news » Facebook annonce qu’il étend désormais l’impossibilité de modifier l’aperçu d’un lien aux gestionnaires de pages. Seul ceux qui publient un article originaire de leur propre site pourront continuer à le faire. Un moyen de lutter encore un peu plus contre les fausses informations. Facebook ne veut plus voir les fake news envahir son réseau social. Après avoir interdit aux particuliers de modifier l’aperçu des liens partagés, le réseau social l’étend désormais aux gestionnaires de pages. Ceux qui administrent une page ne pourront plus modifier cet aperçu, si le lien qu’ils partagent ne pointe pas vers leur propre site. Cela empêchera encore un peu plus que l’aperçu des articles partagés ne reflète pas leur contenu réel. Certaines pages militantes n’hésitent pas en effet à utiliser cette méthode pour faire croire qu’une information provient d’un média traditionnel ou généralement considéré comme digne de confiance. L’utilisateur qui voit apparaître l’information dans son fil d’actualités peut ainsi être berné s’il ne clique pas sur le lien pour se rendre compte du contenu exact publié sur le site d’origine. Facebook multiplie les initiatives contre les fake news Il n’existe désormais plus qu’un seul cas de figure dans lequel on pourra modifier cet aperçu les liens partagés. Seuls les administrateurs de pages qui publient les liens de leur propre site pourront le faire. Il est en effet habituel que les éditeurs de presse, les blogueurs ou les marques modifient cet aperçu pour que le titre soit plus impactant ou corresponde plus aux codes utilisés sur les réseaux sociaux. Ce système n’empêchera toutefois pas le partage d’articles à l’origine mensonger. Aux utilisateurs alors de savoir si le site en question est fiable. Depuis la dernière campagne à l’élection présidentielle américaine en 2016, Facebook est régulièrement accusé d’avoir favorisé la diffusion de fake news. Mark Zuckerberg lui-même était sorti de sa réserver pour s’en dédouaner. Mais le réseau social annonçait peu après de nouvelles disposition pour lutter contre le phénomène. L’une d’entre elle déployée en avril dernier proposait par exemple des articles complémentaires à celui affiché dans le fil d’actualités. Une manière de mettre en perspective l’information consultée grâce à d’autres contenus.
  10. Intel : sa prochaine génération de processeurs devrait être une riposte prometteuse aux Ryzen d'AMD De nouvelles fuites dessinent les contours d'une huitième génération Core qui voit son nombre de coeurs augmenter et son enveloppe thermique réduire. Avec une cible désignée, les derniers processeurs AMD. C'est lors du salon Computex 2017 de Taipei qu'Intel a commencé à donner quelques informations sur la prochaine génération de processeurs Core, les Coffee Lake. Par exemple, ces derniers seraient jusqu'à 30% plus puissants que leurs homologues de 7ème génération - Kaby Lake - et débarqueraient officiellement en masse dès la fin de l'année. Si la fenêtre de sortie ne surprend guère - bien que plusieurs rumeurs évoquent une disponibilité en 2018, c'est surtout le bond de performance annoncé qui paraît... colossal. AS/01net.com - Un chiffre d'autant plus surprenant que, depuis trois générations de puces Core, les gains obtenus sont plutôt de l'ordre de 7 à 10% (15% dans de très rares cas). Alors, comment Intel est-il en passe de tripler la mise sur ses Core i7 par exemple ? C'est simple, le fondeur va ajouter des cœurs ! La fin des processeurs haut de gamme à 4 coeurs ? Entre Skylake et Kaby Lake, l'architecture Core n'a pas beaucoup évolué et, il y a fort à parier qu'il en soit de même entre Kaby Lake et les futurs Coffee Lake. Cependant, cette génération en approche pourrait bien être la première à intégrer des processeurs 6 cœurs/12 threads au lancement. Ainsi, selon les dernières fuites, la puce qui pourrait porter le nom commercial de Core i7-8700K et constituerait le fer de lance de la gamme serait équipée de six cœurs hyperthreadés, cadencés à 3,7 GHz, embarquant 12 Mo de cache L3 et dont le TDP, l'enveloppe thermique prévisionnelle serait de 95 watts. Avec une telle puissance de feu, c'est bien le Ryzen 5 1600X d'AMD qu'Intel a dans le collimateur ! En outre, mentionnons que la consommation nous paraît très peu élevée, surtout comparée aux 140 watts engloutis par le très récent Core i7-7800X proposant le même nombre de cœurs, de threads et cadencé à 3,5 GHz. Autre petit chamboulement dans les habitudes d'Intel, les puces pressenties pour incarner d'éventuels Core i5-8400, 8500, 8600 voire 8600K seraient - elles-aussi - des modèles à 6 cœurs. Dans les cas précis des 8400 et 8600K, de possibles fréquences de 2,8 GHz pour le premier, et de 3,6 GHz pour le second sont évoquées. Le TDP, quant à lui, pourrait avoisiner les 65 watts pour le 8400 et 95 watts pour le 8600K. C'est bas ! Tous ces processeurs Core i5 ne bénéficieraient toutefois pas de l'hyperthreading, pour rester dans les standards et logiques de gamme qu'Intel s'est efforcé de construire ces dernières années. Du six coeurs natifs sur PC portable aussi Bien entendu, les processeurs Coffee Lake seront aussi à la fête dans les PC portables. Il se murmure que certains constructeurs pourraient en présenter lors du salon IFA qui se déroule du 1 au 5 septembre à Berlin. Là encore, la dominante pourrait être à « 6 cœurs », avec des fréquences de fonctionnement plus basses, situées aux alentours de 2 GHz (consommation de 45 watts). Enfin, avec Coffee Lake, la gamme basse consommation des Core « U », utilisés dans les ultrabooks, pourrait enfin être composée de quelques puces à 4 coeurs hyperthreadés (contre deux coeurs hyperthreadés actuellement). Et, d'ailleurs, il ne faudra peut-être pas attendre trop longtemps pour avoir des processeurs 4 coeurs dans les ultraportables... En attendant les Coffee, vous reprendrez bien du Kaby ? Toutefois, avant le lancement effectifs des Coffee Lake, Intel va sortir une nouvelle fournée de processeurs Kaby Lake, les Kaby Lake-R (pour Refresh ?). Ces derniers pourraient bien n'envahir que les ultrabooks, convertibles et autres détachables et commencer à introduire des processeurs 2 ou 4 cœurs natifs dans les gammes « Core U ». Problème, les Kaby Lake-R pourraient bien opter pour la même nomenclature que leurs futurs petits frères, à savoir Core ix-8xxx... pourquoi faire simple quand on peut faire compliquer et embrouiller un peu le consommateur au passage ? Contacté à propos de ces fuites, les portes-paroles d'Intel n'ont pas souhaité commenté le moindre élément, fidèle à la directive maison : « Intel ne commente pas les rumeurs ni les informations dont nous ne sommes pas la source ». Source : CPC Hardware
  11. Sur Facebook, certains contenus pourraient devenir payants A partir d’octobre, le réseau social testera une offre payante pour certains articles d’actualité. Une réponse à la grogne grandissante des éditeurs. Depuis dix ans, votre oncle Bernard partage des publications - mensongères - affirmant que Facebook va devenir payant. Dans quelques mois, il aura peut-être - un peu - moins tort. D’après le site The Street, le réseau social va publier ses premiers contenus payants à partir du mois d’octobre. Sous forme d’expérimentation, l’opération consiste à faire payer aux membres certains articles publiés par les sites d’information. L’entreprise cherche surtout à proposer de nouveaux moyens de rémunération pour les éditeurs, qui tentent de s’allier pour contrer la toute-puissance du Californien. Une dizaine d’articles gratuits Concrètement, Facebook proposera au lecteur de payer dès l’ouverture d’un article sur son site, via sa plateforme Instant Article qui agrège les contenus de plus de 9.000 éditeurs dans le monde. Depuis mai 2015, l’interface permet d’accéder aux articles sans avoir à sortir de l’application Facebook. Comme l’évoque Le Monde, l’utilisateur devrait payer après avoir lu une dizaine d’articles. Un système déjà adopté par de nombreux médias, qui proposent de lire des contenus gratuits avant de passer à la caisse. Mais la solution proposée par Facebook devra prendre plusieurs formes. Facebook - Sur le Web, les politiques de rémunération sont bien plus variées que le système évoqué par Le Monde. Quand certains sites d’information n’offrent que quatre ou cinq articles par mois, d’autres optent pour une sélection de contenus que le lecteur peut acheter à l’unité. Des stratégies complémentaires, mais pas forcément compatibles entre elles. Afin de convaincre ses partenaires, Facebook devra répliquer ces différents modèles économiques depuis Instant Article en leur permettant de personnaliser leur mode de rémunération au maximum. Les éditeurs boudent Instant Articles L’arrivée d’articles payants pourrait être mal perçue par les utilisateurs, habitués au tout gratuit. Elle n’est pas non plus dans l’intérêt de Facebook, peu habitué à facturer ses services et totalement dépendant de la publicité. Sauf que l’entreprise fait face à la lassitude des éditeurs, qui ne parviennent pas à gagner d’argent en passant par le réseau social. Deux ans après le lancement d’Instant Article, le constat est sévère : de grands noms comme le New York Times ou le Guardian ont quitté l’aventure, déçus par les faibles retombées économiques de la plateforme. L’intégration des fonctions de paiement à Instant Article prend la forme d’une opération reconquête, après que Facebook a permis aux éditeurs d’y ajouter des formulaires d’inscription à leurs newsletters. Il s’agit aussi d’un moyen de rattraper Google, dont le format équivalent - AMP - permet de s’abonner à un média. Si les tests sont concluants, les premiers articles payants pourraient faire se généraliser en 2018. Sources : The Street, Le Monde
  12. Media Player Classic Home Cinema est (un peu) mort Faute de développeurs, le célèbre lecteur multimédia super léger et performant Media Player Classic Home Cinema (MPC-HC) ne devrait plus connaître de mise à jour. La fin d'une aventure ? C'est une mise à jour qui a tous les aspects d'un chant du cygne : la version 1.7.13 du célèbre logiciel de lecture vidéo gratuit et open-source Media Player Classic Home Cinema (MPC-HC) semble être la dernière. Dans le dernier billet de mise à jour du logiciel intitulé « v1.7.13 est sorti et bon vent » (1.7.13 is released and farewell), le responsable du projet XhmikosR explique en effet que le nombre de contributeurs actifs était en chute libre ces derniers temps avant d'atteindre « inévitablement » zéro. Un crève-coeur pour un projet qui a plus de 11 ans. Anatomie d'un déclin Lancé comme logiciel à sources fermées, MPC est devenu open-source quelques années plus tard et a connu le succès grâce à sa grande qualité de décodage - toujours l'une des meilleure du marché, logiciels propriétaires et payants inclus - couplée à sa faible empreinte processeur et mémoire. Si les logiciels open-sources sont avant tout des aventures humaines - qui ont toujours une fin - le déclin de MPC-HC semble en partie s'appuyer... sur ses qualités ! Développé en C/C++, son code est extrêmement optimisé et performant. Non seulement il est donc compliqué pour un développeur débutant de s'attaquer à un tel morceau, mais en plus ces « vieux » langages sont ardus à maîtriser et les codeurs qui les maîtrisent sont suffisamment occupés ailleurs comme le soulignent des commentateurs de l'article Slashdot qui a mis au jour d'information. Ce caractère hyper optimisé de MPC-HC fait que même les anciennes versions du logiciel sont stables et fonctionnelles, une robustesse qui invite moins au développement actif qu'un logiciel moins stable. On pourrait aussi relever le fait que l'interface graphique de MPC-HC est des plus dépouillées, mais c'est du côté des services qu'il faut aller chercher d'où vient le coup de grâce... YouTube et Netflix m'ont « tuer » Contrairement à VLC qui s'appuie sur des écoles d'ingénieurs et qui est sponsorisé par plusieurs entreprises, MPC-HC était un projet indépendant et petit. Or, l'écosystème des logiciels vidéo se réduit drastiquement à cause de la vidéo en ligne : quand il fallait absolument télécharger les films et vidéos par le passé, les services de type YouTube et Netflix ont mis à portée de main un catalogue vidéo énorme sans avoir à passer par le biais d'un lecteur tiers - avec les problèmes de codecs que l'on a pu connaître dans le passé. Dans ce contexte et avec l'explosion des usages vidéo mobiles (smartphones et tablettes), MPC-HC ne représentait plus un enjeu de taille pour les développeurs. De la même manière que Spotify, Deezer et YouTube ont tué Winamp, MPC-HC s'est fait tuer par les services. Logiciel open-source oblige, MPC-HC ne disparaît pas du jour au lendemain : les sources du programme n'attendent plus qu'un ou deux développeur(s)/développeuse(s) pour continuer d'avancer. - Télécharger Media Classic Home Cinema pour Windows 32 bits (Gratuit) - Télécharger Media Classic Home Cinema pour Windows 64 bits (Gratuit) - Télécharger Media Classic Black Edition pour Windows 32 bits (Gratuit) - Télécharger Media Classic Black Edition pour Windows 64 bits (Gratuit)
  13. Shake 4D, le Raspberry Pi qui détecte les tremblements de terre Aussi bien capable de percevoir les vibrations d'une machine à laver que les ronronnements de la terre, le Raspberry Shake 4D est un projet Kickstarter qui vise à démocratiser l'usage des sismographes. Le Raspberry semble capable de tout. Console de jeu, contrôleur industriel voilà aujourd'hui que le mini-ordinateur à bas coût se mue en sismographe. Nommé Raspberry Shake 4D, ce projet Kickstarter transforme le nano ordinateur préféré des bidouilleurs en super détecteur d'ondes, aussi bien capable de percevoir un stylo qui tombe sur le sol qu'une secousse basse fréquence de votre plaque tectonique, le tout pour moins de 300 €. Ou comment mettre le sismographe des vulcanologues à la portée de toutes les bourses. Caution industrielle Nous faisons toujours attention avant de vous parler de projets Kickstarter. Mais ici, la caution semble plus que solide. Déjà financée - plus de 55 000 dollars récoltés sur 7 000 dollars demandés - la Raspberry Shake 4D est le second projet de l'équipe de développement, une première Raspberry Shake ayant vu le jour l'an dernier, toujours grâce à Kickstarter. Outre le fait d'avoir déjà lancé un modèle fonctionnel et de déjà disposer des fonds, ce projet Kickstarter est bien plus sûr que la moyenne car derrière se cache plusieurs acteurs sérieux. On trouve ainsi OSOP, une entreprise spécialisée dans la production et la distribution de sismographes et autres équipements géophysiques professionnels. Ou encore GEMPA, entreprise allemande de logiciel qui est spécialisée dans le traitement des signaux géophysiques - tremblements de terre, raz-de-marée, etc. Pas une bande d'hurluberlus ou de charlatans, mais a priori des scientifiques en blouse qui parlent oscilloscope en seconde langue. Super détecteur Raspberry Shake 4D est une carte dédiée au Raspberry Pi qui intègre plusieurs détecteurs : 3 accéléromètres de type MEMS et un géophone. Les 3 accéléromètres sont, sur le principe, assez similaires à ceux que l'on retrouve dans les smartphones. Ces "systèmes électromécaniques" se présentent sous la forme de puces électroniques qui transforment des informations physiques (vibrations, par exemple) en signal électrique. On les retrouve dans les manettes de jeu, les téléphones mobiles, mais aussi dans les airbags, les projecteurs numériques, les imprimantes, etc. L'autre composant, bien plus imposant et plus rudimentaire d'aspect, est un géophone, une pièce que l'on retrouve déjà dans les "vrais" sismographes et qui est spécialisée dans la captation des ondes basses-fréquences. Le Shake 4D capte ainsi aussi bien les ondes proches - un camion qui passe, la machine à laver du voisin du dessus - que celles qui animent votre région tectonique. Ces quatre capteurs effectuent 100 mesures par secondes, des mesures traitées par le processeur de leur carte mère dédiée, laquelle s'interface au Raspberry Pi par le biais des 26 broches du port GPIO. Un Raspberry Pi qui envoie, à son tour, les informations à un ordinateur par le biais de sa prise Ethernet ou du Wi-Fi, se transformant ainsi en serveur de données sismiques. Tout est dans le maillage Wikimedia/USGS - Les ondes se propagent et s'estompent au fil de leur voyage dans le manteau terrestre. Les géologues, sismologues et autres vulcanologues travaillent dont en réseau en effectuant un maillage de la terre, la puissance des tremblements de terre étant évaluée non seulement par l'impact au-dessus de l'épicentre que par la vitesse à laquelle son intensité est perçue 5000 km plus loin. Raspberry Shake - Le réseau Raspberry Shake existe déjà et permet d'observer un grand nombre de régions dans le monde. Cette idée du maillage anime le Raspberry Shake 4D et le logiciel, fourni avec la carte, permet d'accéder à tous les autres Raspberry Shake 4D qui acceptent de partager leurs données sur un réseau commun. Ainsi, un habitant d'une zone faiblement sismique pourra autant veiller sur sa zone que profiter en temps réel des informations de zones plus actives comme la ceinture de feu du Pacifique, par exemple. Par ailleurs, l'échange de données est facilité par l'utilisation du format miniSEED, le standard du monde scientifique des études sismiques. Démocratisation d'outils scientifiques Il ne fait aucun doute que le Raspberry Shake 4D ne peut se substituer à un vrai sismographe pour les équipes de professionnels. Mais non seulement la communauté scientifique pourrait sans nul doute profiter d'un réseau d'étude sismique amateur pour affiner ses modèles, mais en plus ce genre de projet est l'occasion rêvée pour le grand public et le monde de l'éducation de mettre la main sur de vrais outils scientifiques. Une raison de plus d'y jeter un œil si vous vous intéressez à la vie intérieure de notre planète ou à tout autre projet sur base de détection d’ondes.
  14. Qualcomm aimerait régler à l’amiable son litige avec Apple Le PDG de Qualcomm estime que la bataille judiciaire engagée avec Apple devrait se résoudre en dehors des tribunaux. Une solution qui arrangerait certainement très bien les deux parties. Et si c’était la fin de l’escalade entre Apple et Qualcomm ? « Ces choses ont tendance à se résoudre en dehors des cours de justice et il n’y a pas de raison de ne pas espérer que ce ne soit pas le cas ici », a expliqué de manière très diplomate Steve Mollenkopf, le PDG de Qualcomm lors de la conférence Brainstorm Tech, ce 17 juilllet à Aspen (Colorado). Ces « choses » dont parle le dirigeant ne sont rien d’autre que l’affrontement économique et judiciaire qui oppose Qualcomm à Apple depuis janvier 2017. Après avoir choisi Intel comme autre fournisseur des modems de ses iPhone 7, Apple avait en effet déposé une plainte contre Qualcomm en début d’année. Il n’avait pas hésité non plus à assister l’agence coréenne chargée du droit à la consommation dans une action qu’elle avait menée de sa propre initiative contre Qualcomm. Apple estime payer trop de royalties Apple dénonce les royalties qu’il doit payer pour pouvoir utiliser les modems Qualcomm dans ses iPhone. Le concepteur de puces pratique en effet une politique de licence en plus du prix d’achat de ses composants. Pour utiliser ces modems 4G et WiFi, Apple doit non seulement les payer, mais aussi verser à Qualcomm un pourcentage sur le prix de vente de chaque iPhone. Plus ce dernier est cher, plus Qualcomm touche donc d’argent, même si la puce en question est identique à celles présentes sur tous les modèles. En avril dernier, Apple a donc arrêté de verser les royalties à ses sous-traitants. Ce sont ces derniers qui doivent en effet en récolter une partie pour les reverser à Qualcomm. Cette démarche n’a évidemment pas du tout plu à la société de San Diego qui avait alors saisi la Federal Trade Commission américaine pour empêcher l’importation sur le territoire des iPhone fabriqués en Chine, soit l’intégralité de la production. Ces rapports conflictuels risquent finalement d’être contre-productifs pour les deux sociétés. D’un côté, Qualcomm pourrait se couper de son principal client en matière de modems. De l’autre, Apple se priverait du savoir-faire technologique de Qualcomm, certainement l’une des entreprises les plus avancées sur les questions de réseau mobile. L’issue en forme d’arrangement qu’appelle de ses vœux Steve Mollenkopf semble être celle qui devrait convenir le mieux aux deux parties.
  15. Lenovo et Lucasfilm planchent sur un casque de réalité augmentée et... un sabre laser « Réveiller le Jedi qui sommeille en vous ». Difficile pour Lenovo et Disney de faire plus accrocheur afin de promouvoir leur projet de casque AR/VR avec manette en forme de sabre laser, dévoilés ce week-end. Tel Luke Skywalker à bord du Faucon Millenium, manier un sabre laser dans son salon sera bientôt possible ! Certes, nous nous emballons mais il faut bien avouer que l'annonce de Lenovo et Lucasfilm faite ce week-end lors du D23 Expo (une convention américaine pour les fans de l'univers Disney) à de quoi faire saliver. Le studio de production et le constructeur chinois ont dévoilé des ébauches d'applis tirées de l'univers Star Wars, faites pour fonctionner avec un casque AR/VR dédiée et, pour l'une d'entre elles, avec une manette en forme de sabre laser. Patience, discipline... Le casque n'a pour l'instant pas de nom, pas de date de sortie, et ses spécifications techniques ne sont bien évidemment pas connues. Toutefois on sait qu'il fonctionne obligatoirement avec un smartphone, comme les Gear VR de Samsung ou DayDream VR de Google. Lenovo - Lenovo a également dévoilé trois applications compatibles avec le casque. La première est une réplique de l'Holochess, le jeu d'échec un peu spécial auquel Chewbacca et R2D2 jouent dans l'épisode IV, à bord du Faucon. La seconde appli serait un jeu de bataille en temps réel, qui se déroulerait dans votre salon mais dont on ne sait pas encore grand chose. YouTube/Lenovo - La troisième, elle, aurait pour nom Jedi Challenges et se jouerait avec la fameuse manette en forme de sabre laser (qui semble produire les mêmes sons que « l'arme noble d'une époque civilisée »). Aucune image de ce à quoi pourrait ressembler le contenu de l'appli n'a pour le moment été révélée. Dans un premier temps, le casque semble réservé au marché américain avec une disponibilité annoncée sur les sites de Lenovo et du e-commerçant BestBuy. Le constructeur chinois et Lucasfilm ont promis d'en dévoiler un peu plus dans les semaines à venir. On a hâte !
  16. Anytime, l'appli d'Amazon qui pourrait déclarer la guerre à toutes les messageries Le géant du e-commerce travaillerait à un nouveau service de communications chiffrées, disponible sur tous les supports et permettant aussi bien de passer des appels audio et vidéo que de partager du contenu ou de faire des achats. Alors que Facebook et Snapchat dominent plus que jamais le marché occidental des messageries instantanées, un nouvel acteur pourrait bien jouer les troubles fêtes. Le site AFTVnews révèle en effet qu’Amazon sonde actuellement ses utilisateurs pour connaître les fonctionnalités les plus importantes qu'une messagerie doit apporter à leurs yeux. Images à l’appui récupérées auprès d’internautes, le média révèle que le service s’appellerait Anytime. « C’est gratuit, c’est rapide et toujours sécurisé », vante même le teaser. AFTVnews - Un recyclage des recettes de Snapchat Anytime recyclerait tous les fondamentaux qui ont fait le succès de WhatsApp et Snapchat. A savoir, des communications sécurisées car chiffrées, des appels audio et vidéo, la possibilité de partager photos et vidéos, et de lancer des conversations de groupe avec @mentions. Sans compter toute la palette habituelle de personnalisations ludiques : GIFs, stickers, emojis, masques, filtres, etc. Anytime semble toutefois vouloir jouer aussi la carte "desktop" en précisant bien ne pas se réduire à une application mobile et être disponible sur tous les supports. AFTVnews - Une messagerie fortement inspirée de Facebook Messenger Et pour clore le tout, Amazon semble lorgner également du côté de la messagerie chinoise WeChat et de Facebook Messenger qui proposent beaucoup de services intégrés mettant en relation les utilisateurs avec des marques et des entreprises, notamment via des bots. Il devrait ainsi être possible de réaliser des achats et d’effectuer des réservations via Anytime. Le partage de location, la commande de repas et le paiement d’une addition groupés sont également prévus. Ce qui semble là encore, directement inspiré de Facebook Messenger. Amazon n’inventerait donc rien de bien nouveau mais possède de nombreux atouts dans sa manche. Il compte plus de 310 millions d'utilisateurs dans le monde (chiffres Statista en avril 2016). Une base de clients gigantesque qui pourrait lui permettre de s’imposer sur un marché pourtant saturé. La perspective d’un service tout en un pourrait aussi séduire un public lassé de se disperser entre plusieurs applications. D'autant que le géant de l'e-commerce semble avoir trouvé un moyen de contourner un des problèmes de jeunesse de ce genre de produit. Il semblerait en effet qu'Anytime permette de retrouver ses amis simplement par leur nom, sans avoir besoin d'un numéro de téléphone. On ne sait pas ce que cela implique pour l'instant, mais peut-être cette application puisera-t-elle dans les réseaux sociaux existants et les applications concurrentes qu'elle cherche à détrôner. Enfin, Amazon reste un des leaders des assistants domestiques avec Alexa qui équipe toute une palette de haut-parleur intelligents comme Echo. Il possède donc une expertise en matière d’agent conversationnel et de langage naturel qui pourrait être réutilisée au sein d'Anytime. Et ce, d’autant plus qu’il vient d’intégrer les appels vidéos et audio à son dernier produit Echo Show qui dispose d’un écran. Anytime devrait donc arriver sur Android, iOS et nos PC/Mac. On ne sait simplement pas quand, ni si le service sera lancé mondialement ou par région.
  17. Après Nintendo, Atari joue la carte de la nostalgie et dévoile son Ataribox Suivant l’exemple couronné de succès de la NES Mini Classic, la marque mythique vient de dévoiler sa future console, teasée depuis quelques semaines déjà. Une sorte de réédition de la populaire Atari 2600 pour satisfaire les anciens fans, et peut-être les nouveaux. Lors du dernier salon de l’E3, Atari avait diffusé un mystérieux teaser évoquant un nouveau produit, lançant même dans la foulée un site officiel Ataribox. De quoi susciter la curiosité de sa communauté qui n’a pas été déçue par la suite. Ils viennent en effet d’avoir la primeur d’une série de photos présentant une console sous toutes ses facettes et cette déclaration d’intention envoyée par mail : « Notre objectif est de créer quelque chose de nouveau, qui reste dans la lignée de notre héritage, tout en s’adressant à la fois aux anciens et aux nouveaux fans d’Atari ». Atari - L'Ataribox avec ses nervures rappelant le modèle Atari 2600. Jouer sur la popularité de l'Atari 2600 Les nervures et le design du produit évoquent résolument le modèle Atari 2600, une console produite entre 1977 et 1992 et qui connut un succès historique grâce à sa longévité et à des jeux comme Space Invaders ou Adventure. En France aussi, elle est restée mythique. Deux versions seront commercialisées : une en bois, et l’autre en rouge et noir. Atari - Deux versions de l'Ataribox seront disponibles : une en bois et l'autre en noir et rouge. Dans la foulée du triomphe de la réédition de la NES Mini Classic de Nintendo, Atari semble donc bien décider à jouer la carte du retrogaming tout en offrant un boîtier à la hauteur d’une console d’aujourd’hui. Pour le moment, on ne connaît que quelques détails concernant la connectique : l’Ataribox comportera en effet un support de carte SD, un port HDMI, quatre ports USB et un port Ethernet. Sans plus d’informations techniques, mais l'emplacement pour une carte de stockage externe peut laisser espérer plus d'ouverture que dans la mini console de Nintendo. Atari - L'Ataribox s'inspire du succès de la réédition de la NES Mini Classic. Côté catalogue, l’Ataribox sera disponible bien évidemment avec tout son lot de jeux anciens mais aussi, promet Atari des "contenus actuels". Aucun détail, en revanche, sur la date de sortie ou le prix de lancement.
  18. Les logiciels Kaspersky ne sont plus assez sûrs pour le gouvernement américain Les produits de l’éditeur russe ont été déréférencés des listes de fournisseurs approuvés par le gouvernement américain. En même temps, un article de Bloomberg épingle l’entreprise sur des liens supposés avec le FSB, le service secret russe. Aux Etats-Unis, l’étau se resserre autour de Kaspersky. Selon Reuters, la GSA, l’agence responsable des achats informatiques pour les organismes gouvernementaux, a retiré les logiciels de sécurité de l’éditeur russe de deux de ses listes de fournisseurs approuvés. Selon The Register, il s’agit des listes GSA Schedule 67 et GSA Schedule 70, regroupant respectivement des produits photo et des produits informatiques. C’est évidemment cette deuxième liste qui est la plus importante pour un fournisseur tel que Kaspersky. Ce déréférencement a été réalisé « après un examen minutieux » et dans le but « d’assurer l’intégrité et la sécurité des systèmes et des réseaux du gouvernement américain », a souligné une porte-parole de la GSA auprès des médias. Il n’empêchera pas un organisme gouvernemental de se procurer l’antivirus russe, mais cet achat ne pourra plus se faire par le canal d’approvisionnement officiel. Acquérir des logiciels Kaspersky deviendra donc plus difficile. Ce bannissement des listes GSA intervient alors que Kaspersky est la cible d’une polémique qui dure maintenant depuis plusieurs mois. En mai dernier, des chefs du renseignement américain avaient affirmé surveiller de près l’activité de l’entreprise qu’ils soupçonnent d’être à la solde de Moscou. Ils craignent que ses logiciels puissent servir de porte d’entrée à une cyberattaque. Kaspersky a toujours réfuté ces accusations, ce qui n’a pas empêché la commission des services des armées du sénat de voter, le mois dernier, un projet de loi interdisant l’utilisation des produits Kaspersky dans l’armée américaine. Un projet secret de développement anti-DDoS Un nouveau rebondissement est intervenu hier, avec la publication d’un article de Bloomberg qui explique que l’éditeur développerait des outils de sécurité pour le compte du FSB, le service secret russe, descendant du KGB. Ce qui prouverait que l’éditeur est de mauvaise foi, car Kaspersky a toujours dit qu’il ne collaborait pas avec le gouvernement russe. L’article de Bloomberg s’appuie sur des emails datant d’octobre 2009 dans lequel il serait question d’un projet secret pour lutter contre les attaques DDoS et permettant de réaliser des raids contre des hackers. Ce projet serait d’ailleurs piloté par un ancien officier du KGB. Dans un communiqué, Kaspersky estime que l’article fait une série de mauvaises interprétations et réfute ces allégations point par point. Ainsi, il n’y aurait aucun projet de développement secret avec le FSB ou une autre agence gouvernementale russe. L’éditeur se contenterait simplement d’aider les forces de police dans l’analyse des cyberattaques, comme cela se fait dans tous les pays. PhD for 'banya journalism' goes to Bloomberg. Numerous allegations, misinterpretations & fakes. This story is BS brewed on political agenda — Eugene Kaspersky (@e_kaspersky) July 11, 2017 L’outil anti-DDoS existe bel et bien. Toutefois, il n’a pas été développé pour le compte du gouvernement russe, mais pour tous ses clients entreprises. Par ailleurs, cet ancien officier du KGB dont il est question n’aurait jamais piloté le développement de cette solution. De plus, il n’était pas réellement un agent secret, mais un officier des douanes. Ce service était intégré au KGB à l’époque de l’union soviétique.
  19. Windows Phone est (officiellement) mort rois ans après son lancement, le système d’exploitation pour smartphones Windows Phone 8.1 est arrivé en fin de support. Effaçant ce qui restait de l’ADN de Nokia dans le corps de Microsoft. Windows Phone 8.1, c'est fini : Microsoft a annoncé hier soir la fin du support de la dernière version de son système d’exploitation mobile. En clair : si vous êtes l’un des (rares) utilisateurs de l’OS mobile de Microsoft, votre appareil ne connaîtra plus aucun correctif de sécurité, de mise à jour de fonctionnalités, etc. Microsoft tire ainsi un trait sur l’intégralité de sa stratégie mobile passée. Et tente d’oublier l’impossible digestion de Nokia. 7 ans de malheurs Comme Gizmodo le rappelle, l’histoire des OS pour smartphones modernes chez Microsoft commence en 2010 avec Windows Phone 7. Si l’histoire de Windows mobile commence en 2000 avec des versions basées sur un noyau Windows CE, c’est bien la version Phone 7 qui marque l’entrée de Microsoft dans la compétition face à Apple et Google. La dernière itération de Windows Phone remonte à 2014 : baptisé Windows Phone 8, ce système était une évolution majeure mais la cause n’a jamais pris, notamment à cause du fait de l’impossibilité pour les utilisateurs de la génération précédente, WP7, de réaliser une quelconque mise à jour. En fragmentant ainsi son petit marché, Microsoft a endossé le rôle de lâcheur pour nombre d’utilisateurs de WP7, un geste qui a conduit nombre d’utilisateurs à passer à « l’ennemi ». La stratégie schizophrène qui combinait vente directe sous la marque Lumia et partenariat avec des industriels (Acer, HTC, ZTE, etc.) a finalement handicapé les volumes de ventes faces aux stratégies claires d’Apple et Google – le premier fait tout, le second délègue presque tout, les Nexus et Pixel servant uniquement de références. Windows 10, OS à tout faire… vraiment ? En abandonnant son dernier OS Mobile, Microsoft ne se retire pas tout à fait du marché des smartphones : l’entreprise de Redmond dispose toujours de Windows 10. Le système de bureau de Microsoft peut en effet fonctionner sur des téléphones mobiles et se transformer en PC « normal » quand on le relie à un écran - comme le HP Elite X3. Les terminaux mobiles qui fonctionnent sous Windows 10 sont cependant rares, professionnels et chers. Pas de quoi relancer l’entreprise dans le monde des smartphones. Et son retour est d’autant plus compromis que des spécialistes comme Samsung commencent à mettre au point des surcouches d’Android capables de transformer un smartphone en PC de bureau une fois branché à un écran.
  20. Microsoft regroupe Windows 10 et Office 365 dans un seul abonnement L'éditeur vient d'annoncer les offres Microsoft 365 Business et Enterprise pour les entreprises. Une telle solution pourrait-elle arriver pour le grand public ? Après avoir annoncé une synchronisation entre les dates de sorties des nouvelles versions de Windows 10 et d'Office 365 (mars et septembre), Microsoft lance deux nouvelles offres pour les entreprises qui regroupent le système d'exploitation et la suite bureautique. Baptisées Microsoft 365 Business et Enterprise, elles fonctionnent sur le principe de l'abonnement et garantissent un support et des mises à jour régulières. Les offres comprennent également en ensemble d'outils dédiés à la sécurité et à la mobilité (Enterprise Mobility + Security). La tarification de Microsoft 365 Enterprise (versions Enterprise de Windows 10 et de Office 365) dépend de plusieurs facteurs, par exemple du nombre de postes dans l'entreprise. Celle de Microsoft 365 Business (jusqu'à 300 utilisateurs) est fixée à 20 dollars par utilisateur et par mois. Un jour, Windows 10 par abonnement pour tous ? Si cette approche est naturelle pour les entreprises, qui nécessitent que leurs outils logiciels soient à jour, pourrait-elle aussi être appliquée au grand public ? En effet, la façon dont Microsoft commercialise ses programmes a beaucoup évolué ces dernières années. Il y a quelques années, les utilisateurs obtenaient en général Windows avec leur ordinateur et achetaient Office, mais devaient ensuite mettre à nouveau la main au porte-monnaie pour acheter les versions suivantes du système d'exploitation et de la suite bureautique. Avec Windows 10, Microsoft a changé la donne en considérant l'OS désormais comme un service et en proposant des nouvelles versions gratuites tous les 6 mois. De plus, les utilisateurs de Windows 7 et Windows 8 ont pu passer gratuitement à Windows 10. Côté Office, Microsoft vend pour 149 euros une version « Famille et Etudiant 2016 » pour PC et Mac, comprenant Word, Excel, PowerPoint et OneNote, une suite donc assez minimaliste. Mais l'éditeur propose aussi et surtout désormais Office 365 par abonnement (à partir de 69 euros par an ou 7 euros par mois), qui ajoute Outlook, Publisher et Access, ainsi que 1 To d'espace de stockage OneDrive et 60 minutes d'appels Skype par mois. Cette offre permet d'avoir les applications Office toujours à jour et disponibles sur différents ordinateurs, smartphones et tablettes. Et si cela dépendait de Windows 10 S ? Les utilisateurs étant de plus en plus habitués aux systèmes d'abonnement (Box Internet, forfait téléphonique, Netflix, Spotify), on peut imaginer que Microsoft propose aussi un jour un "bundle" pour le grand public, comportant Windows 10 et Office 365, voire des services supplémentaires (Xbox Live Gold, par exemple ?), sur le même principe. Si l'avantage est clair pour Office, il l'est à l'heure actuelle beaucoup moins pour Windows 10 en raison de la gratuité actuelle des nouvelles versions. La solution pourrait venir de Windows 10 S qui est une version limitée de Windows 10 Professionnel pouvant convenir à des besoins basiques. Microsoft pourrait remplacer Windows 10 par Windows 10 S dans les nouveaux PC, ce qui permettrait de les vendre moins cher, et réserverait les versions actuelles de Windows 10 (Famille et Professionnel) aux abonnements. La stratégie de Microsoft pourrait dépendre de l'accueil ou du rejet de Windows 10 S par les utilisateurs. Il faudra donc attendre l'arrivée des premiers PC Windows 10 S pour voir si les acheteurs se contentent de l'OS bridé, ou mettent rapidement la main au portefeuille (environ 50 euros) pour passer à Windows 10 Professionnel. Source : Microsoft
  21. Ubuntu est maintenant disponible sur le Windows Store Annoncée lors de la conférence dédiée aux développeurs -la Build 2017, l'appli Ubuntu débarque dès aujourd'hui sur le Windows Store de Microsoft. Ça y est, Ubuntu arrive dans Windows 10 ! L'application officielle de l'une des plus populaires des distributions Linux est dorénavant disponible dans le Windows Store, gratuitement, conformément aux promesses faites par Microsoft lors de sa dernière conférence Build. Les distributions SUSE et Fedora arriveront, elles, plus tard dans l'année, normalement en même temps que la prochaine mise à jour de Windows 10, la Fall Creators Update. AS/01net.com - Avant de pouvoir installer la distribution, Microsoft préconise de se rendre dans le Panneau de configuration, et sélectionner le menu « Activer/désactiver les fonctionnalités Windows ». Dans ce dernier il faut cocher l'option « Sous-système Windows pour Linux » et redémarrer la machine. L'appli sera alors prête à fonctionner. A vous les lignes de commandes et l'environnement Linux, s'exécutant au sein d'une machine virtuelle tournant en parallèle de Windows 10, et qui partage les fichiers et les ressources matérielles de votre PC pour fonctionner. Télécharger Ubuntu pour Windows 10 (Gratuit)
  22. Twitter : masquez (presque) toutes les notifications indésirables Quelques nouveaux filtres viennent d'être ajoutés au réseau social, tous très pratiques pour assainir le fil « Notifications ». Twitter met à disposition de ses utilisateurs de nouvelles « armes » pour lutter contre le spam, les trolls et autres usagers au comportement parfois étrange. Les équipes du réseaux social gazouillant viennent s'ajouter quelques nouveaux filtres pour permettre, par exemple, de masquer les notifications en provenance de comptes non authentifiés ou à peine créés, que vous ne suivez pas ou qui ne vous suivent pas. AS/01net.com - Pour activer ce nouveau paramètre sur la version Web, il suffit de faire un détour par l'onglet des « Notifications » et d'ouvrir le panneau des « Paramètres ». Là apparaissent les nouveaux champs à cocher pour gagner un peu de tranquillité. Dans les applis iOS et Android (mise à jour à effectuer en amont), rendez-vous dans la timeline des « Notifications », sélectionnez la roue dentée puis « Filtres avancés » et vous retrouverez les mêmes options que dans la version web. Twitter multiplie les outils utilisateurs pour assainir la volière Ces nouveaux filtres viennent compléter toutes les mesures déjà prises par Twitter pour lutter contre les comportements jugés « abusifs » par de plus en plus d'utilisateurs. Par exemple, l'année dernière, la plateforme lançait une fonction permettant de masquer les messages de comptes bloqués même si ces derniers envoient un message à destination de votre alias. Plus tôt cette année, une option implantée offrait la possibilité de masquer les tweets des comptes n'ayant pas d'avatar ou dont le mail/le numéro de téléphone n'étaient pas vérifiés par la plate-forme. Sans oublier, en mai dernier, l'ajout d'une sous-boîte de réception dans laquelle les messages directs d'utilisateurs que vous ne suivez pas sont automatiquement placés (à condition que vous ayez coché l'option « Recevoir des Messages Privés de n'importe qui ». Source : The Verge
  23. Spotify trompe-t-il ses abonnés en leur diffusant de faux artistes ? Le service de streaming inclurait dans ses playlists les plus populaires des morceaux composés par de faux artistes sous pseudonyme. Commandés directement auprès de producteurs, ces oeuvres n’existent nulle par ailleurs et permettraient à Spotify d’encaisser directement les royalties. Spotify produit-il ses propres morceaux sans jamais oser l’avouer ? Le service de streaming musical inclurait dans ses playlists les plus populaires des oeuvres commandées directement à de faux artistes. Ces derniers, exclusivement sous pseudonyme, ne sont présents que sur Spotify et nulle part ailleurs. Leurs morceaux cumulent des centaines de millions d’écoutes. L’argent ainsi récolté irait directement dans la poche de Spotify, qui en détiendrait les droits, et non dans celle des artistes que la société aurait commandité. Cette méthode permettrait également à l’entreprise de réduire la part des droits qu’elle reverse aux majors et aux labels. Une réaction tardive de Spotify met le feu aux poudres Spotify avait été accusé de ces pratiques il y a déjà presque un an, en août 2016 par le site spécialisé Music Business Worldwide. Si elle avait provoqué de vifs débats à l’époque, l’affaire n’avait jamais été commentée par Spotify. Mais le 7 juillet dernier, la société réagit tardivement auprès de Billboard. « Nous n’avons jamais créé de faux artistes pour les mettre dans des playlists, explique ainsi un porte-parole de la société. Nous ne possédons aucun droit, nous ne sommes pas un label, toute notre musique est licenciée auprès d’ayants droit que nous payons. Nous ne nous payons pas nous même. » Cette déclaration catégorique n’a pas manqué de faire à nouveau réagir Music Business Worldwide. Ce 9 juillet, le site a finalement décidé de publier une liste des faux artistes en question. Il s’était refusé à le faire en août 2016, pour protéger ses sources de l’époque, mais devant les déclarations de Spotify, il estime désormais que c'est le meilleur moyen de prouver ses affirmations. Des artistes inconnus, sans site, ni Twitter, ni Facebook Cette liste de 50 faux artistes parait effectivement délirante quand on connaît la difficulté des vrais artistes à se faire connaître du public. Il faut généralement avoir le soutien d’une maison de disque pour mettre en place un plan de promotion et espérer qu’elle arrive à négocier auprès de Spotify la présence de l’une de ses chansons dans une playlist. Ces dernières sont en effet devenues le nerf de la guerre, elles sont le point d’entrée de la grande majorité de ses abonnés au sein du vaste catalogue de Spotify (plus de 30 millions de titres). Y figurer est généralement synonyme de succès garanti et des revenus qui vont avec. Dans cette liste on retrouve ainsi des noms inconnus de n’importe quel mélomane averti. Ces artistes ne sont présents que sur Spotify et aucun autre service concurrent. Ils n’ont pas de compte Twitter, Facebook, ni même de site Internet. Pourtant, si l’on prend l’exemple d’un certain Charles Bolt, ses deux uniques morceaux cumulent plus de 32 millions d’écoutes. Un ratio absolument improbable pour un artiste inconnu de tous. Au total, ces 50 artistes comptabilisent plus de 520 millions d’écoutes, soit l’équivalent de 3 millions de dollars de royalties. Capture d'écran - Des morceaux mis en avant dans des playlists populaires Leur secret pour émerger aussi facilement ? Être inclus dans certaines des playlists les plus populaires de Spotify comme « ambient chill », « peaceful piano » ou encore « music for concentration ». Très appréciées, elles cumulent parfois plus de 2 millions d’abonnés qui recherchent une musique tranquille pour travailler. Certaines mauvaises langues n’hésiteront pas à les qualifier de musique d’ascenseur : le plus souvent une mélodie au piano, sans jamais de chant trop facilement reconnaissable. Ces artistes fourniraient ainsi de la musique au kilomètre pour alimenter ces playlists de Spotify. Capture d'écran - Un producteur européen a confirmé à Music Business Worldwide qu’il avait effectivement conclu un accord avec Spotify pour créer des morceaux sous un faux nom d’artiste. D’autres acteurs du music business ont également déclaré que la pratique était connue dans le milieu et constituait une tentative de la part du service de faire baisser ses coûts de licence. Une stratégie qui permettrait de reverser moins de royalties C’est là que se trouverait la raison principale de cette initiative. Spotify ne voudrait pas se transformer en maison de disque, l’intérêt artistique de ces oeuvres est clairement limité. Mais en incluant dans ses playlists populaires des morceaux dont elle détient les droits, la société fait mécaniquement baisser le nombre d’écoutes des chansons produites par les majors et donc les royalties qu'elle doit reverser aux ayants droit. Celles-ci représentent en effet la grande majorité de ses dépenses et lui coûtent beaucoup d’argent. Au point qu’après plus de dix ans d’existence, la société n’est toujours pas rentable. En 2016, Spotify a généré plus de 3 milliards de dollars de chiffre d’affaires, mais a perdu dans le même temps 581 millions de dollars. A l’heure où l’entreprise est en pleine renégociation de ses licences avec Warner et Sony, cette polémique sur ces faux artistes risque fort bien de ne pas plaire à ces deux importantes majors.
  24. Cette mémoire cache virtuelle pourrait rendre les processeurs bien plus performants Des chercheurs du MIT ont imaginé une nouvelle méthode de gestion de la mémoire cache, capable de s’adapter aux spécificités de chaque application. Vitesse de calcul et consommation énergétique s’en trouvent sensiblement améliorées. Avec le déclin de la loi de Moore, l’industrie des semi-conducteurs cherche sans arrêt des voies alternatives pour gagner en performance. Actuellement, ce gain est surtout obtenu en multipliant les cœurs de calcul sur la puce. Mais il y a d’autres possibilités, comme l’optimisation de la mémoire cache. Trois chercheurs du MIT viennent justement de présenter « Jenga », une méthode de gestion de la mémoire cache qui permet d’augmenter la vitesse de calcul de 20 à 30 % tout en réduisant la consommation énergétique de 30 à 85 %. Ce qui est considérable. Pour comprendre comment ça marche, un petit rappel s’impose. Dans les processeurs, la mémoire cache est organisée de façon hiérarchique en plusieurs niveaux (L1, L2, L3, L4), du plus rapide et plus petit au plus lent et plus grand. Dans les architectures multicœurs, chaque cœur dispose de caches L1 et L2 qu’il est le seul à pouvoir utiliser. Il dispose également d’un cache L2 à proximité directe qu’il partage avec les autres cœurs. Enfin, L3 est un pool de mémoire partagé situé en dehors de la puce. L1, L2 et L3 sont généralement de la SRAM, L4 plutôt de la DRAM. MIT - Cette hiérarchie est bien pratique, car elle optimise le fonctionnement de la puce en attribuant une priorité d’accès aux données. Celles auxquelles le processeur doit accéder rapidement et en permanence sont stockées en L1 ou L2. Celles qui sont moins importantes viennent en L3 et L4. Mais selon les chercheurs Po-An Tsai, Nathan Beckmann et Daniel Sanchez, la gestion de ces deux derniers niveaux est trop rigide et ne tient pas assez compte des spécificités des applications. Une structure de données peut, en raison de sa taille, se retrouver répartie sur L3 et L4, ce qui contraint le processeur à systématiquement interroger les deux mémoires pour trouver la donnée recherchée. Il serait peut-être mieux de tout mettre en L4. Certes, le temps d’accès serait plus long, mais il y en aurait moins, et globalement on y gagnerait. Reconfigurée toutes les 100 millisecondes L’idée de Jenga est donc de créer des niveaux de cache virtuels à partir des mémoires L3 et L4, et cela en fonction des besoins de chaque application. Parfois, il n’y aurait qu’un niveau virtuel, constitué de L3 ou de L4 ou d’une combinaison des deux. Parfois, il y aurait deux niveaux virtuels, constitué de L3 ou de L4 ou d’une combinaison des deux. Tout est possible, à condition que la performance soit globalement augmentée. L’allocation des ressources est réalisée par un algorithme plutôt complexe qui calcule la configuration optimale de la mémoire toutes les… 100 millisecondes. Une cuisine qui reste totalement transparente pour l’application. MIT - Les chercheurs ont réalisé un prototype de leur technologie en s’appuyant sur une puce avec 36 cœurs, avec un cache L3 SRAM de 512 KO et un cache L3 DRAM de 4 x 256 MO. Ils ont implémenté Jenga sous la forme d’un processus permanent au niveau du système d’exploitation. Ils l’ont ensuite testé sur une vingtaine d’applications. Les résultats sont évidemment très différents. Parfois, Jenga n’apporte rien, mais souvent la performance de la puce s’en trouve améliorée grâce à la réduction du nombre d’accès mémoire. Un résultat qui va certainement influencer les prochaines architectures de processeurs. Source: MIT, Papier scientifique
  25. PlayStation Now, le service de jeux PS3 et PS4 dans le Cloud arrive enfin en France Sony lancera la version française du PlayStation Now, d'ici à la fin de l'année et les inscriptions à une phase de bêta privée sont ouvertes. Vous avez toujours rêvé de jouer aux hits PS3 et PS4 en streaming, tant sur votre console préférée (la PS4/PS4 Pro) que sur votre PC ? Sony va exaucer votre souhait ! Le PlayStation Now (PS Now), disponible notamment au Japon et aux Etats-Unis, va bientôt être accessible en France, au Luxembourg et en Allemagne. Sony évoque un lancement d'ici à la fin de l'année et les plus impatients peuvent d'ores et déjà s'inscrire à la bêta fermée. Attention, il n'y en aura pas pour tout le monde ! Pour rappel, le PlayStation Now est un service payant fonctionnant sur abonnement mensuel (actuellement 16,99 €, selon le site anglais). En tout, ce sont plus de 450 jeux qui sont directement accessibles, et vous pouvez en profiter sans que la moindre donnée ne soit téléchargée sur votre console ou votre PC. Le service vous met en relation avec des serveurs de jeux distants sur lesquels tournent les titres et vos sauvegardes et succès sont conservés dans le Cloud. Un service gaming analogue à celui proposé par le GeForce Now de Nvidia, accessible uniquement via la Shield TV ou la Shield Tablet en France et -peut-être un jour- à la demande. Quoi qu'il en soit, pour tirer pleinement parti de ce type de service, l'ASDL2+ ou, mieux, la fibre optique sont chaudement recommandées.