mk78

Membres +
  • Compteur de contenus

    2 423
  • Inscription

  • Dernière visite

  • Jours gagnés

    13
My Favorite Songs

mk78 a gagné pour la dernière fois le 26 mai 2016

mk78 a eu le contenu le plus aimé !

Réputation sur la communauté

1 928 Excellent

1 abonné

À propos de mk78

  • Rang
    mk78
  • Date de naissance 14/06/1968

Profile Information

  • Pays
  • Ville
    terre
  • Genre
    Homme
  • Centre d'Intérêts
    Centre d'Intérêts ba le forum sens je serai pas la

Visiteurs récents du profil

2 880 visualisations du profil
  1. Nintendo préparerait sa N64 Classic Mini : voici les 10 jeux qu’on veut dedans ! En déposant un logo stylisé de la manette de sa Nintendo 64 auprès de l’Office européen de la propriété intellectuelle, la firme japonaise a attisé les attentes autour la sortie supposée d’une version « Classic Mini » de cette console. La Super Nintendo Classic Mini n’est pas encore sortie que déjà certains éléments laissent supposer que Nintendo est déjà en train de préparer une version « mini » de sa célèbre console N64. Un membre du forum spécialisé dans les jeux vidéo NeoGAF a en effet détecté plusieurs dépôts de marque de la part de la firme japonaise : des logos de manettes stylisés. Les deux premiers sont ceux utilisés par Nintendo pour symboliser ses NES Classic Mini et SNES Classic Mini, les suivants sont une manette de Nintendo Switch (on n’est jamais trop prévoyant !) et la fameuse manette en forme de vaisseau spatial de la Nintendo 64. C’est la publication de cette dernière manette qui a mené de nombreux commentateurs et journalistes à affirmer – sans grand risque – que le japonais préparerait une version Classic Mini de sa console de salon qui fonctionnait avec des cartouches. Lancée entre 1996 et 1997 selon les régions du monde, la N64 s’est vendue à 33 millions d’exemplaires, un échec au regard des ventes de la Super NES, écoulée à presque 50 millions d’exemplaires mais surtout face au champion de sa génération, un challenger nommé Sony dont la première console, la PlayStation, s’est écoulée à plus de 100 millions d’exemplaires. Evan-Amos / Domaine Public / Wikimedia - L’arrivée dans les années qui viennent – 2018 ? 2019 ? – d’une N64 Classic semble tout à fait logique au vu des succès de vente de la NES Classic et du nombre de précommandes de la SNES Classic qui sera lancée en 29 septembre prochain. Les jeux incontournables La sélection des jeux de la Super NES Classic n’a pas déçu. Logique, la console originale fut un succès et son parc de jeux, immense. Malheureusement, le demi-échec de la N64 fut, notamment, causé par un manque de jeux d’éditeurs tiers. En effet, entre le format de cartouche, plus limité en termes de coût et d’espace que le CD de la PlayStation, les conditions drastiques (pas de nudité, pas de sang) et les royalties élevées que Nintendo ponctionnait à l’époque, peu d’éditeurs et peu de studios ont tenté l’aventure de la N64, ce d’autant plus que l’univers Nintendo a toujours été plus favorable aux jeux de la maison. Heureusement, « Big N » a développé quelques bons titres en interne et avait passé un partenariat avec le génial studio Rare. Voici notre top 10 des jeux qu’on attend le plus… si Nintendo décide vraiment de sortir sa N64 Classic, of course. 01. The Legend of Zelda: Ocarina of Time Certains joueurs n’ont acheté la N64 que pour ce titre : c’est avec Ocarina of Time que la franchise Zelda a fait - et réussit - sa mue 3D. C’est l’un des titres les mieux notés de l’histoire. 02. The Legend of Zelda: Majora’s Mask Suite plus sombre d’Ocarina of Time, Majora’s Mask poursuit l’aventure Zelda. S’il ne profite pas de l’effet « wow » de son prédécesseur qui initiait le mode 3D, il s’impose tout de même comme une référence. 03. Banjo-Kazooie L’un des rares titres non Nintendo à se placer dans tous les top 10 des meilleurs jeux de la console. Mélange de jeu d’aventure et de jeu de plateforme/exploration, Banjo-Kazooie est l’un des titres phare de la console, un titre que l’on doit au génial studio Rare, référence de son époque. 04. Super Mario 64 Les premières aventures en trois dimensions du plombier italien furent une franche réussite et ont marqué une rupture nette avec le look 2D si pixélisé des générations précédentes. 05. GoldenEye 007 Meilleur FPS de la console, cette adaptation des tribulations meurtrières du plus célèbre agent secret fictif britannique fut surtout l’un des meilleurs jeux multijoueurs de l’époque avec son mode fenêtré sur un seul écran. Encore une merveille de Rare. 06. Star Fox 64 Le retour des aventures aériennes de Mr Renard et de ses amis le lapin et la grenouille aux commandes de leurs chasseurs spatiaux. Le meilleur jeu de simulation aérienne de la console, même si son prédécesseur reste la référence, au regard du caractère exceptionnel qu’avait la 3D sur la SNES. 07. Mario Kart 64 Remake tri-dimensionnel de la franchise née sur Super NES, Mario Kart 64 est devenu le maître étalon du genre auquel toutes les itérations 3D des consoles suivantes doivent se mesurer. 08. Perfect Dark Ce jeu de tir à la première personne en mode infiltration est l’héritier spirituel de GoldenEye et sans doute l’un des plus beaux titres de la console. On vous le donne en mille : encore un titre du studio Rare. 09. Super Smash Bros Jeu de combat façon sumo – il faut sortir l’adversaire du ring - Super Smash Bros tirait pleinement partie des 4 prises pour manettes de la N64 et fut la première occasion de voir s’affronter Mario, Link ou Kirby dans le même jeu. 10. Ogre Battle 64 Si les RPG étaient rares sur N64, les tactical RPG l’étaient encore plus. Inédit en Europe, ce titre de la saga Ogre Battle est pourtant l’un des plus beaux jeux mélangeant 2D et 3D de l’époque. A réserver aux fans de FF Tactics. Et s'il reste un peu de place dans la mémoire intégrée - et pour éviter de se faire incendier par certain(e)s fangirls/fanboys, voici les 10 autres jeux qui méritent une place : 11. Donkey Kong 64 12. Paper Mario 13. 1080 Snowboarding 14. Mario Party 3 15. Killer Instinct 64 16. Pokémon Stadium 17. Star Wars: Shadow of the Empire 18. Wave Race 64 19. Resident Evil 2 20. Kirby 64: The Crystal Shards La balle est désormais dans le camp de Nintendo qui jugera sans doute au regard des ventes de sa SNES Classic.
  2. Google Home débarque chez nous le 3 août mais il parle déjà français... avec l'accent québécois ! Quinze jours avant sa sortie officielle en France, l’assistant vocal de Google est déjà capable de parler en français. La version québécoise est disponible depuis quelques jours. « Je pète le feu et j’brule d’envie d’vous aider ». Ça y est, l’enceinte connectée du géant américain s’exprime enfin dans la langue de Molière et de... Céline Dion ! Surprise, elle possède un délicieux petit accent québécois. Certes, la notion d’accent est toute relative car, pour nos cousins de la Belle Province, c’est plutôt nous, Français, qui nous exprimons d'une drôle de façon). Google Home doit être commercialisé officiellement dans l’hexagone le 3 août prochain (l’appareil sera vendu 149 euros). En attendant, le « québécois » est d’ores et déjà disponible, en plus de l’anglais et de l’allemand. Il suffit d’aller dans les paramètres de l’application pour sélectionner cette langue par défaut. Les heureux pionniers - dont nous sommes - qui ont importé une version américaine du produit, n’auront qu’à faire la mise à jour de l’application début août pour pouvoir paramétrer la langue française « de France » et rendre ainsi leur assistant compatible. Fonctions identiques à la version US Google Home en français, ça donne quoi ? C’est à peu près la même chose qu’en anglais. Autant qu’on puisse en juger, les fonctions sont identiques à celles offertes par la version américaine : infos pratiques (météo, trafic, distances, recherche de commerces à proximité, etc.), informations encyclopédiques, musique (à partir de Google Music ou Spotify) ou encore calculs arithmétiques et conversion d’unités (ex : litres en décilitres). Le service d’actualité a été localisée et il est possible d’écouter le dernier bulletin francophone de Radio Canada en plus des flashs de la BBC ou de CNN. Seules les commandes domotiques, pour piloter des objets connectés, ne sont pas encore disponibles dans la version « québécoise » que nous avons testée. Google Home sera le premier assistant vocal domestique commercialisé en France. La version francisée d’Amazon Echo (Alexa) n’est toujours pas annoncée et Djingo d’Orange ne sortira pas avant 2018.
  3. bonsoir

    ils sont occupé à poluer à 4 avec des "hors sujet"

    veux-tu bien les empêcher ( modifier ou supprimer)

    merci

  4. YouTube met fin à ses outils d'édition photo et vidéo Les applications de montage vidéo et de diaporamas photo de YouTube ne seront plus disponibles à partir du 20 septembre prochain. La plateforme de Google renvoie ses utilisateurs sans plus de formalité vers des applications tierces. YouTube fait le ménage dans ses fonctionnalités. La plateforme de Google ne veut plus s’embarrasser de ses outils d’édition, à savoir le montage vidéo et les diaporamas photo. Elle a décidé d’y mettre fin à partir du 20 septembre. Dommage ! Ces applications étaient efficaces et directement intégrées à la plateforme. Ce qui permettait, lorsque l’on a une chaîne YouTube, d’importer du contenu, de l’éditer et de le mettre en ligne en même temps et au même endroit. Voici le message affiché par le site : YouTube - L’application de montage offre la possibilité de réaliser des montages avec des effets, des transitions, des synthés, de la musique et l’accès à une bibliothèque de contenus libres. A condition de se concentrer sur des vidéos courtes sans ambitionner un rendu professionnel, c’est une alternative en ligne et gratuite aux lourds et dispendieux logiciels de montage à télécharger en dur. Idem pour l’outil de diaporama qui sert à convertir des fichiers audio ou des images en fichiers vidéos lisibles sur YouTube. On pourra toujours récupérer ses fichiers d'origine L’onglet "Retouches" restera disponible dans le Gestionnaire de vidéos mais vous ne pourrez plus accéder à vos anciens projets et les modifier à partir de cette date. Pour retrouver vos fichiers d’origine, il faudra passer par Google Takeout (outil de récupération). A l’avenir, vous devrez utiliser d’autres outils de montage et diaporama. YouTube renvoie d’ailleurs avec désinvolture vers les forums de sa propre communauté pour trouver d’autres solutions. Sauf qu’il n’est pas du tout aisé d’y faire son marché. Citons de notre côté différentes plateformes comme Kaltura, Stuppeflix, Kizoa ou encore PhotoBucket mais il en existe bien d’autres.
  5. C’est la fin des mises à jour Windows 10 pour certains processeurs Intel Atom La fin du support par Intel des processeurs Atom Clover Trail force Microsoft à stopper les futures mises à jour fonctionnelles de Windows 10 sur ces plateformes. L'éditeur garantit le maintien des mises à jours de sécurité jusqu’en 2023. C’est un petit coup de poignard dans la stratégie d’un Windows 10 « éternel et toujours à jour » : Microsoft a confirmé les informations publiées par ZDNet en début de semaine indiquant que les machines à base de processeurs Atom de génération Clovertrail (Z2760, Z2520, Z2560, Z2580) ne profiteront plus de nouvelles mises à jour majeure de Windows 10. La Creators Update est ainsi la dernière disponible pour ces PC à bas coûts, tous nés sous la génération Windows 8 et passés sous Windows 10 par le biais du système de mise à jour. Microsoft ne ferme cependant pas totalement le robinet puisque tous les PC sous Atom Clovertrail exécutant actuellement un Windows 10 Creators Update profiteront de mises à jour de sécurité régulières « jusqu’en janvier 2023 », date de la fin du support de Windows 8.1. Effet boule de neige Cette fin de vie microsoftienne – on pourra toujours installer un bon GNU/Linux sur les machines concernée – n’est pas le fait de Microsoft, mais d’Intel qui a mis fin au support logiciel (développement des drivers) de ses processeurs. En regardant un peu dans les spécifications de l’architecture Clovertrail, on remarque que la partie graphique n’était pas le fait d’Intel mais d’Imagination Technology, ces Atom embarquant en effet une puce PowerVR SGX544 et non une solution maison de type HD ou Iris Graphic. Il est ainsi possible que ce soit Imagination Technology qui ait interrompu le support de la SGX544 (une puce vieillissante), forçant ainsi Intel à faire de même. Ce qui aurait conduit Microsoft à mettre, en bout de chaîne, un terme à la vie logicielle de cette puce... Un effet boule de neige qui fait une belle jambe aux - heureusement peu nombreux - utilisateurs de cette puce aux performances plutôt médiocres.
  6. Pourquoi Windows 10 pour ARM ne tournera pas sur les smartphones actuels Si vous espériez que le portage de Windows 10 sur plate-forme ARM apporterait une nouvelle vie à votre Windows Phone, vous allez être déçus... Depuis plusieurs mois maintenant, Microsoft planche sur l'émulation de Windows 10 sur des plates-formes à base de processeurs ARM. Et plus précisément, sur des PC. « Des PC cellulaires », pour reprendre les termes de Microsoft, qui devraient pointer le bout de leurs claviers dans les semaines à venir. Mais quid des Windows Phone, comme les Lumia 950 ou 950 XL, qui sont propulsés par un processeur ARM véloce ? Est-ce qu'ils pourront faire tourner cette future version de l'OS ? Lors d'une Web conférence avec les Windows Insiders, Joe Belfiore (vice Président de la division en charge des systèmes d'exploitation chez Microsoft) a clairement répondu « non » à la seconde question. Une réponse qu'il a justifiée de la façon suivante : « La version Windows 10 pour ARM est pensée pour une expérience PC ou avoisinante. Le but est de proposer des appareils très endurants, capables d'être et de rester connectés de très longues heures. L'environnement de l'OS est donc conçu pour être utilisé sur un PC et non un smartphone. Pour les smartphones, nous avons Windows 10 Mobile. Par ailleurs, sachez que lorsqu'on développe un logiciel pour une plate-forme ARM précise, il n'est pas si facile de la porter sur d'autres. » « Pour le cas précis d'un système d'exploitation, ce dernier est interconnecté et dialogue avec [un logiciel] le BSP (Board Support Package) qui lui-même échange avec le SoC (NDLR : le processeur ARM, en l'occurrence). A l'inverse de l'univers PC x86 (NDLR : équipés de processeurs Intel ou AMD) dont le code binaire de l'OS est interprété peu importe la nature des composants, chaque plate-forme ARM possède ses propres subtilités. C'est donc pour cela que nous n'investirons pas de temps et d'énergie à porter Windows 10 sur toutes les plates-formes ARM actuelles. Et en particulier sur celles utilisées par de moins en moins d'utilisateurs. » A l'occasion du Computex 2017 à Taipei (Taïwan), Qualcomm et Microsoft ont mené une conférence commune dont le principal sujet était les PC Windows 10 équipés de Snapdragon 835 (le seul SoC supporté pour le moment). On notera cependant que Belfiore précise bien que Windows 10 n'est pas prévu sur les smartphones existants... mais n'a pas dit que cela ne serait jamais le cas ni qu'il ne préparait pas quelque chose pour des terminaux mobiles. Source : Windows Central
  7. windob iOS 10 : une faille permet de prendre le contrôle de votre iPhone, mettez-le à jour de toute urgence Apple vient de mettre à disposition une nouvelle mise à jour : iOS 10.3.3. Il est vivement recommandé de l’adopter car elle corrige de nombreuses failles, dont une qui permet de prendre le contrôle de votre appareil à distance. 47 ! C’est le nombre de failles que vient de corriger la nouvelle mise à jour d’iOS 10, la version actuelle de son système d’exploitation mobile utilisée sur 86% des iDevices (iPhone 5 et supérieur, iPad de quatrième génération et suivant, etc.). Numérotée 10.3.3, cette update corrige plusieurs failles importantes qui permettent entre autres l’exécution de code à distance sur votre iPhone, iPad ou iPod touch, sans que vous le sachiez. Sur ce total de 47 failles, 23 ont été trouvées dans WebKit, le moteur de Safari, le navigateur d’Apple. Mais une des failles les plus inquiétantes touche aux puces Wi-Fi, fournies par Broadcom – les modules BCM4354, 4358 et 4359, pour être précis. Elle concerne d’ailleurs aussi bien iOS que macOS. Le bug permet à une personne mal intentionnée d’exécuter du code sur la puce sans-fil, avant d’accéder au processeur principal et de prendre le contrôle à distance de votre appareil pour peu que l’attaquant se trouve à portée du même réseau Wi-Fi. Nitay Artenstein, l’ingénieur qui l’a découverte, présentera d’ailleurs son travail sur ce point lors de la prochaine Black Hat, à la fin du mois. Cela nous permet d’en savoir un peu plus. Cette faille, qui « touche des millions d’appareils Android ou iOS », peut être déclenchée à distance, sans aucune interaction de l’utilisateur, explique-t-il. Autrement dit, il n’est pas nécessaire que le propriétaire de l’iPhone se rende sur un site particulier. Google a déjà publié un bulletin de sécurité Android sur ce point, qui concerne des smartphones LG, HTC ou encore Samsung. Cette faille est particulièrement inquiétante car les éditeurs de système d’exploitation comme Google et Apple font tout leur possible pour renforcer la sécurité des données et des codes exécutés sur leurs plates-formes. Néanmoins, ils ne peuvent rien contre une faille liée à un défaut de conception et de fonctionnement d’une puce embarquée dans leur appareil. Google a donc lui aussi patché cette faille, mais encore faut-il que les mises à jour soient mises à disposition par les fabricants ou les opérateurs. Sur vos iDevices, en tout cas, n’hésitez pas à vous rendre dans Réglages, Général et Mise à jour logicielle. Le fichier pèse environ 90 Mo. N’hésitez pas à le télécharger et l’installer. Source : Apple
  8. Comment SFR compte fibrer 100 % des foyers français L’opérateur affirme pouvoir couvrir l’intégralité des foyers français en très haut débit d’ici 2025. Une annonce accueillie avec scepticisme. Mais l’acteur avance ses arguments. Depuis que le président Macron, à peine élu, s’est emparé du sujet du très haut débit, pas un jour ne passe sans une nouvelle annonce fracassante pour connecter tout notre territoire à la traîne. La plus impressionnante est à coup sûr celle de SFR*. L’opérateur a affirmé le 12 juillet dernier pouvoir couvrir tout le territoire en THD à l’horizon 2025, tout seul, avec ses infrastructures propres, et sans faire appel aux aides publiques. Des réactions sceptiques Une déclaration accueillie avec froideur en France. Le sénateur Hervé Maurey, président de la commission de l’aménagement du territoire et du développement durable, a ainsi affirmé ce matin lors d’une table ronde qu’il restait dubitatif devant les engagements de SFR. D’autres se sont montrés plus virulents. « Comment croire un acteur qui se découvre subitement une vocation de service public en affirmant pouvoir fibrer toute la France (36 millions de prises), d'ici 2025, sans financement de l'État, alors qu'il n'a pas respecté ses annonces de 2011 concernant la construction de 1,6 million de prises dans des communes qu'il considère comme rentables ? » s’est aussitôt insurgé dans un communiqué de presse Etienne Dugas, le président de la FIRIP qui regroupe les industriels des réseaux d’initiatives publics. Pour la petite histoire, SFR avait signé en 2011 un accord de répartition pour le FttH (fibre jusqu'à l'abonné) dans les zones moyennement denses avec Orange. Mais il n’a pas tenu ses engagements dans les localités où était déjà installé le câble de Numericable (racheté par SFR entre-temps). Et c’est Orange qui a été appelé à la rescousse pour le remplacer. « Tout cela, c’est du passé », se défend Michel Paulin le directeur général de SFR, lors d’une conférence de presse qui s’est tenue ce 19 juillet. « Nous sommes aujourd’hui en mesure de déployer nos infrastructures propres dans tout le pays comme nous l’avons fait dans le mobile où nous avons rattrapé notre retard en 4G, au point d’être aujourd’hui le premier opérateur en nombre d’antennes ». Le directeur général d‘Altice Michel Combes, lui, fait mine de s'offusquer. « C’est quand même incroyable ! Quand je vais au Portugal ou aux Etats-Unis pour annoncer qu’Altice va couvrir l’intégralité du territoire, je suis applaudi. C’est tout le contraire en France ». Du Très Haut Débit et pas du FttH Commençons par décrypter les effets de manche du discours de SFR. Premièrement, il ne s’agit pas de fibrer « tout le territoire » mais l’ensemble des foyers français, des bâtiments de service public et des locaux d’entreprises d’ici 2025. Soit environ 33 millions de lignes, selon SFR. Avec un point d’étape en 2022 avec 80% de la couverture atteinte. Il n’est pas non plus question tout à fait de « fibrer » tous les foyers français mais de leur apporter du Très Haut Débit, soit au moins 30 Mbit/s, quelle que soit la technologie employée. Pas seulement avec du FttH donc, mais en faisant aussi monter en gamme le cuivre et le câble. « Cet éternel débat en France sur l’emploi du mot fibre est un faux problème », s’agace Michel Paulin. « Il s’agit dans tous les cas de dérouler des câbles en fibre optique dans les voiries pour augmenter les débits, même si on ne va pas jusqu’à l’abonné. Donc nous considérons que nous fibrons bien la France ». Flickr/Twilight Jones - Fibre optique. 23,4 millions de prises à raccorder L’Arcep estime qu’au 31 mars dernier, 12 millions de logements étaient éligibles au Très Haut Débit dans notre pays. Sur ce total, SFR revendique 9,6 millions de prises et 1,7 millions d’abonnés effectifs, ce qui lui permet de décrocher le titre de premier opérateur THD. Le calcul est simple, il reste donc 23,4 millions de logements et locaux à raccorder. Pour cela, une nouvelle structure est créée : Altice Infrastructures. Elle sera dédiée au déploiement de la fibre et opérationnelle dès septembre. Les travaux commenceront dans la foulée pour aboutir sur de premières commercialisations à l’automne. Une organisation industrielle SFR a atteint un rythme de croisière de 1,7 million de nouvelles prises éligibles par an. Il estime désormais qu'il va devoir passer à 2 et 3 millions pour tenir ses objectifs. Et pour cela, il compte tout simplement importer le modèle qui lui a déjà permis de couvrir l’intégralité du territoire au Portugal qui ne compte, il est vrai, que 5,3 millions de lignes. Un véritable processus industriel, hyper rodé si l’on en croit les présentations à Paris de Luis Alveirinho, le directeur du réseau et des opérations de Portugal Telecom qui appartient à Altice. Seulement, ce programme va forcément induire des investissements financiers supplémentaires. « Secret des affaires », répond Michel Combes lorsque la question du montant lui est posée. Il va aussi falloir recourir à davantage de main d’œuvre. 1000 salariés de SFR travaillent déjà actuellement au déploiement de la Fibre en France. Plusieurs milliers d'agents de partenaires techniques devraient s’y greffer dont ceux de la nouvelle filiale du groupe Altice Technical Services. Et l’opérateur compte mettre sur pied des formations à l’échelon local pour maintenir son réseau. Maxime Dufour/SFR. - Un NRO de SFR (Noeud de Raccordement Optique). Un cadre légal trop contraignant selon SFR Le chiffre de 33 millions de prises pour 2025 donne toutefois le tournis, étant donné que les déploiements les plus faciles dans les zones très denses ont déjà été réalisés ou sont en train de l’être. Restent les cas plus épineux des zones moyennement denses et des zones moins denses. Dans les ZMD où les infrastructures sont mutualisées, SFR est actuellement freiné par son accord passé avec Orange. Un accord qu’il cherche à tout prix à remettre en cause puisque seulement 10% du territoire lui reviennent. S’il n'y parvient pas, il sera contraint de s’arrêter de déployer dans ce périmètre dès 2019 lorsqu’il aura atteint son quota. Un avertissement en forme de chantage qui devrait faire réfléchir l’Etat. Dans les zones moins denses, l'opérateur envisage carrément de renégocier ses implications dans les RIP (Réseaux d’Initiatives Publiques) au cas par cas. Voire d’installer ses propres infrastructures en plus de celles des autres, promettant que cela ne coûtera pas un centime aux collectivités locales. Car le principal objectif de SFR, c’est bien de recouvrir toute la France avec son réseau fixe en propre. « La situation qui se dessine dans tous les pays, ce sont deux opérateurs qui déploient leur réseau et les autres qui les utilisent », souligne Michel Combes. « Avec le Plan France Très Haut Débit, l’Etat a retiré la détention des réseaux aux opérateurs. Il est temps désormais de redonner la main à l’initiative privée », conclut-il. (*) 01net.com est édité par une filiale de NextRadioTV, elle-même propriété à 49% de SFR Médias.
  9. Facebook intensifie sa lutte contre les « fake news » Facebook annonce qu’il étend désormais l’impossibilité de modifier l’aperçu d’un lien aux gestionnaires de pages. Seul ceux qui publient un article originaire de leur propre site pourront continuer à le faire. Un moyen de lutter encore un peu plus contre les fausses informations. Facebook ne veut plus voir les fake news envahir son réseau social. Après avoir interdit aux particuliers de modifier l’aperçu des liens partagés, le réseau social l’étend désormais aux gestionnaires de pages. Ceux qui administrent une page ne pourront plus modifier cet aperçu, si le lien qu’ils partagent ne pointe pas vers leur propre site. Cela empêchera encore un peu plus que l’aperçu des articles partagés ne reflète pas leur contenu réel. Certaines pages militantes n’hésitent pas en effet à utiliser cette méthode pour faire croire qu’une information provient d’un média traditionnel ou généralement considéré comme digne de confiance. L’utilisateur qui voit apparaître l’information dans son fil d’actualités peut ainsi être berné s’il ne clique pas sur le lien pour se rendre compte du contenu exact publié sur le site d’origine. Facebook multiplie les initiatives contre les fake news Il n’existe désormais plus qu’un seul cas de figure dans lequel on pourra modifier cet aperçu les liens partagés. Seuls les administrateurs de pages qui publient les liens de leur propre site pourront le faire. Il est en effet habituel que les éditeurs de presse, les blogueurs ou les marques modifient cet aperçu pour que le titre soit plus impactant ou corresponde plus aux codes utilisés sur les réseaux sociaux. Ce système n’empêchera toutefois pas le partage d’articles à l’origine mensonger. Aux utilisateurs alors de savoir si le site en question est fiable. Depuis la dernière campagne à l’élection présidentielle américaine en 2016, Facebook est régulièrement accusé d’avoir favorisé la diffusion de fake news. Mark Zuckerberg lui-même était sorti de sa réserver pour s’en dédouaner. Mais le réseau social annonçait peu après de nouvelles disposition pour lutter contre le phénomène. L’une d’entre elle déployée en avril dernier proposait par exemple des articles complémentaires à celui affiché dans le fil d’actualités. Une manière de mettre en perspective l’information consultée grâce à d’autres contenus.
  10. Intel : sa prochaine génération de processeurs devrait être une riposte prometteuse aux Ryzen d'AMD De nouvelles fuites dessinent les contours d'une huitième génération Core qui voit son nombre de coeurs augmenter et son enveloppe thermique réduire. Avec une cible désignée, les derniers processeurs AMD. C'est lors du salon Computex 2017 de Taipei qu'Intel a commencé à donner quelques informations sur la prochaine génération de processeurs Core, les Coffee Lake. Par exemple, ces derniers seraient jusqu'à 30% plus puissants que leurs homologues de 7ème génération - Kaby Lake - et débarqueraient officiellement en masse dès la fin de l'année. Si la fenêtre de sortie ne surprend guère - bien que plusieurs rumeurs évoquent une disponibilité en 2018, c'est surtout le bond de performance annoncé qui paraît... colossal. AS/01net.com - Un chiffre d'autant plus surprenant que, depuis trois générations de puces Core, les gains obtenus sont plutôt de l'ordre de 7 à 10% (15% dans de très rares cas). Alors, comment Intel est-il en passe de tripler la mise sur ses Core i7 par exemple ? C'est simple, le fondeur va ajouter des cœurs ! La fin des processeurs haut de gamme à 4 coeurs ? Entre Skylake et Kaby Lake, l'architecture Core n'a pas beaucoup évolué et, il y a fort à parier qu'il en soit de même entre Kaby Lake et les futurs Coffee Lake. Cependant, cette génération en approche pourrait bien être la première à intégrer des processeurs 6 cœurs/12 threads au lancement. Ainsi, selon les dernières fuites, la puce qui pourrait porter le nom commercial de Core i7-8700K et constituerait le fer de lance de la gamme serait équipée de six cœurs hyperthreadés, cadencés à 3,7 GHz, embarquant 12 Mo de cache L3 et dont le TDP, l'enveloppe thermique prévisionnelle serait de 95 watts. Avec une telle puissance de feu, c'est bien le Ryzen 5 1600X d'AMD qu'Intel a dans le collimateur ! En outre, mentionnons que la consommation nous paraît très peu élevée, surtout comparée aux 140 watts engloutis par le très récent Core i7-7800X proposant le même nombre de cœurs, de threads et cadencé à 3,5 GHz. Autre petit chamboulement dans les habitudes d'Intel, les puces pressenties pour incarner d'éventuels Core i5-8400, 8500, 8600 voire 8600K seraient - elles-aussi - des modèles à 6 cœurs. Dans les cas précis des 8400 et 8600K, de possibles fréquences de 2,8 GHz pour le premier, et de 3,6 GHz pour le second sont évoquées. Le TDP, quant à lui, pourrait avoisiner les 65 watts pour le 8400 et 95 watts pour le 8600K. C'est bas ! Tous ces processeurs Core i5 ne bénéficieraient toutefois pas de l'hyperthreading, pour rester dans les standards et logiques de gamme qu'Intel s'est efforcé de construire ces dernières années. Du six coeurs natifs sur PC portable aussi Bien entendu, les processeurs Coffee Lake seront aussi à la fête dans les PC portables. Il se murmure que certains constructeurs pourraient en présenter lors du salon IFA qui se déroule du 1 au 5 septembre à Berlin. Là encore, la dominante pourrait être à « 6 cœurs », avec des fréquences de fonctionnement plus basses, situées aux alentours de 2 GHz (consommation de 45 watts). Enfin, avec Coffee Lake, la gamme basse consommation des Core « U », utilisés dans les ultrabooks, pourrait enfin être composée de quelques puces à 4 coeurs hyperthreadés (contre deux coeurs hyperthreadés actuellement). Et, d'ailleurs, il ne faudra peut-être pas attendre trop longtemps pour avoir des processeurs 4 coeurs dans les ultraportables... En attendant les Coffee, vous reprendrez bien du Kaby ? Toutefois, avant le lancement effectifs des Coffee Lake, Intel va sortir une nouvelle fournée de processeurs Kaby Lake, les Kaby Lake-R (pour Refresh ?). Ces derniers pourraient bien n'envahir que les ultrabooks, convertibles et autres détachables et commencer à introduire des processeurs 2 ou 4 cœurs natifs dans les gammes « Core U ». Problème, les Kaby Lake-R pourraient bien opter pour la même nomenclature que leurs futurs petits frères, à savoir Core ix-8xxx... pourquoi faire simple quand on peut faire compliquer et embrouiller un peu le consommateur au passage ? Contacté à propos de ces fuites, les portes-paroles d'Intel n'ont pas souhaité commenté le moindre élément, fidèle à la directive maison : « Intel ne commente pas les rumeurs ni les informations dont nous ne sommes pas la source ». Source : CPC Hardware
  11. Comment la France a inventé le « bon haut débit »... pour patienter L’Etat clarifie aujourd’hui officiellement les nouveaux objectifs fixés par le président. Il s’agira d’apporter un débit d’au moins 3 Mbit/s à l’ensemble des foyers français d’ici 2020. Jusqu’à maintenant les choses étaient claires. Pour parler de la vitesse d’une connexion Internet fixe, on parlait de haut débit (entre 512 kb/s et 30 Mbit/s) ou de très haut débit (égal ou supérieur à 30 Mbit/s). Des seuils établis par la Commission européenne pour les Etats membres et adoptés en France par l’Arcep. Surprise, un nouveau concept vient d’émerger ces jours-ci dans notre pays : celui de « bon haut débit ». Et il ne correspond à aucune norme officielle. Il surprend même par la présence de l’adjectif « bon », un terme éminemment subjectif alors qu’il est question de qualifier des performances techniques très précises. Du bon haut débit pour tous en 2020 L’expression est apparue ce lundi 17 juillet dans la bouche de l’entourage du président de la République. Ce dernier venait alors d’annoncer vouloir apporter le haut et très haut débit à tous les foyers français d’ici 2020. Une déclaration qui a effrayé l’ensemble des acteurs des télécoms et des pouvoirs publics. S’agissait-il d’accélérer le Plan France Très Haut Débit (PFTHD) qui prévoyait d’apporter 30 Mbit/s à tous les foyers français d’ici 2022 ? Ou bien de le remettre en cause en revoyant à la baisse ses ambitions ? Le directeur de l’Agence du numérique Antoine Darodes a clarifié ces propos lors de son audition ce 19 juillet par la Commission de l'aménagement du territoire et du développement durable. Sénat - Le directeur de l'Agence du numérique Antoine Darodes lors de son audition par le Sénat le 19 juillet. Entre 3 et 8 Mbits/s Pas question de revoir le PFTHD. Emmanuel Macron souhaite juste ajouter un point d’étape supplémentaire en 2020 avec du « bon haut débit » pour tous. «On peut situer le bon haut débit entre 3 et 8 Mbit/s», a déclaré Antoine Darodes. Cette nouvelle notion aurait été introduite pour ne pas laisser sur le carreau les 5 millions de foyers identifiés qui ne pourront toujours pas bénéficier d’un débit de 8 Mbit/s et le million de lignes qui n'atteindront pas les 3 Mbit/s en 2022, même si le PFTHD se passe comme prévu. Il s’agit donc d’accélérer les choses en ciblant précisément cette population-là et en lui proposant des solutions plus adaptées que le FttH pour doper la vitesse de sa connexion. «Nous sommes en train d’identifier les technologies qui pourront être retenues mais de nouveaux contrats entre les opérateurs et l’Etat seront nécessaires», a encore précisé le directeur de l’Agence du numérique. Un concept pas si nouveau Mais la paternité du « bon haut débit» est maintenant revendiquée par d’autres. Le sénateur Hervé Maurey, président de la commission de l’aménagement du territoire et du développement durable, a rappelé que les parlementaires avaient élaboré dès 2012 un projet de loi sur l’aménagement numérique du territoire imposant le principe d’un « bon haut débit pour tous» de 8 Mbit/s avant fin 2015. Un objectif alors jugé irréalisable par la fédération des télécoms et qui fut vite enterré.
  12. Sur Facebook, certains contenus pourraient devenir payants A partir d’octobre, le réseau social testera une offre payante pour certains articles d’actualité. Une réponse à la grogne grandissante des éditeurs. Depuis dix ans, votre oncle Bernard partage des publications - mensongères - affirmant que Facebook va devenir payant. Dans quelques mois, il aura peut-être - un peu - moins tort. D’après le site The Street, le réseau social va publier ses premiers contenus payants à partir du mois d’octobre. Sous forme d’expérimentation, l’opération consiste à faire payer aux membres certains articles publiés par les sites d’information. L’entreprise cherche surtout à proposer de nouveaux moyens de rémunération pour les éditeurs, qui tentent de s’allier pour contrer la toute-puissance du Californien. Une dizaine d’articles gratuits Concrètement, Facebook proposera au lecteur de payer dès l’ouverture d’un article sur son site, via sa plateforme Instant Article qui agrège les contenus de plus de 9.000 éditeurs dans le monde. Depuis mai 2015, l’interface permet d’accéder aux articles sans avoir à sortir de l’application Facebook. Comme l’évoque Le Monde, l’utilisateur devrait payer après avoir lu une dizaine d’articles. Un système déjà adopté par de nombreux médias, qui proposent de lire des contenus gratuits avant de passer à la caisse. Mais la solution proposée par Facebook devra prendre plusieurs formes. Facebook - Sur le Web, les politiques de rémunération sont bien plus variées que le système évoqué par Le Monde. Quand certains sites d’information n’offrent que quatre ou cinq articles par mois, d’autres optent pour une sélection de contenus que le lecteur peut acheter à l’unité. Des stratégies complémentaires, mais pas forcément compatibles entre elles. Afin de convaincre ses partenaires, Facebook devra répliquer ces différents modèles économiques depuis Instant Article en leur permettant de personnaliser leur mode de rémunération au maximum. Les éditeurs boudent Instant Articles L’arrivée d’articles payants pourrait être mal perçue par les utilisateurs, habitués au tout gratuit. Elle n’est pas non plus dans l’intérêt de Facebook, peu habitué à facturer ses services et totalement dépendant de la publicité. Sauf que l’entreprise fait face à la lassitude des éditeurs, qui ne parviennent pas à gagner d’argent en passant par le réseau social. Deux ans après le lancement d’Instant Article, le constat est sévère : de grands noms comme le New York Times ou le Guardian ont quitté l’aventure, déçus par les faibles retombées économiques de la plateforme. L’intégration des fonctions de paiement à Instant Article prend la forme d’une opération reconquête, après que Facebook a permis aux éditeurs d’y ajouter des formulaires d’inscription à leurs newsletters. Il s’agit aussi d’un moyen de rattraper Google, dont le format équivalent - AMP - permet de s’abonner à un média. Si les tests sont concluants, les premiers articles payants pourraient faire se généraliser en 2018. Sources : The Street, Le Monde
  13. Media Player Classic Home Cinema est (un peu) mort Faute de développeurs, le célèbre lecteur multimédia super léger et performant Media Player Classic Home Cinema (MPC-HC) ne devrait plus connaître de mise à jour. La fin d'une aventure ? C'est une mise à jour qui a tous les aspects d'un chant du cygne : la version 1.7.13 du célèbre logiciel de lecture vidéo gratuit et open-source Media Player Classic Home Cinema (MPC-HC) semble être la dernière. Dans le dernier billet de mise à jour du logiciel intitulé « v1.7.13 est sorti et bon vent » (1.7.13 is released and farewell), le responsable du projet XhmikosR explique en effet que le nombre de contributeurs actifs était en chute libre ces derniers temps avant d'atteindre « inévitablement » zéro. Un crève-coeur pour un projet qui a plus de 11 ans. Anatomie d'un déclin Lancé comme logiciel à sources fermées, MPC est devenu open-source quelques années plus tard et a connu le succès grâce à sa grande qualité de décodage - toujours l'une des meilleure du marché, logiciels propriétaires et payants inclus - couplée à sa faible empreinte processeur et mémoire. Si les logiciels open-sources sont avant tout des aventures humaines - qui ont toujours une fin - le déclin de MPC-HC semble en partie s'appuyer... sur ses qualités ! Développé en C/C++, son code est extrêmement optimisé et performant. Non seulement il est donc compliqué pour un développeur débutant de s'attaquer à un tel morceau, mais en plus ces « vieux » langages sont ardus à maîtriser et les codeurs qui les maîtrisent sont suffisamment occupés ailleurs comme le soulignent des commentateurs de l'article Slashdot qui a mis au jour d'information. Ce caractère hyper optimisé de MPC-HC fait que même les anciennes versions du logiciel sont stables et fonctionnelles, une robustesse qui invite moins au développement actif qu'un logiciel moins stable. On pourrait aussi relever le fait que l'interface graphique de MPC-HC est des plus dépouillées, mais c'est du côté des services qu'il faut aller chercher d'où vient le coup de grâce... YouTube et Netflix m'ont « tuer » Contrairement à VLC qui s'appuie sur des écoles d'ingénieurs et qui est sponsorisé par plusieurs entreprises, MPC-HC était un projet indépendant et petit. Or, l'écosystème des logiciels vidéo se réduit drastiquement à cause de la vidéo en ligne : quand il fallait absolument télécharger les films et vidéos par le passé, les services de type YouTube et Netflix ont mis à portée de main un catalogue vidéo énorme sans avoir à passer par le biais d'un lecteur tiers - avec les problèmes de codecs que l'on a pu connaître dans le passé. Dans ce contexte et avec l'explosion des usages vidéo mobiles (smartphones et tablettes), MPC-HC ne représentait plus un enjeu de taille pour les développeurs. De la même manière que Spotify, Deezer et YouTube ont tué Winamp, MPC-HC s'est fait tuer par les services. Logiciel open-source oblige, MPC-HC ne disparaît pas du jour au lendemain : les sources du programme n'attendent plus qu'un ou deux développeur(s)/développeuse(s) pour continuer d'avancer. - Télécharger Media Classic Home Cinema pour Windows 32 bits (Gratuit) - Télécharger Media Classic Home Cinema pour Windows 64 bits (Gratuit) - Télécharger Media Classic Black Edition pour Windows 32 bits (Gratuit) - Télécharger Media Classic Black Edition pour Windows 64 bits (Gratuit)
  14. Shake 4D, le Raspberry Pi qui détecte les tremblements de terre Aussi bien capable de percevoir les vibrations d'une machine à laver que les ronronnements de la terre, le Raspberry Shake 4D est un projet Kickstarter qui vise à démocratiser l'usage des sismographes. Le Raspberry semble capable de tout. Console de jeu, contrôleur industriel voilà aujourd'hui que le mini-ordinateur à bas coût se mue en sismographe. Nommé Raspberry Shake 4D, ce projet Kickstarter transforme le nano ordinateur préféré des bidouilleurs en super détecteur d'ondes, aussi bien capable de percevoir un stylo qui tombe sur le sol qu'une secousse basse fréquence de votre plaque tectonique, le tout pour moins de 300 €. Ou comment mettre le sismographe des vulcanologues à la portée de toutes les bourses. Caution industrielle Nous faisons toujours attention avant de vous parler de projets Kickstarter. Mais ici, la caution semble plus que solide. Déjà financée - plus de 55 000 dollars récoltés sur 7 000 dollars demandés - la Raspberry Shake 4D est le second projet de l'équipe de développement, une première Raspberry Shake ayant vu le jour l'an dernier, toujours grâce à Kickstarter. Outre le fait d'avoir déjà lancé un modèle fonctionnel et de déjà disposer des fonds, ce projet Kickstarter est bien plus sûr que la moyenne car derrière se cache plusieurs acteurs sérieux. On trouve ainsi OSOP, une entreprise spécialisée dans la production et la distribution de sismographes et autres équipements géophysiques professionnels. Ou encore GEMPA, entreprise allemande de logiciel qui est spécialisée dans le traitement des signaux géophysiques - tremblements de terre, raz-de-marée, etc. Pas une bande d'hurluberlus ou de charlatans, mais a priori des scientifiques en blouse qui parlent oscilloscope en seconde langue. Super détecteur Raspberry Shake 4D est une carte dédiée au Raspberry Pi qui intègre plusieurs détecteurs : 3 accéléromètres de type MEMS et un géophone. Les 3 accéléromètres sont, sur le principe, assez similaires à ceux que l'on retrouve dans les smartphones. Ces "systèmes électromécaniques" se présentent sous la forme de puces électroniques qui transforment des informations physiques (vibrations, par exemple) en signal électrique. On les retrouve dans les manettes de jeu, les téléphones mobiles, mais aussi dans les airbags, les projecteurs numériques, les imprimantes, etc. L'autre composant, bien plus imposant et plus rudimentaire d'aspect, est un géophone, une pièce que l'on retrouve déjà dans les "vrais" sismographes et qui est spécialisée dans la captation des ondes basses-fréquences. Le Shake 4D capte ainsi aussi bien les ondes proches - un camion qui passe, la machine à laver du voisin du dessus - que celles qui animent votre région tectonique. Ces quatre capteurs effectuent 100 mesures par secondes, des mesures traitées par le processeur de leur carte mère dédiée, laquelle s'interface au Raspberry Pi par le biais des 26 broches du port GPIO. Un Raspberry Pi qui envoie, à son tour, les informations à un ordinateur par le biais de sa prise Ethernet ou du Wi-Fi, se transformant ainsi en serveur de données sismiques. Tout est dans le maillage Wikimedia/USGS - Les ondes se propagent et s'estompent au fil de leur voyage dans le manteau terrestre. Les géologues, sismologues et autres vulcanologues travaillent dont en réseau en effectuant un maillage de la terre, la puissance des tremblements de terre étant évaluée non seulement par l'impact au-dessus de l'épicentre que par la vitesse à laquelle son intensité est perçue 5000 km plus loin. Raspberry Shake - Le réseau Raspberry Shake existe déjà et permet d'observer un grand nombre de régions dans le monde. Cette idée du maillage anime le Raspberry Shake 4D et le logiciel, fourni avec la carte, permet d'accéder à tous les autres Raspberry Shake 4D qui acceptent de partager leurs données sur un réseau commun. Ainsi, un habitant d'une zone faiblement sismique pourra autant veiller sur sa zone que profiter en temps réel des informations de zones plus actives comme la ceinture de feu du Pacifique, par exemple. Par ailleurs, l'échange de données est facilité par l'utilisation du format miniSEED, le standard du monde scientifique des études sismiques. Démocratisation d'outils scientifiques Il ne fait aucun doute que le Raspberry Shake 4D ne peut se substituer à un vrai sismographe pour les équipes de professionnels. Mais non seulement la communauté scientifique pourrait sans nul doute profiter d'un réseau d'étude sismique amateur pour affiner ses modèles, mais en plus ce genre de projet est l'occasion rêvée pour le grand public et le monde de l'éducation de mettre la main sur de vrais outils scientifiques. Une raison de plus d'y jeter un œil si vous vous intéressez à la vie intérieure de notre planète ou à tout autre projet sur base de détection d’ondes.
  15. Qualcomm aimerait régler à l’amiable son litige avec Apple Le PDG de Qualcomm estime que la bataille judiciaire engagée avec Apple devrait se résoudre en dehors des tribunaux. Une solution qui arrangerait certainement très bien les deux parties. Et si c’était la fin de l’escalade entre Apple et Qualcomm ? « Ces choses ont tendance à se résoudre en dehors des cours de justice et il n’y a pas de raison de ne pas espérer que ce ne soit pas le cas ici », a expliqué de manière très diplomate Steve Mollenkopf, le PDG de Qualcomm lors de la conférence Brainstorm Tech, ce 17 juilllet à Aspen (Colorado). Ces « choses » dont parle le dirigeant ne sont rien d’autre que l’affrontement économique et judiciaire qui oppose Qualcomm à Apple depuis janvier 2017. Après avoir choisi Intel comme autre fournisseur des modems de ses iPhone 7, Apple avait en effet déposé une plainte contre Qualcomm en début d’année. Il n’avait pas hésité non plus à assister l’agence coréenne chargée du droit à la consommation dans une action qu’elle avait menée de sa propre initiative contre Qualcomm. Apple estime payer trop de royalties Apple dénonce les royalties qu’il doit payer pour pouvoir utiliser les modems Qualcomm dans ses iPhone. Le concepteur de puces pratique en effet une politique de licence en plus du prix d’achat de ses composants. Pour utiliser ces modems 4G et WiFi, Apple doit non seulement les payer, mais aussi verser à Qualcomm un pourcentage sur le prix de vente de chaque iPhone. Plus ce dernier est cher, plus Qualcomm touche donc d’argent, même si la puce en question est identique à celles présentes sur tous les modèles. En avril dernier, Apple a donc arrêté de verser les royalties à ses sous-traitants. Ce sont ces derniers qui doivent en effet en récolter une partie pour les reverser à Qualcomm. Cette démarche n’a évidemment pas du tout plu à la société de San Diego qui avait alors saisi la Federal Trade Commission américaine pour empêcher l’importation sur le territoire des iPhone fabriqués en Chine, soit l’intégralité de la production. Ces rapports conflictuels risquent finalement d’être contre-productifs pour les deux sociétés. D’un côté, Qualcomm pourrait se couper de son principal client en matière de modems. De l’autre, Apple se priverait du savoir-faire technologique de Qualcomm, certainement l’une des entreprises les plus avancées sur les questions de réseau mobile. L’issue en forme d’arrangement qu’appelle de ses vœux Steve Mollenkopf semble être celle qui devrait convenir le mieux aux deux parties.