Actualités du mois de mai 2010
En effet, avec 2984 TFlops (milliards d'opérations en virgule flottante par seconde) de puissance brute théorique, le calculateur Nebulae du National Supercomputing Centre in Shenzhen surpasse de 28% la puissance brute de Jaguar, un supercalculateur américain appartenant à l'Oak Ridge National Laboratory, qui était le plus puissant depuis la liste de novembre 2009.
Fabriqué par le chinois Dawning, ce calculateur n'est toutefois pas de technologie chinoise, puisqu'il est construit sur la base de processeurs Intel Xeon X5650 et de cartes graphiques nVidia Tesla Fermi C2050. Le processeur chinois Godson n'a pas encore sa place dans ce genre de machines ! De plus, les Chinois ne semblent pas encore complètement maitriser cette débauche de puissance brute, puisque les mesures sous Linpack, le benchmark officiel du Top500, ne donnent "que" 1271 TFlops, soit un rendement de 42%, alors que le Jaguar, construit par Cray et basé uniquement sur des processeur classiques (AMD Opteron 6 cœurs à 2.6 GHz) atteint un rendement de 75%, qui lui permet de conserver la première place du classement officiel, avec 1759 TFlops.
Le second calculateur chinois (à base de Xeon et de Radeon) souffre d'ailleurs du même problème de rendement, avec seulement 47%, ce qui le classe 7ème, alors qu'il pointe au 4ème rang en puissance brute, tandis que le 3ème calculateur chinois fait encore pire : 5ème en puissance brute, il est seulement 19ème au Linpack, avec un rendement de seulement 18%. À la décharge des Chinois, ce faible rendement peut en grande partie être imputé à l'architecture hybride CPU/GPU, tous les calculateurs utilisant ce type d'architecture ayant un rendement inférieur à ceux utilisant exclusivement des CPU.
Côté français, le calculateur le plus puissant est une machine SGI Jade basé sur des processeurs Intel Xeon et appartenant au GENCI-CINES (Grand Equipement National de Calcul Intensif - Centre Informatique National de l'Enseignement Supérieur), qui se classe 18ème, avec 237.8 TFlops, tandis que la plus puissante machine d'un constructeur français est située au Forschungszentrum Juelich en Allemagne, et occupe la 14ème position avec 274.8 TFlops au compteur. Il s'agit d'une machine à base de processeur Intel Xeon, fabriquée par Bull et Sun.
Posté par Matt le 31/05/2010 à 22h19
Aucun commentaire
Source : Tom's Hardware
Apparu il y a quelques années, le phishing est aujourd'hui détecté plutôt efficacement par la plupart des navigateurs, tandis que les utilisateurs sont de plus en plus sensibilisés au fait qu'ils doivent bien vérifier l'exactitude des URL des liens qu'ils suivent. Mais une nouvelle forme de phishing pourrait bien venir à bout de ses mesures...
Baptisées tabnabbing ou tabjacking, cette nouvelle méthode exploite les fonctionnalités multi-onglets des navigateurs d'aujourd'hui. Le principe est extrêmement simple : lors de l'ouverture de la page, elle prend une forme tout a fait classique et inoffensive. Mais dès que l'onglet perd le focus, la page se change en une copie d'une page d'un autre site (par exemple, la page d'accueil de Gmail). Lorsque l'utilisateur revient sur l'onglet, il peut donc le confondre avec le site copié, et y saisir ses identifiants, qui seront ainsi récupérés par le site malveillant. Il faudra donc désormais prendre une nouvelle habitude : même en retombant sur un onglet contenant une page familière, il faudra désormais prendre soin de vérifier que l'adresse est bien la bonne...
Posté par Matt le 28/05/2010 à 23h52
Aucun commentaire
Source : Freenews
Voici une info bien cocasse, qui illustre bien le côté particulièrement hypocrite de certaines majors concernant le piratage, accusé de tous les maux, mais qui est en fait bien souvent plutôt la bonne excuse pour ne pas remettre en cause le modèle économique du milieu...
Warner Bros. est en effet accusée par Medien Patent Verwaltung d'utiliser une technologie anti-piratage qu'ils ont mis au point et présenté à Warner en 2003. Celle-ci permet de marquer les films de façon invisible pour l'utilisateur, tout en permettant le traçage des copies jusqu'au cinéma où elle a été réalisée.
Problème : cette technologie est brevetée par MPV, et Warner l'aurait utilisé sans payer la licence nécessaire... Faites ce que je dit, pas ce que je fait !
Posté par Matt le 28/05/2010 à 22h51
Aucun commentaire
Source : Gizmodo via Ptit_boeuf
Si Apple reste très largement distancée par Microsoft dans le domaine de l'informatique pure, les Mac ne parvenant qu'à 5-10% de parts de marché, la firme a la pomme est par contre en position de force sur d'autres marché : smartphones, baladeurs, vente de musique... Et qui dit position dominante dit risques d'abus de position dominante...
C'est ainsi qu'Apple se retrouve sous le coup d'une enquête du DoJ (Department of Justice) dans le domaine de la vente en ligne de musique. En effet, aux USA l'iTunes Music Store détient 69% du marché de la vente en ligne, et serait même la boutique qui vend le plus, matérialisé et dématérialisé confondu. Et selon le magazine Billboard, Apple tenterait bel et bien de profiter de cette position pour fausser la concurrence, en sa faveur bien entendu.
En effet, alors qu'Amazon a tenté de négocier avec les ayants-droits une courte exclusivité (une journée !) sur certains titres, en échange d'une promotion sur le site de vente en ligne, Apple aurait fait pression sur les éditeurs pour qu'ils refusent les propositions d'Amazon, et aurait même cessé de mettre en avant les titres issus des labels ayant accepté l'offre concurrente.
Une affaire qui n'est pas sans rappeler celle qui a récemment provoqué une condamnation d'Intel, le fondeur ayant favorisé les constructeur qui acceptaient de ne pas utiliser de puces AMD. Notons également qu'Apple serait également surveillée par la FTC (Federal Trade Commission, sorte d'équivalent américain de notre DGCCRF) depuis que le contrat de licence du SDK de l'iPhone a été modifié pour interdire l'utilisation de certains environnements de développement concurrents de celui d'Apple (et en particulier, l'environnement Flash).
Il est loin le temps où Apple était une entreprise "cool" qui résistait contre le monopole du méchant Microsoft...
Posté par Matt le 27/05/2010 à 23h53
Aucun commentaire
Source : Tom's Guide
Après avoir annoncé il y a quelques mois le report du lancement de ses premières cartes graphiques issues du projet Larrabee, Intel a finalement annoncé l'abandon total de ce projet.
En effet, le fondeur a indiqué sur son blog ne plus avoir l'intention de lancer des cartes graphiques dans un avenir proche, préférant se concentrer sur les puces graphiques intégrées, qu'Intel intègre depuis peu directement dans certains de ses processeurs Core i et Atom, et non plus simplement dans le chipset.
Intel justifie ce choix par le fait que le marché des puces vidéo intégrées est un marché plus important et disposant d'un potentiel bien plus grand. L'arrivée prochaine de la très prometteuse architecture AMD Fusion, qui pousse l'idée de l'intégration CPU-GPU encore plus loin que l'architecture Intel Clarkdale : alors qu'Intel se contente de placer deux dies dans un même packaging, AMD prévoit de graver le CPU et le GPU dans un même die, les deux unités allant même jusqu'à partager la mémoire cache, et non plus seulement la RAM.
Posté par Matt le 27/05/2010 à 23h16
Aucun commentaire
Source : NotebookReview via Ptit_boeuf
Comme nous le disions il y a à peine deux jours, les prototypes d'écrans OLED se suivent mais ne se ressemblent pas. Après Samsung et ses dalles transparentes, c'est maintenant au tour de Sony de le prouver, avec un prototype d'écran OLED enroulable.
D'une diagonale de 4.1" et d'une résolution de 432x240, ce prototype peut, grâce à sa souplesse et à son épaisseur de seulement 80 µm (soit un peu moins qu'une feuille de papier 80 g/m², dont l'épaisseur est de l'ordre de 100 µm), s'enrouler avec un rayon de courbure de seulement 4mm, y compris en fonctionnement. En outre, il gère 16.7 millions de couleurs et offre un taux de contraste de 1000:1 avec une luminosité de 100 cd/m², ce qui lui confère d'ores et déjà un rendu tout a fait correct comparé à la majorité des écrans LCD actuels.
Si Sony parvient à industrialiser ce procédé tout en conservant un coût raisonnable, il pourrait grandement contribuer au succès des livres électroniques, en permettant de les rendre beaucoup moins encombrants.
Posté par Matt le 27/05/2010 à 10h13
Aucun commentaire
Source : Tom's Hardware
Après son datacenter refroidit à l'eau de pluie, qui permet d'économiser de l'électricité en réduisant grandement les besoins en climatisation. Les chercheurs de HP viennent de proposer une autre solution originale pour rendre les datacenters plus écologiques, en s'attaquant cette fois à la production électrique.
L'idée est cette fois d'utiliser un résidu très indésirable de l'agriculture : le méthane. Il s'agit d'un gaz à effet de serre très puissant (21 fois plus que le CO2) résultant de la décomposition des matières organiques en milieu anaérobie (sans oxygène). Mais contrairement au CO2, le méthane a l'avantage de pouvoir servir de source d'énergie, soit par combustion directe, soit dans une pile à combustible, en ne rejetant dans les deux cas que du CO2 et de l'eau.
Ainsi, les chercheurs d'HP estiment que la production de bouses d'un cheptel de 10 000 vaches (plus de 500 tonnes par jour !), récupérée dans une zone de stockage contenant des bactéries méthanogènes et chauffée à 40° (pour accélérer la réaction) pourrait produire suffisamment d'énergie pour alimenter un gros datacenter d'1 MW, tout en réduisant les nuisances émises par l'exploitation agricole.
Mieux, ce système pousse le concept du recylage dans ces derniers retranchements, puisque les résidus non gazeux de la méthanisation constituent un fertilisant biologique, tandis que la chaleur nécessaire pour accélérer la méthanisation est extraite du système de refroidissement des serveurs.
Avec un tel procédé, les "fermes de serveurs" n'auront jamais aussi bien mérité leur nom ! On notera toutefois que HP n'est pas le premier à avoir eu cette idée, certaines fermes étant déjà équipées de cuves de méthanisation et de générateurs électriques, qui réinjectent la production dans le réseau de distribution.
Posté par Matt le 26/05/2010 à 23h30
Aucun commentaire
Source : PCWorld
Un an et demi après la première version stable du navigateur Google Chrome pour Windows (Noël 2008), et après de nombreuses versions beta, Google Chrome est enfin arrivé en version stable pour Mac OS X et Linux.
Il aura donc fallu attendre la version 5 du navigateur de Google pour en arriver là, mais il est vrai que Google enchaine les versions à un rythme particulièrement rapide (à croire qu'ils ont envie de rattraper le numéro de version d'Internet Explorer ou d'Opera...). Une version 6 était d'ailleurs déjà disponible en version beta avant même que la version 5 ne soit stabilisée...
En dehors de ces deux nouvelles plateformes supportées, cette nouvelle version de Chrome apporte également sont lot de nouveautés :
- moteur JavaScript en version 2.0, plus performante que la précédente,
- synchronisation de toutes les préférences entre différentes machines,
- meilleure prise en charge du HTML5 (géolocalisation, web sockets, cache, glisser-déposer...),
- nouvelle présentation du gestionnaire d'extensions.
Cette version est également prête pour l'intégration de Flash directement dans le navigateur, mais cette fonctionnalité ne sera activée que dans quelques temps, lorsqu'Adobe mettra a disposition la version finale de Flash 10.1.
Posté par Matt le 26/05/2010 à 22h03
Aucun commentaire
Source : ExtremeTech via Ptit_boeuf
Depuis les débats sur la loi HADOPI et sur des lois équivalentes dans plusieurs autres pays, la problématique du filtrage d'Internet est de plus en plus présente, tant pour lutter contre la pédophilie que pour lutter contre le piratage. Un filtrage qui est globalement très mal accueilli par la communauté, qui craint énormément pour le respect des libertés individuelles et de la vie privée.
C'est dans ce contexte qu'un intéressant rapport a été rédigé fin 2009 par quatre juristes experts en Internet européens : l'irlandais Cormac Callanan, membre du conseil consultatif Irlandais sur la sûreté d'Internet et directeur d'une société d'expertise en cybercriminalité, l'allemand Marco Gercke, directeur de l'institut du droit de la cybercriminalité et professeur de droit à l'Université de Cologne, le néerlandais Hein Dries-Ziekenheimer, PDG d'un cabinet de juriste spécialisés dans le droit d'Internet et la française Estelle de Marco, ex-consultante de l'Association des Fournisseurs d'Accès.
Ce rapport analyse notamment les différentes solutions de filtrage et leur efficacité, avec un verdict sans appel : les solutions de filtrage sont pour la plupart inefficaces, et de la pire des façon qui soit (filtrage très probables de contenus qui ne devraient pas l'être, non-filtrage de contenus qui devraient l'être), nécessitent souvent des ressources considérables, et sont pour la plupart contournables.
Proposé initialement en anglais, ce rapport est désormais disponible en français, traduit par Estelle de Marco, co-auteur du rapport. Vous pourrez le trouver sur le site Juriscom.net.
Posté par Matt le 26/05/2010 à 00h28
Aucun commentaire
Source : PCInpact
Alors que les écrans OLED sont toujours aussi "arlésiens" dans les diagonales supérieures à quelques pouces, les prototypes d'écrans OLED se suivent et ne se ressemblent pas... Pour preuve, le dernier prototype 19" de Samsung, qui se distingue des prototypes précédents par sa transparence.
En effet, la dalle que Samsung vient de présenter est une dalle AMOLED semi-transparente (laissant passer environ 30% de la lumière) de 19". Une telle dalle pourrait par exemple avoir son utilité pour les systèmes informatiques embarqués dans les voitures, et en particulier les GPS, en permettant d'offrir une plus grande surface d'affichage sans empiéter sur le champ de vision du conducteur. Toutefois, avant d'en arriver là, il faudra bien entendu une baisse du coût de revient, mais aussi probablement une transparence accrue, 30% pouvant s'avérer assez faible dans certaines situations.
Posté par Matt le 25/05/2010 à 23h15
Aucun commentaire
Source : Tom's Hardware
Le vénérable ancêtre du jeu vidéo fête ses 30 ans ! Pour l'occasion, Google a adopté un logo de circonstance pour sa page d'accueil : un logo Google sous forme de niveau Pac Man. Une habitude chez Google pour commémorer certains événements, mais avec cette fois un petit bonus...
En effet, pour la première fois, ce logo n'est pas une simple image. Pac Man oblige, c'est un véritable jeu (en Javascript) qui est proposé aux visiteurs de Google. Pour l'essayer, rendez-vous sur Google puis cliquez sur le bouton "Insérer Pièce(s)" qui remplace le bouton "J'ai de la chance" et utilisez les flèches du clavier pour diriger Pac Man.
Mais dépêchez vous : d'après le blog de Google le jeu ne sera accessible que pendant 48h.
Mise à jour le 25/05 : la version Pac-Man du logo Google a connu un énorme succès (certaines entreprises ont même temporairement bloqué l'accès à Google sur leur réseau, pour éviter une baisse de productivité !). Google a donc décidé de le rendre accessible de façon définitive, via l'URL suivante : http://www.google.com/pacman/. Enjoy !
Actu originale : 22/05/2010 à 10h49
Posté par Matt le 25/05/2010 à 19h49
Aucun commentaire
Alors que les partisans du H.264 et les partisans du Theora comme format vidéo HTML5 n'ont toujours pas trouvé un terrain d'entente, Google pourrait bien mettre tout le monde d'accord avec un nouveau format vidéo, le WebM.
Développé par On2 Technologies sous le nom de code VP8, ce codec est tombé dans l'escarcelle de Google lorsque le géant de la recherche s'est offert On2 Technologies, qui était d'ailleurs déjà à l'origine du codec Theora, qui n'est autre que le VP3. Le codec VP8 est réputé avoir un meilleur rapport qualité/poids que celui de H.264, ce qui comble le gros défaut qu'avait le Theora, qui était encore un codec d'ancienne génération.
Mais pourquoi donc de codec pourrait-il mettre tout le monde d'accord ? Tout simplement parce que Google a eu le bon goût de le placer sous licence libre, ce qui ravira les détracteurs du H.264, qui reprochaient justement à ce dernier son incompatibilité avec la plupart des licences libres, et le coût élevé des royalties, tandis que les détracteurs du Theora, qui lui reprochaient surtout sa mauvaise qualité devraient être comblés par le WebM, de qualité au moins équivalente à celle du H.264.
Reste maintenant à convaincre les quatre autres principaux éditeurs de navigateurs. Pour Mozilla et Opera, c'est d'ores et déjà le cas, puisque Firefox 3.7a4 et Opera 10.54 prennent déjà en compte ce codec. Les choses risquent d'être un peu plus compliquées par contre pour convaincre Microsoft et Apple, qui ont de très bonnes raisons de vouloir promouvoir le H.264, puisqu'ils sont tous deux propriétaires de technologies utilisées par ce codec, et peuvent donc l'utiliser gratuitement, ce qui leur confère un certain avantage stratégique.
Mais la puissance de Google pourrait être un argument de poids pour leur faire accepter ce codec, d'autant plus que Google a déjà rallié à sa cause plusieurs industriels, et non des moindres : Adobe, AMD, ARM, Broadcom, Freescale, Logitech, Marvell, MIPS, nVidia, Oracle, Qualcomm, Skype, Texas Instrument... On remarquera particulièrement dans cette liste la présence d'AMD et de nVidia, qui laisse augurer un support matériel de ce codec dans les prochaines générations de GPU, mais aussi de Broadcom, Qualcomm et ARM, trois noms qu'on retrouve dans quasiment tous les téléphones mobiles.
Mise à jour le 20/05/2010 : Microsoft a annoncé que le WebM sera également supporté dans Internet Explorer 9, pour peu que l'utilisateur ait installé un codec compatible sur son système. Reste donc à voir la position d'Apple, dernier éditeur de navigateur majeur à ne pas s'être prononcé.
Actu originale : 19/05/2010 à 23h29
Posté par Matt le 20/05/2010 à 19h50
1 commentaire
Source : n'1for-matik
Si la supériorité des SSD en termes de performances ne fait aujourd'hui plus aucun doute, le problème du prix par rapport aux disques dur ne se résorbe que lentement, au fil de l'affinement des processus de gravure. Dans ce domaine, IMFT (Intel-Micro Flasg Technology) vient de se lancer dans la production d'une nouvelle génération de puces, gravées en 25nm.
Par rapport aux "anciennes" puces en 34nm, ces nouvelles puces offrent une densité deux fois supérieure (167mm² pour une puce de 8 Go, contre 172mm² pour une puce de 4 Go en 34nm), ce qui devrait donc quasiment diviser les prix par deux. Utilisant une interface ONFI 2.2, ces puces se distinguent aussi de la génération précédente par une augmentation de la taille des pages (8 Ko au lieu de 4 Ko) et de la taille des blocs (256 pages au lieu de 128 pages, soit 2 Mo au lieu de 512 Ko).
Ces changements d'organisation risquent malheureusement de compliquer la tâche des contrôleurs, puisque les principales difficultés rencontrées sont justement causées par la grande taille des unités d'adressage. On en saura un peu plus sur ce point en fin d'année, quand Intel lancera ses X25-M de troisième génération, qui devraient être proposées avec des capacités doublées au prix des modèles actuels.
Posté par Matt le 19/05/2010 à 22h29
Aucun commentaire
Source : PCWorld
Le constructeur Seagate devrait être en mesure de proposer cette année le premier disque dur de 3 To. Si cette capacité est dans l'ordre des choses et n'a rien de surprenant à l'heure actuelle, puisque les disques de 2 To existent depuis quelques temps déjà, elle risque de poser de sérieux problèmes de compatibilité, à cause de choix techniques faits dans les années 1980...
En effet, c'est à cette époque sur le système d'adressage LBA (Logical Block Addressing, rien à voir avec le jeu) a remplacé le CHS (Cylinder, Head, Sector). Avec ce système, le disque est divisé en blocs de 512 octets (les secteurs), disposant chacun d'une adresse. Celle-ci était initialement codée sur 28 bits, limitant donc la capacité des disques à 128 Gio (137 Go), puis est passée sur 48 bits depuis l'ATA6 (2002), repoussant ainsi la limité à 128 Pio (144 Po).
En théorie, donc, pas de problème pour un disque de 3 To. Mais en même temps que le LBA pour l'adressage, les constructeurs d'ordinateurs et éditeurs de systèmes d'exploitation ont adopté le MBR (Master Boot Record), un standard de définition de la "cartographie" des partitions du disque dur. Et là, c'est le drame : dans le MBR, la taille des partitions, en nombre de secteurs, est codée sur 32 bits. On se retrouve donc limité à 2^32 adresses, soit 2 Tio d'espace disque (2.2 To). Un disque de 3 To devra donc obligatoirement être coupé en au moins deux partitions, tandis qu'un disque ne pourra pas dépasser les 8 To (un MBR n'acceptant que 4 partitions physiques).
Il existe heureusement déjà une solution : le partitionnement GPT (GUID Partition Table), qui fait partie des spécifications EFI. Ce nouveau système de partitionnement a été défini bien plus récemment, et prend donc en compte les problématiques des grandes capacités. En théorie, le système GPT permet jusqu'à 128 partitions, sur des disques dur comportant jusqu'à 2^64 secteurs (soit 8 388 608 Pio... de quoi voir venir, d'autant plus que la taille des secteurs peut être revue à la hausse...). En formatant les disques de 3 To en GPT, il sera donc possible de les formater en une seule partition.
Tout va bien donc ? Non, pas tout a fait... En effet, les OS les plus répandus actuellement ne supportent pas tous le GPT dans toutes les situations... Ainsi (d'après l'articule sur la GPT de Wikipedia) :
- Windows XP 32 bits ou toute version antérieure : le GPT n'est pas du tout supporté,
- Windows 2003/Vista/2008/7 32 bits, XP/2003 64 bits : le GPT est supporté, mais pas pour le disque de démarrage,
- Windows Vista/2008/7 64 bits : le GPT est supporté et peut être utilisé sur le disque de démarrage, à condition de disposer d'une carte mère EFI,
- Mac OS X Intel : le GPT est supporté et peut être utilisé sur le disque de démarrage, à condition de disposer d'une carte mère EFI (ce qui est le cas de tous les Mac Intel).
- les pingouins sont les plus chanceux, puisque la plupart des distributions Linux 32 et 64 bits sont capables d'utiliser un disque GPT et de démarrer dessus, même avec une carte mère dotée d'un BIOS.
Au final, selon une responsable de chez Seagate, ce sont 80% des ordinateurs actuellement en service qui ne seraient pas pleinement compatibles avec les disques durs de plus de 2.2 To . Ouch !
Posté par Matt le 19/05/2010 à 10h18
Aucun commentaire
Source : PCInpact
Apple a discrètement (sans l'habituelle fermeture de leur boutique en ligne) mis à jour ce matin son Macbook "polycarbonate", le dernier ordinateur portable de sa gamme à être encore proposé avec un châssis en plastique.
Extérieurement, rien n'a changé, ni au niveau du design ou des dimensions, ni au niveau de la connectique (Ethernet, mini-DisplayPort, USB, jack audio), mais l'intérieur révèle quelques petites améliorations : le processeur Intel Core 2 Duo passe de 2.26 GHz à 2.4 GHz, le chipset passe du nVidia GeForce 9400M au nVidia GeForce 320M (qui équipe déjà les Macbook Pro 13" de dernière génération), et l'autonomie est revue à la hausse, la batterie 63.5 Wh affichant désormais 10 heures d'autonomie, au lieu de 7. Le reste des caractéristiques reste inchangé : 2 Go de mémoire (seulement !), écran 13" LED 1280x800 et 250 Go de disque dur.
Cette mise à jour apporte par contre une mauvaise nouvelle que les européens risquent d'avoir du mal à accepter : le prix américain reste inchangé, mais le prix européen augmente de 100€. La faute à la récente dégringolade de l'euro, qui avait d'ailleurs rendu le prix européen de ce modèle plus attractif que le prix américain ces dernières semaines. Le ticket d'entrée des ordinateurs portables Apple est donc désormais de 999€.
Posté par Matt le 18/05/2010 à 23h00
Aucun commentaire
Source : Macbidouille
Moins de six mois après que l'opérateur ait obtenu sa licence 3G, il fait face aux premières difficultés pour la mise en place de son offre, difficultés qui pourraient la rendre bien peu intéressante, au moins pendant les premières années...
En effet, selon les termes des engagement pris par Free Mobile pour l'obtention de la licence 3G, celui-ci devait assurer la couverture de 25% de la population pour le lancement de son offre en 2012, le reste de la couverture devant être assuré par des accords de roaming avec les trois autres opérateurs. Et c'est justement là que le bât blesse : si les trois opérateurs ont bien une obligation de proposer des accords de roaming, cette obligation ne couvre à l'heure actuelle que la 2G. Orange, SFR et Bouygues Telecom sont donc peu enclins à proposer le roaming 3G à leur nouveau concurrent...
Sans un tel accord, l'offre de Free Mobile deviendrait donc particulièrement peu compétitive, puisque seule 25% de la population aurait droit à la 3G au lancement, et 90% huit ans plus tard. Heureusement, l'ARCEP ne devrait pas laisser faire, puisqu'il est de son devoir de s'assurer que Free Mobile puisse arriver sur le marché dans des conditions acceptables.
Posté par Matt le 17/05/2010 à 22h02
Aucun commentaire
Source : Clubic
Depuis de long mois, la balide <video> de la norme HTML5 fait débat. En effet, la norme ne spécifiant pas le codec à utiliser, deux camps s'opposent : d'un côté, Microsoft et Apple poussent en faveur du H.264, performant mais payant, de l'autre, Opera et Mozilla font la promotion du Theora, gratuit et libre. Ainsi, Firefox ne supporte que ce dernier codec, ce qui n'est pas sans poser de problème, puisque de nombreux sites web se sont rangés à l'avis du camp H.264...
Mais la fondation Mozilla s'apprête à proposer un compromis. En effet, s'il reste hors de question d'intégrer le support du H.264 dans Firefox, afin de pouvoir continuer à le diffuser dans tous les pays en toute légalité, les développeurs ont décidé de créer un fork (c'est-à-dire une version dérivée, partant du même code source), baptisé Wild Fox, et qui intégrera le support du H.264, soit directement en interne, par le biais de libavcodec, soit en externe, en utilisant les codecs système.
Espérons que le développeurs prendront ensuite soin de faire évoluer cette version au fil des évolutions de Firefox, sans quoi cette variante risque de vite perdre son intérêt.
Posté par Matt le 17/05/2010 à 20h04
2 commentaires
Source : Tom's Hardware
Autrefois meilleurs amis du monde, du temps où Apple était avant tout un constructeur d'ordinateurs privilégiant les créatifs, Adobe et Apple sont aujourd'hui dans une guerre ouverte à coups de communiqué de presse.
EN effet, Apple reprocherait à Adobe de ne plus assez optimiser les versions Mac de ses produits, et ce serait l'une des raisons du banissement de Flash sur l'iPhone, le déclencheur de la bataille. Adobe avait alors trouvé une alternative permettant tout de même aux développeurs Flash de travailler pour l'iPhone, avec un kit de développement Flash compilant les applications Flash en applications natives iPhone. Ce à quoi Apple a répondu en interdisant ce genre de choses via la nouvelle licence de son SDK pour iPhone OS 4.0.
Les deux sociétés ont également échangé quelques lettres ouvertes, critiquant parfois de façon très cinglante les produits de l'autre. C'est dans ce contexte que Adobe lance une nouvelle attaque, sous la forme d'une campagne publicitaire, diffusée sur Internet :
En résumé, Adobe aime Apple, mais Adobe n'aime pas la façon dont Apple traite ses utilisateurs, en prenant trop de décision pour eux. Adobe a également lancé une page "We ♥ choice" sur son site web, et une version plus complète de cette publicité a également été publiée en version papier, notamment dans le Washington Post :
Il ne reste maintenant plus qu'à attendre la réponse d'Apple pour continuer à compter les points. En attendant, certains ont déjà fait des parodies de réponse :
(le petit cube bleu est affiché par l'iPhone à la place des animations Flash)
Posté par Matt le 15/05/2010 à 12h43
2 commentaires
Source : Macbidouille
À l'occasion d'une conférence avec ses investisseurs, Intel a évoqué l'avenir des technologies de gravure et sa roadmap jusqu'au 8nm, alors que le fondeur travaille actuellement en 45 et en 32nm pour le gros de sa production.
Le passage vers le 8nm ne devrait selon Intel pas poser de problème majeur, si ce n'est le fait que chaque nouveau processus de gravure nécessite des étapes supplémentaires dans la fabrication des wafers. Le fondeur estime avoir dans ses cartons les technologies nécessaires pour arriver au 8nm d'ici à 2017, avec une étape intermédiaire tous les deux ans (22nm dès l'année prochaine, 15nm en 2013 et 11nm en 2015). Au delà de 2017, Intel évoque déjà quelques idées pour passer à 5nm, mais cette finesse n'arrivera pas avant 2019, année au delà de laquelle Intel manque encore pour l'instant de visibilité.
Investisseurs oblige, Intel a également évoqué la pérennité de ses installations. En effet, avec une finesse de gravure qui change tous les deux ans, la rentabilisation des équipements n'est pas toujours chose facile. Pour arriver à mieux amortir les équipements, Intel profite en fait de la diversité des puces qu'il produit : les processeurs bénéficient toujours d'une production dans les usines dernier cri, usine qui basculent ensuite sur la production de chipsets une fois qu'elle commence à être obsolète, puis termine sur la production de puces graphiques... C'est sans doute pour celà que les premières générations d'Atom, gravées en 45nm, étaient accompagnées d'IGP gravés en 90nm, tandis qu'aujourd'hui, les processeurs Core i gravés en 32nm sont packagés avec un IGP gravé en 45nm.
Posté par Matt le 13/05/2010 à 23h52
Aucun commentaire
Depuis le lancement de l'iPhone, on peut déplorer une certaine uniformité du marché des smartphones, les modèles dotés d'un grand écran "wide" couvrant quasiment toute la surface sont devenus la norme, et seuls quelques modèles à clavier coulissant ou à clavier numérique subsistent. C'est pourquoi le FlipOut, futur modèle de Motorola mérite qu'on parle de lui...
En effet, non content de ne pas arborer les classique design "iPhone-like", il n'exploitera pas non plus un des autres formats éprouvé, puisqu'il va se présenter sous la forme d'un bloc... carré ! En usage normal, l'écran de 2.8" se retrouve du coup en mode paysage, avec une bordure noire en haut, comportant l'écouteur, et une en bas, qui comportera trois boutons, qui ont l'air tactiles d'après les photos. Bon par contre, faut pas déconner quand même, on retrouve tout autour de l'écran et de son cadre noire une bordure métallisée, qui pourrait presque faire passer l'appareil pour un prototype Apple, si un logo Motorola dans le coin supérieur gauche ne trahissait pas son origine.
Mais le FlipOut ne se limite pas à cette forme originale, puisqu'il embarque également un clavier alphanumérique coulissant, qui semble se dévoiler via un mouvement rotatif, et non pas un simple glissement longitudinal.
Côté technique, le FlipOut serait doté d'un processeur 700 MHz, de 256 Mo de RAM, d'un module GPS, d'un appareil photo 3MP et de (seulement) 512 Mo d'espace de stockage, le tout fonctionnant sous un système d'exploitation Android 2.1 accompagné de la surcouche Motorola Blur 1.5. Cette couche logicielle orientée réseaux communautaires et les coloris proposés par Motorola pour la coque (noir, vert et rose) trahissent laissent supposer que Motorola cible un public plus jeune qu'avec ses premiers smartphones Android.
Posté par Matt le 12/05/2010 à 10h50
1 commentaire
Source : Clubic
Bien que les moniteurs LCD puissent sembler être constitués de plastique, puisqu'ils sont quasiment toujours surmontés d'une couche de protection en plastique, leur dalle est en fait constituée de deux plaques de verre entourant la couche de cristaux liquides. Selon HP, ces deux couches de verre pourraient n'être qu'un lointain souvenir d'ici à une dizaine d'années.
En effet, le constructeur américain travaille activement à remplacer ces deux couches de verre par des films plastiques. Ceci pourrait permettre de réduire le prix des écrans, mais aussi leur poids, les films plastiques étant quarante fois plus légers que les plaques de verre.
Autre avantage, l'utilisation de plastique en lieu et place du verre devrait permettre d'arriver enfin à industrialiser les écrans souples promis depuis de nombreuses années. C'est d'ailleurs la première application commerciale envisagé par HP, qui prévoit de fournir de tels écrans dès l'année prochaine pour des applications militaires (donc probablement hors de prix...).
Il faudra donc sans doute encore quelques années avant que ces écrans se démocratisent pour le grand public, mais le premier pas est fait.
Posté par Matt le 11/05/2010 à 23h39
Aucun commentaire
Source : Tom's Hardware
Alors que Safari et Internet Explorer existent en version 64 bits depuis longtemps, Firefox n'est pour l'instant officiellement disponible qu'en 32 bits sous Windows et Mac OS X. Mais ceci devrait changer avec la future version 4, dont la beta arrivera au début de l'été.
À la décharge de Firefox, il a de bonnes raisons d'être en retard : le plug-in Flash d'Adobe n'existe pour l'instant qu'en version 32 bits, ce qui empêche d'utiliser le Flash dans un navigateur 64 bits qui n'exécute pas les plug-ins dans des processus séparés. Ainsi, si Internet Explorer est bien disponible en 64 bits depuis plusieurs années, c'est toujours la version 32 bits de Internet Explorer qui est configurée comme navigateur par défaut sous Windows, pour la compatibilité Flash. Mais justement, à partir de la version 3.6.4 (qui devrait arriver le jeudi 13 mai), Firefox sera capable d'exécuter les plug-ins dans des processus séparés, ce qui ouvre la voie à l'utilisation du plug-in Flash 32 bits dans un Firefox 64 bits, en attendant l'arrivée de Flash en 64 bits.
Ainsi, Firefox 4 sera la premier navigateur au panda à être officiellement compilé en version 64 bits pour Windows et Mac OS X. Il est pour l'instant prévu pour novembre 2010, avec une première beta au mois de juin. En plus du support 64 bits, cette nouvelle version devrait être riche en nouveauté : accélération 3D de WebGL, utilisation de Direct2D pour le rendu (sous Windows uniquement), amélioration de l'implémentation du HTML5 et du CSS3. Bien entendu la nouvelle page d'accueil et le gestionnaire de comptes dont nous vous avions déjà parlé seront également de la partie.
Posté par Matt le 11/05/2010 à 22h41
Aucun commentaire
Source : Generation-NT
Alors qu'Apple a démarré hier les pré-ventes de son iPad en France, Archos a lancé aujourd'hui un nouveau membre de sa gamme de tablettes, l'Archos 7 Home Tablet, qui vient se positionner entre l'Archos 5 Internet Tablet et l'Archos 9 PC Tablet.
Comme son nom l'indique, cette tablette embarque un écran 7" (18cm), plus petit que celui de l'iPad, mais en format "wide" (800x480, soit un ratio compris entre le 16/10 et le 16/9), ce qui devrait offrir une taille d'image équivalente à celle de l'iPad pour le visionnage de films, et une largeur suffisamment confortable pour le surf (mais il faudra scroller plus que sur la tablette Apple !).
Dotée au choix de 2 ou 8 Go d'espace de stockage (mémoire flash), elle fonctionne sous Android 1.5 et est animée par un processeur de type ARM Cortex A8 à 600 MHz (équivalent à un processeur d'iPhone 3GS) couplé à une puce dédiée au décodage vidéo HD 720p. Ces deux puces lui permettent d'atteindre une excellente autonomie (7h de vidéo, 44h de musique !) sans trop d'embonpoint (12mm d'épaisseur, 350g). Elle dispose d'une connectivité Wi-Fi et USB (soit en mode client, pour la connecter à un ordinateur, soit, en option, en mode hôte pour y connecter un disque dur ou une clé USB).
Mais là où Archos frappe particulièrement fort, c'est sur le prix de la bestiole : l'Archos 7 sera proposée à partir de 149€ pour la version 2 Go et 179€ pour la version 8 Go ! Même si ses caractéristiques techniques restent nettement inférieures à celles de l'iPad, vous aurez donc quasiment trois tablettes françaises de 8 Go pour le prix d'une américaine de 16 Go (499€). Voilà qui devrait ravir ceux qui trouvaient l'iPad trop cher et ceux qui voudraient s'amuser avec l'OS de Google à moindre goût, le tarif de 149€ étant également très inférieur à celui des smartphones Android.
On notera également que cette tablette pourra bénéficier des applications diffusées sur l'Appslib, une boutique en ligne spécifique à Archos, qui propose déjà un millier de références gratuites, mais aussi bien entendu de celles diffusées sur l'Android Market.
Posté par Matt le 11/05/2010 à 11h47
Aucun commentaire
Source : PCWorld
Pour la première fois depuis le lancement d'Android, les smartphones exploitant le système d'exploitation mobile de Google se sont vendus plus que les téléphones frappés de la pomme aux États-Unis, avec 28% du marché, contre 21% pour l'iPhone. Les Blackberry restent toutefois en tête, avec 36%.
Malgré des débuts difficiles, voir chaotiques, et un lancement avec plus de cinq trimestres de retard sur la pomme (le premier mobile Android, le HTC G1, a été lancé le 22 octobre 2008, alors que le premier iPhone remonte au 29 juin 2007), Google a donc réussi à prendre la main en seulement six trimestres.
Un succès que Google doit sans doute à l'ouverture de son système, qui a permis à différents constructeurs d'investir le marché, avec des modèles aux caractéristiques très variables : avec clavier, sans clavier, petits, grands... De quoi satisfaire un maximum d'utilisateur, là où la gamme d'Apple offre un choix particulièrement limité. La position de Google pourrait par ailleurs encore se renforcer à l'avenir avec l'arrivée prochaine du Flash sous Android et le développement rapide de l'offre logicielle sur l'Android Market.
Reste à voir quelle sera la prochaine étape symbolique dans la progression d'Android : prendre la première place à RIM sur les ventes ou réussir à dépasser Apple en termes de parc installé. Les deux objectifs semblent pour l'instant encore assez lointains, puisque selon comScore Google ne disposait que de 9% du parc en février dernier, contre 25.4% pour Apple.
Posté par Matt le 10/05/2010 à 23h05
Aucun commentaire
Source : Le Journal du Geek
Après de longues réflexions sur l'intérêt d'une version mobile à l'heure où les navigateurs mobiles sont de plus en plus souvent capables d'afficher un site classique, j'ai finalement décidé de tenter l'expérience. Voici donc venu Infobidouille.mobi, la version mobile d'Infobidouille.
Encore au stade de beta, cette version propose le même contenu que la version standard, mais avec des pages en moyenne deux fois moins lourdes, à la mise en page optimisée pour les écrans de petite taille, mais non définitive.
N'hésitez pas à tester cette version et à nous faire vos retours pour nous aider à la faire progresser !
Posté par Matt le 09/05/2010 à 23h18
Aucun commentaire
Comme cela avait été discrètement annoncé dans les commentaires, les statistiques des visites font leur retour, sur une page dédiée qui sera régulièrement mise à jour.
Les indicateurs pris en compte pour l'instant sont :
- les pages vues,
- les visites,
- la répartition des visites sur les différents sites,
- l'origine des visites,
- les parts des navigateurs,
- les parts des systèmes d'exploitation,
- les résolutions et ratios d'écran.
Si d'autres indicateurs vous intéressent, n'hésitez pas à nous le demander !
Posté par Matt le 08/05/2010 à 21h11
4 commentaires
Décidément, les cartes graphiques nVidia occupent pas mal la rumeur ces derniers jours ! Ainsi, après la GTX 480M, la GTX 465, la GT 440 et la GT 420, c'est une hypothétique GTX 490 qui pointe le bout de son nez, pour constituer le nouveau haut de gamme de la marque.
La rumeur provient de Drew Henry, cadre haut placé de chez nVidia, selon qui la sortie d'une carte Fermi dotée de 512 cœurs ne serait pas exclue chez le caméléon. Pour rappel, les 512 cœurs étaient prévus depuis le début par nVidia, et toutes les GTX 470 et 480 actuelles sont en fait bien dotées d'un GPU à 512 cœurs, mais seuls 448 ou 480 sont actifs. Officiellement, la raison de cette activation partielle est la consommation élevée de la puce GF100, qui ne pourrait pas se contenter des 300W autorisés par la norme PCI-Express si tous les cœurs étaient activés. Officieusement, il se murmure que c'est le rendement particulièrement faible de la production du Fermi par TSMC qui serait à l'origine de ce choix, trop peu de puces ayant leurs 512 cœurs fonctionnels.
Cette future version dotée des 512 cœurs devrait être permise par l'amélioration des processus de gravure de TSMC, dont les rendements progressent petit à petit, et par la future révision B de la puce, prévue pour juillet, qui devrait permettre une nette baisse de la consommation, autorisant ainsi à faire fonctionner les 512 cœurs sans dépasser la limite des 300W.
La GTX 490 pourrait être disponible cet automne, soit à peu près en même temps que les GT 420 et GT 440.
Posté par Matt le 07/05/2010 à 11h21
Aucun commentaire
Source : Cowcotland
Réussir à exploiter la source d'énergie renouvelable et inépuisable que constitue le Soleil est aujourd'hui au cœur des préoccupations de nombreux programmes de recherche, principalement dans le domaine du thermique et celui du photovoltaïque. C'est dans ce dernier domaine que les chercheurs du MIT viennent de présenter une avancée importante, avec les premiers capteurs photovoltaïque sur papier.
Pour arriver à ce résultat, les chercheurs ont développée une technologie similaire au principe des imprimantes à jet d'encre, mais utilisant une "encre" à base de composés organiques semi-conducteurs, permettant ainsi la réalisation de capteurs photovoltaïques sur un substrat bien moins coûteux que le silicium ou le plastique. On peut également espérer que ce procédé soit moins polluant à la fabrication et permette un recyclage plus facile, voir qu'il permette un jour d'"imprimer" directement sur des toits ou des façades.
Revers de la médaille, ce procédé n'offre pour l'instant qu'un rendement de 2%, contre 20% pour les panneaux solaires classiques, ce qui signifie que pour une même capacité de production, il faudra multiplier par dix la surface couverte par les panneaux.
C'est pourquoi les chercheurs se donnent une dizaine d'année avant les premières applications commerciales, le temps d'industrialiser le procédé et d'améliorer son rendement.
Posté par Matt le 06/05/2010 à 22h09
Aucun commentaire
Source : Tom's Guide
Alors que les SSD allouent en général 7% de leur espace physique comme réserve d'espace libre (et donc non visible pour l'utilisateur), les SSD à base de contrôleurs SandForce SF-1200 et SF-1500 réservent 27% d'espace pour cet usage (d'où les capacités inhabituelles, multiples de 50 Go). Si cette augmentation est un bon signe pour la fiabilité, il n'en est pas de même pour la compétitivité...
En effet, le prix des SSD étant en grande partie dû au prix de la mémoire flash, le prix au Go "utile" s'envole forcément quand l'espace de réserve augmente : par rapport à un SSD classique, on passe d'un surcoût de 7.5% à un surcoût de 37%. Pour palier partiellement à ce surcoût, certains constructeurs de SSD à base de contrôleur SandForce SF-1200 vont prochainement déployer de nouveaux firmwares, qui réduiront cette espace de réserve à environ 13%, passant ainsi les capacités des SSD de multiples de 50 Go à multiples de 60 Go.
D'après les tests d'AnandTech sur un OCZ Agility 2 doté d'un tel firmware, les performances ne seraient pas impacté, ce qui est plutôt bon signe, puisqu'on disposera alors de 20% d'espace en plus pour le même prix, sans pertes de performances.
Il est d'ailleurs à noter que cet espace de réserve de 13% pour le SF-1200 faisait partie des plans initiaux de SandForce, ajoutant ainsi une distinction supplémentaire par rapport au SF-1500.
Du côté des constructeurs de SSD, il faudra donc surveiller à l'avenir ceux qui proposeront ces nouveaux firmware. Corsair à d'ores et déjà annoncé que les modèles Force 100 et Force 200 seront remplacé par des Force 120 et Force 240, sans préciser toutefois si les 100/200 pourront être mis à jour en 120/240. Chez OCZ, des Agility 2 de 60, 120 et 240 Go seront lancés, mais les versions 50, 100 et 200 Go resteront commercialisées si la demande existe, et OCZ envisage d'offrir la possibilité de les mettre à jour en réduisant l'espace de réserve. Le Vertex 2 restera par contre à 50/100/200 Go.
Posté par Matt le 06/05/2010 à 19h41
Aucun commentaire
Source : Hardware.fr
Alors que la précédente génération de GPU nVidia, les G200, avait été peut déclinée, le gros de l'entrée et du milieu de gamme étant resté sur la génération précédente (G90), nVidia semble bien décider à enfin renouveler son entrée et son milieu de gamme avec des GPU de dernière génération dérivés du GF100, plus connu sous le nom de Fermi.
Ainsi, après les très décriées GTX 470 et GTX 480, nVidia aurait dans les cartons différents modèles dont les prix s'échelonneraient entre 100 et 250$ et basées sur les GPU GF104, GF106 et GF108.
Le GF104, le plus haut de gamme des trois, serait constitué de 352 cœurs CUDA cadencés à 1215 MHz (contre 607 pour le reste du GPU), contre 448 cœurs à la même fréquence pour les GTX 470 et 480 cœurs sur le GTX 480. Le bus mémoire DDR5 passerait à 256 bits au lieu de 320 et 384 bits, avec une fréquence très légèrement revue à la baisse (1603 MHz au lieu de 1674 et 1848 MHz). Le nom commercial serait GTX 465 et la carte devrait être vendue environ 250$ dès le mois prochain.
Quasiment aucune caractéristique n'est connue pour les GF106 et GF108. Il s'agira probablement comme d'habitude de versions dotées d'un moins grand nombre d'unités de traitement et/ou d'une fréquence revue à la baisse. La puce GF106 équipera les cartes GT 440, vendus environ 180$, tandis que la GF108 amènera le ticket d'entrée DirectX 11 de nVidia à environ 100$ au sein des cartes GT 420. Ces cartes graphiques devraient arriver pour la rentrée, en septembre prochain.
Posté par Matt le 05/05/2010 à 23h56
Aucun commentaire
Sources : TT-Hardware et PCWorld
Bien que particulièrement peu gourmande pour du x86, la plateforme Atom est encore beaucoup trop gourmande pour lutter contre les processeur ARM dans le domaine des smartphones et des mobile Internet devices (MID). Un domaine auquel Intel compte toutefois bien s'attaquer avec la plateforme Moorestown.
Déjà promise depuis plus d'un an, cette plateforme est désormais disponible, sous la référence Atom Z600. Composée d'un SoC comprenant le processeur Atom (cadencé de 1.5 à 1.9 GHz selon les versions), le contrôleur mémoire, la puce graphique et un encodeur-décodeur vidéo HD (lecture 1080p, encodage 720p), cette nouvelle plateforme est gravée en 45nm.
Comme annoncé il y a un an, cette nouvelle plateforme consomme 50x moins que la précédente en standby (soit environ 30 mW), 20 fois moins en lecture audio et 2 à 3 fois moins en lecture vidéo et un utilisation Internet. Deux nouveaux modes d'économie d'énergie pourront même faire chuter la consommation encore bien plus bas, à seulement 100 µW. Les performances ont également été fortement améliorés pour l'exécution du JavaScript et pour la lecture et l'enregistrement vidéo, grâce à la puce d'encodage/décodage dédiée. En option, une puce réseau pourra gérer les connectivités sans-fil indispensables à un MID (Wi-Fi, WiMAX, 3G).
Il ne reste maintenant plus qu'à attendre les premiers produits basés sur cette nouvelle plateforme, pour vérifier sur le terrain si elle peut se mesurer aux solutions ARM.
Posté par Matt le 05/05/2010 à 22h29
Aucun commentaire
Source : Generation NT
HP n'aura pas trainé bien longtemps après son rachat de Palm pour faire les premières annonces de ces intentions. En effet, alors que leur tablette tactile Slate sous Windows 7, présentée par Steve Balmer il y a quelques mois, était annoncée comme abandonné il y a quelques jour, la voici renaître, marquée par le sceau de Palm...
En effet, la principale motivation à l'abandon de la tablette Slate était son système d'exploitation Windows 7, qui imposait l'utilisation d'un processeur x86, bien trop gourmand pour pouvoir réaliser une tablette compétitive face à celle d'Apple en termes d'autonomie et de dimensions, tandis que la licence de Windows 7 représentait en plus un surcoût non négligeable sur le coût de revient de la machine.
Mais en rachetant Palm, HP a mis la main par la même occasion sur webOS, le système qu'avait développé Palm pour son smartphone Pre. Celui-ci fonctionnant sur processeur ARM, HP va ainsi pouvoir réaliser une tablette dotée d'une meilleure autonomie et moins coûteuse à fabriquer. Le reste des caractéristiques devrait rester à peu près équivalent, avec un écran tactile multi-touch 1024x600, un port USB, un slot SD, deux capteurs photo. Une version 3G serait également prévu, ce qui ne devrait pas poser de problème pour webOS. On peut également espérer que le passage au ARM permettra d'affiner un peu plus la tablette, pour la rapprocher de la finesse de l'iPad.
Posté par Matt le 04/05/2010 à 21h07
Aucun commentaire
Source : Tom's Hardware
En ce mardi 4 mai, la Free Software Foundation a lancé le concept de la journée sans DRM, pour agir contre ces systèmes qui brident les usages numériques et favorisent les solution propriétaires verrouillées, au détriment du logiciel libre. Des DRM qui pourraient par ailleurs n'être plus qu'un mauvais souvenir si le projet de loi déposé par Michel Zumkeller était voté.
En effet, ce député du groupe UMP a déposé le 29 avril dernier une proposition de loi (proposition n°2476) qui rendrait définitivement caduques les systèmes de DRM sur le territoire français, en instaurant la fameuse licence globale qui a été tant de fois évoquée. Mais il s'agit là à ma connaissance de la première fois que la chose sera débattue devant l'assemblée.
La proposition de Michel Zumkeller a de plus l'avantage de résoudre un des problèmes souvent évoqués à propos de la licence globale : il serait injuste de faire payer tous les internautes, alors que certains ne téléchargent pas d'œuvres protégées. Pour contourner cette injustice, le député propose tout simplement d'instaurer une licence globale permettant de télécharger légalement des contenus audiovisuels, mais dont le montant serait variable, chaque internaute payant un montant dépendant de son volume de téléchargement.
Selon le député, pour compenser l'impact économique du téléchargement, il suffirait que le montant moyen de cette licence soit de 5€ par internaute, avec un prix variant de 0€ pour ceux qui ne téléchargent pas à 10€ pour les plus gros consommateurs.
Sachant que certains internautes n'hésitent pas à payer des sommes supérieures à 10€ pour des accès VPN et Newsgroup sécurisés, leur permettant de télécharger sans risquer les foudres de l'HADOPI, une telle loi aurait l'énorme avantage de récupérer ces sommes au profit de la création, sans pour autant représenter un surcoût pour les abonnés.
Malheureusement, il est fort probable que cette proposition de loi reçoive un accueil glacial à l'assemblée et soit rapidement rejetée. Mais elle aura le mérite de mettre une fois de plus le projecteur sur le concept de licence globale, qui devrait bien finir par s'imposer, face à des mesures anti-piratage toujours plus coûteuses, sans pour autant faire preuve d'une efficacité croissante...
Posté par Matt le 04/05/2010 à 12h49
Aucun commentaire
Source : Clubic
À l'heure ou les blogs et réseaux sociaux se multiplient, alimentant en données privées et parfois très personnelles les nombreux moteurs de recherche, le respect de la vie privée fait de plus en plus souvent débat, et donne naissance à des projets de loi dans différents pays, et notamment en France. L'occasion pour notre confrère Tom's Guide de réaliser un dossier sur le sujet.
Ce dossier présente les principes de base à respecter pour éviter que votre vie privée ne s'étale trop sur Internet. Et en particulier, se méfier des réseaux sociaux, sur lesquels on a vite fait de partager sa vie avec la terre entière... Tom's Guide rappelle d'ailleurs un exemple qui devrait en marquer plus d'un, le cas de Marc L, choisi au hasard par un journaliste, qui en a dressé un portrait détaillé à partir d'informations trouvées sur Internet.
Et si le mal est déjà fait ? Le dossier vous donnera quelques pistes pour limiter la casse. Tout d'abord en identifiant les informations qui ont été diffusées, puis en tentant de les effacer ou, lorsque ce n'est plus possible, en diffusant de nouvelles informations de façon plus contrôlée, tout en y mettant suffisamment en avant son nom, pour noyer les informations non contrôlées dans la masse, et donc les rendre moins visibles : l'écrasante majorité des personnes cherchant des informations sur Google ne vont pas au delà tu troisième lien dans les résultats, donc il "suffit" de réussir à contrôler le contenu de ces trois premiers résultats.
Un article dont la lecture ne devrait faire de mal à personne, et en particulier à tous ceux qui ne se sont jamais posé la question de la trace qu'ils laissent derrière eux sur Internet...
Posté par Matt le 03/05/2010 à 23h35
Aucun commentaire
Bien qu'nVidia n'ait pas encore évoqué l'arrivée d'une déclinaison mobile de sa récente puce Fermi, une fuite en provenance du site du fabricant Eurocom laisse présager l'arrivée prochaine d'une puce Fermi dédiée aux ordinateurs portables.
En effet, le site référence une machine haut de gamme "transportable", le X8100 Leopard, dont les options de cartes graphiques comportent une GTX 480M, accompagnée de 2 Go de mémoire GDDR5. Malgré les habitudes de nVidia en matière de nommage de cartes, il y a fort à parier qu'il s'agisse bien là d'une déclinaison mobile de la puce Fermi qui équipe les GeForce GTX 470 et 480.
Par rapport à sa version pour ordinateurs de bureau, cette puce mobile risque toutefois d'être fortement amputée. En effet, les cartes graphiques GeForce GTX 480 ont un TDP de 250W, et une consommation réelle frisant les 300W, ce qui est totalement incompatible avec un châssis d'ordinateur portable. Selon Eurocom, le TDP de la GTX 480M aurait été ramené à 100W, ce qui reste énorme pour une puce mobile, mais devrait être refroidissable dans les châssis "transportables".
Reste à attendre l'annonce officielle de nVidia pour voir comment le caméléon a pu obtenir cette baisse de consommation. On peut s'attendre à des fréquences revues à la baisse, mais aussi à un nombre d'unités de traitement fortement diminué.