Depuis quelques temps, la tendance tend vers le vert chez les fabricants de matériel informatique, qui mettent de plus en plus en avant les aspects écologiques de leurs produits. Après les processeurs basse consommation et les alimentations à haut rendement, ce sont les constructeurs de disques durs qui se sont lancés sur ce créneau, Western Digital en tête, avec ses Caviar Green Power. Hitachi se devait donc de réagir, et c'est chose faites avec les P7K500, pour lesquels le constructeur annonce une baisse de consommation de 40%, sans réduire la vitesse de rotation. Mais ces valeurs se vérifient-elles en pratique, et surtout, quel est l'impact sur les performances ? Nous allons voir que le P7K500 nous réserve quelques bonnes surprises...
Posté par Matt le 11/06/2008 à 08h47
Aucun commentaire

C'est aujourd'hui que s'ouvrait en Californie la World Wide Developper Conference 2008, la grande messe annuelle des fans de la pomme. Sans surprise, la principale nouvelles de la journée est l'arrivée prochaine d'une nouvelle version de l'iPhone, prévue pour le 11 juillet.
Baptisé iPhone 3G, le nouveau modèle n'est pas révolutionnaire, mais comble les principales lacunes de la version précédente. Au programme des nouveautés :
- un design légèrement revu, avec une coque arrière entièrement noire
- le support de la 3G
- une puce A-GPS
- une sortie casque standard
- autonomie améliorée (5h de conversation 3G, 10h de conversation GSM, 24h de lecture audio)
Le reste des nouveautés est essentiellement logiciel, et pourra donc également profiter aux possesseurs d'iPhone première génération. On citera notamment une orientation plus pro
, avec le support d'Exchange et des VPN Cisco, le nouveau firmware 2.0 supportant les applications développées avec le SDK et mises à disposition sur l'AppStore, une version de Google Maps utilisant la fonction GPS, mais aussi l'application MobileMe, qui assurera la synchronisation de vos contacts, courriers, marques pages, etc. entre l'iPhone et vos ordinateurs, qu'ils soient Mac ou PC.
La keynote a permis à Apple de présenter de nombreux logiciels réalisés avec le SDK, montrant le bon accueil que les éditeurs lui ont réservé, en particulier les éditeurs de jeux, certains réalisations atteignant le niveau de qualité des consoles portables ! On notera également qu'en marge de la WWDC, un responsable de TomTom, le très célèbre éditeur de logiciels GPS, a d'ores et déjà annoncé qu'un portage de TomTom sur iPhone était en cours, et déjà très avancé.
Cerise sur le gâteau, les opérateurs étant désormais autorisés à subventionner l'appareil, les prix dégringolent. Ainsi, aux USA l'iPhone 3G sera proposé à 199$ en version 8 Go et 299$ en version 16 Go. Pour la France, Orange ne s'est pas encore prononcé sur les nouveaux tarifs, mais on peut s'attendre à un prix de l'ordre de 200€ pour le 8 Go.
Plus d'informations sur le site d'Apple :
Posté par Matt le 10/06/2008 à 09h57
Aucun commentaire
Source : MacBidouille

Alors que le VelociRaptor de Western Digital est encore difficile à trouver en France, les rumeurs évoquent déjà son successeur, et le moins que l'on puisse dire, c'est que ces rumeurs sont surprenantes !
En effet, alors que les Raptor tournaient jusqu'à présent à 10 000 tours/minute et que les disques les plus rapides du marché stagnent à 15 000 tours/minute depuis des années, il semblerait que Western Digital ne veuille pas laisser les SSD s'imposer et travaille sur une évolution du VelociRaptor (toujours en 2.5" donc) qui atteindrait les 20 000 tours/minute ! Une vitesse décoiffante, mais qui soulève beaucoup de questions. On peut en effet s'interroger sur l'intérêt d'une telle vitesse de rotation, les contraintes qui y sont liées étant difficilement justifiable par le maigre gain, qui sera forcément insuffisant face aux SSD.
Qu'apporterait une vitesse de 20 000 RPM ? D'abord, conséquence directe de la vitesse de rotation plus élevée, les débits du disque seraient doublés à densité et à diamètre égaux. On atteindrait donc un débit moyen de l'ordre de 200 Mo/s. Impressionnant. Ensuite, il y a la latence, qui diminuerait de 50%, pour passer à 1.5ms, soit autant de gagné sur le temps d'accès. Celui-çi étant actuellement de 7.2ms, il tomberait à 5.7, soit un gain de 20%.
Mais, car il y a toujours un mais, le gain de 20% sur le temps d'accès est encore très insuffisant face aux SSD, dont les temps d'accès se mesurent en dixièmes de ms, et aussi impressionnant soit le débit pour un disque seul, il est facile d'atteindre cette vitesse avec un RAID de SSD. La consommation d'un VelociRaptor étant déjà très supérieure à celle d'un SSD, un modèle 20 000 RPM ne l'emporterait pas non plus sur ce point, pas plus que sur le niveau de bruit... La seule chance de ce SuperRaptor
serait donc d'être beaucoup moins cher que les SSD...
Et là, le doute s'installe : aujourd'hui, le VelociRaptor est proposé à environ 1$/Go. En passant à 20 000 RPM, ce prix risque de grimper en flèche, vu la complexité de la mécanique et la baisse de densité qui sera quasi inévitable à cette vitesse. En étant optimiste, on peut tabler sur un prix de 1$/Go dans 18 mois. Du côté des SSD, on est aujourd'hui à environ 5$/Go pour des modèles performants mais pas trop (SuperTalent MasterDrive MX, 120 Mo/s en lecture, 40 Mo/s en écriture), mais qui pourraient largement rivaliser avec un Raptor 20 000 RPM, surtout en les montant en RAID. D'ici à 18 mois, on peut donc tabler sur un prix qui sera inférieur à 2$/Go. Dans ces conditions, on voit mal comment le Raptor 20 000 RPM pourrait trouver sa place : ceux pour qui les 2$/Go des SSD sont trop trouveront probablement aussi que le 1$/Go du disque est trop, tandis que ceux qui recherchent la performance à tout prix s'orienteront quasi forcément vers des SSD à peine plus chers...
Ce projet de Raptor 20 000 RPM ressemble donc plus à un dernier baroud d'honneur de la part de Western Digital, avant une bascule vers le SSD pour les supports hautes-performances, puis une bascule progressive vers les SSD sur les gammes grand-public.
Posté par Matt le 09/06/2008 à 23h58
Aucun commentaire
Source : Matbe

L'actualité de nVidia étant assez riche en ce moment, avec l'arrivée prochaine de la nouvelle génération de cartes graphiques à base de GT200 et de nouvelles solutions mobiles, voici un petit résumé des trois principales nouveautés de ces derniers jours : des infos sur le GT200, l'arrivée des GeForce 9M et enfin, la surprenante plateforme Tegra...
Commençons donc par le GT200 : après différentes informations sur les performances des GTX260 et GTX280, qui devraient surpasser largement tout ce qui existe aujourd'hui, y compris les cartes bi-GPU, notre confrère TT-Hardware nous apporte quelques informations sur la consommation de la GTX280. Et le moins que l'on puisse dire, c'est que les nouvelles sont bonnes ! En effet, par rapport aux cartes ATI/AMD, les dernières cartes nVidia on la mauvaise réputation de consommer beaucoup au repos. Selon les chiffres publiés aujourd'hui, nVidia aurait réalisé d'importants progrès sur ce point, probablement via une réintroduction des fréquences 2D. Ainsi, la GTX280 ne devrait consommer que 25W au repos et 35W en lecture de vidéo HD, contre 45W et 50W pour la 9800 GTX dans les mêmes conditions. En 3D, les choses sont par contre moins roses pour le caméléon, puisque la GTX280 monte à près de 150W sous 3DMark 2006, contre seulement 80W pour son ancêtre. Pour obtenir des consommations plus raisonnable, il faudra sans doute attendre les GT200b, gravées plus finement et prévue pour septembre 2008.
Du côtés des ordinateurs portables, les GeForce 8M vont céder leur place aux GeForce 9M à partir de cet été. Au programme, des performances revues à la hausse de près de 50% pour les modèles haut de gamme et le support de l'Hybrid SLI (Hybrid Power et GeForce Boost). On peut toutefois se demander l'intérêt de ces deux technologies dans le cas d'une carte graphique mobile. En effet, pour fonctionner elles nécessitent toutes les deux un chipset nVidia avec vidéo intégré de dernière génération, devant lui aussi supporter l'Hybrid SLI, et à l'heure actuelle, nVidia ne propose pas de chipset mobile le supportant. Ils faudra donc attendre de nouveaux chipsets mobiles, alors qu'nVidia est très peu présent sur ce marché...
Enfin, il nous reste à parler de la plateforme Tegra 600, qui est sans doute le produit le plus surprenant présenté par nVidia ces dernières années. En effet, alors que dans le domaine de l'ultra-mobilité nVidia se contentait pour l'instant de quelques puces graphiques (série APX), nVidia vient de présenter tout une plateforme montée sur un seul support physique (System on a chip) : processeur central ARM11 800 MHz, mémoire DDR, puce graphique 3D OpenGL, décodeur vidéo, processeur capable de piloter une cellule photo 12MP et même stockage flash ! Il ne lui manque quasiment qu'une batterie et une IHM pour constituer un système complet prêt à l'emploi.
Mais là où nVidia surprend encore plus, c'est sur le plan des performances et de la consommation : nVidia compte placer cette plateforme en concurrence de la plateforme Atom d'Intel, mais en offrant des performances vidéo très supérieures (support de l'encodage et du décodage HD en 720p, et même décodage 1080p sur la version la plus haut de gamme), un encombrement bien plus réduit (voir photo ci-dessus), et surtout, une consommation particulièrement faible, puisqu'nVidia annonce jusqu'à 30h de lecture vidéo en une seule charge de batterie (sans toutefois préciser la capacité de la dite batterie...). La guerre entre nVidia et Intel semble donc de plus en plus virulente, et contre toute attente, c'est plutôt nVidia qui marque des points pour l'instant !
La plateforme Tegra devrait être disponible dès la fin de l'année et vise avant tout le marché des smartphones et des netbooks (EEE-like), mais avec des telles caractéristiques, il ne serait pas non plus étonnant d'en retrouver prochainement dans les caméscopes HD, les baladeurs multimédia, et pourquoi pas même des téléviseurs, pour permettre de lire directement des contenus HD stockés sur un support USB !
Posté par Matt le 03/06/2008 à 23h33
Aucun commentaire

Firefox, le très populaire navigateur libre de la fondation Mozilla, va prochainement passer à la version 3.0, une mise à jour majeure et très attendue du logiciel, qui devrait lui permettre de combler le retard qu'il a pris ces derniers mois par rapport à certains de ces concurrents.
A l'occasion de cette sortie, le site Spread Firefox a lancé une initiative ambitieuse : battre le record du monde du logiciel le plus téléchargé en 24h. La date de sortie de Firefox 3.0 n'étant pas encore fixée définitivement, le site vous propose pour l'instant de vous inscrire en effectuant une promesse de téléchargement sur cette page. Vous serez alors informé par mail dès la mise en téléchargement de la version finale de Firefox 3.0, afin que vous puissiez effectuer votre téléchargement dans le délai de 24h.
Sur cette même page, une carte du monde vous permettra également de suivre l'évolution du nombre de promesses de téléchargement, qui à d'ores et déjà largement dépasser la barre du demi-million.
Posté par Matt le 02/06/2008 à 10h53
2 commentaires
Source : MacBidouille
![]()
Dans le monde des SSD, les annonces se suivent et se ressemble, à tel point qu'il semble que les constructeurs ont quelques difficultés à innover dans ce marché pourtant bouillonnant. Ce n'est pas le cas d'Innodisk, qui vient de se démarquer en présentant le plus petit SSD du monde, le SATADOM (SATA Disk On Module).


Et pour cause : le SATADOM est en fait à peine plus gros qu'un connecteur SATA, et se connecte directement sur le port SATA de la carte mère, sans nécessiter d'alimentation complémentaire. Il sera proposé en deux formats différents, l'un avec le connecteur perpendiculaire au châssis (SATADOM Horizontal), l'autre avec le connecteur dans l'axe du châssis (SATADOM Vertical), et dans des capacités allant de 128 Mo à 8 Go, ce qui peut paraître peu, mais sera suffisant pour un système d'exploitation léger. Bien que la mémoire utilisée soit de la SLC, les performances sont relativement modestes, avec seulement 24 Mo/s en lecture et 15 Mo/s en écriture. Ce SSD se destine donc clairement plus aux netbooks (type EEE) qu'aux machines hautes performances.
Posté par Matt le 30/05/2008 à 18h57
Aucun commentaire
Source : PCInpact

Depuis quelques mois, Microsoft commercialise la plateforme Surface
, qui consiste en une table intégrant un écran tactile multi-touch raccordé à un PC sous Windows Vista, avec une surcouche logicielle gérant l'interface multi-touch et diverses applications en tirant partie. Mardi dernier, Microsoft a procédé à une première présentation de Windows Seven, le successeur de Windows Vista, qui intégrera en standard ces nouvelles fonctionnalités.
Cette présentation n'a donc finalement pas apporté énormément de nouvelles informations, l'intégration de Surface étant largement prévisible, les interfaces tactiles se multipliant dans le monde de l'électronique. On retrouvera donc dans Windows Seven toutes les applications proposées par Surface : Windows Live Maps, un Paint gérant le multi-touch, une nouvelle version de Photo Gallery, un piano virtuel... On peut bien entendu également espérer un support du multi-touch dans l'Explorateur Windows, dans Internet Explorer, ainsi que des API système permettant de facilement développer des applications exploitant cette technologie.
Microsoft a également confirmé que le système devrait être commercialisé fin 2009, une date qu'il faudra tout de même prendre avec des pincettes, vu les nombreux retards dont avait été victime Windows Vista. Il faudra aussi voir si les constructeurs d'écrans seront prêts d'ici là, les dalles tactiles multi-touch au format des écrans de bureau (20 à 24") ne courant pas les rues, les quelques modèles existants étant de plus proposés à des tarifs relativement prohibitifs...
En attendant, vous pouvez aller consulter les premières photos et vidéos de Windows Seven en pleine action chez notre confrère Gizmodo.
Posté par Matt le 30/05/2008 à 00h55
Aucun commentaire

Depuis quelques temps, nVidia parle beaucoup de son Hybrid SLI, qui se compose de deux technologies : le GeForce Boost, destiné aux cartes d'entrée de gamme et qui apporte un surcroit de puissance 3D en combinant le GPU et l'IGP, et l'Hybrid Power, destiné aux cartes haut de gamme, qui vise à réduire la consommation électrique en utilisant uniquement l'IPG en mode 2D, ce qui permet de complètement couper l'alimentation de la carte graphique.
On en savait toutefois relativement peu sur les résultats en pratique, et nos confrère de chez Matbe viennent de lever un peu le voile sur l'Hybrid Power, dont les résultats sont plutôt convaincants. En effet, lors de leur test, nos confrères ont bel et bien mesuré une baisse impressionnante de la consommation en idle, de l'ordre de 50W avec une 9800 GTX et de 170W avec un système à base de deux 9800 GX2. Dans ce dernier cas, le gain obtenu représente pas moins de 50% de la consommation de la machine ! Les solutions ATI étaient jusqu'à présent réputées pour leur faible consommation en idle, elles sont ici largement battues, la 9800 GTX gagnant désormais une petite vingtaine de W face à la 3870, tandis que la 3870X2 consomme 40W de plus que le SLI de 9800 GX2. Par rapport à une configuration sans carte graphique, le surcoût de consommation n'est plus que de l'ordre de 5W par GPU, ce qui est tout a fait raisonnable.
Revers de la médaille, l'Hybrid Power risque fort d'être handicapé à cause de son impact sur les performances. En effet, au lieu de sortir directement l'image calculée vers sa sortie DVI, la carte graphique doit désormais l'envoyer vers l'IGP via le bus PCI-Express, l'IGP se chargeant ensuite d'afficher l'image, ce qui ne se fait pas sans pertes de performances. D'après les mesures de nos confrères, cette perte serait en moyenne de 10% pour un GPU seul, 15% pour un GX2 et 20% pour un SLI de GX2, le tout avec de grandes disparités d'un jeu à l'autre, certains étant très peu impactés (ceux où le framerate initial est faible), d'autre beaucoup plus (quand le framerate est élevé).
Au vu de ces résultats, on est en droit de se demander si nVidia a fait les bons choix. En effet, si l'intention (réduire la consommation) est bonne, l'impact sur les performances risque de limiter grandement l'utilisation de cette technologie : ceux qui achètent une carte haut de gamme recherchent avant tout la performance, donc accepteront difficilement de tels ralentissements. Même si nVidia annonce que ces pertes seront réduites via des mises à jour des drivers, il semble difficilement possible d'obtenir un résultat réellement sans pertes. Peut-être aurait-il été préférable d'opter pour un système comme celui utilisé il y a dix ans par les cartes 3dfx : un câble DVI (VGA à l'époque) externe reliant les deux cartes et permettant donc à chacune d'envoyer directement son signal à l'écran, comme si elle était seule.
Posté par Matt le 27/05/2008 à 23h58
Aucun commentaire

Un troisième kit clavier/souris Microsoft vient de passer entre mes mains pour le compte de notre confrère NDFR.net : le Microsoft Wireless Laser Desktop 7000. Ce kit haut de gamme se compose d'une souris laser (Wireless Laser Mouse 7000) et d'un clavier plat doté de touches à course semi raccourcie qui se veut ergonomique : pavé alpha numérique incurvé, avant du clavier relevé pour une position plus naturelle, etc...
Extrait :
Dans le secteur des ensembles clavier/souris sans-fil, le haut de gamme se résume globalement à un duel entre deux acteurs historiques : Logitech et Microsoft. Rares sont ceux qui ont réussi à s'interposer entre ce
duo. Aujourd'hui, nous testons à nouveau un ensemble Microsoft, le Wireless Laser Desktop 7000, qui confirme encore une fois la bonne position de Microsoft sur ce marché.
Posté par Matt le 26/05/2008 à 22h53
Aucun commentaire
Dans la guerre
des formats bureautiques, l'ODF (Open Document Format) avait marqué un point en étant le premier à être normalisé ISO, avant de perdre son avance récemment, l'OOXML (Office Open XML) ayant lui aussi décroché la précieuse certification. L'ODF marque désormais un nouveau point, offert sur un plateau par... Microsoft !

En effet, aussi surprenant que celà puisse paraître, l'éditeur de Redmond va intégrer le support natif de l'ODF à sa suite Office 2007, alors que le format maison, l'OOXML en version normalisée ISO ne sera pas supporté avant la prochaine version de la suite Office, dont la date de sortie n'est pas encore définie... En effet, la version de l'OOXML actuellement implémentée dans Office 2007 n'est pas normalisée ISO, et face au nombre croissant d'administration exigeant l'utilisation de formats normalisés, Microsoft est dans l'obligation de mettre à jour sa suite Office pour qu'elle intègre un format normalisé.
Il aurait cependant été plus logique que Microsoft intègre d'abord le support de l'OOXML ISO, le choix de passer d'abord par l'ODF apportant du crédit supplémentaire aux partisans de ce format qui reprochent entre autres à l'OOXML la complexité de ses spécifications, le rendant difficile à implémenter... En supportant en priorité d'ODF, Microsoft semble donc avouer à demi-mots la complexité de son format, qui nécessitera une nouvelle version d'Office. En attendant, l'ODF devrait donc s'installer petit à petit sur le marché, ce qui devrait permettre à OpenOffice de gagner en popularité.


