
Depuis quelques années, les grands constructeurs de clés USB, Sandisk en tête, proposent des déclinaisons U3
de leurs produits. Sous ces deux lettres se cache un système permettant de stocker sur la clé tout un environnement de travail pouvant être utilisé sur une machine hôte (sous Windows uniquement) sans laisser la moindre trace sur celui-ci.
Mais ce système souffre de nombreux défauts par rapport à certaines solutions concurrentes, comme PortableApps. En effet, il s'agit d'un système propriétaire, nécessitant du matériel spécifique et des logiciels spécifiques qui ne peuvent pas s'exécuter en dehors de l'environnement U3. PortableApps et ses applications totalement indépendantes et fonctionnant sur n'importe quel support de stockage est donc bien plus séduisant. Mais grâce à notre confrère TT-Hardware, ces clés pourraient bien retrouver un peu d'intérêt.
En effet, le système U3 repose sur un matériel spécifique qui émule un lecteur CD contenant le lanceur U3 et il existe des logiciels permettant de modifier le contenu de ce lecteur virtuel. Normalement limitée à 6 Mo, ce lecteur virtuel peut en fait stocker des images ISO de bien plus grande capacité. Vous pourrez ainsi y stocker par exemple une image du CD d'installation de Windows ou de n'importe quel autre système d'exploitation pour pouvoir l'installer sur une machine sans lecteur CD, comme par exemple un Netbook. Bien entendu, la capacité de stockage de la clé sera réduite et le système U3 ne sera plus utilisable (par contre, pas de problème pour PortableApps).
L'article de notre confrère détail la procédure à suivre pour parvenir à ce résultat. Nous l'avons nous même testé pour réaliser une clé Ultimate Boot CD
à partir d'une clé Sandisk Cruzer U3
et tout marche à merveille, malgré le fait que le système U3 avait été supprimé depuis bien longtemps de notre clé. Par contre, l'article précise que la compatibilité du logiciel de personnalisation n'est pas garantie avec Windows Vista : nous le confirmons, il faudra passer par Windows XP. Sous Vista, nous avons réussi à effacer la clé, mais pas à y charger l'image ISO.
Posté par Matt le 21/07/2008 à 23h15
Aucun commentaire

En attendant un petit regain d'activité au niveau d'Infobidouille, je viens de réaliser pour notre confrère NDFR.net un test du ReadyNAS Duo de Netgear, un NAS haut de gamme plutôt séduisant qui comble pas mal des lacunes de ses prédécesseurs chez Netgear.
Extrait :
Après les SC101 et leur technologie Z-SAN de chez Zetera, Netgear a lancé une nouvelle gamme d'unités de stockage réseau, les ReadyNas, issus cette fois du rachat d'un grand spécialiste du stockage réseau : Infrant. Proposés à la fois au grand public et aux entreprises, les ReadyNAS peuvent accepter deux ou quatre disques durs SATA (selon les versions) et sont livrés avec un à quatre disques de 500 Go à 1 To préinstallés.
Posté par Matt le 16/07/2008 à 00h26
Aucun commentaire

Depuis quelques temps, Intel manifeste son intention de se lancer sur le secteur des GPU haut de gamme avec son projet Larrabee, qui a la particularité d'être constitué d'une multitude de cœurs x86 minimalistes, afin de faciliter leur utilisation par rapport aux GPU classiques qui utilisent des jeux d'instructions différents de ceux des CPU et nécessitent donc du code spécifique.
Si cette annonce avait été surprenante à l'époque, celle qui a été faite hier ne l'est pas moins ! Intel a en effet donné plus de détails sur l'architecture Larrabee et nous a notamment appris qu'elle serait constituée de 32 cœurs... P54C ! C'est-à-dire le cœur de la seconde génération de Pentium, sortis il y a 14 ans ! A l'époque, l'animal était gravé en 600nm et cadencé entre 75 et 120 MHz. Demain, il sera gravé en 45nm et moulinera à 2 GHz. Bien entendu, Intel a tout de même apporté quelques améliorations à ce cœur depuis l'époque, avec notamment le support de l'adressage 64 bits ainsi que probablement quelques unités de calcul SIMD.
Si le nombre de cœurs peut sembler faible par rapport aux 800 SP d'une Radeon HD 4870, Intel annonce tout de même une puissance brute de l'ordre de 2 Teraflops à 2 GHz, soit plus du double de la puissance de calcul d'une Radeon HD 4870. Revers de la médaille, l'engin consomme environ 300W, soit encore une fois le double du GPU d'une Radeon HD 4870.
La bataille s'annonce donc intéressante pour l'an prochain, entre nVidia, dont le leadership des GeForce ne tient plus à grand chose, ATI, le Phoenix qui renaît de ses cendres et Intel, le petit nouveau aux ambitions et au budget bien plus important que ses deux concurrents.
Posté par Matt le 08/07/2008 à 09h08
Aucun commentaire
Source : Matbe
![]()
Depuis quelques mois, les annoncent de SSD se suivent, et on y dénote une baisse des prix, qui s'est récemment accélérée avec l'annonce des MasterDrive de SuperTalent. C'est désormais au tour d'OCZ d'en remettre une couche avec ses SSD Core Series 2.5", qui seront très prochainement disponibles dans des capacités allant de 32 Go à 128 Go et à des prix particulièrement agressifs.

Ainsi, le modèle de 32 Go est annoncé à moins de 170$, contre 260$ pour le 64 Go et 480$ pour le 128 Go. Le prix au Go passe donc sous la barre des 4$, soit seulement
4 fois le prix au Go des disques SATA haut de gamme (Raptor et VelociRaptor). Bien entendu, il n'y a pas de miracle, même si OCZ n'annonce pas le type de mémoire embarquée sur les Core Series, il ne peut s'agir que de mémoire MLC. En effet, vu les cours actuels des puces de mémoire flash, les 128 Go de SLC coûtent au mieux 768$ (128 puces de 1 Go à 6$), contre environ 274$ pour la même quantité en MLC (32 puces de 4 Go à 8.55$).
Toutefois, malgré l'emploi de mémoire MLC, les performances sont tout a fait honorables, OCZ ayant vraisemblablement fait de gros efforts sur le contrôleur mémoire : plus de 120 Mo/s en lecture, plus de 80 Mo/s en écriture. Les Core Series font donc mieux que les MasterDrive de SuperTalent, tout en étant sensiblement moins cher. Ce contrôleur pêche par contre par ses temps d'accès qui, même s'ils restent excellents par rapport à ceux des disques durs, sont nettement supérieur à ceux de la concurrence : OCZ annonce 0.3ms, alors que la plupart des SSD sont en dessous de 0.1ms (contre environ 7ms pour un VelociRaptor et 13ms pour un disque 3.5" 7200 RPM classique).
Ces SSD seront disponibles dans un mois environ et sont d'ores et déjà proposés en pré-commande par notre partenaire Materiel.net :
Posté par Matt le 02/07/2008 à 09h33
1 commentaire

Il y a une semaine, nVidia lancait ses nouvelles GeForce, les GTX 260 et 280, qui surpassaient largement les solutions ATI existantes, y compris les solutions bi-GPU, et nous nous demandions comment ATI allait bien pouvoir riposter face à cette domination d'nVidia, qui dure depuis fin 2006. C'est aujourd'hui qu'ATI a décidé de dévoiler sa nouvelle solution haut de gamme, et le moins que l'on puisse dire, c'est que nous somme surpris par la bestiole...
En effet, alors que le prix public extrêmement bas pour une carte haut de gamme
(250€ environ) laissait craindre le pire en termes de performances, la Radeon HD 4870 se révèle en fait très à l'aise dans les jeux, en surpassant sans difficulté la GTX 260, pourtant vendue une bonne cinquantaine d'euros de plus, et en allant même titiller la GTX 280 qui coûte plus du double !
Pour parvenir à de telles performances pour un prix aussi réduit, ATI est reparti de l'architecture des HD 3000 et l'a optimisé partout où c'était possible, une stratégie quasi inverse à celle pour laquelle a opté nVidia, qui s'est tout juste contenté de coller des unités de calcul supplémentaire à son G92 pour former le GT200. L'objectif principal d'ATI était de réduire le coût de la carte, en cherchant la simplicité et le rendement. Ainsi, la puce RV770 qui anime la HD 4870 est gravée en 55nm (contre 65nm pour les GT200 et 55nm pour le RV670 des Radeon 3800) et ne mesure que 260mm² (contre 190 pour les Radeon 3800), soit moins de la moitié de la surface d'une puce GT200 (600mm²), ce qui divise grosso modo son prix de fabrication par deux par rapport à sa concurrente. Mais le plus impressionnant, c'est la réduction du nombre de transistors par unité de calcul : alors que le RV670 comptait 670 millions de transistors pour 64 unités de shaders vec5, le RV770 ne comporte que 40% de transistors supplémentaires, mais se dote de... 2.5 fois plus d'unités de shaders, toujours en vec5 ! Toujours pour faire des économies, ATI a abandonné son bus mémoire ring-bus
, nécessitant un contrôleur trop complexe, au profit d'un bus mémoire classique de seulement 256 bits.
256 bits ? Oui oui, vous avez bien lu. Alors que les cartes nVidia a base de G92 étaient très critiquées à cause de leur bus 256 bits trop limitant et alors que le GTX 280 embarque un bus 512 bits, ATI ose nous proposer un produit haut de gamme avec un bus 256 bits ! Et aussi surprenant que cela puisse paraître, ce bus 256 bits est un vrai atout pour la HD 4870. En effet, l'étroitesse du bus permet de simplifier grandement le PCB, le rendant plus économique, tandis que la bande passante reste de très haut niveau, grâce à l'emploi d'un nouveau type de mémoire, la GDDR5, qui monte beaucoup plus haut en fréquence. Avec sa mémoire à 3600 MHz, le RV770 dispose ainsi d'une bande passante supérieure à 100 Go/s, contre à peine plus de 50 sur les G92 et RV670, environ 100 également sur les GTX 260 et 130 sur les GTX 280. Ajoutez à ça diverses optimisations au niveau des ROPs, des unités de texturing, etc... et vous obtiendrez une carte performante et économique.
Selon les premiers tests parus aujourd'hui, la Radeon HD 4870 offre des performances du niveau d'une HD 3870 X2, ce qui la place environ 5 à 10% plus performante qu'une GTX 260, 60% plus performante qu'une HD 3870, 10-15% plus rapide que la 9800 GTX v2 (sa concurrente directe en termes de prix), et surtout, à peine 10% plus lente qu'une GTX 280 vendue deux fois plus chère ! La consommation se situe pour sa part à un niveau proche de la GTX 260, ce qui lui confère un rapport performances/watt équivalent à celui des cartes nVidia, mais avec toutefois un bémol surprenant : la consommation au repos est sensiblement à la hausse, alors qu'ATI nous avait plutôt habitué à l'inverse.
A seulement 250€, la Radeon HD 4870 est donc incontestablement une excellent affaire, à tel point qu'on peut se demander pourquoi ATI ne profite pas de ses performances pour la vendre une cinquantaine d'euros de plus. L'objectif est probablement de faire le plus mal possible à nVidia, en rongeant ses parts de marché. Pour 100€ de moins, vous pourrez également opter pour la HD 4850, environ 20% moins rapide, mais au rapport performances/prix exceptionnel.
Cerise sur le gâteau, les deux Radeon HD 4800 sont compatibles Crossfire et devraient prochainement être proposés également en version X2. Vu les bons rendements qu'atteint désormais ATI avec ses solutions bi-GPU (60% en moyenne), ces solutions risquent de faire très mal à nVidia : le duo de HD 4850 devrait surpasser la GTX 280 pour quasi deux fois moins cher (300€ vs 550€), tandis que le duo de HD 4870 prendra très probablement l'ascendant sur le duo de GTX 280, tout en étant moins cher qu'une seule GTX 280... La firme au caméléon va donc probablement devoir réviser sa politique tarifaire si elle ne veut pas voir ses parts de marché s'effriter trop rapidement, en attendant l'arrivée du GT200b à la fin de l'été, qui devrait permettre d'augmenter les fréquences et de réduire les coûts, grâce à sa gravure en 55nm.
Posté par Matt le 25/06/2008 à 20h05
Aucun commentaire

Plus d'un an et demie après la sortie de la 8800 GTX, la première carte DirectX 10 d'nVidia, la firme au caméléon a enfin lancé aujourd'hui sa seconde génération de puces DirectX 10, le GT200, qui équipe pour l'instant deux cartes, la GeForce GTX280 et la GeForce GTX260. De quoi enfoncer le clou et démonter une fois de plus l'avance dont dispose aujourd'hui nVidia par rapport à AMD/ATI.
En effet, alors que les constructeurs de cartes graphiques nous avaient habitués à renouveler leurs gammes tous les 6 à 8 mois, en s'échangeant sans cesse le leadership, force est de constater qu'nVidia est aujourd'hui sans concurrence. Non seulement, le G80 et le G92 (une évolution mineure du G80) ont tenu la dragée haute à toutes les cartes ATI depuis octobre 2006, mais en plus nVidia récidive avec le GT200, qui écrase littéralement les produits ATI, alors qu'il n'est qu'une nouvelle évolution du G80, et non pas une architecture réellement nouvelle. Conséquence directe : nVidia ne supporte toujours pas la version 10.1 de DirectX, contrairement à ATI qui l'implémente depuis sa série HD 3000.

Embarquant 192 à 240 Stream Processors, le GT200 n'est donc en fait pas grand chose qu'un G92 embarquant un plus grand nombre d'unités de calcul. Il en résulte que la puce consomme énormément, d'autant qu'elle est désormais épaulée de 896 Mo à 1 Go de RAM, sur un bus 448 à 512 bits. Testée par Matbe, la GTX 280 se révèle à la hauteur de ses caractéristiques, puisqu'en haute résolution (20", 22", 24" et 30" en résolution native), elle surpasse de 60% la 8800 Ultra, qui était jusqu'alors la carte mono-GPU la plus rapide dans cette situation. Elle surpasse même sans difficultés là 9800 GX2, pourtant dotée de deux puces G92. Côté ATI, la 3870 X2, elle aussi dotée de deux GPU, est dépassée de 30 à 40%, et même plus dans les situation les plus difficiles (très haute résolution avec FSAA). La GTX 280 est par contre à la peine en basse résolution, où elle égale tout juste ses grandes soeurs, car elle est trop limitée par le CPU.
Sur le plan de la consommation, la GTX280 surpasse aussi toutes les cartes existantes, y compris la 9800 GX2 (dépassée de 30W) et la 3870 X2 (de peu). Elle se rattrape par contre au repos, grâce au retour des fréquences 2D, qui font descendre sa consommation à environ 25W en 2D classique et 35W en lecture vidéo avec décodage matériel. Compatible Hybrid Power, elle pourra également être complètement arrêtée au repos, pour peu qu'elle soit montée sur une carte mère compatible et qu'on accepte la perte de performances 3D engendrée par l'Hybrid Power, ce qui ne devrait pas être le cas chez la plupart des acheteurs de cette carte...
Reste la question du prix, et là on retrouve des prix qu'on n'avait pas vus depuis longtemps : 550€ pour la GTX 280 et 310€ pour la GTX 260 ! Espérons que la relève de chez ATI (à savoir les HD 4850 lancées aujourd'hui également et les HD 4870 qui seront lancées à la fin du mois) sera à la hauteur pour pousser nVidia à baisser un peu les tarifs. Vu le positionnement de la HD 4850 (disponible dès aujourd'hui à moins de 160€), on peut se douter qu'elle se positionne plutôt face aux 8800 et 9800 GT, tandis que la HD 4870 devrait se négocier environ 100€ de plus, probablement pour attaquer la GTX 260 grâce à un meilleur rapport performances/prix (nVidia a déjà réduit le tarif des GTX 260 pour ne pas trop souffrir de cette concurrence). Pour battre les GTX 260 et GTX 280, la seule solution pour ATI sera probablement de recourir à la solution X2, que le constructeur maitrise de plus en plus, parvenant à des rendements bien supérieurs à ceux d'nVidia avec son SLI.
Contrairement au G92, le GT200 ne sera très probablement pas décliné en version bi-GPU dans l'immédiat, à cause de la consommation trop élevée, mais la donne pourrait changer dès l'automne, avec l'arrivée du GT200b gravé en 55nm. En attendant, les amateurs de caméléon et de solutions multi-GPU pourront tout de même monter un système SLI à deux ou trois cartes à base de GTX 280, ce qui devrait peut-être permettre de rendre Crysis jouable sur un écran 24"...
Enfin, comme l'a annoncé nVidia vendredi dernier, le GT200 sera compatible avec l'API PhysX d'Ageia, qu'nVidia va implémenter dans ses drivers via le framwork CUDA. Cette compatibilité PhysX sera également disponible sur les cartes GeForce 8 et 9.
Posté par Matt le 17/06/2008 à 10h44
Aucun commentaire
![]()
Il y a un peu plus d'un an, nous vous parlions d'un nouveau périphérique de jeu fabriqué par Emotiv qui permet de contrôler vos actions dans les jeux par la pensée. Un peu plus tard, c'était au tour d'OCZ de présenter un produit similaire, le NIA (Neural Impulse Actuator), lors d'un salon de jeu vidéo.
Le plus pressés de découvrir cette technologie futuriste
seront donc ravis d'apprendre que le NIA sera prochaine disponible en masse, pour environ 150€. Une somme qui reste élevée pour un périphérique de jeu (mais pas plus qu'un bon volant...), mais d'après le test réalisé par nos confrère de Generation 3D, le résultat est assez bluffant, même s'il nécessite une phase d'apprentissage et de calibration relativement longue et difficile.
Posté par Matt le 16/06/2008 à 22h59
Aucun commentaire
Depuis quelques temps, la tendance tend vers le vert chez les fabricants de matériel informatique, qui mettent de plus en plus en avant les aspects écologiques de leurs produits. Après les processeurs basse consommation et les alimentations à haut rendement, ce sont les constructeurs de disques durs qui se sont lancés sur ce créneau, Western Digital en tête, avec ses Caviar Green Power. Hitachi se devait donc de réagir, et c'est chose faites avec les P7K500, pour lesquels le constructeur annonce une baisse de consommation de 40%, sans réduire la vitesse de rotation. Mais ces valeurs se vérifient-elles en pratique, et surtout, quel est l'impact sur les performances ? Nous allons voir que le P7K500 nous réserve quelques bonnes surprises...
Posté par Matt le 11/06/2008 à 08h47
Aucun commentaire

C'est aujourd'hui que s'ouvrait en Californie la World Wide Developper Conference 2008, la grande messe annuelle des fans de la pomme. Sans surprise, la principale nouvelles de la journée est l'arrivée prochaine d'une nouvelle version de l'iPhone, prévue pour le 11 juillet.
Baptisé iPhone 3G, le nouveau modèle n'est pas révolutionnaire, mais comble les principales lacunes de la version précédente. Au programme des nouveautés :
- un design légèrement revu, avec une coque arrière entièrement noire
- le support de la 3G
- une puce A-GPS
- une sortie casque standard
- autonomie améliorée (5h de conversation 3G, 10h de conversation GSM, 24h de lecture audio)
Le reste des nouveautés est essentiellement logiciel, et pourra donc également profiter aux possesseurs d'iPhone première génération. On citera notamment une orientation plus pro
, avec le support d'Exchange et des VPN Cisco, le nouveau firmware 2.0 supportant les applications développées avec le SDK et mises à disposition sur l'AppStore, une version de Google Maps utilisant la fonction GPS, mais aussi l'application MobileMe, qui assurera la synchronisation de vos contacts, courriers, marques pages, etc. entre l'iPhone et vos ordinateurs, qu'ils soient Mac ou PC.
La keynote a permis à Apple de présenter de nombreux logiciels réalisés avec le SDK, montrant le bon accueil que les éditeurs lui ont réservé, en particulier les éditeurs de jeux, certains réalisations atteignant le niveau de qualité des consoles portables ! On notera également qu'en marge de la WWDC, un responsable de TomTom, le très célèbre éditeur de logiciels GPS, a d'ores et déjà annoncé qu'un portage de TomTom sur iPhone était en cours, et déjà très avancé.
Cerise sur le gâteau, les opérateurs étant désormais autorisés à subventionner l'appareil, les prix dégringolent. Ainsi, aux USA l'iPhone 3G sera proposé à 199$ en version 8 Go et 299$ en version 16 Go. Pour la France, Orange ne s'est pas encore prononcé sur les nouveaux tarifs, mais on peut s'attendre à un prix de l'ordre de 200€ pour le 8 Go.
Plus d'informations sur le site d'Apple :
Posté par Matt le 10/06/2008 à 09h57
Aucun commentaire
Source : MacBidouille

Alors que le VelociRaptor de Western Digital est encore difficile à trouver en France, les rumeurs évoquent déjà son successeur, et le moins que l'on puisse dire, c'est que ces rumeurs sont surprenantes !
En effet, alors que les Raptor tournaient jusqu'à présent à 10 000 tours/minute et que les disques les plus rapides du marché stagnent à 15 000 tours/minute depuis des années, il semblerait que Western Digital ne veuille pas laisser les SSD s'imposer et travaille sur une évolution du VelociRaptor (toujours en 2.5" donc) qui atteindrait les 20 000 tours/minute ! Une vitesse décoiffante, mais qui soulève beaucoup de questions. On peut en effet s'interroger sur l'intérêt d'une telle vitesse de rotation, les contraintes qui y sont liées étant difficilement justifiable par le maigre gain, qui sera forcément insuffisant face aux SSD.
Qu'apporterait une vitesse de 20 000 RPM ? D'abord, conséquence directe de la vitesse de rotation plus élevée, les débits du disque seraient doublés à densité et à diamètre égaux. On atteindrait donc un débit moyen de l'ordre de 200 Mo/s. Impressionnant. Ensuite, il y a la latence, qui diminuerait de 50%, pour passer à 1.5ms, soit autant de gagné sur le temps d'accès. Celui-çi étant actuellement de 7.2ms, il tomberait à 5.7, soit un gain de 20%.
Mais, car il y a toujours un mais, le gain de 20% sur le temps d'accès est encore très insuffisant face aux SSD, dont les temps d'accès se mesurent en dixièmes de ms, et aussi impressionnant soit le débit pour un disque seul, il est facile d'atteindre cette vitesse avec un RAID de SSD. La consommation d'un VelociRaptor étant déjà très supérieure à celle d'un SSD, un modèle 20 000 RPM ne l'emporterait pas non plus sur ce point, pas plus que sur le niveau de bruit... La seule chance de ce SuperRaptor
serait donc d'être beaucoup moins cher que les SSD...
Et là, le doute s'installe : aujourd'hui, le VelociRaptor est proposé à environ 1$/Go. En passant à 20 000 RPM, ce prix risque de grimper en flèche, vu la complexité de la mécanique et la baisse de densité qui sera quasi inévitable à cette vitesse. En étant optimiste, on peut tabler sur un prix de 1$/Go dans 18 mois. Du côté des SSD, on est aujourd'hui à environ 5$/Go pour des modèles performants mais pas trop (SuperTalent MasterDrive MX, 120 Mo/s en lecture, 40 Mo/s en écriture), mais qui pourraient largement rivaliser avec un Raptor 20 000 RPM, surtout en les montant en RAID. D'ici à 18 mois, on peut donc tabler sur un prix qui sera inférieur à 2$/Go. Dans ces conditions, on voit mal comment le Raptor 20 000 RPM pourrait trouver sa place : ceux pour qui les 2$/Go des SSD sont trop trouveront probablement aussi que le 1$/Go du disque est trop, tandis que ceux qui recherchent la performance à tout prix s'orienteront quasi forcément vers des SSD à peine plus chers...
Ce projet de Raptor 20 000 RPM ressemble donc plus à un dernier baroud d'honneur de la part de Western Digital, avant une bascule vers le SSD pour les supports hautes-performances, puis une bascule progressive vers les SSD sur les gammes grand-public.



