UNE NOUVELLE VERSION D'INFOBIDOUILLE EST EN LIGNE CLIQUEZ-ICI POUR LA VISITER

Actualités du mois de septembre 2009 (Matériel)

nVidia

Après une fin de mois de septembre durant laquelle ATI était à l'honneur avec ses Radeon HD 5850 et 5870, c'est au tour de nVidia de faire parler de ses produits, avec l'annonce ce soir des nouveautés à venir. Mais contrairement à ATI, la disponibilité ne sera pas immédiate.

La grosse information concerne bien entendu la future GeForce, qui était connue jusqu'à présent sous le nom de GT300, et qu'il faudra désormais baptiser Fermi, un nom qui annonce clairement la couleur : avec cette gamme, nVidia veut mettre l'accent sur le domaine du calcul hautes performances (HPC). Gravée en 40nm, comme les Radeon 5800, cette nouvelle puce embarquera trois milliards de transistors (près d'un milliard de plus que les Radeon 5800) qui constitueront pas moins de 512 processeurs de flux (désormais appelés des cœur CUDA), soit plus du double des 240 embarqués sur l'actuelle GeForce GTX285.

Le bus mémoire restera en 384 bits, via 6 contrôleurs mémoire 64 bits, et il s'agira de mémoire GDDR5. La puce pourra en théorie en gérer jusqu'à 1 To, mais en pratique, les produits à base de Fermi devraient proposer jusqu'à 6 Go de mémoire, une quantité qui restera probablement réservée aux modèles Tesla, destinées au marché des supercalculateurs. Toujours pour conquérir ce marché du calcul, nVidia a annoncé le support de l'ECC au niveau de la mémoire, pour détecter et corriger les erreurs. Une protection inutile pour les jeux vidéos, mais qui peut être indispensable dans les longs calculs scientifiques, où les erreurs peuvent petit à petit se propager et s'amplifier.

Pour optimiser l'utilisation de cette mémoire, Fermi va également être doté de deux niveaux de cache. Tout d'abord, chaque groupe de 32 cœurs disposera de 64 Ko de mémoire partitionnable dynamiquement, soit en 16 Ko de mémoire partagée (comme sur le GT200) et 48 Ko de cache L1 (inexistant sur le GT200), soit en 48 Ko de mémoire partagée et 16 Ko de cache L1. La différence entre ces deux types de partition réside dans le fait que la mémoire partagée est gérée par l'application, alors que le cache est transparent. En plus ce ces caches L1, Fermi embarquera également un cache L2 partagé entre tous les cœurs, avec une capacité de 768 Ko. Selon nVidia, ces caches permettraient de multiplier les performances par 5 à 20 par rapport au GT200 lors de certaines opérations mémoire.

Côté programmation, la puce supportera bien entendu DirectX 11 (y compris DirectCompute), OpenGL 3.2, PhysX, OpenCL, CUDA, mais également, et c'est une grande nouvelle, le C++, ce qui pousse nVidia à qualifier désormais sa puce de cGPU, et non plus de GPU. Ceci devrait permettre de faciliter grandement le portage de certaines applications pour les faire tourner sur la puce d'nVidia. Un argument de poids pour contrer Larrabee, qui promet également une grande facilité de programmation, et qui devrait permettre à nVidia d'assoir sa domination sur le marché du GPGPU, les dernières puces ATI se limitant à OpenCL, certes prometteur, mais qui semble peiner à décoller. Des plug-ins Visual Studio seront également disponibles, pour permettre de programmer la puce dans cet IDE très répandu.

Si Fermi s'avère effectivement très prometteur du côté du HPC, les annonces de nVidia ont par contre de quoi laisser les joueurs sur leur faim. En effet, nVidia a très peu parlé de l'aspect ludique de cette nouvelle puce et n'a parlé ni du prix, ni des performances. nVidia semble en fait s'intéresser beaucoup moins au marché du jeu vidéo. Selon nos confrères d'Anantech, ceci pourrait s'expliquer par le fait que les jeux sont de plus en plus souvent développés pour PC et consoles, ce qui diminue leur besoin en GPU puissants sur les versions PC, d'autant plus que les résolutions ont désormais tendance à stagner.

Les premières cartes devraient être disponibles pour les testeurs avant la fin de l'année, tandis que la production en masse n'est pas prévue avant le premier trimestre 2010.

Posté par Matt le 30/09/2009 à 23h09
Aucun commentaire
Source : Anandtech

Dell

Un ordinateur portable est souvent considéré comme une machine sans-fil, permettant de travailler et de surfer sur Internet librement en se "posant" n'importe où. Mais c'est oublier qu'il faut régulièrement lui remettre un fil à la patte pour recharger sa batterie...

Pire, en usage professionnel, il n'est pas rare d'accompagner l'ordinateur d'un clavier, d'une souris et d'un écran de bureau pour disposer d'un poste de travail plus confortable. Autant de câbles supplémentaires à débrancher et rebrancher à chaque déplacement. Avec le nouveau Latitude Z de Dell, ceci ne sera bientôt plus qu'un souvenir !

Dell Latitude Z

En effet, cet ultraportable haut de gamme peut se venter d'être le tout premier ordinateur portable totalement sans-fil, grâce à une station d'accueil innovante (en option). En effet, il suffit de poser la machine dessus pour mettre la batterie en charge, grâce à un système à induction, tandis qu'un boîtier (lui aussi optionnel...) connecté à l'ordinateur par une liaison sans fil prend en charge les connectiques nécessaires pour une utilisation fixe (écran, réseau, USB...). Ainsi, plus de câbles à brancher, une fois le portable posé sur sa station d'accueil, le poste de travail fixe est opérationnel. Le rendement du système à induction ne serait par contre que de 70%...

Mais l'innovation ne s'arrête pas là. Le Latitude Z est en effet également doté d'une zone tactile le long du côté droit de l'écran. Un clic sur un bouton au bas de cette zone fera apparaître une barre de raccourcis, et il suffira ensuite d'une touche en face de l'icône désirée pour lancer l'application désirée. Cette zone tactile permettra également de faire défiler les documents et les pages web. Du côté du trackpad, on retrouve des fonctions à deux doigts similaires à celle proposées sur les Macbook d'Apple, avec des gestes permettant de zoomer, de faire tourner un document, etc...

Dell Latitude Z

La webcam 2MP propose aussi quelques fonctions destinées au monde professionnel. Tout d'abord, grâce à son auto-focus, elle permet de "scanner" des petits documents placés à quelques centimètres de l'objectif, puis d'effectuer dessus une reconnaissance de caractères. Vous pourrez ainsi transformer en un instant une carte de visite papier en carte de visite virtuelle. Autre atout de cette webcam : la reconnaissance de visages. Une fonction couramment utilisée sur les webcam pour suivre le sujet lors d'une vidéoconférence, mais qui trouve ici une nouvelle utilité : détecter automatiquement quand l'utilisateur s'éloigne de sa machine, et verrouiller la session après quelques instants, pour la protéger des regards indiscrets.

Enfin, Dell a poussé encore plus loin le concept "instant-on" déjà proposé sur plusieurs machines concurrentes. Pour rappel, il s'agit d'embarquer sur la machine un second système d'exploitation ultra léger, comprenant un navigateur web, un client mail, un agenda... Mais alors que ce système était utilisé jusqu'à présent uniquement pour accélérer le démarrage, Dell a aussi cherché à offrir une grande autonomie lors de son utilisation : le Latitude Z comprend un second processeur dédié à cet usage, processeur similaire à ceux qu'on trouve dans les smartphone, et garantissant donc une très bonne autonomie.

Dell Latitude Z

Le reste de la configuration est plus classique : écran 16/9ème de 16 pouces 1600x900 rétroéclairé par LED, processeur Intel Core 2 Duo SU de 1.4 à 1.6 GHz, jusqu'à 4 Go de mémoire et 512 Go de stockage sur un à deux SSD, le Wi-Fi N, une puce graphique intégrée Intel GMA 4500MHD, un clavier rétroéclairé, garantie 3 ans extensible à 5 ans... La machine pèse moins de 2 kg et ne mesure que 14.5mm d'épaisseur (!!!), ce qui en fait le 16" le plus fin et le plus léger du marché. Mais cette taille de guêpe est obtenue au détriment du lecteur optique, qui sera obligatoirement externe (graveur DVD 8x eSATA ou lecteur Blu-Ray 4x/graveur DVD eSATA) et probablement de l'autonomie, puisque la batterie n'est qu'une 4 cellules (8 cellules en option), qui risque de ne pas être très à l'aise, même avec un processeur ULV... La connectique est également assez limitée, avec seulement 1 port USB, un port partagé USB/eSATA, un DisplayPort, un RJ-45 et un connecteur pour casque-micro. En option, on trouvera également un lecteur d'empreinte digitales, un lecteur de cartes à puces RFID, une carte 3G/GPS.

La version de base, dotée d'un processeur à 1.4 GHz, de 2 Go de RAM, de 64 Go de SSD et du lecteur DVD est facturée 1999$. À ce prix, il faudra ajouter 398$ pour profiter de la recharge sans-fil, 349$ pour le dock sans-fil, 125$ pour la 3G et le GPS... Toutes options, on atteint la coquette somme de 4667$ ! Ouch, va falloir gagner au loto :'(

Dell Latitude Z

Pour la plaisir, la vidéo de présentation :

Posté par Matt le 30/09/2009 à 09h47
4 commentaires
Source : 59Hardware

Intel

C'est cette semaine que se tient à San Francisco l'Intel Developer Forum 2009 (IDF), grande messe du fondeur, où il présente ses futurs produits et les grandes lignes prévues pour les évolutions futures. Parmi les prototypes présentés, il y a notamment un SSD PCI-Express particulièrement impressionnant...

SSD Intel PCI-Express

Photo : PCWorld.fr

En effet, alors qu'Intel est pour l'instant encore absent de ce marché de niche, "colonisé" pour l'instant par OCZ et Super Talent, le prototype présenté à l'IDF risque bien de faire très mal à la concurrence : au format PCI-E 8x, il offrirait un débit de 4 Go/s, y compris sur les petites accès, puisqu'un test IOMeter annonce fièrement 1 millions d'I/O par seconde !

Peu d'informations ont par contre filtrées sur l'architecture du bestiau. Il semble être constitué de 4 ou 8 contrôleurs montés en RAID0 et associés à 40 ou 80 puces de mémoire flash. Cela signifierait également que les puces flash sont particulièrement rapide, en offrant des débits de 50, voir 100 Mo/s !

Intel n'a pour l'instant communiqué ni sur le prix, ni sur la disponibilité de ce SSD.

Posté par Matt le 24/09/2009 à 14h07
8 commentaires
Source : PCWorld.fr

Microsoft

Après les relatifs échecs du Tablet PC, de l'UMPC et de sa table multimédia Surface, Microsoft semble bien décidé à ne pas baisser les bras et à continuer de proposer de nouveaux concepts à base d'écrans tactiles. Et le dernier en date semble particulièrement prometteur !

Microsoft Courier

Baptisé Courier, il s'agit d'une tablette tactile multi-touch composée de deux écrans 7" positionnés de part et d'autre d'une charnière, permettant de plier l'appareil en deux pour le transport. Les dalles tactiles semblent être de type capacitif (c'est-à-dire ne nécessitant pas d'appuyer dessus, comme l'écran de l'iPhone) et pourra être contrôlé du bout des doigts ou avec un stylet pour des tâches nécessitant une plus grande précision (écriture par exemple).

La tablette embarquera bien entendu une connexion réseau sans-fil (3G ? Wi-Fi ?), mais aussi un appareil photo 3MP doté d'un zoom 4x et capable de filmer en 640x480. On n'en sait pour l'instant pas beaucoup plus sur le côté matériel.

Pour la partie logicielle, Microsoft a réalisé une interface très soignée, qui vise clairement à offrir une expérience utilisateur proche de celle que l'on pourrait avoir en manipulant un vrai carnet de notes en papier. Cette expérience est poussé jusque dans les moindre détails, puisque même la saisie des adresse web se fera de façon manuscrite, tandis qu'il sera possible de découper un morceau de document pour aller le coller dans le carnet de notes, sous forme d'image. Notre confrère Gizmodo propose une présentation vidéo de l'interface, à voir absolument !

Le meilleur pour la fin : la bestiole est déjà bien avancée et a largement dépassé le stade du prototype. On pourrait donc la voir sur le marché dans à peine quelques mois.

Posté par Matt le 23/09/2009 à 22h37
8 commentaires
Source : Gizmodo via Ptit_boeuf

ATI

C'est aujourd'hui qu'ATI a lancé sa nouvelle génération de cartes graphiques Radeon, en commençant par deux modèles haut de gamme : la Radeon HD 5870 et la Radeon HD 5850.

ATI Radeon HD 5870

Pour ces cartes, les premières à être compatibles DirectX 11, ATI a sorti l'artillerie lourde. Ainsi, la Radeon HD 5870 embarque pas moins de 1600 Stream Processors, 80 unités de filtrage et 32 ROP, soit le double de ce dont la HD 4890 était doté, pour une même fréquence de fonctionnement. Elle embarque 1 Go de mémoire GDDR5 à 1.2 GHz sur un bus 512 bits. Grâce à la gravure en 40nm, sa consommation est similaire à celle d'une HD 4870 en charge, et très inférieure au repos. Elle sera facturée 350€.

ATI Radeon HD 5850

Sa petite soeur, la HD 5850, reprend bien sûr la même architecture, mais dans une version légèrement amputée. On passe de 1600 à 1440 Stream Processors et de 80 à 72 unités de filtrage (les ROP restent au nombre de 32), tandis que les fréquences diminuent de 850 à 725 MHz pour le GPU et de 1.2 à 1.0 GHz pour la mémoire. Elle est disponible pour 240€, ce qui, compte tenu des caractéristiques, devrait lui conférer un bien meilleur rapport performances/prix.

Les deux cartes utilisent le même PCB, le même système de refroidissement et proposent quatre sorties vidéo (deux DVI, un HDMI et un DisplayPort), dont trois peuvent être utilisées en simultané. Une version de la HD 5870 dotée de 6 sorties mini-DisplayPort sera également proposé sous peu.

Côté performances, la Radeon 5870 emporte haut la main le titre de carte mono-GPU la plus performante du marché. Un titre qui n'était pas tombé entre les mains d'ATI depuis un certain temps... Selon les tests de nos confrères, la 5870 serait en pratique 60 à 70% plus rapide que la 4870 et 30 à 40% plus rapide que la 4890. Si ces performances sont plus que correctes, et même plutôt très bonnes, elles restent tout de même en dessous de ce qu'on aurait pu espérer, probablement à cause d'une bande passante mémoire un peu légère : alors que les performances brutes ont doublé par rapport à la 4890, la bande passante mémoire n'a augmenté que de 23%. La consommation en pratique tient également largement ses promesses, en particulier au repos, où la Radeon HD 5870 est et de loin la plus sobre des cartes haut de gamme actuelles, avec plus de 40W de gagnés par rapport aux Radeon 4870 et 4890.

Posté par Matt le 23/09/2009 à 21h53
Aucun commentaire

MSI

Au printemps dernier, MSI lançait le Wind U115, un netbook basé sur la plateforme Poulsbo (Atom Z) et doté d'un système de stockage hybride, lui permettant de revendiquer une autonomie record de 12h. Aujourd'hui le constructeur en remet une couche, avec le U110 ECO.

MSI Wind U110 ECO

Ce petit frère du U115 en reprend les grandes lignes, avec un écran 10.1" 1024x600, un Atom Z530 à 1.6 GHz, 160 Go de disque dur et 1 Go de RAM. "ECO" oblige, il sacrifie par contre le système de stockage hybride, mais sera par contre proposé pour moins de 400$.

Mais là où MSI frappe fort, c'est que l'abandon du système de stockage hybride se fait sans perte d'autonomie. Au contraire, même, celle-ci atteindrait désormais les 15h. Comment ? En remplaçant tout simplement la batterie 6 cellules par une 9 cellules, permettant ainsi de compenser la consommation légèrement supérieure. Ce choix se ressent par contre sur la balance, avec 1.45 kg, contre 1.3 kg pour le U115.

Avec de tels chiffres sans le stockage hybride, on se prend à rêver également d'un "U115 ECO", doté du système hybride du U115 et de la batterie du U110 ECO. De quoi aller titiller les 20h d'autonomie ?

Posté par Matt le 23/09/2009 à 10h22
Aucun commentaire
Source : Cowcotland

DFI

Connu pour sa gamme de cartes mères haut de gamme "Lan Party", principalement destinées aux joueurs et aux overclockers, le constructeur DFI a dans ses cartons un modèle très original, la Hybrid P45-ION-T2A2, une carte mère deux en une.

DFI Hybrid P45-ION-T2A2

En effet, cette carte se distingue du reste du marché par le fait que, en plus d'une plateforme P45 pour Core 2, elle embarque une plateforme nVidia ION et un processeur Atom. Ce sont donc deux systèmes indépendants câblés sur une seule carte. Mieux, le carte intègre un switch KVM permettant de basculer quatre ports USB, un port DVI (deux ports sont présents sur la carte, mais le second est en fait une entrée, à raccorder au port DVI de la carte graphique installée sur la partie P45) et les entrées/sorties audio d'une plateforme à l'autre, pour pouvoir utiliser les deux plateformes simultanément avec un seul ensemble clavier/souris/écran/enceintes. Le switch des différents éléments se ferra via un contrôleur à installer dans une baie en façade, et proposant de switcher indépendament la partie audio et la partie vidéo, ce qui permettra d'écouter le son d'un système tout en affichant l'autre système.

Chaque plateforme disposera également d'un port réseau et de deux ports USB dédiés, tandis que la partie ION disposera également d'un port HDMI. Les deux parties sont également reliées par un lien réseau Gigabit interne, évitant de devoir utiliser les ports réseau pour faire communiquer les deux systèmes.

Pour les extensions, la partie ION disposera d'un port PCI et de deux ports SATA, tandis que la partie P45 proposera 6 ports SATA et, un port PCI-E 16x, un port PCI-E 1x et un port PCI. Enfin, côté alimentation, la partie P45 nécessitera une alimentation ATX classique, tandis que la partie ION disposera de sa propre alimentation passive à haut rendement (supérieur à 85%), livrée avec la carte mère.

La carte sera proposée pour environ 400$. Un prix élevé dans l'absolu, mais qui pourrait se révéler être une bonne affaire pour ceux désirant monter un NAS ou un serveur domestique sans trop s'encombrer.

Posté par Matt le 22/09/2009 à 22h08
Aucun commentaire
Source : PCWorld.fr

ATInVidia

Depuis quelques jours, les spécifications détaillées de la prochaine génération de cartes graphiques haut de gamme ATI (compatibles DirectX 11) circulent sur Internet, suite à des fuites émanant de certains journalistes ayant reçu des exemplaires de la Radeon 5870 pour préparer leurs articles avant la sortie officielle, prévue pour le 22 septembre.

Ainsi, on sait que la Radeon 5870 fonctionnera à la même fréquence que l'actuelle Radeon 4890 (850 MHz), mais que sa puce RV870 embarquera deux fois plus de "Stream Processors" que le RV770 des Radeon 4800. On retrouvera donc 1600 SP, accompagnés de 80 TMU et 32 ROP, pour une puissance totale de plus de 2.7 Tflops. La mémoire sera de la GDDR5 à 1.3 GHz sur 256 bits, pour une capacité de 1 ou 2 Go. Sa petite sœur, la Radeon 5850, fonctionnera pour sa part à 700 MHz, avec 1440 SP, 72 TMU et 32 ROP avec une mémoire à "seulement" 1 GHz.

ATI Radeon HD 5870

Sur le papier, on peut donc s'attendre à des performances doublées par rapport aux cartes ATI actuelles, et le tout sans augmenter la consommation, puisque la 5870 est donnée pour un TDP de 190W, identique à celui de la 4890.

Du côté d'nVidia, la riposte se prépare aussi, avec le GT300. Très peu d'informations circulent pour l'instant au sujet de cette nouvelle puce. nVidia a toutefois annoncé que cette puce sera plus puissante que le haut de gamme ATI et sera également compatible DirectX 11 et gravée en 40nm. Selon certaines rumeurs, il ne s'agirait par ailleurs par d'un simple rafraichissement de l'actuel GT200, mais bien d'une architecture entièrement nouvelle. Les cartes basées sur cette puce devraient être commercialisées en novembre, donc des informations plus précises devraient commencer à arriver dans les semaines à venir.

C'est donc un beau duel qui se prépare entre ATI et nVidia pour la dernier trimestre, avec pour l'instant un léger avantage à ATI, qui prend nVidia de vitesse et propose une nouvelle carte qui devrait offrir un gros bon de performances.

Posté par Matt le 16/09/2009 à 23h58
1 commentaire

Apple

Apple a donné aujourd'hui son traditionnel "special event" de la rentré, intitulé cette année "It's only rock'n'roll, but we like it". Comme le laissait entendre ce titre, la keynote était axée sur les produits multimédia d'Apple, et en particulier iTunes et les iPod.

C'est du côté de l'iPod Nano que se trouve la plus grosse évolution matérielle. En effet, celui-ci se dote désormais d'un haut parleur intégré, d'un tuner FM et d'un capteur vidéo. Ce dernier permettra d'enregistrer des vidéos en 640x480 à 30 images par seconde, avec un encodage direct en H.264. Il est par contre incapable de prendre des photos (!!!).

Apple iPod Nano

Le Shuffle évolue également légèrement, avec désormais la lecture vocale du niveau de charge de la batterie (le Shuffle n'ayant ni écran ni LED de charge...), tandis que l'iPod Touch passe à 64 Go et l'iPod Classic à 160 Go.

Côté logiciel, le firmware 3.1 pour les iPhone et iPod Touch est disponible dès ce soir, avec des nouveautés mineures, tout comme iTunes 9. On notera tout de même l'apparition d'une fonction intéressante et qui était assez attendue : il est désormais possible d'organiser les icônes des applications iPod Touch/iPhone directement depuis iTunes.

Posté par Matt le 09/09/2009 à 22h28
4 commentaires

Zune

Après l'échec des premiers modèles de Zune, le Zune HD est attendu par beaucoup comme le messie, en y voyant le premier véritable concurrent à l'iPod Touch sur le marché des baladeurs "intelligents". Certains risquent toutefois d'être déçus, car Microsoft aurait décidé que, comme ces prédécesseurs, le Zune HD restera réservé au marché nord-américain...

Microsoft Zune HD

En effet, alors que ce nouveau modèle sera lancé dans moins d'une semaine aux USA, Microsoft n'a pour l'instant annoncé aucune date de lancement pour l'Europe. Un silence qui ne laisse rien présager de bon, d'autant que François Ruault, directeur du département Entertainement & Device chez Microsoft France a confirmé de façon on ne peut plus claire que le lancement n'est pour l'instant pas à l'ordre du jour en Europe...

Dommage, le Zune HD était le premier appareil sérieux à embarquer la prometteuse plateforme nVidia Tegra...

Posté par Matt le 08/09/2009 à 23h59
Aucun commentaire
Source : PCInpact

Intel et AMD dominent aujourd'hui largement le marché des processeurs pour ordinateurs personnels. Mais la révolte gronde du côté des fabricants électroniques japonais, qui aimeraient bien avoir leur part du gâteau. C'est ainsi que sept d'entre eux (NEC, Renesas, Hitachi, Toshiba, Fujitsu, Panasonic et Canon) se sont associés, avec comme objectif de lancer un nouveau processeur en 2012...

Pour s'attaquer à ce marché, leur principal argument sera l'efficacité, avec une consommation fortement réduite à puissance égale. Ainsi, les premiers prototypes ne consommeraient que 30% de ce que consomme un processeur actuel. Mieux, ce processeur serait capable de reprendre son fonctionnement dans l'état où il s'était arrêté suite à une coupure de courant. Il s'agit là probablement d'une application des technologies de NEC et Rhom Co dont nous vous parlions il y a quelques temps.

Mais dans la lutte contre Intel et AMD, ce processeur risque d'avoir un gros handicap, même s'il tient ses promesses du côté de la consommation : faute de licence, il n'utilisera pas le jeu d'instructions x86. Cela signifie donc que les logiciels et systèmes d'exploitation actuels ne pourront pas fonctionner sur ces processeurs. S'il semble assez évident que Linux sera disponible en temps et en heure, les sept nippons ayant largement les ressources nécessaires pour effectuer un portage, il semble par contre assez peu probable qu'ils arrivent à convaincre Microsoft, l'éditeur de Windows étant historiquement très proche d'Intel...

Ce nouveau processeur pourra par contre peut-être connaitre du succès sur les appareils mobiles, smartphones en tête, puisque les constructeurs ont d'ores et déjà prévu de le décliner pour de nombreux types d'appareils électroniques. Dans ces secteurs, l'absence de x86 sera moins critique, puisque ce jeu d'instruction y est actuellement quasi inexistant, même si Intel a quelques projets de déclinaison smartphone de la plateforme Atom.

Posté par Matt le 07/09/2009 à 00h11
6 commentaires
Source : VR-Zone

Windows 7

Pour Windows 7, Microsoft nous avais promis un système d'exploitation plus léger et s'adaptant plus aisément aux petites configurations, afin qu'il puisse remplacer Windows XP sur le marché des netbooks, où Vista n'a jamais eu les faveurs des constructeurs. Ce qu'ils n'avaient par contre pas annoncé, c'est le travail effectué avec Intel sur l'autonomie...

En effet, grâce à un travail d'optimisation au niveau du système et des drivers, les deux compères sont parvenus à réduire sensiblement la consommation sous Windows 7 des portables équipés de plateformes Intel récentes. Ainsi, sur un Lenovo Thinkpad T400s, doté de la dernière plateforme mobile Intel, Microsoft annonce avoir mesuré une baisse de consommation de 24% (15.4W au lieu de 20.2W), sans toutefois préciser dans quelle situation. En termes d'autonomie, cette baisse de consommation se traduit par une prolongation de l'utilisation sur batterie de 1h24.

La principale raison de ce gain serait la technologie "Windows 7 timer coalescing", dont le but est de minimiser le temps que le processeur passe en mode performances (et donc, d'augmenter le temps passé en mode économie). En effet, sur un système classique, même faiblement utilisé, les services d'arrière-plan vont régulièrement se mettre en branle et "réveiller" le processeurs pendant quelques dixièmes de secondes.

Intel affirme également que le résultat sera encore plus efficace avec ses plateformes à venir, tandis qu'AMD a annoncé que ses futurs produits devraient également profiter d'un gain d'autonomie sous Windows 7.

Posté par Matt le 06/09/2009 à 14h07
Aucun commentaire
Source : PCMag

On en parle depuis des années, mais l'ordinateur quantique était pour l'instant uniquement théorique, alors qu'il est censé être la solution pour continuer la montée en puissance une fois que les limites physique du silicium auront été dépassées. Mais un grand pas vient justement d'être franchi, avec la première unité de calcul quantique fonctionnelle !

Fruit de plusieurs années de travail au sein des labos de recherche de l'Université de Bristol, cette unité de calcul est encore très basique, puisqu'elle se limite à la décomposition en facteur premiers d'un entier de 4 bits. Mais cette puce ouvre la voie vers l'avenir, en étant la première mise en pratique des théories sur les ordinateurs quantiques.

D'un point de vue technique, cette puce est toujours construite en silicium, mais ce dernier n'est pas utilisé pour ses propriétés semi-conductrices, mais simplement comme guide pour les signaux, qui se présentent sous la forme de photons se déplaçant dans des guides de silicium, et non plus sous la forme d'un signal électrique.

Voilà qui devrait motiver les chercheurs à développer une puce plus complète, pour que nous puissions, dans quelques années ou dizaines d'années, avoir de véritables ordinateurs quantiques, au rapport performances/consommation incomparable avec les solutions à base de silicium.

Posté par Matt le 05/09/2009 à 01h55
3 commentaires
Source : PhysOrg.com

Leadtek

Vous avez sans doute déjà entendu parler du Cell, un processeur connu pour être au cœur de la Playstation 3 de Sony. Ce que l'on sait moins, c'est que ce processeur a été développé en collaboration avec IBM et Toshiba, ce qui permet à ces derniers de proposer eux aussi des produits basés sur ce processeur. Côté IBM, il s'agit bien sûr de supercalculateurs, tandis que côté Toshiba, il s'agit essentiellement de puces dédiées à la compression vidéo...

Toshiba SpursEngine SE1000

Parmi elles, on trouve le SpursEngine SE1000, une sorte de Cell castré sur certains points, améliorés sur d'autres... Ainsi, au lieu de contenir un PPE et 8 SPE à 3.2 GHz, le SpursEngine se contente de seulement 4 SPE à 1.5 GHz, tandis que le PPE qui les pilote normalement est remplacé par des codecs MPEG-2 et H.264 et un contrôleur PCI-Express, permettant d'interfacer le SpursEngine avec un processeur d'ordinateur, qui jouera le rôle du PPE. L'ensemble ne consommant que 10 à 20W, on obtient ainsi une carte d'encodage vidéo performante et de faible consommation.

Leadtek Winfast HPVC 1100

C'est ce que vous retrouverez à l'intérieur du Winfast HPVC 1100 de Leadtek, un boîtier à connecter à un ordinateur portable via un slot ExpressCard/34, pour transformer ainsi un simple ordinateur portable en véritable station d'encodage vidéo. Compatible avec TMpegEnc, ce boîtier est facturé environ 300€, ce qui le réservera aux encodeurs fous... Une version sous forme de carte PCI-Express existe aussi, sous la référence Winfast PxVC 1100.

Posté par Matt le 04/09/2009 à 00h05
1 commentaire
Source : Presence-PC

Belkin

Prometteur a ses débuts, le CPL (Courant Porteur en Ligne, qui permet de véhiculer les communications réseau via les lignes électrique) peine à décoller, en raison de débits à peine supérieurs à ceux obtenus en Wi-Fi, de nombreuses incompatibilités. Les choses pourraient changer grâce au dernier kit CPL de Belkin...

Belkin Gigabit Powerline HD Starter Kit

En effet, alors que quasiment tous les kits CPL actuels se contentent d'un débit de 85 ou 200 Mbits/s, Belkin vient de lancer un kit annonçant fièrement un débit d'un gigabit, le Gigabit Powerline HD Starter Kit. Disponible immédiatement pour 150€, ce kit comporte deux adaptateurs CPL gigabit et est rétro-compatible avec les kits d'autres marques, grâce à la norme HomePlug AV.

Attention toutefois, les débits en pratiques risquent d'être bien inférieurs aux débits théoriques annoncés, comme avec les précédentes normes CPL. Pour une vraie connexion gigabit, le bon vieux RJ-45 reste donc pour l'instant la meilleure solution.

Posté par Matt le 02/09/2009 à 23h17
3 commentaires
Source : 59Hardware