Actualités du mois de janvier 2010
Annoncée par de nombreuses rumeurs depuis des mois et très attendue par la communauté Apple, la tablette tactile du constructeur à la pomme a été présentée en baptisée officiellement aujourd'hui : il faudra désormais l'appeler iPad.
Ressemblant à un gros iPod Touch, l'iPad est finalement sans grande surprise, conformer à la plupart des rumeurs, mais pas forcément les plus optimistes... Commençons par le matériel. L'iPad se présente sous la forme d'une fine tablette de 1.34cm d'épaisseur pour 24.3cm de long et 19cm de large. Le gros de la surface supérieure est occupé par un écran 9.7" d'une résolution de 1024x768. Il est bien entendu tactile multitouch. Par contre, point d'OLED ici, puisqu'il s'agit d'un écran IPS à rétroéclairage LED.
À l'intérieur, on trouve une puce SoC conçue par Apple (probablement via sa filiale P.A. Semi) et cadencée à 1 GHz, 16 à 64 Go d'espace de stockage flash, une puce Wi-Fi 802.11a/b/g/n, une puce Bluetooth 2.1+EDR, un magnétomètre (boussole), des accéléromètres et une imposante batterie de 25 Wh assurant 10h d'autonomie en surf via Wi-Fi. En option, l'iPad peut également être équipée d'une connectivité cellulaire (GSM/EDGE quadri-bande et UMTS/HSDPA tri-bande) et d'une puce A-GPS. Curieusement, cette version cellulaire ne pourra se connecter qu'à un réseau de données, pas à un réseau voix. La connectique et les boutons sont pour leur parts identiques à ceux de l'iPhone.
La partie logicielle risque également d'en décevoir plus d'un. En effet, nombreux sont ceux qui espéraient (sans trop y croire...) une tablette fonctionnant sous Snow Leopard, qui irait concurrencer les tablettes PC sous Windows 7, mais la tablette présentée par Apple tournera finalement comme prévu sous un système dérivé de celui de l'iPhone, avec toutes les restrictions que ça implique : accès très limité au système de fichiers, applications obligatoirement distribuées via l'App Store, pas de multitâches... Apple a par contre comme à son habitude porté beaucoup de soin à l'ergonomie des applications, en tirant bien partie de la plus grande taille de l'écran. Les applications iPhone existantes pourront fonctionner sur l'iPad, tandis que les nouvelles applications pourront être développées dans des versions spécifiques à l'iPad, grâce au nouveau SDK publié aujourd'hui. Apple donne d'ailleurs l'exemple avec une version de la suite iWork spécialement adaptée à l'iPad, qui sera vendue à raison de 10$ par logiciel (Pages, Numbers et Keynote).
Enfin, Apple pour accompagner l'iPad, Apple se lance dans la vente en ligne de livres numériques, via l'iBook Store et proposera également différents accessoires : un dock classique, un dock intégrant un clavier de taille standard, des lecteurs de cartes mémoire, etc...
Terminons avec le côté douloureux de la tablette : les tarifs ! Le modèle d'entrée de gamme (16 Go sans réseau cellulaire) sera proposé à 499$, le modèle 32 Go à 599$ et le modèle 64 Go à 699$. Il faudra encore rajouter 130$ pour bénéficier de la connectivité cellulaire, quelque soit la capacité, soit un prix total de 829$ pour le modèle le plus haut de gamme. L'appareil devrait être disponible dans moins de deux mois aux USA, et au début de l'été dans le reste du monde.
Posté par Matt le 27/01/2010 à 23h17
7 commentaires
Régulièrement, AT Internet Institute (anciennement Xiti Monitor) publie des études statistiques sur les internautes européens : OS et navigateurs utilisés, parts de marché des moteurs de recherche, comportement de surf... Le dernier rapport publié concerne les navigateurs Internet, et marque une nouvelle étape : Internet Explorer est passé sous la barre des 60% du marché européen !
En effet, les différentes versions du navigateur de Microsoft ne cumulent plus que 58.6% des utilisateurs en décembre 2009, contre 64.6% en mars 2009, soit une baisse de 9.3%. Derrière, les quatre principaux navigateurs concurrents ont tous vu leur part de marché progressé, mais certains en ont profité bien plus que d'autres. Ainsi, Chrome progresse de 192%, atteignant désormais 4.1% du marché, tandis qu'Opera ne progresse que d'un modeste 4.5%, en passant à 2.3% du marché. Firefox et Safari progressent pour leur part respectivement de 5.8% (29.4%) et 55% (5.1%). Il y a désormais en Europe plus d'un utilisateur de Firefox pour deux utilisateurs d'Internet Explorer.
À ce rythme, Internet Explorer devrait passer sous la barre des 50% en Europe d'ici à 18 à 24 mois et pourrait perdre sa première place dans un délai à peine plus long, tandis que Chrome devrait être très bientôt la troisième force du marché des navigateurs, en ravissant la place de Safari.
Il faut également noter que ces chiffres publiés par AT Internet Institute correspondent au mois de décembre 2009, donc en prennent pas en compte l'impact qu'ont pu avoir les différentes recommandations gouvernementales suite à la faille découverte dans Internet Explorer à la mi-janvier.
Pour informations, sur Infobidouille en décembre 2009, c'est Firefox qui est largement en tête des visites, avec une part de 45.2% (contre 46.7% en mars), devant Internet Explorer (32.7% en décembre, 34.6% en mars), Safari (12.5% en décembre, 11.1% en mars), Chrome (5.9% en décembre, 2.6% en mars) et Opera (2.2% en décembre, 1.7% en mars).
Posté par Matt le 26/01/2010 à 23h43
1 commentaire
Source : PCInpact
Si la comparaison des processeurs à leur fréquence commerciale est la plus intéressante pour le consommateur, afin de savoir ce qu'il aura pour son argent, il existe une autre comparaison intéressante pour les amateurs de matériel : la comparaison à fréquence égale, permettant de mettre en évidence l'efficacité des différentes architectures. C'est la comparaison à laquelle s'est attelée notre confrère Tom's Hardware...
Pour ce faire, notre confrère a comparé quatre processeurs cadencés à 2.8 GHz : un bon vieux Core 2 Quad (Q9550s), un AMD Phenom II X4 (965), un Intel Core i5 (750) et un Intel Core i7 (920). Sans surprise, c'est le Core i7 qui s'en sort le mieux, avec une légère avance sur le Core i5. Un bon cran derrière, on retrouve le Core 2 Quad, suivit par le Phenom II X4. Notez tout de même que ce dernier est celui qui dispose de la fréquence commerciale la plus élevée (3.4 GHz), même si celle-ci reste insuffisante pour recoller avec les puces haut de gamme d'Intel.
Les choses se compliquent encore un peu pour AMD lorsqu'on se penche sur la consommation, le Phenom se classant seulement 3ème, juste devant le Core i7, tant que la consommation au repos que sur la consommation en pleine charge. Il termine par contre dernier sur la consommation moyenne pendant un ensemble de test, mais aussi sur la consommation totale durant cet ensemble de test, avec un écart encore plus marqué que sur la consommation moyenne (du fait que le test dure plus longtemps, en plus de consommer plus). Ainsi, sur une passe de PCMark Vantage, le Phenom II X4 consomme 70% d'énergie en plus par rapport au Core i5, tout en étant sensiblement plus lent !
Si AMD a fait de gros progrès avec ses Phenom II X4, en arrivant à un niveau de performance proche de celui des Core 2 Quad, il montre également que le fondeur a encore de gros progrès à faire en termes de consommation pour reprendre le leadership à Intel.
Posté par Matt le 25/01/2010 à 23h51
Aucun commentaire
Source : Tom's Hardware
Question sécurité, Microsoft n'est décidément pas très à la fête ces derniers jours... En effet, après la révélation d'une faille de sécurité touchant toutes les versions d'Internet Explorer depuis la 6, et qui serait à l'origine d'attaques importantes contre Google, c'est une faille de Windows qui fait désormais parler d'elle, en raison de son grand âge : elle touche toutes les versions 32 bits de Windows depuis... 1993 !
Cette longévité exceptionnelle s'explique par le fait que la faille touche un composant Windows qui évolue très peu et qui n'est quasiment plus utilisé : la NTVDM (Virtual DOS Machine), un composant qui assure la rétro-compatibilité des Windows entièrement 32 bits avec les applications 16 bits. Mais ce côté désuet ne la rend pas pour autant moins dangereuse, puisque cette faille permet de corrompre le noyau du système et d'obtenir les droits administrateur depuis un simple compte utilisateur...
Heureusement, cette faille a le bon goût d'être très facile à combler sur les versions récentes de Windows, en attendant l'arrivée d'un patch officiel. En effet, depuis Windows 2003, il existe une stratégie de groupe permettant de bloquer l'utilisation de cette machine virtuelle. Ce blocage peut être activé via l'éditeur de stratégie de groupe sur les versions professionnelles de Windows (Configuration ordinateur\Modèles d'administration\Composants Windows\Compatibilité des applications\Empêcher l'accès aux applications 16 bits). Les utilisateurs de versions familiales pourront pour leur part mettre en place ce blocage en positionnant à 1 la clé registre HKEY_LOCAL_MACHINE\SOFTWARE\Policies\Microsoft\Windows\AppCompat\VDMDissallowed.
Notez également que les versions 64 bits de Windows sont épargnées par cette faille, Microsoft ayant abandonné la rétro-compatibilité 16 bits dans ces versions.
Posté par Matt le 22/01/2010 à 12h26
3 commentaires
Source : Tom's Hardware
Depuis plusieurs mois, la commission européenne travaillait sur le dossier du rachat de Sun par Oracle, afin de s'assurer qu'il ne dégraderait pas trop la concurrence sur le marché des systèmes de gestion de bases de données. Malgré la pétition lancée en début d'année par l'un des créateurs de MySQL, la commission a rejoint l'avis des autorités américaines, et s'est donc prononcée favorablement à ce rachat.
Pour justifier son choix, la commission européenne s'appuie notamment sur les engagements pris par Oracle sur l'avenir de MySQL et sur l'existence de la base de donnée libre PostgreSQL, que beaucoup considèrent comme une bonne alternative à MySQL. La commission a également pris en compte le fait qu'il sera toujours possible de réaliser de nouveaux SGBD libres en s'appuyant sur le code existant de MySQL.
Si cette décision fait probablement le bonheur de Larry Ellison, CEO d'Oracle, elle a d'ores et déjà fait s'élever quelques voix contre elle, dont celle de Ulf Michael Widenius, le créateur de MySQL. La commission européenne était en effet probablement la dernière barrière pour contrer ce rachat. Espérons que l'avenir donne raison à la commission...
Posté par Matt le 21/01/2010 à 22h31
Aucun commentaire
Source : Clubic
Il y a quelques semaines, nous évoquions l'arrivée du boîtier Orange Box, un nouveau décodeur TV à coupler à la Live Box, et qui intégrera un lecteur de disques Blu-ray et pourra être utilisé comme console de jeu. On en sait désormais un peu plus sur la configuration matérielle de la bestiole.
Surprise : selon le CEO d'Intel en personne, ce nouveau décodeur sera basé sur une architecture x86 et, plus précisément, sur une puce Intel Atom CE4100 "Sodaville". Cette puce est un SoC (System on a chip) basé comme son nom l'indique sur l'architecture Atom. Le CE4100 embarque un cœur Atom à 1.2 GHz, un cœur graphique GMA 500 (avec sortie HDMI 1.3a), 512 Ko de cache L2, deux décodeurs vidéo capables de traiter chacun un flux 1080p compressé en H.264, un contrôleur mémoire DDR2/DDR3, ainsi que les habituels SATA 3 Gbits/s et USB 2.0.
Cette puce pourrait donc contenir quasiment tout le nécessaire pour l'Orange Box, puisqu'il ne manquerait apparemment que l'interface réseau et les convertisseurs nécessaires pour proposer des sorties autres que l'HDMI. Par contre, avec un GMA à 200 MHz, il ne faudra pas s'attendre à des performances exceptionnelles dans le domaine des jeux vidéos, où l'Orange Box ne rivalisera probablement même pas avec les consoles d'anciennes génération. Mais il est vrai qu'en termes de jeux vidéos sur box ADSL, la concurrence n'a pour l'instant pas mis la barre très haut...
Posté par Matt le 21/01/2010 à 10h20
Aucun commentaire
Source : Tom's Hardware
Il y a quelques jours, Google était la victime d'une attaque de grande ampleur émanant de pirates chinois et visant plusieurs de ses services. L'enquête du géant de la recherche a rapidement mené à la découverte d'une faille dans Internet Explorer (versions 6 à 8) rapidement confirmée par Microsoft. Ainsi en début de semaine, plusieurs organismes spécialisés dans la sécurité ont émis des recommandations d'abandonner Internet Explorer...
C'est le cas notamment des organismes gouvernementaux CERTA en France (Centre d'Expertise gouvernemental de Réponse et de Traitement des Attaques informatiques) et BSI en Allemagne (Bundesamt für Sicherheit in der Informationstechnik - Office fédéral de la sécurité des technologies de l'information). Des recommandations qui ont apparemment été bien prises en compte par les allemands, pour le plus grand plaisir de Mozilla. En effet, les statistiques de téléchargements de Firefox par des utilisateurs d'IE révèlent un nombre de téléchargement deux fois supérieur à la normale depuis la recommandations du BSI. Sur trois jours, cela représente plus de 300 000 téléchargements supplémentaires. Des résultats similaires ont été observés du côté d'Opera.
Les français sont par contre moins respectueux des recommandations, puisque en France, Mozilla et Opera n'ont observé que des effets très limités sur le nombre de téléchargements.
Posté par Matt le 20/01/2010 à 23h05
2 commentaires
Source : Generation-NT
C'est bien connu, les geeks de base sont des individus mâles débordants d'hormones, et il suffit de leur faire présenter un produit par une charmante demoiselle pour déclencher une vague d'achat compulsifs... C'est en tout cas ce que semble croire le département marketing de Cooler Master, avec le lancement de CMHD.tv.
Comme son nom l'indique, ce site est destiné à héberger des présentations en vidéo HD des produits Cooler Master. Mais les présentations n'y seront pas effectuées par des techniciens ou des ingénieurs un peu disjonctés (ou des acteurs se faisant passer pour...) comme c'est souvent le cas chez les constructeurs informatiques, mais plutôt par des demoiselles sans doute plus habituées aux magazines masculins qu'aux magazines informatiques... C'est ainsi que Amanda Gift, miss janvier du site, se retrouve à nous expliquer la différence entre les boîtiers CM 690 II et un CM 690 II Advanced :
Si la demoiselle vous a convaincu, le CM 690 II est disponible chez notre partenaire Materiel.net. Il y a aussi des vidéos présentées par des techos, mais c'est tout de suite beaucoup moins vendeur :
Posté par Matt le 19/01/2010 à 22h48
2 commentaires
Source : PCWorld
Moins de trois mois après la sortie de la dernière mouture de Windows, des informations commencent à filtrer sur le premier Service Pack, qui devrait arriver à l'automne. Si l'on savait déjà que le développement du SP1 avait débuté dès cet été, on en sait désormais un peu plus sur son contenu.
En effet, l'éditeur a pris l'habitude de ne pas se limiter à un regroupement des différentes mises à jour déjà disponibles sur Windows Update, mais d'ajouter également quelques petites nouveautés. Le SP1 de Windows 7 ne dérogera pas à ce principe.
La principale nouveauté devrait être le support natif de l'USB 3.0. En effet, si les périphériques USB 3.0 commencent déjà à arriver sur le marché, il est pour l'instant nécessaire d'installer des drivers pour le contrôleur USB 3, ce qui ne sera plus le cas avec le SP1.
Des nouveautés devraient également être proposées au niveau de la gestion du Wi-Fi et du Bluetooth, pour améliorer encore un peu plus la simplicité de mise en place des communications dans Windows 7, qui avait déjà beaucoup progressé sur ce point par rapport à ces prédécesseurs.
La version beta du SP1 devrait être disponible dans moins de six mois, tandis que la version finale devrait sortir en septembre prochain.
Posté par Matt le 15/01/2010 à 22h26
Aucun commentaire
Source : Generation NT
Quelques mois à peine après le lancement de la Playstation 3 Slim, Sony commence déjà à évoquer la prochaine génération de console. Mais au lieu de promesses sur les performances ou les fonctionnalités de la machine, le constructeur a plutôt évoqué le support utilisé pour les jeux...
Alors qu'on aurait pu s'attendre à des "simples" Blu-ray, ou même carrément à l'absence de support physique, comme sur la récente PSP Go, le vice président responsable du développement de Sony a révélé que la prochaine console de salon du nippon pourrait embarquer un nouveau format de disques optiques, technologiquement proches du Blu-ray, mais offrant une capacité supérieure.
En effet, selon lui les 50 Go d'espace offerts par le Blu-ray pourraient être insuffisants pour les jeux futurs, certains titres actuels étant déjà proches des limites de ce support, tandis qu'avec un tel volume de données, une dématérialisation reste totalement inenvisageable, la majorité des joueurs n'étant pas équipés de connexions Internet suffisamment rapide.
Si Sony respecte son rythme habituel de lancement, la Playstation 4 pourrait voir le jour en 2012 ou 2013, mais aucune date n'a été annoncée pour l'instant par Sony.
Posté par Matt le 14/01/2010 à 22h48
Aucun commentaire
Source : Tom's Guide via Ptit_boeuf
Depuis que MSI s'est lancé dans la course à l'autonomie avec sa gamme de netbooks Wind, une autonomie de 12h ne parait plus forcément un exploit, surtout avec la nouvelle génération de processeurs Atom, encore plus sobres, et avec les deux batteries fournies par certains constructeurs. Sauf que l'annonce d'Asus ne concerne ici ni un netbook, ni une machine livrée avec deux batteries...
Le UL80JT - c'est son petit nom - est en effet un ordinateur portable 13" embarquant un processeur Intel Core i7 de dernière génération (double cœur Arrandale 32nm) et même un véritable GPU, le GeForce 310M de nVidia, équivalent moderne le la 8400M GT. Et le tout pour moins de 1000$.
Pour arriver à cette économie exceptionnelle, Asus a implémenté une gestion très fine de l'alimentation et du fonctionnement des composants. Ainsi, la fréquence du processeur est ajustée chaque seconde en fonction de la charge (la fréquence maximale étant de 1.73 GHz quand un seul cœur est sollicité et 1.2 GHz quand les deux le sont...), tandis que l'affichage bascule de façon totalement transparente entre le GMA intégré au Core i7 et le GPU nVidia GeForce 310M. Comme pour le processeur, ce basculement se fait en fonction de la charge, mesurée toutes les secondes, et de façon totalement transparente pour l'utilisateur.
Bien entendu, cette machine ne sera tout de même pas un monstre de puissance, avec son processeur ne dépassant pas 1.2 GHz sur deux cœurs et son GPU très modeste, mais il s'agit tout de même d'une configuration nettement plus puissante qu'un netbook, sans faire de compromis sur l'autonomie.
Posté par Matt le 12/01/2010 à 22h29
Aucun commentaire
Source : Gizmodo via Ptit_boeuf
Ancienne gloire du graveur CD haut de gamme à l'époque où ils étaient encore réservés à une petite minorité d'utilisateurs, Plextor a perdu beaucoup de sa superbe avec la démocratisation de ces produits qui l'a poussé à ne plus concevoir ses propres modèles, et à se diversifier (clés USB, disques durs externes, NAS, produits vidéo...). Nouvelle étape de cette diversification : les SSD.
Le japonais vient en effet d'annoncer ses premiers SSD, qui seront sans surprise basés sur un contrôleur tiers, et non un nouveau contrôleur développé par Plextor, qui rejoint donc la longue liste des constructeurs de SSD "clients". Le contrôleur utilisé est un contrôleur Marvell, probablement le même que dans le V-Series 30 Go récemment annoncé par Kingston. Épaulé par 64 Mo de mémoire cache, il offre malheureusement des performances très modestes, avec seulement 110 Mo/s en lecture et 65 Mo/s en écriture... Voilà qui ne devrait pas aider Plextor à retrouver son image de marque d'il y a dix ans...
Le prix et la date de lancement n'ont pas encore été annoncés, mais ce SSD qui sera lancé en versions 64 et 128 Go ne devrait pas trop tarder, et ses performances devraient garantir un prix de vente relativement réduit.
Posté par Matt le 11/01/2010 à 21h33
Aucun commentaire
Source : Tom's Hardware
Fermi est la prochaine architecture de GPU de nVidia, qui a été présentée par le caméléon il y a un peu plus de trois mois. Déjà à l'époque, nVidia avait fortement axé sa communication sur le calcul scientifique plus que sur le jeu vidéo, ce qui n'avait pas manquer de soulever des doutes sur cette nouvelle architecture...
Et depuis, les choses ne se sont visiblement pas améliorées... D'abord, il y a eu les problèmes de rendement à la fabrications, puis le retards (Fermi n'est toujours pas disponible...), etc... À l'occasion du CES qui se tient en ce moment à Las Vegas, nVidia n'aurait pas été bien bavard au sujet de sa nouvelle architecture, ce qui en soit est déjà mauvais signe. Mais en plus, une nouvelle information inquiétante semble se confirmer : Fermi serait un véritable gouffre énergétique !
En effet, selon notre confrère PCWorld, plusieurs constructeurs de boîtiers auraient présenté des modèles spécifiques, certifiés par nVidia pour leur compatibilité avec un SLI de cartes à base de Fermi. Pour obtenir une telle certification, les constructeurs ont dû mettre en place des systèmes de refroidissement spécifiquement conçus pour ventiler au mieux les deux cartes. La dissipation thermique serait telle que les constructeurs ont même éprouvé quelque difficultés à obtenir la certification, les premiers prototypes de boîtiers ayant été rejetés par nVidia ! Autant dire qu'il ne sera pas la peine d'espérer faire tourner un SLI de Fermi dans un boîtier classique...
La consommation d'une carte seule serait de l'ordre de 300W, la consommation maximale autorisée par le PCI-Express (75W via le slot PCI-Express, 75W via un connecteur d'alimentation 6 points et 150W via un connecteur d'alimentation 8 points). À titre de comparaison, la Radeon HD 5970 (qui embarque deux GPU Radeon 5870 aux fréquences légèrement diminuées) nécessite 275W, tandis que la Radeon HD 5870 se contente de 188W.
2010 pourrait donc être une excellente année pour ATI, dont les Radeon 5000 offrent un excellent niveau de performances, tout en conservant une consommation raisonnable.
Posté par Matt le 09/01/2010 à 17h12
Aucun commentaire
Source : PCWorld
Le rachat de Sun par Oracle fait décidément couler beaucoup d'encre ces derniers mois... En effet, Sun étant propriétaire de MySQL, un système de gestion de base de données libre concurrent des produits Oracle, ce rachat soulève beaucoup de craintes...
Ainsi, si les autorités américaines ont validé l'opération sans sourciller, il en est tout autrement des autorités européennes, qui étudient le dossier depuis plusieurs mois, afin de déterminer s'il présente un réel risque d'amoindrissement de la concurrence sur le marché des gestionnaires de bases de données.
Malgré les engagements pris par Oracle, nombreux sont encore ceux qui voient ce rachat d'un mauvais œil, et cherchent donc à orienter la décision des instances européennes. C'est le cas notamment de plus de 20 000 signataires d'une pétition à destination des autorités de régulation de la concurrence. Hébergée sur helpmysql.org, cette pétition appelle les autorités à prendre des mesures contraignantes vis à vis d'Oracle en cas de validation du rachat, pour garantir l'avenir de MySQL.
Trois alternatives sont ainsi proposées. La plus extrême et la plus plébiscitée (93% des signataires) consiste carrément à replacer MySQL entre les mains d'une entreprise tierce, tandis que le reste de Sun passerait sous la bannière d'Oracle. Le seconde ne demande qu'une modification de la licence, pour faire une exception à la GPL dans le cas des applications utilisant les librairies clientes de MySQL et pour les plugins. Elle récolte 58% des signatures. Enfin la dernière alternative laisse également MySQL dans le giron d'Oracle, mais réclame que toutes les versions existantes et à venir jusqu'à décembre 2012 soient publiée sous une licence plus permissive que la GPL (licence Apache 2.0 par exemple), afin de garantir la possibilité du développement de versions dérivées sans contraintes. Cette dernière solution est réclamée par 59% des signataires.
Cette pétition sera présentée à la Commission européenne dans les jours à venir, celle-ci devant rendre son verdict avant le 27 janvier. Elle pourrait également être présentée à d'autres instances régulatrices, dont... les autorités chinoises !
Posté par Matt le 06/01/2010 à 21h28
Aucun commentaire
Source : PCWorld
Le transistor est l'élément de base qui constitue la plupart des puces électroniques. Il est actuellement principalement réalisé à base de silicium, mais ce matériau approche de ses limites en termes de finesse de gravure. De nombreuses équipes de recherche travaillent donc à trouver des alternatives...
Parmi elles, une équipe constituée de chercheurs issus de l'université de Yale (États-Unis) et de l'institut de science et technologie de Gwangju (Corée du Sud) vient de réaliser un bel exploit, en construisant ce qui est à ce jour le plus petit transistor jamais construit. Et pour cause, celui-ci est constitué d'une seule molécule ! Les chercheurs ont en effet observé qu'une molécule de benzène connectée à des contacts en or pouvait se comporter comme un transistor de silicium. Les applications pratiques de cette découvertes ne sont toutefois pas attendue avant plusieurs dizaines d'années.
Apple aurait-elle été en avance sur son temps avec ses Mac Pro parfum benzène ?
Posté par Matt le 05/01/2010 à 22h29
Aucun commentaire
Source : EETimes via Ptit_boeuf
Il y a quelques mois, j'avais écrit un article sur les SSD pour le compte de notre confrère Macbidouille. Je vous avais alors promis qu'il arriverait ici plus tard, dans une version remise au goût du jour pour tenir compte des dernières évolutions.
Alors que nous entrons en 2010 et que les SSD devraient encore se démocratiser un peu plus cette année, il est donc temps de tenir cette promesse, pour vous aider à mieux comprendre ce qui vous attends si vous sautez le pas.