UNE NOUVELLE VERSION D'INFOBIDOUILLE EST EN LIGNE CLIQUEZ-ICI POUR LA VISITER

Actualités du mois de septembre 2009

nVidia

Après une fin de mois de septembre durant laquelle ATI était à l'honneur avec ses Radeon HD 5850 et 5870, c'est au tour de nVidia de faire parler de ses produits, avec l'annonce ce soir des nouveautés à venir. Mais contrairement à ATI, la disponibilité ne sera pas immédiate.

La grosse information concerne bien entendu la future GeForce, qui était connue jusqu'à présent sous le nom de GT300, et qu'il faudra désormais baptiser Fermi, un nom qui annonce clairement la couleur : avec cette gamme, nVidia veut mettre l'accent sur le domaine du calcul hautes performances (HPC). Gravée en 40nm, comme les Radeon 5800, cette nouvelle puce embarquera trois milliards de transistors (près d'un milliard de plus que les Radeon 5800) qui constitueront pas moins de 512 processeurs de flux (désormais appelés des cœur CUDA), soit plus du double des 240 embarqués sur l'actuelle GeForce GTX285.

Le bus mémoire restera en 384 bits, via 6 contrôleurs mémoire 64 bits, et il s'agira de mémoire GDDR5. La puce pourra en théorie en gérer jusqu'à 1 To, mais en pratique, les produits à base de Fermi devraient proposer jusqu'à 6 Go de mémoire, une quantité qui restera probablement réservée aux modèles Tesla, destinées au marché des supercalculateurs. Toujours pour conquérir ce marché du calcul, nVidia a annoncé le support de l'ECC au niveau de la mémoire, pour détecter et corriger les erreurs. Une protection inutile pour les jeux vidéos, mais qui peut être indispensable dans les longs calculs scientifiques, où les erreurs peuvent petit à petit se propager et s'amplifier.

Pour optimiser l'utilisation de cette mémoire, Fermi va également être doté de deux niveaux de cache. Tout d'abord, chaque groupe de 32 cœurs disposera de 64 Ko de mémoire partitionnable dynamiquement, soit en 16 Ko de mémoire partagée (comme sur le GT200) et 48 Ko de cache L1 (inexistant sur le GT200), soit en 48 Ko de mémoire partagée et 16 Ko de cache L1. La différence entre ces deux types de partition réside dans le fait que la mémoire partagée est gérée par l'application, alors que le cache est transparent. En plus ce ces caches L1, Fermi embarquera également un cache L2 partagé entre tous les cœurs, avec une capacité de 768 Ko. Selon nVidia, ces caches permettraient de multiplier les performances par 5 à 20 par rapport au GT200 lors de certaines opérations mémoire.

Côté programmation, la puce supportera bien entendu DirectX 11 (y compris DirectCompute), OpenGL 3.2, PhysX, OpenCL, CUDA, mais également, et c'est une grande nouvelle, le C++, ce qui pousse nVidia à qualifier désormais sa puce de cGPU, et non plus de GPU. Ceci devrait permettre de faciliter grandement le portage de certaines applications pour les faire tourner sur la puce d'nVidia. Un argument de poids pour contrer Larrabee, qui promet également une grande facilité de programmation, et qui devrait permettre à nVidia d'assoir sa domination sur le marché du GPGPU, les dernières puces ATI se limitant à OpenCL, certes prometteur, mais qui semble peiner à décoller. Des plug-ins Visual Studio seront également disponibles, pour permettre de programmer la puce dans cet IDE très répandu.

Si Fermi s'avère effectivement très prometteur du côté du HPC, les annonces de nVidia ont par contre de quoi laisser les joueurs sur leur faim. En effet, nVidia a très peu parlé de l'aspect ludique de cette nouvelle puce et n'a parlé ni du prix, ni des performances. nVidia semble en fait s'intéresser beaucoup moins au marché du jeu vidéo. Selon nos confrères d'Anantech, ceci pourrait s'expliquer par le fait que les jeux sont de plus en plus souvent développés pour PC et consoles, ce qui diminue leur besoin en GPU puissants sur les versions PC, d'autant plus que les résolutions ont désormais tendance à stagner.

Les premières cartes devraient être disponibles pour les testeurs avant la fin de l'année, tandis que la production en masse n'est pas prévue avant le premier trimestre 2010.

Posté par Matt le 30/09/2009 à 23h09
Aucun commentaire
Source : Anandtech

Dell

Un ordinateur portable est souvent considéré comme une machine sans-fil, permettant de travailler et de surfer sur Internet librement en se "posant" n'importe où. Mais c'est oublier qu'il faut régulièrement lui remettre un fil à la patte pour recharger sa batterie...

Pire, en usage professionnel, il n'est pas rare d'accompagner l'ordinateur d'un clavier, d'une souris et d'un écran de bureau pour disposer d'un poste de travail plus confortable. Autant de câbles supplémentaires à débrancher et rebrancher à chaque déplacement. Avec le nouveau Latitude Z de Dell, ceci ne sera bientôt plus qu'un souvenir !

Dell Latitude Z

En effet, cet ultraportable haut de gamme peut se venter d'être le tout premier ordinateur portable totalement sans-fil, grâce à une station d'accueil innovante (en option). En effet, il suffit de poser la machine dessus pour mettre la batterie en charge, grâce à un système à induction, tandis qu'un boîtier (lui aussi optionnel...) connecté à l'ordinateur par une liaison sans fil prend en charge les connectiques nécessaires pour une utilisation fixe (écran, réseau, USB...). Ainsi, plus de câbles à brancher, une fois le portable posé sur sa station d'accueil, le poste de travail fixe est opérationnel. Le rendement du système à induction ne serait par contre que de 70%...

Mais l'innovation ne s'arrête pas là. Le Latitude Z est en effet également doté d'une zone tactile le long du côté droit de l'écran. Un clic sur un bouton au bas de cette zone fera apparaître une barre de raccourcis, et il suffira ensuite d'une touche en face de l'icône désirée pour lancer l'application désirée. Cette zone tactile permettra également de faire défiler les documents et les pages web. Du côté du trackpad, on retrouve des fonctions à deux doigts similaires à celle proposées sur les Macbook d'Apple, avec des gestes permettant de zoomer, de faire tourner un document, etc...

Dell Latitude Z

La webcam 2MP propose aussi quelques fonctions destinées au monde professionnel. Tout d'abord, grâce à son auto-focus, elle permet de "scanner" des petits documents placés à quelques centimètres de l'objectif, puis d'effectuer dessus une reconnaissance de caractères. Vous pourrez ainsi transformer en un instant une carte de visite papier en carte de visite virtuelle. Autre atout de cette webcam : la reconnaissance de visages. Une fonction couramment utilisée sur les webcam pour suivre le sujet lors d'une vidéoconférence, mais qui trouve ici une nouvelle utilité : détecter automatiquement quand l'utilisateur s'éloigne de sa machine, et verrouiller la session après quelques instants, pour la protéger des regards indiscrets.

Enfin, Dell a poussé encore plus loin le concept "instant-on" déjà proposé sur plusieurs machines concurrentes. Pour rappel, il s'agit d'embarquer sur la machine un second système d'exploitation ultra léger, comprenant un navigateur web, un client mail, un agenda... Mais alors que ce système était utilisé jusqu'à présent uniquement pour accélérer le démarrage, Dell a aussi cherché à offrir une grande autonomie lors de son utilisation : le Latitude Z comprend un second processeur dédié à cet usage, processeur similaire à ceux qu'on trouve dans les smartphone, et garantissant donc une très bonne autonomie.

Dell Latitude Z

Le reste de la configuration est plus classique : écran 16/9ème de 16 pouces 1600x900 rétroéclairé par LED, processeur Intel Core 2 Duo SU de 1.4 à 1.6 GHz, jusqu'à 4 Go de mémoire et 512 Go de stockage sur un à deux SSD, le Wi-Fi N, une puce graphique intégrée Intel GMA 4500MHD, un clavier rétroéclairé, garantie 3 ans extensible à 5 ans... La machine pèse moins de 2 kg et ne mesure que 14.5mm d'épaisseur (!!!), ce qui en fait le 16" le plus fin et le plus léger du marché. Mais cette taille de guêpe est obtenue au détriment du lecteur optique, qui sera obligatoirement externe (graveur DVD 8x eSATA ou lecteur Blu-Ray 4x/graveur DVD eSATA) et probablement de l'autonomie, puisque la batterie n'est qu'une 4 cellules (8 cellules en option), qui risque de ne pas être très à l'aise, même avec un processeur ULV... La connectique est également assez limitée, avec seulement 1 port USB, un port partagé USB/eSATA, un DisplayPort, un RJ-45 et un connecteur pour casque-micro. En option, on trouvera également un lecteur d'empreinte digitales, un lecteur de cartes à puces RFID, une carte 3G/GPS.

La version de base, dotée d'un processeur à 1.4 GHz, de 2 Go de RAM, de 64 Go de SSD et du lecteur DVD est facturée 1999$. À ce prix, il faudra ajouter 398$ pour profiter de la recharge sans-fil, 349$ pour le dock sans-fil, 125$ pour la 3G et le GPS... Toutes options, on atteint la coquette somme de 4667$ ! Ouch, va falloir gagner au loto :'(

Dell Latitude Z

Pour la plaisir, la vidéo de présentation :

Posté par Matt le 30/09/2009 à 09h47
4 commentaires
Source : 59Hardware

Internet Explorer 6

Voici une information insolite qui sera sans doute très appréciée du côté de Redmond : alors que le gouvernement de la Wallonie avait entamé un virage vers le monde ouvert, en optant pour des logiciels et des formats de fichiers libres, il a entamé aujourd'hui une migration de Firefox vers... Internet Explorer 6 !

Officiellement, ce retour à Internet Explorer serait motivé par des raisons de compatibilité et de... sécurité ! Oui oui, vous avez bien lu, il y a encore des gens qui croient que ce bon vieux IE6 est un navigateur sûr, alors que Microsoft en "personne" a déjà plus d'une fois recommandé à ses utilisateurs de migrer vers IE7 ou IE8, qui ont énormément progressé en termes de sécurité.

La raison de la compatibilité est pour sa part bien plus crédible : IE6 était un navigateur très (trop) peu respectueux des standards, et qui dominait très largement le marché en son temps, à tel point qu'énormément d'applications web ont été développées en respectant la "norme IE6" plutôt que les véritables normes du web, ce qui rend ces applications incompatibles avec les navigateurs alternatifs. On peut alors comprendre que le coût de mises à jour de ces applications soit rédhibitoire et puisse pousser une administration à conserver IE6 tant que cela reste possible, pour retarder au maximum l'échéance du portage de ses applications.

Posté par Matt le 29/09/2009 à 22h58
Aucun commentaire
Source : Generation NT

TestDisk

Aujourd'hui, un des membres de la rédac' a connu une mésaventure avec son disque dur... Pour protéger son anonymat et lui éviter une humiliation publique, nous l'appellerons Gros_taureau. Cette mésaventure nous a permis de découvrir TestDisk, un petit logiciel qui peut s'avérer fort utile dans certaines situations.

Qu'est ce qui nous a ammené à découvrir ce logiciel ? Commençons par un résumé des faits. Peu avant 20h, Gros_taureau me contacte sur Gtalk, en mode panique :

Gros_taureau: Bon je viens de supprimer la partiti de sauvegarde de ecxt 3
Je vais me pendre
Matt: boulet
Gros_taureau: Ça a pas du formater c'est récupérable ?

En résumé, une partition de 1 To volatilisée, et bien sûr les données n'étaient qu'en un seul exemplaire (même si Gros_taureau appelle ça une partition "de sauvegarde"... prochaine étape, lui expliquer le concept de "sauvegarde" :-p), il fallait donc trouver une solution pour récupérer la partition en question.

Face à mon absence de solution, Gros_taureau a demandé à notre ami Google, qui lui a trouvé TestDisk, un logiciel sous licence GPL censé être capable de retrouver des partitions effacées de toutes sortes : NTFS, FAT, HFS, ext2, ext3, et bien d'autres... Restait à tester tout ça, mais Gros_taureau n'était pas très chaud à l'idée de tester directement sur son disque de 1 To. Comme j'avais sous le coude un disque "sacrifiable" contenant une partition système OS X (HFS+) et une partition FAT32, je me suis dévoué pour le test. Suppression des partitions sous Windows, lancement de TestDisk, analyse du disque (très rapide, une fraction de seconde !), et hop, il voit mes deux partitions :-) Réécriture de la table des partitions, vérification : les fichiers de la partition FAT32 sont tout a fait lisibles et le OS X de la partition HFS+ boote sans broncher. Mission accomplie pour TestDisk, qui connaitra le même succès avec le To de Gros_taureau.

TestDisk est distribué sous licence GPL et proposé précompilé pour DOS, Windows 9x, Windows NT (du 4 jusqu'à Vista et probablement 7), Linux et Mac OS X. En plus de la récupération de partition, il sait aussi réparer certaines structures de système de fichiers et retrouver des fichiers effacés. Il est également accompagné de PhotoRec, un logiciel de récupération de fichiers, capable de retrouver différents types de fichiers effacés, et en particulier les photos, d'où son nom.

Posté par Matt le 28/09/2009 à 22h46
3 commentaires

Microsoft Windows Vista

Même si Windows 7 reste avant tout une version optimisée de Vista, visant à en gommer certains défauts, il propose tout de même quelques nouveautés. Bonne nouvelle pour ceux qui utilisent Vista et n'ont pas l'intention de passer à 7 : une partie de ces nouveautés sera également disponibles sous Vista.

En effet, une "Plateform Upgrade" est proposée depuis peu aux beta testeurs. Au programme de cette mise à jour, les nouveautés suivantes :

  • Windows Automation 3.0, pour faciliter la mise au point d'applications accessibles,
  • Direct2D, la future remplaçante de GDI/GDI+, l'API 2D de Windows,
  • Direct3D 11,
  • DirectWrite, une API d'affichage de texte avec filtrage ClearType,
  • une API de manipulation des documents XPS,
  • Windows Ribbon Framework, pour la création d'application utilisant des rubans similaires à ceux d'Office 2007 au lieu des habituelles barres de menus et d'outils,
  • Windows Animation Manager, pour la réalisation d'animations graphiques.

Vous pouvez d'ores et déjà télécharger cette mise à jour (à vos risques et périls, elle est encore en phase de beta) en téléchargeant un petit script sur le site de Microsoft, puis en lançant Windows Update ou Microsoft Update après avoir exécuté le script.

Posté par Matt le 24/09/2009 à 21h54
2 commentaires
Source : PCInpact

Intel

C'est cette semaine que se tient à San Francisco l'Intel Developer Forum 2009 (IDF), grande messe du fondeur, où il présente ses futurs produits et les grandes lignes prévues pour les évolutions futures. Parmi les prototypes présentés, il y a notamment un SSD PCI-Express particulièrement impressionnant...

SSD Intel PCI-Express

Photo : PCWorld.fr

En effet, alors qu'Intel est pour l'instant encore absent de ce marché de niche, "colonisé" pour l'instant par OCZ et Super Talent, le prototype présenté à l'IDF risque bien de faire très mal à la concurrence : au format PCI-E 8x, il offrirait un débit de 4 Go/s, y compris sur les petites accès, puisqu'un test IOMeter annonce fièrement 1 millions d'I/O par seconde !

Peu d'informations ont par contre filtrées sur l'architecture du bestiau. Il semble être constitué de 4 ou 8 contrôleurs montés en RAID0 et associés à 40 ou 80 puces de mémoire flash. Cela signifierait également que les puces flash sont particulièrement rapide, en offrant des débits de 50, voir 100 Mo/s !

Intel n'a pour l'instant communiqué ni sur le prix, ni sur la disponibilité de ce SSD.

Posté par Matt le 24/09/2009 à 14h07
8 commentaires
Source : PCWorld.fr

Microsoft

Après les relatifs échecs du Tablet PC, de l'UMPC et de sa table multimédia Surface, Microsoft semble bien décidé à ne pas baisser les bras et à continuer de proposer de nouveaux concepts à base d'écrans tactiles. Et le dernier en date semble particulièrement prometteur !

Microsoft Courier

Baptisé Courier, il s'agit d'une tablette tactile multi-touch composée de deux écrans 7" positionnés de part et d'autre d'une charnière, permettant de plier l'appareil en deux pour le transport. Les dalles tactiles semblent être de type capacitif (c'est-à-dire ne nécessitant pas d'appuyer dessus, comme l'écran de l'iPhone) et pourra être contrôlé du bout des doigts ou avec un stylet pour des tâches nécessitant une plus grande précision (écriture par exemple).

La tablette embarquera bien entendu une connexion réseau sans-fil (3G ? Wi-Fi ?), mais aussi un appareil photo 3MP doté d'un zoom 4x et capable de filmer en 640x480. On n'en sait pour l'instant pas beaucoup plus sur le côté matériel.

Pour la partie logicielle, Microsoft a réalisé une interface très soignée, qui vise clairement à offrir une expérience utilisateur proche de celle que l'on pourrait avoir en manipulant un vrai carnet de notes en papier. Cette expérience est poussé jusque dans les moindre détails, puisque même la saisie des adresse web se fera de façon manuscrite, tandis qu'il sera possible de découper un morceau de document pour aller le coller dans le carnet de notes, sous forme d'image. Notre confrère Gizmodo propose une présentation vidéo de l'interface, à voir absolument !

Le meilleur pour la fin : la bestiole est déjà bien avancée et a largement dépassé le stade du prototype. On pourrait donc la voir sur le marché dans à peine quelques mois.

Posté par Matt le 23/09/2009 à 22h37
8 commentaires
Source : Gizmodo via Ptit_boeuf

ATI

C'est aujourd'hui qu'ATI a lancé sa nouvelle génération de cartes graphiques Radeon, en commençant par deux modèles haut de gamme : la Radeon HD 5870 et la Radeon HD 5850.

ATI Radeon HD 5870

Pour ces cartes, les premières à être compatibles DirectX 11, ATI a sorti l'artillerie lourde. Ainsi, la Radeon HD 5870 embarque pas moins de 1600 Stream Processors, 80 unités de filtrage et 32 ROP, soit le double de ce dont la HD 4890 était doté, pour une même fréquence de fonctionnement. Elle embarque 1 Go de mémoire GDDR5 à 1.2 GHz sur un bus 512 bits. Grâce à la gravure en 40nm, sa consommation est similaire à celle d'une HD 4870 en charge, et très inférieure au repos. Elle sera facturée 350€.

ATI Radeon HD 5850

Sa petite soeur, la HD 5850, reprend bien sûr la même architecture, mais dans une version légèrement amputée. On passe de 1600 à 1440 Stream Processors et de 80 à 72 unités de filtrage (les ROP restent au nombre de 32), tandis que les fréquences diminuent de 850 à 725 MHz pour le GPU et de 1.2 à 1.0 GHz pour la mémoire. Elle est disponible pour 240€, ce qui, compte tenu des caractéristiques, devrait lui conférer un bien meilleur rapport performances/prix.

Les deux cartes utilisent le même PCB, le même système de refroidissement et proposent quatre sorties vidéo (deux DVI, un HDMI et un DisplayPort), dont trois peuvent être utilisées en simultané. Une version de la HD 5870 dotée de 6 sorties mini-DisplayPort sera également proposé sous peu.

Côté performances, la Radeon 5870 emporte haut la main le titre de carte mono-GPU la plus performante du marché. Un titre qui n'était pas tombé entre les mains d'ATI depuis un certain temps... Selon les tests de nos confrères, la 5870 serait en pratique 60 à 70% plus rapide que la 4870 et 30 à 40% plus rapide que la 4890. Si ces performances sont plus que correctes, et même plutôt très bonnes, elles restent tout de même en dessous de ce qu'on aurait pu espérer, probablement à cause d'une bande passante mémoire un peu légère : alors que les performances brutes ont doublé par rapport à la 4890, la bande passante mémoire n'a augmenté que de 23%. La consommation en pratique tient également largement ses promesses, en particulier au repos, où la Radeon HD 5870 est et de loin la plus sobre des cartes haut de gamme actuelles, avec plus de 40W de gagnés par rapport aux Radeon 4870 et 4890.

Posté par Matt le 23/09/2009 à 21h53
Aucun commentaire

MSI

Au printemps dernier, MSI lançait le Wind U115, un netbook basé sur la plateforme Poulsbo (Atom Z) et doté d'un système de stockage hybride, lui permettant de revendiquer une autonomie record de 12h. Aujourd'hui le constructeur en remet une couche, avec le U110 ECO.

MSI Wind U110 ECO

Ce petit frère du U115 en reprend les grandes lignes, avec un écran 10.1" 1024x600, un Atom Z530 à 1.6 GHz, 160 Go de disque dur et 1 Go de RAM. "ECO" oblige, il sacrifie par contre le système de stockage hybride, mais sera par contre proposé pour moins de 400$.

Mais là où MSI frappe fort, c'est que l'abandon du système de stockage hybride se fait sans perte d'autonomie. Au contraire, même, celle-ci atteindrait désormais les 15h. Comment ? En remplaçant tout simplement la batterie 6 cellules par une 9 cellules, permettant ainsi de compenser la consommation légèrement supérieure. Ce choix se ressent par contre sur la balance, avec 1.45 kg, contre 1.3 kg pour le U115.

Avec de tels chiffres sans le stockage hybride, on se prend à rêver également d'un "U115 ECO", doté du système hybride du U115 et de la batterie du U110 ECO. De quoi aller titiller les 20h d'autonomie ?

Posté par Matt le 23/09/2009 à 10h22
Aucun commentaire
Source : Cowcotland

DFI

Connu pour sa gamme de cartes mères haut de gamme "Lan Party", principalement destinées aux joueurs et aux overclockers, le constructeur DFI a dans ses cartons un modèle très original, la Hybrid P45-ION-T2A2, une carte mère deux en une.

DFI Hybrid P45-ION-T2A2

En effet, cette carte se distingue du reste du marché par le fait que, en plus d'une plateforme P45 pour Core 2, elle embarque une plateforme nVidia ION et un processeur Atom. Ce sont donc deux systèmes indépendants câblés sur une seule carte. Mieux, le carte intègre un switch KVM permettant de basculer quatre ports USB, un port DVI (deux ports sont présents sur la carte, mais le second est en fait une entrée, à raccorder au port DVI de la carte graphique installée sur la partie P45) et les entrées/sorties audio d'une plateforme à l'autre, pour pouvoir utiliser les deux plateformes simultanément avec un seul ensemble clavier/souris/écran/enceintes. Le switch des différents éléments se ferra via un contrôleur à installer dans une baie en façade, et proposant de switcher indépendament la partie audio et la partie vidéo, ce qui permettra d'écouter le son d'un système tout en affichant l'autre système.

Chaque plateforme disposera également d'un port réseau et de deux ports USB dédiés, tandis que la partie ION disposera également d'un port HDMI. Les deux parties sont également reliées par un lien réseau Gigabit interne, évitant de devoir utiliser les ports réseau pour faire communiquer les deux systèmes.

Pour les extensions, la partie ION disposera d'un port PCI et de deux ports SATA, tandis que la partie P45 proposera 6 ports SATA et, un port PCI-E 16x, un port PCI-E 1x et un port PCI. Enfin, côté alimentation, la partie P45 nécessitera une alimentation ATX classique, tandis que la partie ION disposera de sa propre alimentation passive à haut rendement (supérieur à 85%), livrée avec la carte mère.

La carte sera proposée pour environ 400$. Un prix élevé dans l'absolu, mais qui pourrait se révéler être une bonne affaire pour ceux désirant monter un NAS ou un serveur domestique sans trop s'encombrer.

Posté par Matt le 22/09/2009 à 22h08
Aucun commentaire
Source : PCWorld.fr

NDFR a 8 ans !

Le 22 septembre 2001, Formatman et Benjy unissaient leurs sites pour fonder Newdimension-FR. Aujourd'hui connu sous le nom de NDFR.net, notre confrère fête aujourd'hui son huitième anniversaire.

L'occasion pour moi de féliciter Benjy pour son travail au fil de ces huit années, et le remercier encore une fois pour toute l'aide qu'il a apporté à Infobidouille depuis sa création !

Longue vie à NDFR.net :-)

Posté par Matt le 22/09/2009 à 00h40
Aucun commentaire

Ubuntu

Depuis le lancement de Mac OS X 10.0, Apple a pris pour habitude de nommer les versions de son OS avec le nom d'espèces de félins. Mais alors que les noms de félins disponibles pour les versions à venir vont commencer à se faire rare, Apple s'en est fait "voler" un par Canonical, un de ses concurrents, éditeur de la distribution Linux Ubuntu.

En effet, pendant qu'Apple enchaînait les noms de félins (Cheetah 10.0, Puma 10.1, Jaguar 10.2, Panther 10.3, Tiger 10.4, Leopard 10.5, Snow Leopard 10.6), Canonical avait opté pour un système de nommage également basé sur le règne animal, en nommant chaque version sous la forme Adjectif Espèce, les deux mots commençant par la même lettre, et avec une progression alphabétique au fil des versions (sauf les 3 premières) : Warty Warthdog 4.10, Hoary Hedgehog 5.04, Breezy Badger 5.10, Dapper Drake 6.06, Edgy Eft 6.10, Feisty Fawn 7.04, Gutsy Gibbon 7.10, Hardy Heron 8.04, Intrepid Ibex 8.10, Jaunty Jackalope 9.04, Karmin Koala 9.10 (qui sortira le mois prochain).

En arrivant à la lettre L, Canonical a résisté à la tentation d'utiliser le nom Leopard, qui leur aurait probablement valu les foudre d'Apple (un "Lousy Leopard" aurait pourtant été une petite pique originale, même si peu flatteuse :-) ), mais a opté pour un félin plus modeste : Ubuntu 10.04 s'appellera Lucid Lynx. Signalons au passage que cette version bénéficiera d'un support longue durée ("LTS", 3 ans pour la version desktop et 5 ans pour la version serveur, contre 18 mois pour le support standard), comme les versions 6.06 et 8.04. Si le planning est respectée, cette version sera disponible dans environ sept mois, avant la fin du mois d'avril 2010.

Posté par Matt le 21/09/2009 à 23h55
1 commentaire
Source : n'1for-matik

ATInVidia

Depuis quelques jours, les spécifications détaillées de la prochaine génération de cartes graphiques haut de gamme ATI (compatibles DirectX 11) circulent sur Internet, suite à des fuites émanant de certains journalistes ayant reçu des exemplaires de la Radeon 5870 pour préparer leurs articles avant la sortie officielle, prévue pour le 22 septembre.

Ainsi, on sait que la Radeon 5870 fonctionnera à la même fréquence que l'actuelle Radeon 4890 (850 MHz), mais que sa puce RV870 embarquera deux fois plus de "Stream Processors" que le RV770 des Radeon 4800. On retrouvera donc 1600 SP, accompagnés de 80 TMU et 32 ROP, pour une puissance totale de plus de 2.7 Tflops. La mémoire sera de la GDDR5 à 1.3 GHz sur 256 bits, pour une capacité de 1 ou 2 Go. Sa petite sœur, la Radeon 5850, fonctionnera pour sa part à 700 MHz, avec 1440 SP, 72 TMU et 32 ROP avec une mémoire à "seulement" 1 GHz.

ATI Radeon HD 5870

Sur le papier, on peut donc s'attendre à des performances doublées par rapport aux cartes ATI actuelles, et le tout sans augmenter la consommation, puisque la 5870 est donnée pour un TDP de 190W, identique à celui de la 4890.

Du côté d'nVidia, la riposte se prépare aussi, avec le GT300. Très peu d'informations circulent pour l'instant au sujet de cette nouvelle puce. nVidia a toutefois annoncé que cette puce sera plus puissante que le haut de gamme ATI et sera également compatible DirectX 11 et gravée en 40nm. Selon certaines rumeurs, il ne s'agirait par ailleurs par d'un simple rafraichissement de l'actuel GT200, mais bien d'une architecture entièrement nouvelle. Les cartes basées sur cette puce devraient être commercialisées en novembre, donc des informations plus précises devraient commencer à arriver dans les semaines à venir.

C'est donc un beau duel qui se prépare entre ATI et nVidia pour la dernier trimestre, avec pour l'instant un léger avantage à ATI, qui prend nVidia de vitesse et propose une nouvelle carte qui devrait offrir un gros bon de performances.

Posté par Matt le 16/09/2009 à 23h58
1 commentaire

Spotify est un service légal de streaming de musique, disponible en version payante sans pub (10€ par mois) et en version gratuite avec pub. Cette dernière n'est disponible que sur invitation.

À l'occasion de la sortie de la version iPhone du client Spotify, Infobidouille et Pimp My iPhone vous offrent 5 invitations pour la version gratuite du service, afin de pouvoir le tester en illimité sur n'importe quel ordinateur avant de vous décider pour un abonnement Premium permettant l'utilisation sans pub et l'utilisation depuis un téléphone mobile compatible.

Posté par Matt le 16/09/2009 à 10h56
2 commentaires

Test de CopyTrans Manager sur NDFR.net

Il y a quelques années, NDFR nous proposait un comparatif rapide des logiciels permettant de gérer un iPod sous Windows sans passer par iTunes. Quatre ans plus tard, les choses ont bien changé ! De nouveaux modèles d'iPod sont apparus, Apple a lancé l'iPhone, mais une constante est restée : il n'est toujours pas possible de déposer de la musique sur un appareil mobile Apple via l'explorateur Windows, et la seule solution officielle est d'utiliser iTunes. Mais les alternatives existent toujours, souvent avec une plus grande richesse fonctionnelle. C'est ce que nous allons voir avec CopyTrans Manager, un logiciel de gestion d'iPod/iPhone originaire de Suisse et, surtout, gratuit.

Posté par Matt le 14/09/2009 à 23h00
Aucun commentaire

Deux nouveaux flux RSS ont été mis en place sur Infobidouille :

Posté par Matt le 13/09/2009 à 01h36
Aucun commentaire

Lassée par la lenteur des connexions Internet fournies par Telkom, leader des télécommunications en Afrique du Sud, l'entreprise Unlimited IT a réalisé une expérience originale pour montrer à quel point les débits offerts sont archaïques...

Pour ce faire, Unlimited IT a utilisé un moyen de communication bien connu depuis le moyen-âge : le pigeon voyageur ! En accrochant une carte mémoire à la patte de Winston, un vaillant volatile de 11 ans, l'entreprise a réalisé un transfert de données sur une distance de 80 km en à peine 68 minutes de trajet. En comptant le temps de lecture et d'écriture de la carte et les opérations logistiques intermédiaires, le temps total de transfert atteint un peu moins de 2 heures et 7 minutes. Dans le même temps, via une ligne Telkom, seuls 4% des données ont été transférées...

Posté par Matt le 11/09/2009 à 21h45
Aucun commentaire
Source : Reuters

Cette horloge a été fabriqué à partir d'un disque dur 3"1/2. Une idée originale quelques LEDS, un micro-contrôleur, de la débrouille, une bonne dose de patience, et voilà le résultat :

L'horloge disque dur

Toutes les informations nécessaires à la construction de cette horloge sont disponibles ici (traduction automatique Google à partir du polonnais...).

La vidéo de démonstration laisse rêveur quand même :

N'empêche ça ferait trop bien sur mon bureau une horloge comme celle-ci. Matt ? Tu m'en ferais pas une des fois ?

Posté par Ptit_boeuf le 11/09/2009 à 09h56
2 commentaires
Source : Le Journal du Geek

Apple

Apple a donné aujourd'hui son traditionnel "special event" de la rentré, intitulé cette année "It's only rock'n'roll, but we like it". Comme le laissait entendre ce titre, la keynote était axée sur les produits multimédia d'Apple, et en particulier iTunes et les iPod.

C'est du côté de l'iPod Nano que se trouve la plus grosse évolution matérielle. En effet, celui-ci se dote désormais d'un haut parleur intégré, d'un tuner FM et d'un capteur vidéo. Ce dernier permettra d'enregistrer des vidéos en 640x480 à 30 images par seconde, avec un encodage direct en H.264. Il est par contre incapable de prendre des photos (!!!).

Apple iPod Nano

Le Shuffle évolue également légèrement, avec désormais la lecture vocale du niveau de charge de la batterie (le Shuffle n'ayant ni écran ni LED de charge...), tandis que l'iPod Touch passe à 64 Go et l'iPod Classic à 160 Go.

Côté logiciel, le firmware 3.1 pour les iPhone et iPod Touch est disponible dès ce soir, avec des nouveautés mineures, tout comme iTunes 9. On notera tout de même l'apparition d'une fonction intéressante et qui était assez attendue : il est désormais possible d'organiser les icônes des applications iPod Touch/iPhone directement depuis iTunes.

Posté par Matt le 09/09/2009 à 22h28
4 commentaires

Facebook

Dans une interview donnée au Telegraph, le docteur Tracy Alloway explique que l'utilisation de réseaux sociaux type Facebook permet de stimuler l'activité du cerveau, et donc de le développer, tandis que la consultation des plateformes de micro-blogging type Twitter serait au contraire bien peu stimulante et pourrait même réduire les capacités du cerveau...

La psychologue explique que cette différence serait due à la façon très différente d'utiliser les deux types de produits. En effet, alors que l'utilisateur de Facebook est actif et interagit beaucoup avec d'autres utilisateurs, activant ainsi sa mémoire et ses capacités de réflexion, l'utilisateur de Twitter serait bien plus passif, se contentant de s'abreuver d'un flots de courts messages, mobilisant son cerveau au strict minimum.

Mais une actualité insolite parue le même jour que l'interview illustrerait finalement plutôt le contraire... L'histoire se déroule à Adélaïde, en Australie. Deux jeunes filles d'une dizaine d'années se sont retrouvées coincées dans un collecteur d'eaux de pluie. Heureusement, chacune avait un téléphone en état de marche, ce qui leur a permis d'appeler à l'aide... sur Facebook ! Oui oui, alors que les deux gamines avaient forcément un accès fonctionnel au réseau, elles n'ont rien trouvé de mieux comme idée que d'aller appeler à l'aide en changeant leur statut Facebook, plutôt que d'appeler directement les secours (il faut dire que le numéro d'appel des secours d'urgence australien est particulièrement difficile à retenir : 000 !), comme le déplore un des pompiers venu à la rescousse... Heureusement pour elles, un de leurs contact a vu cet appel et a contacté les pompiers, qui ont pu secourir les deux enfants. Alors, Facebook rend plus intelligent ? Peut-être, mais ça marche clairement pas à tous les coups...

Posté par Matt le 09/09/2009 à 00h15
Aucun commentaire
Sources : PCWorld et Infos-du-Net

Zune

Après l'échec des premiers modèles de Zune, le Zune HD est attendu par beaucoup comme le messie, en y voyant le premier véritable concurrent à l'iPod Touch sur le marché des baladeurs "intelligents". Certains risquent toutefois d'être déçus, car Microsoft aurait décidé que, comme ces prédécesseurs, le Zune HD restera réservé au marché nord-américain...

Microsoft Zune HD

En effet, alors que ce nouveau modèle sera lancé dans moins d'une semaine aux USA, Microsoft n'a pour l'instant annoncé aucune date de lancement pour l'Europe. Un silence qui ne laisse rien présager de bon, d'autant que François Ruault, directeur du département Entertainement & Device chez Microsoft France a confirmé de façon on ne peut plus claire que le lancement n'est pour l'instant pas à l'ordre du jour en Europe...

Dommage, le Zune HD était le premier appareil sérieux à embarquer la prometteuse plateforme nVidia Tegra...

Posté par Matt le 08/09/2009 à 23h59
Aucun commentaire
Source : PCInpact

Intel et AMD dominent aujourd'hui largement le marché des processeurs pour ordinateurs personnels. Mais la révolte gronde du côté des fabricants électroniques japonais, qui aimeraient bien avoir leur part du gâteau. C'est ainsi que sept d'entre eux (NEC, Renesas, Hitachi, Toshiba, Fujitsu, Panasonic et Canon) se sont associés, avec comme objectif de lancer un nouveau processeur en 2012...

Pour s'attaquer à ce marché, leur principal argument sera l'efficacité, avec une consommation fortement réduite à puissance égale. Ainsi, les premiers prototypes ne consommeraient que 30% de ce que consomme un processeur actuel. Mieux, ce processeur serait capable de reprendre son fonctionnement dans l'état où il s'était arrêté suite à une coupure de courant. Il s'agit là probablement d'une application des technologies de NEC et Rhom Co dont nous vous parlions il y a quelques temps.

Mais dans la lutte contre Intel et AMD, ce processeur risque d'avoir un gros handicap, même s'il tient ses promesses du côté de la consommation : faute de licence, il n'utilisera pas le jeu d'instructions x86. Cela signifie donc que les logiciels et systèmes d'exploitation actuels ne pourront pas fonctionner sur ces processeurs. S'il semble assez évident que Linux sera disponible en temps et en heure, les sept nippons ayant largement les ressources nécessaires pour effectuer un portage, il semble par contre assez peu probable qu'ils arrivent à convaincre Microsoft, l'éditeur de Windows étant historiquement très proche d'Intel...

Ce nouveau processeur pourra par contre peut-être connaitre du succès sur les appareils mobiles, smartphones en tête, puisque les constructeurs ont d'ores et déjà prévu de le décliner pour de nombreux types d'appareils électroniques. Dans ces secteurs, l'absence de x86 sera moins critique, puisque ce jeu d'instruction y est actuellement quasi inexistant, même si Intel a quelques projets de déclinaison smartphone de la plateforme Atom.

Posté par Matt le 07/09/2009 à 00h11
6 commentaires
Source : VR-Zone

Windows 7

Pour Windows 7, Microsoft nous avais promis un système d'exploitation plus léger et s'adaptant plus aisément aux petites configurations, afin qu'il puisse remplacer Windows XP sur le marché des netbooks, où Vista n'a jamais eu les faveurs des constructeurs. Ce qu'ils n'avaient par contre pas annoncé, c'est le travail effectué avec Intel sur l'autonomie...

En effet, grâce à un travail d'optimisation au niveau du système et des drivers, les deux compères sont parvenus à réduire sensiblement la consommation sous Windows 7 des portables équipés de plateformes Intel récentes. Ainsi, sur un Lenovo Thinkpad T400s, doté de la dernière plateforme mobile Intel, Microsoft annonce avoir mesuré une baisse de consommation de 24% (15.4W au lieu de 20.2W), sans toutefois préciser dans quelle situation. En termes d'autonomie, cette baisse de consommation se traduit par une prolongation de l'utilisation sur batterie de 1h24.

La principale raison de ce gain serait la technologie "Windows 7 timer coalescing", dont le but est de minimiser le temps que le processeur passe en mode performances (et donc, d'augmenter le temps passé en mode économie). En effet, sur un système classique, même faiblement utilisé, les services d'arrière-plan vont régulièrement se mettre en branle et "réveiller" le processeurs pendant quelques dixièmes de secondes.

Intel affirme également que le résultat sera encore plus efficace avec ses plateformes à venir, tandis qu'AMD a annoncé que ses futurs produits devraient également profiter d'un gain d'autonomie sous Windows 7.

Posté par Matt le 06/09/2009 à 14h07
Aucun commentaire
Source : PCMag

Afin de permettre à ceux qui voudraient réagir aux actualités de le faire rapidement, sans devoir nécessairement passer par la création d'un compte, les commentaires sont désormais ouvert à tous.

Notez toutefois que les commentaires soumis par des visiteurs non inscrits passent à travers différents filtres à spam, et peuvent donc subir une modération automatique et que les non inscrits ne bénéficient pas des 24h d'accès sans pub lorsqu'il publient un commentaire.

Posté par Matt le 05/09/2009 à 22h35
3 commentaires

On en parle depuis des années, mais l'ordinateur quantique était pour l'instant uniquement théorique, alors qu'il est censé être la solution pour continuer la montée en puissance une fois que les limites physique du silicium auront été dépassées. Mais un grand pas vient justement d'être franchi, avec la première unité de calcul quantique fonctionnelle !

Fruit de plusieurs années de travail au sein des labos de recherche de l'Université de Bristol, cette unité de calcul est encore très basique, puisqu'elle se limite à la décomposition en facteur premiers d'un entier de 4 bits. Mais cette puce ouvre la voie vers l'avenir, en étant la première mise en pratique des théories sur les ordinateurs quantiques.

D'un point de vue technique, cette puce est toujours construite en silicium, mais ce dernier n'est pas utilisé pour ses propriétés semi-conductrices, mais simplement comme guide pour les signaux, qui se présentent sous la forme de photons se déplaçant dans des guides de silicium, et non plus sous la forme d'un signal électrique.

Voilà qui devrait motiver les chercheurs à développer une puce plus complète, pour que nous puissions, dans quelques années ou dizaines d'années, avoir de véritables ordinateurs quantiques, au rapport performances/consommation incomparable avec les solutions à base de silicium.

Posté par Matt le 05/09/2009 à 01h55
3 commentaires
Source : PhysOrg.com

OracleSun Microsystems

Après les rumeurs de rachat par IBM, puis l'échec des négociations, le rachat de Sun par Oracle avait été l'une des grosses actualités du deuxième trimestre. Une actualité qui n'avait pas manqué de lever quelques craintes sur le respect de la concurrence, Sun étant l'éditeur de MySQL, l'un des principaux concurrents des bases de données Oracle...

Ceci n'a visiblement pas gêné les autorités américaines de contrôle de la concurrences, qui ont donné leur aval à ce rachat depuis quelques temps. Mauvaise nouvelle pour Oracle : la Commission européenne n'est pas du même avis que son homologue américaine, et s'inquiète elle aussi de l'entrave à la concurrence que pourrait constituer un tel rachat, et a donc décidé d'ouvrir une enquête sur le sujet.

La conclusion définitive du rachat étant subordonnée à la validation de la Commission européenne, le sort de Sun est donc pour l'instant en suspens, l'entreprise pouvant être intégrée dans Oracle ou, au contraire, redevenir totalement ou partiellement indépendante, en fonction des conclusions de l'enquête européenne.

La Commission rendra son verdict au plus tard le 19 janvier, ce qui laisse donc environ 4 mois à Oracle pour convaincre du bienfondé de l'opération.

Posté par Matt le 04/09/2009 à 10h24
Aucun commentaire
Source : PCInpact

Leadtek

Vous avez sans doute déjà entendu parler du Cell, un processeur connu pour être au cœur de la Playstation 3 de Sony. Ce que l'on sait moins, c'est que ce processeur a été développé en collaboration avec IBM et Toshiba, ce qui permet à ces derniers de proposer eux aussi des produits basés sur ce processeur. Côté IBM, il s'agit bien sûr de supercalculateurs, tandis que côté Toshiba, il s'agit essentiellement de puces dédiées à la compression vidéo...

Toshiba SpursEngine SE1000

Parmi elles, on trouve le SpursEngine SE1000, une sorte de Cell castré sur certains points, améliorés sur d'autres... Ainsi, au lieu de contenir un PPE et 8 SPE à 3.2 GHz, le SpursEngine se contente de seulement 4 SPE à 1.5 GHz, tandis que le PPE qui les pilote normalement est remplacé par des codecs MPEG-2 et H.264 et un contrôleur PCI-Express, permettant d'interfacer le SpursEngine avec un processeur d'ordinateur, qui jouera le rôle du PPE. L'ensemble ne consommant que 10 à 20W, on obtient ainsi une carte d'encodage vidéo performante et de faible consommation.

Leadtek Winfast HPVC 1100

C'est ce que vous retrouverez à l'intérieur du Winfast HPVC 1100 de Leadtek, un boîtier à connecter à un ordinateur portable via un slot ExpressCard/34, pour transformer ainsi un simple ordinateur portable en véritable station d'encodage vidéo. Compatible avec TMpegEnc, ce boîtier est facturé environ 300€, ce qui le réservera aux encodeurs fous... Une version sous forme de carte PCI-Express existe aussi, sous la référence Winfast PxVC 1100.

Posté par Matt le 04/09/2009 à 00h05
1 commentaire
Source : Presence-PC

Belkin

Prometteur a ses débuts, le CPL (Courant Porteur en Ligne, qui permet de véhiculer les communications réseau via les lignes électrique) peine à décoller, en raison de débits à peine supérieurs à ceux obtenus en Wi-Fi, de nombreuses incompatibilités. Les choses pourraient changer grâce au dernier kit CPL de Belkin...

Belkin Gigabit Powerline HD Starter Kit

En effet, alors que quasiment tous les kits CPL actuels se contentent d'un débit de 85 ou 200 Mbits/s, Belkin vient de lancer un kit annonçant fièrement un débit d'un gigabit, le Gigabit Powerline HD Starter Kit. Disponible immédiatement pour 150€, ce kit comporte deux adaptateurs CPL gigabit et est rétro-compatible avec les kits d'autres marques, grâce à la norme HomePlug AV.

Attention toutefois, les débits en pratiques risquent d'être bien inférieurs aux débits théoriques annoncés, comme avec les précédentes normes CPL. Pour une vraie connexion gigabit, le bon vieux RJ-45 reste donc pour l'instant la meilleure solution.

Posté par Matt le 02/09/2009 à 23h17
3 commentaires
Source : 59Hardware

Google Chrome

Voici une information qui risque de ne pas plaire à Microsoft : Sony et Google auraient conclu un partenariat, afin que le premier installe sur ses ordinateurs le navigateur Internet du second (Chrome) et le configure comme navigateur par défaut, avec la page d'accueil de Google comme page de démarrage.

Suite à la condamnation de Microsoft dans l'Union Européenne, ce genre d'annonce était prévisible, puisque Microsoft doit désormais laisser aux constructeurs la possibilité de choisir le navigateur qu'ils veulent livrer avec leurs machines. Il est par contre un peu plus surprenant que la première annonce concerne Chrome plutôt que Firefox, bien plus reconnu et populaire. Mais la puissance financière de Google a certainement pesé sur la balance...

Cet accord devrait permettre à Google d'augmenter sensiblement la part de marché de Chrome, les Vaio étant des machines se vendant plutôt bien. Au niveau mondial, la part de marché de Chrome est actuellement estimée à moins de 3% (elle atteint 3.9% chez les visiteurs d'Infobidouille).

Il sera intéressant de surveiller dans les prochains temps les configurations proposées par les autres grands constructeurs, afin de voir si d'autres vont faire le choix de ne pas laisser Internet Explorer comme navigateur par défaut, mais aussi d'étudier l'impact de ces choix sur les parts de marché des différents navigateurs. Enfin, s'il est quasiment certains que Firefox sera proposé par certains constructeurs, y aura-t-il un constructeur qui osera proposer des machines avec Safari comme navigateur ? Peu probable, mais cela constituerait une belle victoire pour Apple !

Posté par Matt le 02/09/2009 à 00h21
Aucun commentaire
Source : Infos du Net

Après trois mois de hausse, les visites sont reparties à la baisse au mois d'août, avec 24878 visites (-19.4%) et 44753 pages vues (-18.4%).

Pages vues et visites, août 2009

Une baisse qui a surtout touché les blogs (-62% pour la version anglaise de Pimp My iPhone, -35% pour Pimp My iPhone et -33% pour mon blog), qui passent de 70% à 53% du traffic. Dans l'absolue, Infobidouille est même parti à la hausse (+22%).

Répartition des visites, août 2009

Les trois navigateurs principaux sont désormais utilisés majoritairement dans leur dernière version, le mois d'août ayant vu Firefox 3.5 passer devant FF 3.0 et Internet Explorer 8 passer devant IE 7. On notera au passage qu'il a fallu 6 mois à IE 8 pour dépasser IE 7, alors qu'il n'en a fallu que 2 à FF 3.5 pour passer devant FF 3.0 et à Safari 4 pour passer devant Safari 3...

La famille Firefox reste en tête des visites, avec 45.2% (+2.1 points). Internet Explorer conserve sa seconde place à 32.8% (-2.3 points), tandis que Safari complète encore une fois le podium, à 14.2% (+0.8 point).

Parts des familles de navigateurs, août 2009

Parts des navigateurs, août 2009

Côté systèmes d'exploitation, Windows perd à nouveau un point (78.3%), en partie récupéré par Mac OS (17.5%, +0.4 point). Windows 7 a connu ce mois-ci une progression de sa part de plus de 50% (de 3.9% à 5.9%).

Parts des familles de systèmes d'exploitation, août 2009

Parts des systèmes d'exploitation, août 2009

Posté par Matt le 01/09/2009 à 21h55
Aucun commentaire