UNE NOUVELLE VERSION D'INFOBIDOUILLE EST EN LIGNE CLIQUEZ-ICI POUR LA VISITER

Samsung

Avec leurs énormes écrans tactiles couvrant quasiment toute leur face avant, les smartphones modernes ont souvent un gros point faible : la fragilité de l'écran en question, qui peut voler en éclats en cas de choc ou de chute. Un point faible sur lequel Samsung travaille activement.

En effet, Samung Mobile Display, une division du Coréen spécialisée dans les petits écrans pour téléphones ou baladeurs, travaille actuellement sur des écrans AMOLED basés sur une dalle en plastique souple, ce qui leur confère une excellente résistance aux chocs, puisque même un coup de marteau n'arrive pas à en venir à bout :

Reste à voir si Samsung sera aussi en mesure de rendre la dalle tactile aussi résistante, pour pouvoir faire des smartphones à l'écran indestructible. Il faudra bien entendu aussi que cette nouvelle technique de fabrication atteigne un coût raisonnable, ce qui devrait être le cas dans deux ans, lorsque Samsung lancera ces écrans commercialement.

Posté par Matt le 21/07/2010 à 09h20
Aucun commentaire
Source : Tom's Hardware

Dell

On n'a pas trop l'habitude d'entendre parler de Dell dans le milieu du logiciel, mais de temps en temps ça arrive. Et c'est le cas avec Secure Browser, un navigateur récemment mis à disposition par Kace, une filiale de Dell. Sous ce nom se cache en fait une version "sécurisée" de Firefox.

Basé sur la version 3.6 du panda roux, Secure Browser est en fait un Firefox qui s'exécute dans une sandbox, permettant de l'isoler du reste du système. Ainsi, si Firefox venait à être corrompu par un site malveillant exploitant une faille de sécurité, le code malicieux ne pourra pas s'attaquer au reste du système, puisqu'il restera confiné dans la sandbox. Ceci permet de ramener Firefox au niveau de Chrome, qui intègre nativement un système de sandbox. Secure Browser peut être téléchargé gratuitement sur le site de Kace. Malheureusement, cette version ne fonctionne pour l'instant que sur les systèmes Windows 32 bits. Espérons que Kace donnera des idées à Mozilla pour intégrer nativement ce genre de choses à Firefox.

On notera d'ailleurs que Mozilla a décider de s'attaquer un peu plus sérieusement aux problèmes de sécurité, Firefox étant de plus en plus surpassé par Chrome et Opera dans ce domaine. Ainsi, alors que la fondation offrait depuis six ans une prime de 500$ pour tout personne découvrant un nouveau trou de sécurité, elle a décidé de porter ce montant à 3000$, afin de motiver les spécialistes de la sécurité.

Pour toucher la prime, la faille découverte devra toutefois répondre à certaines conditions : être considérée comme critique ou importante, toucher les versions récentes de Firefox, Firefox Mobile ou Thunderbird et être exploitable à distance.

Posté par Matt le 20/07/2010 à 18h21
Aucun commentaire
Sources : Clubic et PCWorld

Asus

S'il y a un point sur lequel la puce Fermi qui équipe les GeForce GTX 480 est imbattable, c'est bien sur le plan de la consommation électrique. À tel point que, alors que depuis plusieurs générations, AMD et nVidia proposent tous les deux un haut de gamme bi-GPU, pas grand monde n'envisageait la possibilité de faire une carte bi-GPU à base de GTX 480. Mais chez Asus, ils n'ont pas froid aux yeux...

Ainsi, après sa série limitée Mars, lancée l'année dernière, qui était la seule carte embarquant deux GTX 285, revendiquant alors le titre de carte graphique la plus puissante du monde, le taïwanais travaillerait sur une carte Mars II encore plus ambitieuse, embarquant deux GTX 480 sur un même PCB, qui du coup prend des proportions impressionnantes...

Asus Mars II

Le système de refroidissement, pas encore vu en photo, devrait être tout aussi impressionnant, vu l'énorme quantité de chaleur à dissiper. L'alimentation de ce monstre se fera via trois connecteurs d'alimentation à 8 pins, ce qui est là encore une première. On peut d'ailleurs se demander si l'usage d'une alimentation externe, comme on en avait déjà vu que les dernières Voodoo de 3dfx n'aurait pas été plus opportune.

Asus n'a pour l'instant communiqué ni date de sortie, ni tarif, mais ce dernier va sans doute atteindre des sommets.

Posté par Matt le 20/07/2010 à 11h22
Aucun commentaire
Source : Tom's Hardware

Apple

Après sa conférence de presse de vendredi, Apple n'a clairement pas répondu aux attentes d'explications de nombreux utilisateurs, et le débat est donc loin d'être résolu. Mais en plus, Apple va désormais devoir composer avec la colère de ses concurrents, qui n'ont pas du tout apprécié les propos d'Apple...

En effet, durant la conférence, Apple n'a pas réellement reconnu le problème, et a préféré prétendre qu'il existait aussi chez les appareils des concurrents. Concurrents qui ne manquent donc pas de réagir, réfutant les propos d'Apple. Ainsi, pour Motorola, "il est tendancieux de dire que tous les téléphones sont touchés de la même façon. D'après nos tests le Droid X fonctionne mieux que l'iPhone 4 quand il est tenu par un utilisateur".

Pour RIM, "la tentative d'Apple d'embarquer RIM dans le pétrin où elle s'est mise toute seule est inacceptable. Les propos d'Apple au sujet des produits RIM semblent être une tentative délibérée de distorsion de la compréhension du public vis à vis de la conception des antennes ... RIM a évité pendant 20 ans d'utiliser des designs tels que celui utilisé par Apple pour l'iPhone 4 ... les clients de RIM n'ont pas besoin de mettre un étui autour de leur BlackBerry pour disposer d'une connexion correcte. Apple a clairement fait des choix de conception et devrait assumer ses responsabilités sur ce sujet, plutôt que de tenter de mouiller RIM et d'autres constructeurs dans une affaire qui ne concerne qu'Apple." (version complète en anglais sur Engadget).

Nokia est pour sa part un peu moins incisif, mais insiste tout de même sur l'importance qu'ils apportent à la qualité de réception : "La conception des antennes est un sujet complexe, qui a été le cœur de métier de Nokia pendant des décennies ... Nokia a investi des milliers d'heures de travail à étudier le comportement humain, et notamment la façon dont les gens tiennent leur téléphone pour passer un appel, écouter de la musique, surfer, etc ... nous mettons la priorité sur les performances de l'antenne plutôt que sur l'apparence physique si ces deux critères entrent en conflit ... en général, les performances de l'antenne peuvent être acceptée lorsque l'appareil est serré dans la main. C'est pourquoi Nokia conçoit ses téléphones en s'assurant des performances acceptables dans toutes les situations réelles, y compris lorsqu'il est tenu dans n'importe quelle main ... par exemple en plaçant une antenne en haut et une en bas et par une sélection rigoureuse des matériaux utilisés." (version complète en anglais sur Engadget).

On notera également que Motorola avait déjà taclé l'iPhone il y a deux semaines dans sa publicité pour le Droid X, qui comporte une allusion aux problèmes de l'iPhone 4 : "il a été conçu avec deux antennes. Ceci permet de tenir le téléphone comme vous le voulez et de l'utiliser quasiment partout pour faire des appels de bonne qualité. Vous avez une voix. Et vous méritez d'être entendu."

Publicité pour le Motorola Droid X

Mise à jour le 19/07/2010 à 23h57 : Après Motorola, Nokia et RIM ce week-end, Samsung et HTC ont également réagit aux propos d'Apple, niant le fait que leurs appareils sont touchés autant que l'iPhone 4.

Le taïwanais n'a pour l'instant pas réagit de manière officielle, mais Eric Lin, responsable presse d'HTC, a indiqué au site Pocket-Lint que le taux de plaintes enregistrées par le service client au sujet du Droid Eris (l'un des modèles pointés du doigt par Apple) est de seulement 0.016%, soit 34 fois moins que le chiffre annoncé par Apple pour l'iPhone. Et ces 0.016% incluent toutes les plaintes, pas seulement celles concernant d'éventuels problèmes de réception...

Côté Samsung, ce sont deux démentis officiels qui ont été publiés. Tout d'abord, le porte parole du Coréen a indiqué au Korea Herald que "l'antenne est située en bas de l'Omnia 2 ... Notre conception maintient une certaine distance entre la main et l'antenne. ... Aucun problème de réception n'a été relevé jusqu'à présent." (version complète en anglais sur Samsunghub). C'est en suite le vice-président de la division mobile, Hwan Kim, qui a envoyé un communiqué à l'agence Reuters : "Nous n'avons pas reçu un nombre de plaintes significatif à propos de problèmes de pertes de signal sur l'Omnia II. ... les téléphones mobiles Samsung utilisent une antenne interne, qui optimise la réception quelque soit le type de prise en main." (version complète en anglais sur le site de Reuters)

L'"Antennagate" est loin d'être terminé...

Actu originale : le 18/07/2010 à 19h11

Posté par Matt le 19/07/2010 à 23h57
Aucun commentaire

AMD

Dans sa course pour rejoindre Intel sur le plan des performances de ses processeurs, AMD vient de produire les premiers exemplaires fonctionnels de sa prochaine génération de processeurs, qui porte pour l'instant le nom de code "Bulldozer".

Il s'agit cette fois de bien plus qu'une révision de l'architecture existante, puisque Bulldozer va introduire un nouveau concept : des cœurs "entrelacés". En effet, plutôt que mettre deux cœurs complet côte à côte sur un même die, AMD a dédoublé une partie des unités de calcul d'un cœur (calculs entiers, scheduler, cache L1...), permettant ainsi d'exécuter deux flux d'instructions en parallèle (sauf lorsque les deux doivent travailler en virgule flottante, cette unité n'étant pas dédoublée).

AMD Bulldozer

Il s'agit en quelque sorte d'une solution intermédiaire entre deux vrais cœurs et un seul cœur avec HyperThreading : deux vrais cœurs sont plus efficaces, car tout est dédoublé, mais utilisent beaucoup de silicium, alors que toutes les unités ne seront pas toujours utilisées, tandis que l'HyperThreading économise du silicium en n'ajoutant pas d'unité de calcul supplémentaire, mais optimise l'utilisation des unités existantes. Côté performances, AMD annonce des gains de l'ordre de 80% sur du code multithreadé, ce qui est proche des résultats obtenus avec deux vrais cœurs.

Gravée en 32nm, ces nouveaux processeurs devrait arriver courant 2011, pour entrer en concurrence avec les Sandy Bridge d'Intel.

Posté par Matt le 19/07/2010 à 16h09
Aucun commentaire
Source : PCWorld

Microsoft

Il y a quelques semaines, une affaire d'espionnage faisait la une des journaux américains, après qu'un réseau d'espions russes ait été démantelé aux États-Unis. Onze espions russes avaient été identifiés, dont dix qui ont été expulsés du territoire, pendant que le onzième était en cavale. En début de semaine, un douzième homme a été arrêté.

C'est ainsi que Microsoft s'est retrouvée potentiellement touchée par cette affaire, puisque ce douzième homme est un informaticien de 23 ans qui a travaillé chez Microsoft pendant neuf mois. La firme de Redmond peut donc avoir quelques craintes sur d'éventuelles fuites de secret industriels vers la Russie.

Selon l'entreprise, le Russe ne devrait toutefois pas avoir été en mesure de compromettre son activité, dans la mesure où il n'officiait pas à un poste à responsabilité, son rôle se situant dans le domaine du test de produits Microsoft. Aucune charge n'a d'ailleurs été retenue contre lui, mais il sera par contre expulsé des États-Unis, comme ses dix compatriotes.

Posté par Matt le 18/07/2010 à 12h12
Aucun commentaire
Source : Generation NT

Apple

Hier, Apple a tenu une conférence de presse au sujet du très médiatisé problème de réception qui touche l'iPhone 4 lorsqu'il est tenu d'une certaine manière, et qui peut conduire à de très fortes baisses de débit, voir à des coupures de connexions.

Commençons par un petit rappel chronologique. Le 24 juin, Apple a lancé l'iPhone 4, arborant un nouveau design, avec en particulier des antennes en position externe, tout autour de l'appareil, pour libérer de la place à l'intérieur, et réduire ainsi la taille de l'appareil. La jour même, certains acheteurs ont commencé à constater un problème de chute de réception lorsque l'iPhone est tenu de manière à ce que la main entre en contact avec le joint noir qui sépare les deux antennes dans le coin inférieur gauche.

Aux premières plaintes, Apple a répondu en réfutant le problème, et en suggérant aux utilisateurs impactés de tenir leur iPhone directement où d'acheter un Bumper, un étui protégeant le cadre de l'appareil et vendu 30€ par Apple. Des réponses qui n'ont fait qu'envenimer la situation. Finalement, le 2 juillet, Apple a publié sur son site une lettre au sujet de l'iPhone 4. Loin de reconnaitre un défaut de conception, Apple indique dans ce communiqué qu'il y a en fait un problème dans l'algorithme de calcul du nombre de barres, qui serait trop optimiste. Et donc, la chute du nombre de barres ne serait que le reflet d'une très légère baisse de réception... C'est pour corriger cet algorithme qu'Apple a lancé le 15 juillet la mise à jour 4.0.1 d'iOS, qui affiche désormais effectivement moins de barres qu'avant. Une "solution" qui n'a pas convaincu grand monde...

Entre temps, le magazine Consumer Reports, équivalent américain de nos Que Choisir et 60 Millions de Consommateurs, a publié sur son site un article expliquant que, bien qu'ils considèrent l'iPhone 4 comme le meilleur smartphone du marché, ils refusent de le recommander, en raison de ce problème de réception. Un article qui a mis le feu aux poudres, et poussé Apple à donner une conférence de presse sur le sujet. Ce qui nous amène donc à cette fameuse conférence de presse, dont vous pouvez retrouver la retranscription chez Engadget.

En résumé, pour Apple, il n'y a pas plus de problèmes de chute de réception avec l'iPhone qu'avec n'importe quel autre smartphone. Apple appuie ses dires en montrant les résultats d'une prise en main sur différents modèles concurrents. On y voit effectivement le nombre de barres chuter. Mais Apple ne propose par contre aucune mesure de débit sur les modèles concurrents... Alors même que ces mesures de débit sont bien plus fiables que le nombre de barres, dont Apple elle même avait reconnu deux semaines plus tôt qu'il n'était pas forcément correct... Cette baisse est due au fait que le corps humain absorbe une partie des ondes, et donc, que le téléphone en reçoit moins. Pas un mot donc sur un éventuel problème lié au contact de la main avec le joint entre les deux antennes, qui expliquerait le fait que les chutes de débit sont beaucoup plus marquées sur l'iPhone 4.

Pour les clients insatisfaits, Apple offrira un bumper, puisque cet accessoire permet de limiter l'impact de la baisse de débit. C'est là tout le paradoxe de cette conférence de presse : alors que le problème reconnu par Apple, et qui touche effectivement tous les téléphones, est inévitable et impossible à compenser, puisque l'énergie absorbée par le corps ne peut pas être récupérée par un quelconque accessoire, Apple offre une solution qui reconnait implicitement un problème lié au contact de la main avec l'antenne, puisque si le bumper améliore la réception, c'est justement parce qu'il évite ce contact...

Bref, Apple refuse de reconnaitre le problème, mais en est visiblement bien consciente. Une belle leçon de langue de bois, comme peu de marques pourraient se le permettre sans se faire lapider. Mais comme l'a opportunément souligné Jobs pendant la conférence, Apple est la marque qui a les clients les plus fidèles, ce qui doit permettre de leur faire avaler plus aisément des couleuvres...

Posté par Matt le 17/07/2010 à 22h25
Aucun commentaire

République Française

Aussi incroyable que cela puisse paraitre en 2010, la France ne disposait jusqu'à présent pas de site Internet officiel. C'est désormais chose faite avec France.fr, lancé hier à l'occasion de la fête nationale, ou presque...

Destiné tant aux citoyens français, qu'aux étrangers désireux de se renseigner sur l'hexagone, le site connait en effet des débuts forts chaotiques, puisqu'il est tout simplement indisponible à l'heure actuelle, les serveurs ayant apparemment été dimensionnés de façon insuffisante... Après un premier message indiquant un problème de capacité ("Parce que France.fr est victime de son succès, le nombre très important de visiteurs nous contraint à augmenter la capacité de nos serveurs. Quelques perturbations dans la visite du portail dans ses 5 langues peuvent donc survenir, l'équipe de France.fr vous prie de l'en excuser. Tout sera rétabli au plus vite, merci de votre patience !"), on a désormais droit aux problèmes de configuration, plus de 24h après le lancement : France.fr indisponible

Quand il sera à nouveau disponible, le site devrait s'organiser en 6 rubriques thématiques (Connaître, Visiter, Vivre, Étudier, Travailler et Entreprendre) et proposer plus de 6000 liens vers des sites externes, le tout proposé dans un premier temps en français, anglais, allemand, espagnol et italien, avant une traduction en arabe, chinois et russe l'année prochaine.

On notera également que l'État a choisi de confier le site à l'hébergeur français Vert2all qui, s'il n'est pas le moins cher du marché, revendique d'être le plus vert, avec un datacenter construit dans des matériaux écologiques, refroidi par géothermie et hébergeant des serveurs basse consommation intégralement alimentés par des énergies renouvelables. Cela dit, dans l'état actuel du site, il serait encore plus vert en débranchant le serveur :-)

France.fr indisponible

Posté par Matt le 15/07/2010 à 23h37
Aucun commentaire
Source : PCWorld

Microsoft Windows XP

Depuis le lancement de Windows Vista, Microsoft propose aux entreprises qui le désirent de remplacer gratuitement leurs Windows Vista et Windows 7 par des Windows XP, afin qu'elle puisse s'équiper de nouveaux PC, tout en continuant à utiliser Windows XP, pour conserver la compatibilité avec leur parc existant. Un droit qui devait expirer le 22 octobre prochain, date anniversaire du lancement de Windows 7.

Mais alors que Microsoft a mis fin il y a quelques jours au support de Windows XP SP2, l'éditeur a annoncé que la période pendant laquelle il sera possible de rétrograder une licence Windows récente vers Windows XP sera prolongée de dix ans, jusqu'en 2020. En effet, 73% des entreprises fonctionnent encore avec Windows XP, et la demande pour cette version est encore grande.

Dans les faits, il y a tout de même peu de chances que beaucoup de clients de Microsoft optent encore pour cette option dans dix ans. Tout d'abord, parce que côté Microsoft, le support ne sera assuré que jusqu'à avril 2014, et peu d'entreprises devraient donc utiliser Windows XP au delà de cette date. Ensuite, parce que les PC qui seront vendus dans 10 ans ne disposeront probablement pas de drivers adaptés à Windows XP, qui sera alors âgé de 19 ans. Quand on sait que Windows NT4 (14 ans) et Windows 2000 (10 ans) sont déjà de moins en moins supportés par le matériel actuel, il y a donc peu de chances qu'XP soit encore supporté par le matériel de 2020, même si sa longévité a été exceptionnelle.

Posté par Matt le 15/07/2010 à 23h01
Aucun commentaire
Source : Tom's Hardware

YouTube

Maintenant que la HD est partout, elle ne constitue logiquement plus un argument commercial majeur. Alors que les constructeurs de TV se sont tournés vers la 3D pour continuer à vendre leurs produits, YouTube a pour sa part fait le choix du 4K.

4K ? Késako ? Le 4K, c'est tout simplement la HD du future, offrant plus de quatre fois plus de pixels que le "vieux" full HD 1080p. Ainsi, pour une image en 16/9ème, la définition atteint 4096x2304, d'où la dénomination 4K, qui se rapporte au nombre de colonnes de l'image (alors que la "vieille" HD utilisait le nombre de lignes comme référence...

Le service de partage de vidéos de Google supporte donc désormais cette nouvelle résolution, et propose même une playlist dédiée au 4K, permettant d'accéder à toutes les vidéos à ce format, c'est-à-dire... 5 vidéos pour l'instant. Une goutte d'eau dans l'océan YouTube.

Ce chiffre ne devrait par ailleurs pas croître rapidement, puisque le support de cette résolution reste pour l'instant purement marketing, de nombreux obstacles techniques empêchant encore son exploitation. Le premier est bien entendu du côté restitution : quasiment personne n'est aujourd'hui en mesure de profiter de cette résolution. Les prototypes d'écrans compatibles se comptent quasiment sur les doigts d'une main, et les modèles commercialisés sont encore plus rare, et généralement réservés aux professionnels.

Côté transfert également, ça risque de coincer, puisque les flux 4K vont nécessiter une bande passante nettement plus élevée. À moins d'être très fortement compressés, mais on perd alors l'intérêt d'une telle résolution, les artefacts de compression venant tout gâcher. Enfin, côté acquisition, il faudrait que les caméras 4K se démocratisent. Dans les milieux professionnels, ce format s'impose petit à petit, grâce notamment à la très abordable Red One 4K, et les pellicules sont de plus en plus souvent numérisés en 4K, mais du côté du grand public, même le 1080p n'est pas encore la norme, la plupart des appareils d'acquisition se contentant du 720p, voir du VGA ou du QVGA. YouTube étant essentiellement alimenté par des sources amateurs, la 4K attendra donc sans doute encore un paquet d'années avant d'y devenir la norme...

Posté par Matt le 13/07/2010 à 10h50
Aucun commentaire
Source : Clubic