Actualités du mois d'avril 2011
Avec l'arrivée des tablettes sous Android, et en particulier de l'Eee Pad Transformer d'Asus, avec son clavier physique optionnel, Android devient un système qui pourrait être amené à servir occasionnellement pour des petites tâches bureautiques. Le système avait donc besoin d'une suite bureautique, et c'est désormais chose faite.
Google a en effet publié sur l'Android Market une application Google Docs pour Android. Elle permet d'accéder aux principales fonctionnalités de la suite bureautique en ligne de Google, mais avec une interface mieux adaptée aux terminaux mobiles, y compris les smartphones. Elle apporte également quelques fonctionnalités exclusives, dont une particulièrement intéressante : un système de reconnaissance de caractère qui permettra de générer une version éditable d'un document pris en photo avec l'appareil photo du smartphone ou de la tablette.
Pour l'instant, l'application reste toutefois un peu trop liée au service en ligne de Google, puisque l'application ne propose pas de mode hors ligne, qui permettrait d'éditer des documents en toutes situations, même en l'absence de connexion Internet. Espérons que Google lèvera cette limitation, en attendant qu'une suite bureautique plus complète, comme LibreOffice, arrive sur la plateforme.
Posté par Matt le 29/04/2011 à 14h21
Aucun commentaire
Source : Le Journal du Geek
Dans son futur chipset Z68, pour processeurs Sandy Bridge, Intel va introduire une fonction baptisée Smart Response Technology, destinée à améliorer les performances des machines grâce à un SSD. On en sait désormais un peu plus sur cette fonction, pour laquelle Intel prévoirait même de sortir un nouveau modèle de SSD.
Comme on pouvait s'y attendre, le principe de cette fonction est de coupler un disque dur et un SSD en un seul volume logique, de la taille du disque dur, qui exploitera le SSD comme un énorme cache. Ainsi, sur les fichiers fréquemment accédés, les performances seront celles d'un SSD, tandis qu'on disposera de la capacité d'un disque dur. Cette solution permettra donc de se contenter d'un SSD de très petite capacité, qui n'aurait normalement même pas suffit à installer le système.
Dans cette optique, Intel aurait d'ailleurs prévu un nouveau modèle de SSD, l'Intel SSD 311 "Larsen Creek". D'une capacité de seulement 20 Go, il permettra d'exploiter pleinement le Z68 pour un prix réduit, puisqu'une telle capacité devrait permettre un prix inférieur à 50€.
Posté par Matt le 29/04/2011 à 13h00
Aucun commentaire
Source : TTHardware
Annoncé en juin dernier, en même temps que l'iPhone 4 noir, l'iPhone 4 blanc a depuis joué l'arlésienne, en étant sans cesse reporté. Il avait même fini par disparaitre du site d'Apple, laissant penser à son abandon définitif... ou pas.
En effet, alors que les amateurs de la pomme attendent déjà l'iPhone 5, Apple a finalement trouvé la recette de la peinture blanche, et l'iPhone 4 blanc est désormais disponible à la vente, au même tarif que la version noire. Cette sortie tardive tendrait d'ailleurs à confirmer que l'iPhone 5 arrivera plus tard que d'habitude, et que la sortie de l'iPhone 4 blanc arrive donc juste au bon moment pour relancer un peu les ventes et faire durer cette génération...
Alors que différentes rumeurs avaient évoqué les causes de ce retard, d'abord pour des raisons de problèmes de densité de la couleur (impossibilité de produire une peinture suffisamment dense pour ne pas être transparente, sans pour autant être trop épaisse), puis pour des problèmes de flash (la face arrière blanche aurait une influence sur la qualité des photos prise au flash, en diffusant la lumière différemment), la justification officielle, donnée par Phil Schiller, vice-président en charge du marketing, est qu'Apple aurait eu du mal à mettre au point une formule à la couleur suffisamment durable, en particulier lors de l'exposition aux rayons UV.
Posté par Matt le 29/04/2011 à 10h41
Aucun commentaire
Source : Mac 4 Ever
Comme prévu, Canonical a publié hier la version finale de son système Ubuntu 11.04 Natty Narwhal, juste à temps pour qu'elle ne soit pas numérotée 11.05. Cette nouvelle version, qui fusionne Ubuntu Netbook Edition et Ubuntu Desktop risque de changer un peu les habitudes des utilisateurs. Adieu Suricate Anti-conformiste (Maverick Meerkat), place au Narval Astucieux !
Changement le plus visible, la distribution adopte une nouvelle interface graphique, l'interface Unity, qui avait été introduite sur la version Netbook d'Ubuntu. Cette interface se caractérise par une barre latérale (Unity Launcher) reprenant les applications en cours, mais aussi des raccourcis vers les applications favorites, à la manière du dock de Mac OS X et de la nouvelle barre des tâches de Windows 7. La barre supérieure, qui conserve la zone de notification en haut à gauche, ne sert plus de lanceur pour les applications, mais de barre de menu unifiée (là encore, à la façon d'OS X, mais ce n'est ici pas encore exploité par toutes les applications, certaines gardent leurs menus dans leur fenêtre), et fusionne avec la barre de titre lorsqu'une fenêtre est utilisée en plein écran.
Le lancement des applications ne passe plus par des menus hiérarchisés, mais par l'"App Menu". S'il conserve une organisation par catégorie, l'"App Menu" privilégie plutôt l'accès aux applications par la saisie des premières lettres de leur nom. Il sert aussi à suggérer des applications à l'utilisateur, lors du parcours des catégorie : l'"App Menu" affiche pour chaque catégorie les applications installées, mais aussi des suggestions d'applications à installer.
Le paramétrage de l'ordinateur a lui aussi droit à son lifting. Anciennement présentés sous forme de menus accessibles via la barre supérieure, les réglages sont désormais intégrés dans une application, le "Centre de contrôle".
Suivant la tendance du moment, Ubuntu 11.04 s'est également doté de son App Store, la "Logithèque Ubuntu", qui recense plusieurs dizaines de milliers d'applications, gratuites ou payante et permet de les installer aisément. Il est également possible de noter les applications et de déposer des commentaires, ce qui n'est pas possible avec les dépôts logiciels classiques, reposant sur APT.
Pour le reste, comme d'habitude avec une nouvelle version d'Ubuntu, les principaux logiciels passent à des versions plus récentes que dans Ubuntu 10.10. Par exemple, Firefox passe en version 4 et OpenOffice est remplacé par LibreOffice
Posté par Matt le 29/04/2011 à 08h38
Aucun commentaire
Source : Site du Zéro
À l'approche de la campagne pour les présidentielles, et alors que plusieurs responsables de l'opposition ont déjà exprimé leur volonté de toucher à l'Hadopi en cas d'accession au pouvoir en 2012, même Nicolas Sarkozy retourne un peu sa veste en admettant que des erreurs ont été commises...
Il y a quelques jours déjà, le président avait indiqué que, si le Conseil National du Numérique (CNN) avait existé à l'époque, la loi n'aurait sans doute pas pris la forme qu'elle a actuellement. Hier, lors de la mise en place officielle du CNN, Nicolas Sarkozy s'est dit prêt à mettre en chantier une loi Hadopi 3, qui pourrait être l'une des premières missions du CNN. Le président a même reconnu avoir sa part de responsabilité dans les erreurs commises par les deux premières loi Hadopi. Rappelons qu'à l'époque des débats, il était particulièrement déterminé à imposer son projet, et à "aller jusqu'au bout", comme il le disait à l'époque.
Le CNN est composé de vingt professionnels du secteur de l'Internet, dont le médiatique directeur général de Free, Xavier Niel, mais aussi des représentants de SFR, Bouygues Telecom, Orange, Deezer et Dailymotion (donc en fait 3 représentants d'Orange, Deezer et Dailymotion appartenant à l'opérateur historique...). Il n'a pas de pouvoir direct, mais sera consulté sur les questions liées à Internet, et en particulier sur les épineux dossiers de la neutralité, du respect de la vie privée et du piratage. Il est toutefois déjà critiqué à cause de sa composition, qui fait la part belle aux industriels du secteurs, en ignorant toute représentation des utilisateurs...
Posté par Matt le 28/04/2011 à 14h52
Aucun commentaire
Source : Tom's Guide
Quelques jours après le début du "locationgate", Apple a publié sur son site une page expliquant ce que fait et ce que ne fait pas Apple avec les informations de localisation de l'utilisateur, et en particulier sur le contenu du fameux fichier "consolidated.db", accessible sur tout ordinateur synchronisé avec un iPhone.
Tout d'abord, Apple indique qu'elle ne trace pas la localisation des iPhone et n'a aucune intention de le faire. Le fichier incriminé ne stockerait en fait pas la position de l'iPhone lui même, mais uniquement celle des antennes GSM et Wi-Fi à proximité de lui. Ces positions peuvent ensuite être utilisées par l'iPhone pour calculer sa position approximative plus rapidement que s'il fallait télécharger les informations à chaque fois. L'iPhone envoie également certaines informations à Apple, pour compléter la base de données des hot-spots Wi-Fi et pour préparer le lancement d'une application de navigation prenant en compte l'historique du trafic, mais ces données sont envoyées de façon anonyme et uniquement à Apple. Apple indique par ailleurs que le fait que l'iPhone continue à remplir ce fichier même lorsque le service de localisation est désactivé est un bug.
Enfin Apple promet une mise à jour du système iOS pour modifier la gestion de ce fichier :
- réduction du nombre de positions conservées,
- désactivation de la sauvegarde de ce fichier lors de synchronisation avec iTunes,
- suppression du fichier lorsque le service de localisation est désactivé.
Dans la prochaine version majeur du système, le fichier stocké sur l'iPhone sera chiffré.
Posté par Matt le 28/04/2011 à 12h41
Aucun commentaire
Source : Le Journal du Mac
Présentée en début d'année, la gamme de tablette Eee Pad d'Asus devrait déjà être disponibles en France si les dates promises à l'époque avaient été respectées... Depuis, une trop forte demande et une pénurie de composants ont quelques peu perturbé les plans d'Asus, qui en a donné une nouvelle version lors d'une conférence devant les journalistes français.
Très populaire outre-Manche, l'Eee Pad Transformer, qui devait arriver en France mi-avril arrivera finalement le 6 juin, et il y a fort à parier que ceux qui n'auront pas pré-commandé ne seront pas servis par le premier arrivage. Aux USA, où elle vient d'être lancée, elle est déjà en rupture chez tous les revendeurs. Il faut dire que non seulement, Asus n'avait pas prévu une telle demande, mais en plus, sa capacité de production, qui devait être de 200 000 unités par mois, a été limité à 100 000 exemplaires au mois d'avril à cause d'une pénurie de composants. Le rythme de production devrait reprendre la normale dès le mois de mai.
L'Eee Pad Slider, très proche de la Tranformer, mais avec un clavier coulissant intégré au lieu d'un clavier amovible, qui devait sortir avant la Transformer, est finalement repoussée au quatrième trimestre. Asus en profitera pour revoir la configuration matérielle : le Tegra 2 cédera sa place à un Tegra 3 ou un Atom Z670.
Enfin, l'Eee Pad MeMo, une tablette au format 7", arrivera également au quatrième trimestre, alors qu'elle était initialement prévue pour mai.
Posté par Matt le 28/04/2011 à 10h17
Aucun commentaire
Source : PCInpact
Ces derniers mois, Android a dépassé bon nombre d'indicateurs symboliques de son succès : passage en tête des ventes aux USA, passage en tête du parc installé aux USA, passage en tête des ventes au niveau mondial... Selon le cabinet Nielsen, il aurait atteint deux nouveaux paliers symboliques aux États-Unis le mois derniers.
Tout d'abord, le système mobile de Google équipe désormais un smartphone sur deux vendus aux USA. Sa part de marché est le double de celle de l'iPhone (25%), et plus du triple de celle des Blackberry (15%), tandis que Windows Phone 7 ne décolle toujours pas, avec 7% (cumulé avec Windows Mobile), suivi de WebOS (2%) et de Symbian, qui n'a jamais réussi à percer outre-Atlantique (1%).
Autre symbole, Android est pour la première fois passé en tête des intentions d'achat. En effet, parmi les gens prévoyant l'achat d'un nouveau smartphone dans les douze mois à venir, 31% pensent opter pour Android, contre 30% pour l'iPhone. Dans les faits, l'historique de cet indicateur, comparé aux ventes effectives montre que les ventes réelles de l'iPhone sont inférieures aux intentions d'achat, alors que celles d'Android sont supérieures.
Posté par Matt le 27/04/2011 à 14h40
Aucun commentaire
Source : Mac 4 Ever
Alors que beaucoup attendent la fibre, un abonné de Free a eu l'idée de créer une carte Google Maps permettant de suivre l'avancement du déploiement du réseau de Free, en recensant les Nœuds de Raccordement Optique de l'opérateur.
Basée sur des témoignages, et non pas sur des données officielles de Free, cette carte n'est pas d'une parfaite précision, mais permet tout de même de se faire une idée de l'avancée des travaux. Et malheureusement, ce n'est justement pas encore très avancé... En effet, pour l'instant, seuls 137 NRO ont été confirmés pour l'instant, à Paris, Lille, Rennes, Nantes, Valenciennes, Lyon, Nice, Marseille, Montpellier et Toulouse, et seuls une minorité d'entre eux accueillent déjà des abonnés (un à Valenciennes, un à Lyon, quatre à Montpellier, une petite quarantaine en région parisienne, rien dans les autres villes).
La carte recense également une quarantaine de NRO qui n'ont pas encore été confirmés, mais qui étendraient la couverture aux villes de Strasbourg, Besançon et Grenoble.
Il reste donc encore beaucoup de travail à Free pour déployer une réseau fibre optique digne de ce nom, d'autant plus que la présence d'un NRO n'est pas forcément synonyme d'une bonne couverture jusqu'aux abonnés. À titre de comparaison, le réseau ADSL de Free se compose de plus de 3400 NRA, et Free en ouvre en moyenne une soixantaine par mois...
Posté par Matt le 27/04/2011 à 12h21
1 commentaire
Source : Univers Freebox
Selon un document interne d'Intel, le fondeur envisagerait le distribuer certains de ses processeurs haut de gamme avec un système de refroidissement liquide, au lieu des habituels systèmes de refroidissement à air.
Ceci concernerait les futurs processeur Sandy Bridge-E, les puces haut de gamme d'Intel destinées aux "power-users", qui prendront place sur le socket LGA2011. La plupart des acheteurs de ces processeurs "Extreme" capables d'assembler eux même leurs machines, et à qui un système de refroidissement à eau ne devrait pas faire peur, même s'il est un peu plus complexe à installer qu'un radiateur : il faut installer le bloc échangeur sur le processeur, comme un radiateur, mais il y a en plus à fixer le radiateur et son ventilateur au boîtier, généralement au niveau de l'aération arrière.
Le système proposerait deux modes de fonctionnement, un mode silencieux suffisant pour un usage normal du processeur, et un mode performance destiné à ceux qui souhaitent overclocker le processeur.
Reste à voir si une telle solution intéressera vraiment la cible des processeurs "Extreme". En effet, les utilisateurs avertis aiment généralement choisir chaque pièce de leur machine, et utilisent donc rarement les systèmes de refroidissements fournis par les constructeurs. Intel avait d'ailleurs choisi pour cette raison de vendre séparément les processeurs Core i7 haut de gamme et leurs radiateurs.
Posté par Matt le 27/04/2011 à 10h55
Aucun commentaire
Source : Tom's Hardware
Lancée il y a un peu plus d'un an, la technologie Optimus d'nVidia est destinée aux ordinateurs portables dotés d'une puce graphique intégrée et d'une puce graphique dédiée, et permet la bascule automatique des traitements d'une puce à l'autre en fonction des besoins, pour économiser la batterie sans sacrifier les performances. Cette technologie va arriver dans les machines de bureau, sous le nom de Synergy.
Compatible avec les processeurs Intel Sandy Bridge et les chipsets Intel série 6 (sauf bien sûr le P67, qui ne supporte pas la puce graphique intégrée aux Sandy Bridge), Synergy fonctionne sans modification matérielle (une mise à jour du BIOS est toutefois requise), et permettra de basculer entre la puce graphique Intel intégrée et une carte graphique nVidia, voir plusieurs cartes en SLI sur le chipset Z68.
L'écran sera connecté à la carte mère, et c'est l'IGP Intel qui gérera donc l'affichage, en récupérant les images calculées par la carte graphique nVidia. Bonne nouvelle, cette solution sera gratuite et compatible avec toutes les puces nVidia actuelles.
Avec la généralisation des IGP dans les processeurs Intel et AMD et le développement de solutions de bascule aussi bien chez nVidia que chez AMD, voir chez des sociétés tierces, on s'oriente donc de plus en plus vers un retour au modèle de fonctionnement des deux premières générations de cartes 3dfx : une puce graphique basique pour gérer l'affichage hors 3D, et une carte accélératrice dédiée à la 3D... Souvent considéré comme un défaut des 3dfx à l'époque, ces systèmes se transforment aujourd'hui en avantages, en permettant de réduire la consommation des machines lorsqu'elles sont faiblement utilisées.
Posté par Matt le 27/04/2011 à 08h40
Aucun commentaire
Source : PCWorld
Alors que le projet Google Music semble bloqué par les réticences des majors, il se murmure que Google serait finalement en négociation avec Spotify, qui a déjà la bénédiction des majors. Un nouveau moyen de pression sur les majors ?
Interrogé sur ces rumeurs, Google a refusé de répondre, tandis que Spotify indique qu'il n'est pour l'instant pas question d'ouverture d'un service Google basé sur Spotify. Il se pourrait donc que ces rumeurs ne soient en fait qu'un moyen de pousser les majors à revoir leur position, en les laissant croire que Google pourrait trouver une solution pour lancer son service sans leur accord direct.
Il se pourrait également que les négociations entre Google et Spotify ne concernent effectivement pas une intégration de Spotify dans un nouveau service Google, mais carrément un rachat de Spotify par Google. Ceci permettrait au géant de la recherche d'entrer de plein pied dans un marché où il a pris beaucoup de retard sur ses concurrents, qu'il s'agisse de streaming de musique (Deezer, Spotify), de vente de musique dématérialisée (Apple, Amazon), ou encore de stockage de musique en ligne (Amazon).
Posté par Matt le 26/04/2011 à 15h11
Aucun commentaire
Source : Le Journal du Geek
Depuis quelques temps déjà, les rumeurs annonçaient le lancement prochain d'une nouvelle console de salon chez Nintendo, pour remplacer la Wii, techniquement totalement dépassée par ses concurrentes et dont les ventes commencent à sérieusement s'essouffler. C'est désormais officiel, avec un communiqué de presse de Nintendo confirmant la rumeur.
Le communiqué ne dit toutefois pas grand chose sur la bête, si ce n'est qu'elle sera présentée officiellement lors du prochain E4, qui aura lieu à Los Angeles du 7 au 9 juin prochains. C'est à cette occasion donc que l'on en saura un peu plus sur les caractéristiques de la console, qui répond pour l'instant au nom de code "Café".
Selon les derniers rumeurs, son nom commercial pourrait être "Stream". Elle embarquerait une variante de processeur IBM PowerPC à trois cœurs (comme la Xbox 360) et une puce graphique AMD de la série R700 (Radeon 4000), là où la Xbox 360 embarque une une version intermédiaire entre le R500 et le R600. Plus volumineuse que la Wii, elle ferait par son design un clin d'œil à la Super Nintendo.
Côté manette, Nintendo pourrait de nouveau "révolutionner" les choses, avec, en plus de la classique Wiimote, une nouvelle manette intégrant un écran tactile de 6 pouces sur lesquels les jeux pourraient afficher des informations. Elle pourrait même être utiliser comme console portable, à condition de ne pas trop s'éloigner de la base, qui enverrais l'image sur la manette.
Un prototype fonctionnel devrait pouvoir être testé lors de l'E3, mais il faudra par contre attendre au mieux avril 2012 pour la commercialisation.
Posté par Matt le 26/04/2011 à 10h20
Aucun commentaire
Source : JeuxVidéo.fr
Il y a quelques semaines, Google avait annoncé avoir mis au point une nouvelle version de ses algorithmes de recherche, baptisée Panda, dont le but était d'améliorer la pertinence des résultats de recherche, en privilégiant les sites dotés d'un vrai contenu, plutôt que les fermes de contenus sans valeur ajoutée, qui polluent largement les résultats de recherche. Le premier bilan semble confirmer l'efficacité de ces nouveaux algorithmes !
Différentes études publiées par des sociétés spécialisées dans le monitoring du trafic Internet montrent en effet d'importantes baisses de trafic sur certains sites, la plupart correspondant bien aux types de sites que Google ciblait avec sa mise à jour. Bon nombre de sites ont ainsi vu leur trafic dégringoler de plus de 80%, avec des cas extrêmes ou la chute dépasse les 99%.
À l'inverse, certains sites offrant une véritable valeur ajouté ont désormais les faveurs de Google, et voient donc leur trafic augmenter fortement. C'est le cas par exemple de TechCrunch, qui progresse de plus de 40%, ou encore de Mozilla qui gagne près de 20%. On notera au passage que YouTube et BlogSpot, deux plateformes d'hébergement appartenant à Google progressent, respectivement de 22.8% et 18.9%. C'est plus que leurs concurrents Vimeo, Wordpress et Dailymotion, qui profitent respectivement de 18.9%, 18.6% et 17.8% d'augmentation. Google pourrait également être critiqué sur le fait que les comparateurs de prix ont été fortement pénalisés avec Panda, ce qui pourrait favoriser Google Shopping...
Par ailleurs, des informations ont filtré sur les données prises en compte par ces nouveaux algorithmes pour détecter les fermes de contenu :
- le nombre de publicités par page : plus il est grand, plus le site risque d'être blacklisté,
- la présence de texte caché,
- l'affichage d'un contenu différent aux robots Google par rapport à un visiteur classique.
Par ailleurs, une seule page suspecte suffit à blacklister le site entier, et, une fois un site blacklisté, il sera visité moins souvent par le robot Google, ce qui augmentera le temps nécessaire à la propagation des mises à jour.
Utilisé pour l'instant uniquement aux États-Unis et en Angleterre, Panda devrait arriver sur la version française de Google d'ici à quelques semaines.
Posté par Matt le 25/04/2011 à 13h00
Aucun commentaire
Source : PCInpact
Nabaztag, le lapin hi-tech aussi inutile qu'indispensable a désormais un petit frère, baptisé Katotz, que Mindscape vient de commercialiser, après plusieurs retards. Cette nouvelle version du gadget pour geek apporte bon nombre de nouvelles fonctionnalités.
Sous un même aspect extérieur, avec son corps conique et ses deux grandes oreilles mobiles, Karotz se distingue visuellement par l'apparition d'un "nombril", qui est en fait une webcam, permettant d'utiliser le Karotz pour faire de la vidéosurveillance. Il est également livré avec deux mini-lapins, baptisés FlatNanoz, contenant une puce RFID, qui peut être lue par le Karotz. Il devient ainsi possible de déclencher certaines fonctions en approchant simplement un FlatNanoz. Le fabricant donne comme exemple la possibilité de vérifier qu'un enfant est bien rentré à la maison, en recevant par mail une photo prise avec le webcam lorsque le FlatNanoz de l'enfant passe à proximité.
Grâce à son moteur de synthèse vocale, le Karotz pourra vous lire vos flux RSS, vous annoncer la météo et, bientôt, lire les status Facebook et les tweets de vos amis. Une application devrait également permettre de lires des histoires et de chanter pour des enfants, tandis que le constructeur promet la possibilité de téléphoner gratuitement de Karotz à Karotz.
Avec cette nouvelle version plus communicante et s'intégrant avec les smartphones (il peut même être contrôlé à distance avec un iPhone), Mindscape espère vendre 120 000 lapins cette année, qui viendront compléter les 150 000 Nabaztag déjà en activité.
Il faudra tout de même compter 200€ pour adopter la bestiole...
Posté par Matt le 25/04/2011 à 10h22
Aucun commentaire
Source : 01Net
Depuis quelques jours, une affaire fait beaucoup de bruit sur Internet : une petite application permet depuis n'importe quel ordinateur synchronisé avec un iPhone d'afficher une carte parfois très précise des déplacements de l'utilisateur de l'iPhone. Avec un historique portant parfois sur plusieurs années...
L'existence de ce fichier dans l'iPhone avait déjà été découverte et révélée cet été, mais à l'époque, il ne semblait accessible que sur l'iPhone, et n'était pas lisible sans jailbreak. Le fait qu'il soit accessible depuis n'importe quel ordinateur synchronisé avec l'iPhone pose de gros problèmes en termes de respect de la vie privée : possibilité de tracer un conjoint, risque que le fichier soit accédé à distance par un pirate, etc...
De nombreuses voix se sont donc élevées contre l'existence de ce fichiers, avec à la clé plusieurs demandes d'explication à Apple, émanant de sources très officielles (la CNIL en France, des sénateurs aux État-Unis...). Pour l'instant, l'explication serait que ce fichier sert de cache pour le service de localisation, et permettrait d'accélérer la localisation par triangulation GSM. Mais il est impossible de désactiver la mise à jour de ce fichier, même si le service de localisation est désactivé ! Le contrat de licence d'iOS prévoit également que ces données peuvent être envoyées à Apple, de manière anonyme.
Mais l'affaire ne s'arrête pas là. En effet, vu ces indiscrétions de l'iPhone, certains ont eu l'idée de vérifier ce qu'il en est sous son principal concurrent : Android. Et il n'a pas fallu bien longtemps pour découvrir que l'OS de Google trace lui aussi l'utilisateur. Le fichier stocké par les smartphones Android est toutefois beaucoup moins complet : il se limite aux 50 dernières antennes relais auxquelles l'appareil s'est connecté, ainsi que les SSDI des 200 derniers réseaux Wi-Fi qui ont été à porté de l'appareil. Il est également un peu moins problématique en termes de vie privée, car il n'est pas accessible sans rooter le téléphone et utiliser le mode debug, et n'est pas transféré sur l'ordinateur. On peut toutefois craindre que des applications malveillantes parviennent un jour à l'exploiter.
Si vous avez des déplacements à cacher, méfiez vous de votre smartphone !
Posté par Matt le 25/04/2011 à 09h01
Aucun commentaire
Alors que chaque jour apparaissent de nouvelles menaces sur la sécurité des services en ligne ou le respect de la vie privée, l'Electronic Frontier Foundation, qui œuvre à la défenses des droits des internautes, se lance dans une campagne de sensibilisation du public à l'usage du protocole HTTPS.
En effet, si bon nombre de sites renommés supportent le HTTPS, peu l'activent par défaut, et le chiffrement n'est donc appliqué qu'aux utilisateurs l'ayant spécifiquement demandé en saisissant l'URL du site. Or, pour l'EFF, le protocole HTTPS est le strict minimum requis pour garantir un minimum de sécurité lors de l'échanges de données avec un site Internet.
Via sa campagne de sensibilisation, l'EFF recommande ainsi aux utilisateurs d'Internet d'utiliser les navigateur Firefox couplé à l'extension HTTPS Everywhere, développée par l'EFF et des membres du projet Tor (un réseau d'anonymisation). Cette extension permet de passer automatiquement en HTTPS sur un grand nombre de site supportant ce protocole mais fonctionnant par défaut en mode non chiffré.
L'EFF a également publié plusieurs documents à destination des administrateurs, pour les inciter à opter pour le HTTPS et les aider à le mettre en œuvre. Enfin, un wiki permettra aux internautes de constituer une base de données des options de sécurité proposées par divers sites. On y repère ainsi quelques bons élèves, comme PayPal, qui impose le HTTPS et respecte la plupart des bonnes pratiques, mais aussi des mauvais élèves, comme le moteur de recherche Ask.com, qui n'offre aucune fonction de sécurité.
Posté par Matt le 22/04/2011 à 14h30
Aucun commentaire
Source : Clubic
Lorsque la loi Hadopi a été voté, elle prévoyait l'existence de "moyens de sécurisation" labellisés par l'Hadopi, qui permettrait à l'internaute les utilisant de prouver qu'il a mis tout en œuvre pour sécuriser sa connexion. Éventuellement doté d'une fonction de journalisation, traçant l'activité, ce moyen de sécurisation pourrait aller se loger directement dans la box Internet...
En effet, l'Hadopi a récemment publié la première versions des spécifications fonctionnelles de ces moyens de sécurisation. Si elles sont très permissives pour les entreprises, qui sont simplement invitées à indiquer explicitement dans leur charte informatique que la contrefaçon est interdite, ces spécifications sont par contre plutôt strictes pour les moyens de sécurisation à destination du grand public.
Ainsi, alors que les "radars" de l'Hadopi se contentent pour l'instant de surveiller les réseaux P2P, l'Hadopi prévoit que les moyens de sécurisation filtrent ces réseaux P2P, mais aussi le streaming, le téléchargement direct, le cloud et même la messagerie instantanée ! Un mécanisme de liste blanche et de liste noir permettra d'affiner le filtrage en fonction des ports, des logiciels utilisés, des types de fichiers, des sites... En option, ces spécifications prévoient aussi un volet journalisation, qui tracerait dans un fichiers toutes les activités de l'utilisateur ayant provoqué un blocage par les filtres du moyen de sécurisation. De quoi faire rêver les dirigeants de certains pays...
Concernant la forme du moyen de sécurisation, l'Hadopi est plutôt ouverte. Elle accepte en effet qu'il s'agisse d'un logiciel, éventuellement libre, mais aussi de tout dispositif matériel permettant d'arriver à ce résultat. À ce titre, les spécifications précisent que le moyen de sécurisation pourrait être installé directement dans le boîtier de connexion fournit par le FAI. Mais si c'est le cas, c'est tout de même à l'abonné que reviendra la décision d'activer ou non ce moyen de sécurisation.
Enfin, malgré toutes ces contraintes et tous les risques encourus par les utilisateurs de ces moyens de sécurisation en termes de liberté d'expression et de respect de la vie privée, l'Hadopi reconnait que ces moyens de sécurisation ne pourront pas être infaillible et que, même en les installant, il restera donc possible que la connexion Internet de l'utilisateur soit détournée... De quoi s'interroger sur le réel intérêt de ces moyens de sécurisation, s'ils ne sont pas capable de garantir la fonction de base pour laquelle ils sont censés servir...
Posté par Matt le 22/04/2011 à 12h28
1 commentaire
Source : Génération NT
En déportant le disque dur de la Freebox Révolution dans le boîtier ADSL, Free espérait pouvoir échapper à la taxe copie privée. Mais les critères d'exemption ont été modifiés pour que la Freebox Révolution ne soit plus exemptée... Free a alors argumenté, sans convaincre, sur le fait que la Freebox est simplement prêtée et non pas vendue à l'abonné...
Toujours pas officiellement exempté, Free opte finalement pour une autre stratégie : accepter le principe de la taxe, mais pas son montant. Le compte rendu d'une récente réunion de la commission copie privée indique en effet que Free n'est pas opposé à cette taxe, mais que le montant réclamé pour les 250 Go de la Freebox Révolution (35€) et trop élevé par rapport au prix de vente du service.
Free sera donc invité à venir négocier avec les membres de la commission le 28 avril prochain. Si tout va bien pour Free, cette réunion donnera lieu à un nouveau barème réclamant une somme moins élevée pour ce type d'appareil. Au sein de la commission, Free devrait normalement bénéficier de l'appui du SECIMAVI, qui représente les constructeurs. En effet, celui ci a déjà évoqué dans une réunion le fait qu'un disque dur de grande capacité coûte aujourd'hui moins cher à produire qu'un petit modèle, ce qui pousse les constructeurs à intégrer des disques de plus en plus gros. Et une taxe proportionnelle à la capacité annule donc toutes les économies ainsi réalisées...
Posté par Matt le 22/04/2011 à 10h10
Aucun commentaire
Source : PCInpact
Si Google a décidé de ne pas diffuser le code source d'Android 3.0 Honeycomb pour l'instant, le code source est tout de même disponible pour certains partenaires, dont Intel, qui travaille sur le portage du système sur architecture x86.
C'est ce qu'à confirmé Paul Otellini, CEO du fondeur, lors de la conférence de presse de présentation des résultats financiers du premier trimestre. Ce portage devrait permettre l'arrivée sur le marché de tablettes x86 sous Android avant la fin de l'année, en utilisant la plateforme Oak Trail.
L'année prochaine, ce devrait être le tour des smartphones Android x86, avec l'arrivée de la plateforme Medfield, qu'Intel devrait commencer à livrer en fin d'année. MeeGo devrait également être de la partie, aussi bien sur tablettes que sur smartphones.
Posté par Matt le 22/04/2011 à 08h51
Aucun commentaire
Source : Génération NT
Notre confrère vient de réactualiser ses statistiques de taux de panne des composants informatiques, tirées des chiffres du SAV de LDLC sur des produits âgés de 6 mois à 1 an (vendus entre octobre 2009 et avril 2010). Les statistiques sont calculées par marques (avec un minimum de 500 ventes), mais aussi par produits plus les plus vendus (minimum 100 exemplaires).
Du côté des cartes mères, bonne nouvelle : tous les taux de retour sont en baisse, le plus mauvais de ce bilan (MSI) étant au niveau du meilleur du bilan précédent (Gigabyte), avec 2.3% de retours. Gigabyte reste en tête, avec 1.6% (-0.7pt), suivi de Asus (1.9%, -0.6pt) et ASRock (2.0%, -0.7pt). MSI est celui qui a le moins progressé, ne gagnant que 0.1pt, ce qui lui vaut de passer de la seconde à la dernière place.
Côté alimentations, Seasonic redresse fortement la barre, passant de 3.3% de retours à 1.3%, ce qui lui permet d'accrocher la 3ème place, derrière CoolerMaster (1.0%, -0.1pt) et Antec. Ce dernier conserve sa première place, malgré une forte hausse du taux de retour (1.0%, +0.4%). Derrière le podium, le classement reste très serré, avec Corsair, Akasa, Enermax et Fortron entre 1.4% et 2.0%, tandis que Thermaltake ferme la marche avec 2.3%.
Pour la fiabilité des barrettes de RAM, l'ordre reste inchangé : Kingston, Crucial, Corsair, G.skill et OCZ. Les deux premiers sont à moins de 1%, les deux suivants à moins de 2%, et OCZ, très mauvais élève, dépasse les 7%. Rappelons que l'américain a décidé de se retirer ce ce marché pour se concentrer sur les SSD...
Sur le marché des cartes graphiques, Asus pers sa première place au profit de PNY, mais reste 2ème. Les deux constructeurs ont pourtant vu leur taux de retour augmenter. Sapphire progresse légèrement, Club 3D progresse nettement. Derrière, Gainward est en légère régression, tandis que Gigabyte, MSI et XFX voient leur taux de retour augmenter fortement.
Les données semblent aujourd'hui un peu plus en sécurité. En effet, à part Western Digital, en très légère régression (1.5%, +0.1pt) mais toujours premiers, les taux de retour baissent chez tous les constructeurs. C'est Samsung qui progresse le plus (1.8%, -0.7pt), ce qui lui permet de passer de prendre la seconde place, juste devant Seagate qui vient de le racheter.
Enfin, du côté des SSD, Intel continue d'écraser ses concurrents, avec un taux de retour divisé par deux, à seulement 0.3%. Kingston prend la seconde place, en divisant également son taux de retour par deux, mais reste quatre fois moins fiable qu'Intel. Crucial complète le podium, en progressant un peu, tandis que Corsair et OCZ ferment la marche, avec des taux en nette hausse.
Posté par Matt le 21/04/2011 à 14h41
Aucun commentaire
Source : Hardware.fr
Après Intel, Apple a publié hier soir ses résultats de son second trimestre fiscal 2011 (correspondant à quelques jours près au 1er trimestre civile). Et comme chez Intel, les records sont au rendez-vous...
Ainsi, si le chiffre d'affaire est, logiquement, en légère baisse par rapport au trimestre précédent, à 24.67 milliards de dollars contre 26.74, il est en hausse de 83% par rapport à l'année dernière (13.5 milliards). La marge brute reste stable à 41.4% (contre 41.7% il y a un an), mais la marge nette progresse, ce qui permet quasiment de doubler le bénéfice net : il passe de 3.07 milliards à 5.99 milliards sur un an (+95%). Mieux, malgré la baisse de CA par rapport au trimestre précédent, le bénéfice net est quasiment le même, ne diminuant que de 10 millions de dollars.
Côté produits, les ventes sont en hausse sur tous les produits phares de la pomme. Les Mac progressent de 28% sur un an, pour atteindre 3.76 millions d'unités (dans le détail, les Mac de bureau baissent de 1.15 à 1.01 millions, tandis que les portables passent de 1.8 à 2.75 millions). Avec 18.65 millions d'unités, les iPhone ont plus que doublés leurs ventes (+113%), tandis que l'iPad atteint 4.69 millions d'exemplaires sur le trimestre. Seul produit en baisse, à cause de la concurrence de l'iPhone, l'iPod s'est encore écoulé à 9.02 millions d'exemplaires (-17%).
Si ces résultats montrent encore une fois qu'Apple gagne beaucoup d'argent avec ses produits, et pourrait donc les rendre beaucoup plus accessibles, ils devraient faire plaisir aux actionnaires de la pomme. En hausse de 1.35% à la cloture du NASDAQ, quelques minutes avant l'annonce, l'action Apple a pris plus de 4% sur l'after-market après l'annonce...
Pour l'anecdote, le chiffre d'affaire de ce trimestre est légèrement supérieur à celui de l'année 2007 entière (24.58 milliards), la dernière année "pré-iPhone". Le bénéfice est par contre supérieur de 36%...
Posté par Matt le 21/04/2011 à 13h01
6 commentaires
Source : MacGénération
Intel vient d'annoncer ses résultats financiers du premier trimestre 2011 et, encore une fois, le géant des semi-conducteurs atteint des chiffres record, avec un CA en progression de 25% (12.8 milliards de dollars) et un bénéfice net en hausse de 29% (3.2 milliards de dollars).
Cette progression, Intel la doit principalement au marché des composants pour serveurs (+32%) et celui des processeurs pour PC, en hausse de 17% malgré l'arrivée des tablettes, dont beaucoup d'analystes annonçaient qu'elles allaient cannibaliser les ventes de PC. Intel prévoit aussi une forte croissance sur le marché des micro-serveurs, pour lesquels il va bientôt lancer une gamme dédiée de processeurs Atom.
L'Atom qui, justement, donne pour sa part un bilan plus mitigé. La croissance est bien là, mais elle est faible (seulement 4%), et, avec 370 millions de dollars de chiffre d'affaire, l'Atom ne représente même pas 3% du chiffre d'affaire d'Intel. Intel compte sur sa plateforme Oak Trail pour doper ces chiffres, ainsi que sur le développement du marché des set-top-box à base d'Atom. Free est d'ailleurs le plus gros client d'Intel dans ce domaine, et il devrait bientôt être rejoint par Orange et Bouyges Télécom, mais aussi par ces opérateurs étrangers.
Ce trimestre record ne devrait par contre pas le rester bien longtemps, Intel tablant sur une croissance de 20% pour le reste de l'année, ce qui devrait rapidement amener à de nouveaux records.
Posté par Matt le 21/04/2011 à 10h10
Aucun commentaire
Source : Silicon.fr
Il y a un peu plus d'un an, Apple a attaqué HTC en justice pour violation d'une vingtaine de brevets. Nokia avait rapidement rejoint HTC sur le banc des accusés. Mais cette procédure pourrait bien être un coup d'épée dans l'eau pour Apple, suite au premier rapport de l'ITC sur le sujet.
En effet, alors qu'Apple réclamait l'interdiction de l'importation des smartphones HTC et Nokia sur le territoire américain, l'ITC, l'agence fédérale américaine en charge de conseiller la justice sur les affaires commerciales, a publié un rapport préliminaire sur cette affaire, dans lequel l'un des avocat de l'ITC recommande au juge de rejeter la demande d'Apple.
Bien entendu, le tribunal n'a aucune obligation de se ranger à l'avis de l'avocat de l'ITC, dont le rôle est de protéger l'intérêt des consommateurs, et non ceux de l'une des deux parties du procès. Il y a toutefois de fortes chances que le juge, qui rendra son verdict le 5 août prochain, privilégie lui aussi l'intérêt du consommateur, en laissant la concurrence entre les constructeurs de smartphone s'exercer librement.
Posté par Matt le 21/04/2011 à 09h00
Aucun commentaire
Source : Tom's Hardware
Depuis des années que l'USB existe, Windows n'est toujours pas capable de s'installer et de démarrer nativement depuis un périphérique de stockage USB, qu'il s'agisse d'une clé ou un disque dur. Ceci pourrait enfin changer avec Windows 8, mais uniquement pour l'édition Enterprise...
En effet, cette version proposera une fonction baptisées "Portable Workspace", qui permet de créer une installation bootable de Windows sur un périphérique USB. Il s'agirait même d'un peu mieux qu'une simple installation sur périphérique USB, puisque cette installation pourra ensuite être utilisée sur n'importe quelle machine, et pas seulement sur celle où l'installation a été réalisée.
Cette solution a probablement été mise au point pour faciliter le dépannage des ordinateurs en entreprise, ce qui expliquerait le fait qu'elle ne soit proposée que dans l'édition Enterprise, mais il est dommage qu'elle ne soit pas proposée pour le grand public, qui aurait aussi pu y trouver une utilité, pour se créer un système de secours sur clé USB.
Posté par Matt le 20/04/2011 à 14h40
6 commentaires
Source : Tom's Hardware
Notre confrère Hardware.fr vient de publier un nouveau comparatif de SSD, reprenant les principales références de ce début d'année 2011, ainsi que quelques modèles représentatifs de 2010. Mauvaise nouvelle, ce comparatif laisse entrevoir une hausse de la consommation des SSD...
En effet, si les SSD de début 2011 sont impressionnant par leurs débits, tirant largement parti de l'adoption du SATA 6 Gbit/s, cette hausse de performances s'est accompagnée d'une hausse de consommation, aussi bien au repos qu'en activité. Ainsi, alors que dans le comparatif des modèles 2009/2010, la consommation moyenne au repos s'établissait à 0.55W (0.2W pour le plus sobre, 1.2W pour le plus gourmand), elle atteint 0.86W (0.74W sans le Vertex 3 240 Go, dont la consommation élevée est mise sur le compte d'un firmware de pré-série) avec les modèles 2011 (0.6W minimum, 1.65W maximum).
Et ce n'est pas mieux en utilisation. Les modèles 2009/2010 consommaient en moyenne 2.32W en activité (1.5W minimum, 4.7W maximum) et plusieurs modèles descendaient sous les 2W. Parmi les modèles 2011, aucun ne parvient à descendre sous la limite des 2W, et la moyenne s'établit à 3.2W.
Si cette hausse de consommation est en partie liée à la hausse des capacités, il semblerait toutefois que les contrôleurs soient responsables d'une partie de cette hausse. Espérons que les constructeurs auront rapidement l'idée de se concentrer sur la consommation de leurs produits, plutôt que de se battre uniquement sur les performances, sans quoi les SSD pourraient perdre une part de leur intérêt dans les ordinateurs portables, avec des consommations qui deviennent supérieures à celles des disques durs 2.5".
Posté par Matt le 20/04/2011 à 13h00
Aucun commentaire
Source : TT-Hardware
Le marché des disques durs sera-t-il bientôt limité à deux constructeurs ? C'est en tout cas le chemin qu'il prend, avec le rachat par Seagate de la division disques durs de Samsung. Il ne reste donc plus que trois constructeurs : Western Digital (Hitachi), Toshiba (Fujitsu) et Seagate (Samsung, Maxtor, Quantum).
Avec ce rachat, Seagate porte sa part de marché à environ 40%, dont plus du quart provenant de Samsung. Le coût de l'opération est de près de 1.4 milliards de dollars, dont environ la moitié versée à Samsung sous forme d'actions Seagate. Ainsi, Samsung devient un important actionnaire de Seagate, avec 9.6% du capital. Le Coréen siégera d'ailleurs désormais au conseil d'administration de l'Américain et participera à l'élaboration de certains produits à venir. Les deux entreprises vont également partager leurs brevets.
Seagate a également négocié une position de client privilégié sur la mémoire flash NAND, utilisée dans les SSD. En effet, Seagate a obtenu la garantie que Samsung répondra prioritairement à ses commandes, évitant ainsi tout risque en cas de pénurie.
Posté par Matt le 20/04/2011 à 10h20
Aucun commentaire
Source : Clubic
Fort d'une importante croissance de ses ventes ces derniers mois, grâce à l'explosion du marché des tablettes, le français Archos souhaite se développer en investissant massivement dans son avenir. Et pour ça, Archos à besoin d'argent !
Ainsi, le français a lancé une procédure d'augmentation de son capital, en émettant 4 millions d'actions nouvelles. Ceci correspond à une augmentation d'environ 20% du capital de la société. En vendant ces nouveaux titres pour 6€50 (l'action Archos se négocie aujourd'hui un peu plus de 7€), Archos espère ainsi récupérer 30 millions d'euros d'argent frais.
Cette somme sera utilisé tout d'abord pour diminuer l'endettement de l'entreprise, en remboursant un emprunt de 5 millions d'euros contracté en 2008, mais aussi à financer le développement de la société et de sa filiale Arnova, créée il y a peu pour conquérir le marché de l'entrée de gamme.
Posté par Matt le 20/04/2011 à 09h12
Aucun commentaire
Source : PCWorld
Annoncé en janvier lors du CES, l'Eee Pad Slider d'Asus devait être une tablette Android 3.0 à clavier coulissant basée sur une plateforme nVidia Tegra 2, comme l'Eee Pad Transformer qui commence petit à petit à être disponible dans différents pays. Mais la Slider pourrait finalement adopter la plateforme Intel Oak Trail...
En effet, dans le kit presse proposé par Intel pour cette plateforme, le fondeur présente l'Eee Pad Slider comme étant une tablette exploitant la plateforme Oak Trail... Le kit presse évoquait également une autre tablette chez Asus, dans un format un peu plus classique. La présence de ces tablettes Asus dans le kit presse d'Intel est visiblement une erreur, le kit ayant rapidement été mis à jour par Intel pour supprimer toute référence à ces deux produits. Reste à voir si l'erreur était simplement une mise en ligne anticipée par rapport aux annonces d'Asus, où carrément une annonce erronée sur l'utilisation de la plateforme Oak Trail dans ces produits.
Pour rappel, la plateforme Oak Trail a été lancé il y a peu par Intel et vise principalement à imposer l'architecture x86 dans le monde des tablettes, avec le processeur Atom Z670 qui l'équipe. Si Asus sortait effectivement une Slider à base d'Atom, il sera donc intéressant de comparer ses performances et son autonomie à celles de la Transformer, pour voir qui de Oak Trail ou de Tegra 2 s'en tire le mieux en exploitant la même couche logicielle...
Mise à jour le 19/04/2011 à 22h20 : Asus a finalement confirmé travailler sur une tablette exploitant la plateforme Oak Trail. Mais Intel a tout de même fait une erreur dans son kit presse, la tablette Oak Trail d'Asus n'était pas l'Eee Pad Slider, mais un nouveau modèle non encore présenté par le taiwanais, tandis que la Slider conservera bien le Tegra 2 initialement prévu.
Actu originale : 19/04/2011 à 12h30
Posté par Matt le 19/04/2011 à 22h20
Aucun commentaire
Sources : Tom's Hardware
Annoncé par les rumeurs depuis plus d'un an et visiblement déjà bien avancé dans son développement, le service Google Music pourrait bien ne jamais voir le jour, ou en tout cas pas sous la forme que Google envisageait...
En cause, les industriels de la musique, avec lesquels Google n'aurait pas réussi à s'entendre sur les modalités tarifaires de son service. Selon certaines sources, Google envisageait, en plus de la vente de musique, de proposer un service de stockage en ligne, comme le fait Amazon avec Cloud Player, où l'utilisateur pourrait stocker ses propres fichiers musicaux pour y accéder de n'importe où en streaming. Alors que Google comptait offrir gratuitement une première tranche d'espace, les majors souhaiteraient que Google facture cet espace à l'utilisateur dès le premier octet...
Ces réticences des majors pourraient même pousser Google à changer totalement le principe de son service, en en faisant un simple service de stockage de données en ligne, sans orientation particulière pour la musique.
Posté par Matt le 19/04/2011 à 14h50
Aucun commentaire
Source : Le Journal du Geek
Très controversée lors de son élaboration, la loi Hadopi pourrait bien être au cœur des débats lors de prochaines présidentielles, qui se tiendront en avril et en mai 2012. Ainsi, après que le Parti Socialiste ait évoqué son abrogation dans son projet de programme, c'est au tour de Dominique de Villepin, candidat République Solidaire et ancien Premier Ministre d'évoquer une adaptation de l'Hadopi...
Ainsi, pour DdV, "la culture doit être un bien public accessible à tous les citoyens grâce à un service public de la culture". En clair, l'ancien Premier Ministre souhaite mettre en place un système de licence globale. Pas question toutefois pour lui de supprimer l'Hadopi, qui serait conservée pour éviter certains abus.
L'idée de DdV serait en fait d'autoriser le téléchargement gratuit des œuvres sur les réseaux P2P et sur des sites à caractère non lucratif (dépourvus de publicités), mais uniquement après un certain délai d'exploitation commerciale. Pour les films par exemple, le candidat évoque une libre diffusion sur les réseaux P2P à partir de 4 mois après la sortie en salle. Ce délai correspond actuellement au minimum légal séparant la sortie en salle de la sortie den DVD et VOD.
L'Hadopi serait donc là uniquement pour réprimer les échanges d'œuvres récentes et pour traquer les sites de téléchargement à caractère lucratif, tandis que le système de licence globale collecterait des fonds reversés aux ayant-droits pour compenser le manque à gagner. DdV ne semble par contre pas avoir évoqué comment la répartition des sommes prélevées serait calculé. Ce point pourrait pourtant être crucial pour faire accepter un tel système par les ayant-droits.
Du côté du PS, le projet est un peu plus clair à ce sujet, puisque, sans évoquer le mode de répartition, il précise le mode de prélèvement (sur les factures Internet), mais aussi et surtout, le caractère non systématique de cette licence : les ayant-droits auraient le choix entre accepter le système de licence globale, et donc autoriser le libre échange de leurs œuvres en échange d'une part de la rémunération, ou interdire ce libre échange, mais renoncer à toute rémunération autre que les ventes.
Il sera intéressant de voir les positions des autres candidats sur le sujet, qui sera probablement très difficile à éviter pendant la campagne, et pourrait même être un point particulièrement important pour attirer des électeurs. Mais encore une fois, il ne faudra pas oublier que les promesses de campagne n'engagent généralement que ceux qui y croient...
Posté par Matt le 19/04/2011 à 10h31
Aucun commentaire
Source : PCInpact
Suite au rachat de Sun par Oracle, des divergences d'opinion entre Oracle et la communauté sur l'avenir de la suite bureautique OpenOffice avaient fini par donner naissance à LibreOffice, un dérivé d'OpenOffice entièrement contrôlé par la communauté, tandis qu'Oracle gardait le contrôle d'OpenOffice, en proposant une version commerciale de la suite.
Finalement, quelques mois après cette séparation, Oracle a annoncé sa décision d'abandonner la version commerciale d'OpenOffice, tant décriée par la communauté. Conséquence de cet abandon, Oracle va replacer le projet OpenOffice sous le contrôle de la communauté. Reste à voir si cette nouvelle communauté OpenOffice saura attirer les développeurs... En effet, le gros des troupes à quitté le projet originel pour rejoindre LibreOffice, et il est loin d'être certain qu'ils refassent le chemin inverse.
Cette décision pourrait aussi attirer sur Oracle les foudres des autorités de régulation de la concurrence. En effet, pour que celles-ci approuvent l'opération, Oracle avait pris des engagements sur l'avenir d'OpenOffice et de MySQL. Or, il est désormais certains que ces engagements sur OpenOffice ne seront pas tenus, tandis que ceux sur MySQL semblent pour l'instant mal partis pour être tenus...
Posté par Matt le 19/04/2011 à 08h02
3 commentaires
Source : Silicon.fr
Moins d'un an après la commercialisation de sa mémoire flash gravée en 25nm, IMFT (une joint-venture entre Intel et Micron) vient d'annoncer préparer une nouvelle génération de mémoire flash NAND, gravée en 20nm.
D'une capacité de 8 Go, la première puce adoptant cette finesse de gravure n'occupe plus que 118mm² sur un wafer de silicium, contre 167mm² pour son équivalent en 25nm. Le gain en surface est donc de près de 30%, ce qui devrait se traduire par une baisse de prix du même ordre.
Par ailleurs, le fondeur a annoncé que cette nouvelle finesse de gravure devrait permettre d'atteindre les mêmes durée de vie qu'en 25nm, soit entre 3000 et 5000 cycles écriture-effacement pour les mémoires MLC à 2 bits par cellule. Enfin, ces nouvelles puces étant très proches des puces 25nm, leur adoption ne devrait nécessiter que des modifications mineures des produits les utilisant. Elles pourraient donc se répandre rapidement dans les produits à base de mémoire flash.
La fabrication débutera dans l'usine de Lehi (Utah). Intel et Micron adapteront ensuite les usines de Manassas (Virginie) et de Singapour à cette nouvelle finesse, au fil de la hausse de la demande.
Posté par Matt le 18/04/2011 à 14h51
Aucun commentaire
Source : PCWorld
Introduit il y a une quinzaine d'années, le format actuel de la Carte Nationale d'Identité ne donne plus satisfaction en terme de sécurité, ce qui donne lieu à de nombreuses fraudes et usurpations d'identité. Le gouvernement travail donc à un nouveau format, plus sécurisé.
Celui-ci devrait faire la part belle à l'électronique. Le gouvernement projette en effet d'incorporer dans la future carte d'identité une puce qui stockera différentes informations sur l'identité du titulaire de la carte : nom, prénom et date de naissance bien sûr, mais aussi photo numérisée et informations biométriques, comme les empreintes digitales, la taille, la couleurs des yeux et des cheveux, etc.... Si cette puce est correctement sécurisée, il sera donc très difficile de falsifier les cartes à ce format.
Plus intéressant pour les internautes, la carte pourrait, en option, contenir une signature numérique. Celle-ci permettrait par exemple de s'identifier de façon sécurisée sur un site Internet pour effectuer des achats, consulter ses comptes, ou encore échanger des courriers sécurisé. Ceci nécessiterait bien entendu de disposer d'un lecteur de cartes à puces sur l'ordinateur, mais ce genre d'appareil est d'ores et déjà disponible à très bas prix (la société de transport en communs de Grenoble en propose par exemple à ses usagers pour à peine 3€).
Posté par Matt le 18/04/2011 à 12h50
Aucun commentaire
Source : 01Net
Depuis quelques années, les cartes graphiques nVidia et AMD se retrouvent de plus en plus souvent dans des calculateurs, en exploitant le principe du GP-GPU, qui consiste à utiliser la puissance des GPU pour effectuer des calculs non graphiques. Intel répond enfin à ce concept, avec son "Many Integrated Core", présenté lors du dernier IDF.
Many Integrated Core (MIC) est probablement une résurgence du projet Larrabee, abandonné depuis quelques temps déjà. Ce dernier consistait à mettre au point un GPU basé sur un grand nombre de petits cœurs x86. Et c'est exactement ce que propose MIC : une carte de calcul prenant place sur un port PCI-Express et contenant pas moins de 50 cœurs x86, gravés en 22nm.
Selon Intel, cette solution aura l'avantage d'être plus simple à utiliser que les solutions GP-GPU car, utilisant un jeu d'instruction x86, elle pourra être exploitée avec les outils de développement habituels. Bien que la puissance brute soit inférieure, cette solution a également l'avantage d'une grande indépendance entre les cœurs, alors que sur un GPU, les unités de calcul sont regroupés en "cluster", toutes les unités d'un même cluster devant traiter la même opération (mais sur des données différentes).
D'ici la fin de l'année, une centaine d'exemplaires de pré-série seront fournis par Intel a certains de ses partenaires. La date de sortie définitive n'a par contre pas été communiquée, et Intel n'a pas non plus évoqué de plans pour transformer MIC en carte graphique.
Posté par Matt le 18/04/2011 à 11h11
Aucun commentaire
Source : Clubic
Pour obtenir sa précieuse licence 3G, Free Mobile s'était engagé à fournir une couverture de 25% pour le lancement de l'offre en 2012, puis d'étendre cette couverture à 90% avant 2018. L'opérateur souhaite toutefois aller plus loin, et dépasser les taux de couverture actuels de ses concurrents.
En effet, Maxime Lombardini, directeur général d'Iliad, a indiqué que Free Mobile ambitionne une couverture de 99% en 2018. Selon les dernières mesures publiées par l'ARCEP en début d'année, les taux de couverture actuels d'Orange, SFR et Bouygues Télécom sont respectivement de 91%, 88% et 75%.
Pour arriver à ce résultat, Free Mobile envisage le déploiement d'au moins 9000 antennes-relais. Ces déploiement pourraient notamment se faire sur les sites actuellement exploités par Orange, ou encore ceux utilisés par Télédiffusion de France pour la diffusion de la TNT.
Avec un tel taux de couverture, Free Mobile aurait un bel argument pour vendre son offre. Reste à voir si l'opérateur sera capable d'atteindre ce niveau... Rappelons également qu'en téléphonie mobile les taux de couverture se mesurent en pourcentage de la population, et non en pourcentage du territoire, donc un taux de 99% peut tout de même laisser de larges zones blanches dans les campagnes.
Posté par Matt le 18/04/2011 à 08h47
2 commentaires
Source : Tom's Guide
Malgré sa popularité, le service Spotify, qui permet d'accéder gratuitement à un large catalogue de musique en streaming, semble souffrir d'un modèle économique insuffisant à satisfaire ses besoins. En conséquence, l'accès gratuit au service est de plus en plus limité...
À ses débuts, le service proposait l'écoute en streaming illimité pour tous les inscrits, mais les utilisateur d'un compte gratuit devaient accepter quelques publicité en contrepartie, parfois sous formes d'images dans l'interface de Spotify, parfois sous forme de spot audio diffusé entre deux titres. Mais depuis un an environ, les utilisateurs d'un compte gratuit ont été limités à 20h d'écoute par mois.
Aujourd'hui, Spotify envisage de réduire encore plus cette limite, pour tenter d'équilibrer son financement. La limite passerait ainsi à seulement 10h par mois, tandis qu'une nouvelle règle limiterait à cinq par mois le nombre d'écoutes autorisées pour un même titre. Ces nouvelles restrictions devraient inciter certains utilisateurs à opter pour l'abonnement Unlimited à 5€ par mois, qui supprime ces limitations et les publicités, voir pour l'abonnement Premium à 10€, qui permet en plus d'accéder au service depuis un mobile, de bénéficier d'une meilleure qualité et d'un accès hors connexion.
C'est toutefois un pari risqué pour Spotify, qui pourrait perdre quelques clients avec ces nouvelles restrictions, qui pourraient rendre le service moins attractif que certains de ses concurrents.
Posté par Matt le 15/04/2011 à 16h00
Aucun commentaire
Source : Übergizmo
Même si le rythme de mise à jour à diminué, Free continue de travailler sur les firmwares de la Freebox Révolution, et a publié hier une nouvelle mise à jour du firmware du boîtier Free Player, qui passe à la version 1.0.3.3.
Freebox Player
Nouvelles fonctionnalités
- Ajout des portails Disney, ABC, INA et MyZen.tv dans la Vidéo à la demande.
Corrections
- Plantage lors de la lecture des bandes-annonces de certains DVD (FP #3580),
- Impossible de jouer un CD audio après la lecture d’un DVD (FP #6020),
- Impossible de provisionner le compte sur Duo Sexy,
- Freebox Player bloqué au démarrage lorsqu’un disque dur eSATA est branché.
Posté par Matt le 15/04/2011 à 12h50
Aucun commentaire
Source : L'actualité de la Freebox
Bien que les contrôleurs USB 3 soient disponibles depuis un bon bout de temps, les deux principaux fabricants de chipsets, Intel et AMD, n'ont toujours pas intégré cette norme à leurs produits. C'est finalement AMD qui sera le premier des deux à sortir des chipsets USB 3.0, dès cette année, alors qu'il faudra attendre 2012 chez Intel.
Les premiers chipsets AMD supportant l'USB 3.0 seront les chipsets A75 et A70M, qui devraient normalement accompagner le lancement de la plateforme Llano, prévue pour les semaines ou les mois à venir.
Chez Intel, les premiers chipsets intégrant l'USB 3.0 devraient être les chipsets accompagnant les processeurs Ivy Bridge, prévus pour le premier trimestre 2012.
Posté par Matt le 15/04/2011 à 10h50
Aucun commentaire
Source : Macbidouille
Il y a un peu plus de deux mois, on apprenait que les futurs processeurs Ivy Bridge d'Intel allaient prendre place sur le socket 1155, actuellement utilisé par les Sandy Bridge, ce qui laissait entrevoir une compatibilité avec les cartes mères actuelles. De nouvelles sources confirment cette compatibilité.
En effet, le site turc DonanimHaber a mis la main sur un document interne d'Intel, qui donne plus de précisions sur le futur processeur. Le document confirme le passage à une gravure 22nm, le support de la DDR3 1600, l'amélioration du jeu d'instructions AVX et le passage à une nouvelle génération de puce vidéo Intel HD Graphics compatible avec DirectX 11.
Mais surtout, ce nouveau document indique explicitement la compatibilité avec les chipsets utilisés actuellement avec les processeurs Sandy Bridge (chipsets série 6). Cette compatibilité ne sera toutefois que partielle, en se limitant aux chipsets grand public Z68, P67, H67 et H61, tandis que les versions professionnelles Q67, Q65 et B65 seront laissées de côté.
Dans ce document, Intel précise tout de même aussi que la compatibilité ne sera assurée que sous réserve de disponibilité d'une mise à jour du BIOS/EFI. La compatibilité dépendra donc en partie de la bonne volonté des constructeurs de cartes mères.
Posté par Matt le 15/04/2011 à 08h30
Aucun commentaire
Source : Hardware.fr
Wallpaper Rotator vient d'être mise à jour. L'application a été en grande partie réécrite en utilisant le framework Qt, et propose quelques nouvelles fonctionnalités. Les sources sont désormais disponibles sous licence CeCILL-B. Pour l'occasion, Wallpaper Rotator passe en version 2.
Historique des changements :
- possibilité de définir un intervalle de temps personnalisé entre deux rafraichissements,
- ajout d'une boîte de dialogue permettant de choisir les emplacements où chercher les fonds d'écran,
- possibilité de choisir plusieurs emplacements source en simultané,
- utilisation du framwork Qt,
- passage sous licence CeCILL-B 1.0.
Posté par Matt le 14/04/2011 à 22h29
Aucun commentaire
Il y a quelques mois, un développeur avait réalisé une application permettant de synchroniser un iPhone avec iTunes via Wi-Fi. Rejetée de l'App Store par Apple au motif qu'elle posait des problèmes de sécurité, l'application est depuis disponible pour les iPhone jailbreakés. La synchronisation via Wi-Fi pourrait toutefois arriver officiellement, en commençant par la prochaine génération d'iPod.
En effet, selon Cult of Mac, Apple serait sur le point de finaliser sa propre solution de synchronisation via Wi-Fi, et elle pourrait donc être proposée sur la prochaine génération d'iPod, qui devrait arriver au mois de septembre, période habituelle du renouvellement de la gamme. pour ce faire, il faudra bien entendu ajouter une puce Wi-Fi aux iPod Shuffle, Nano et Classic, qui en sont absolument dépourvu.
Toujours selon Cult of Mac, ces nouveaux iPod pourraient par la même occasion changer de design, avec l'adoption d'une coque en fibre de carbone, qui laisserait mieux passer les ondes que les coques métalliques actuellement utilisées par la pomme. Une rumeur appuyée par le fait qu'Apple a récemment embauché un spécialiste des matériaux composites, qui avait travaillé au préalable sur des cadres de vélo en carbone.
Si une telle fonctionnalité était proposée pour les iPod, il y a fort à parier qu'elle arrive aussi quelques semaines ou quelques mois plus tard pour les différents appareils sous iOS, d'autant plus qu'ils ont l'avantage d'être déjà tous dotés d'une connectivité Wi-Fi. Une simple mise à jour logicielle serait donc suffisante.
Posté par Matt le 14/04/2011 à 14h30
2 commentaires
Source : Macbidouille
Peu de temps après avoir lancé sa plateforme Atom Oak Trail, visant principalement le monde des tablettes tactiles, Intel confirme son intérêt pour ce secteur de marché, en s'associant avec le chinois Tencent pour un centre de recherche et développement dédié aux tablettes.
Doté dans un premier temps d'une équipe d'une soixantaine d'ingénieurs issus des deux partenaires, le centre de recherche, installé en Chine, s'occupera aussi bien des aspects matériels et système, sous la houlette d'Intel, que de la partie logicielle, de l'interface utilisateurs et des services associés, sous la direction de Tencent. Ce centre de recherche devrait notamment travailler sur la plateforme MeeGo, pour laquelle l'implication de Nokia pourrait aller décroissant suite au partenariat avec Microsoft.
À terme, l'effectif du centre de recherche pourrait dépasser 200 personnes, tout en étendant le champ d'application de ses travaux. Toujours en Chine, Intel travaillerait aussi main dans la main avec l’équipementier ZTE, spécialisé dans les technologies pour réseau cellulaire. Ce partenariat pourrait mener à la commercialisation du premier smartphone à base d'Atom Oak Trail.
Posté par Matt le 14/04/2011 à 12h56
Aucun commentaire
Source : Génération NT
Il y a quelques temps, un projet de loi sur la neutralité du net avait été bloqué au motif qu'un rapport sur le sujet était en préparation par deux députés, Laure de la Raudière (UMP) et Corinne Erhel (PS). Ce rapport ayant été présenté, les débats sur le sujet vont pouvoir être ré-ouverts.
Bonne nouvelle, ce rapport semble plutôt en faveur d'une neutralité garantie par la loi, avec des propositions allant dans le sens de la liberté d'expression de la protection de l'innovation et du financement du réseau. Par exemple, alors que la récente loi LOPSSI permet de blocage de sites sans intervention d'un juge, les deux députés préconisent plutôt le recours systématique à un juge pour valider ou non une demande de blocage. Elles invitent aussi à ne demander aux opérateurs de bloquer les communications qu'en dernier recours, pour éviter de restreindre la liberté d'expression, mais aussi pour éviter une escalade dans les mesures techniques de contournement des filtrages.
Le rapport évoque aussi le problème de la qualité de service. En effet, face à l'explosion de la consommation de bande passante, certains opérateurs, en particulier les opérateurs mobiles, ont commencé à mettre en place des règles de priorité, voir des blocages, pour favoriser certains services au détriments des autres. Dans de tels cas, le rapport propose d'interdire aux opérateurs d'utiliser le terme "Internet" pour décrire leur offre, ce terme devant être réservé aux offres fournissant un accès "neutre", où tous les services sont à égalité. C'est l'ARCEP qui serait chargé de surveiller ces pratiques.
Une version préliminaire de ce rapport est disponible en ligne. La version définitive devrait mener à l'élaboration de nouvelles lois, mais aussi à la modification de certaines lois existantes.
Posté par Matt le 14/04/2011 à 10h40
Aucun commentaire
Source : Clubic
Quelques semaines après la sortie d'Internet Explorer 9, Microsoft a profité de la conférence MIX 2011 pour présenter et publier la première "platform preview" de Internet Explorer 10. Mais la démonstration ne s'est en fait pas limité au nouveau Internet Explorer...
En effet, si cette démonstration a été effectuée sur une machine sous Windows 7, il ne s'agissait pas du Windows 7 de monsieur tout le monde : la plateforme de démonstration était animée par un SoC nVidia Tegra 2. Microsoft avait promis que Windows 8 supporterait l'architecture ARM, et visiblement le portage a donc déjà commencé avec Windows 7. D'après les personnes présentes lors de la démonstration, le système semblait fonctionner convenablement, et bénéficier d'une bonne réactivité.
Côté Internet Explorer, cette première "platform preview" apporte un meilleur support des technologies web les plus récentes, et notamment les gradients CSS3. Internet Explorer 10 devrait arriver en version finale fin 2012, et, d'ici là, Microsoft promet une nouvelle "platform preview" toutes les 8 à 12 semaines, pour rendre compte de l'avancée. La prochaine version devrait par exemple supporter les transformations 3D CSS3.
Posté par Matt le 14/04/2011 à 08h21
Aucun commentaire
Source : Tom's Hardware
Gros consommateur d'électricité avec ses nombreux datacenters, Google a depuis longtemps compris qu'investir dans les économies d'énergie et les énergies renouvelables pouvait faire réduire ses frais de fonctionnement. De nombreux locaux de Google sont donc couverts de panneaux solaires ou dotés d'éolienne. Mais ce n'est rien à côté du dernier projet de la firme...
En effet, Google a investi 168 millions de dollars dans un projet majeur, la centrale Ivanpah Solar Electric Generating System. Construite dans le désert de Mojave, en Californie, cette centrale sera parmi les plus puissantes centrales solaires du monde, avec une puissance de 392MW. Les rejets de CO2 économisés par cette centrale sur les 25 ans minimum de son exploitation sont selon Google l'équivalent du retrait de 90 000 voitures du parc automobile américain. En construction depuis octobre 2010, la centrale devrait entrer en production en 2013.
Pour arriver à une telle puissance, la centrale va s'appuyer sur une technologie solaire thermique, dont la fabrication est nettement moins polluante que celle du photovoltaique, tout en offrant des rendements et une durée de vie supérieurs. L'installation va se baser sur un réseau de 173 000 miroirs motorisés pour suivre le déplacement du Soleil (héliostats), qui vont concentrer les rayons solaires au somment d'une tour de 140m de hauteur. Là, un fluide sera porté à haute température (540°C) pour générer de la vapeur sous pression, qui entrainera une turbine.
Bien moins connue que le photovoltaïque, cette technologie est toutefois largement éprouvée, avec plusieurs centrales expérimentales ou industrielles dans le monde depuis plus de dix ans, y compris en France, où a été construite l'une des premières centrales solaire de ce type, la centrale expérimentale Thémis dans les Pyrénées, qui fêtera bientôt ses 30 ans.
Avec cet investissement, Google apporte donc sa contribution au développement d'une des technologie de production d'électricité les plus prometteuses pour l'avenir, le solaire thermique étant l'une des solutions les plus propres, au cœur de nombreux projets à venir : les projets en cours totalisent une puissance de près de 3GW, dont la moitié aux États-Unis, et, sur le plus long terme, le projet Désertec-Eumena prévoit de fournir la moitié de l'électricité nécessaire pour l'Europe et quasiment toute celle consommée par les pays d'Afrique du Nord via un gigantesque réseau de centrales solaires thermiques installées en Afrique du Nord et dans la péninsule arabique, complété par des centrales éoliennes, hydrauliques, géothermiques, photovoltaïques et biologiques disséminées en Afrique du Nord en Europe et au Moyen-Orient.
Posté par Matt le 13/04/2011 à 15h00
1 commentaire
Source : Clubic
Amazon a présenté aux États-Unis une nouvelle version de son lecteur de livres numériques, le Kindle. Reprenant exactement le même matériel que le modèle actuellement vendu 139$, ce nouveau modèle sera disponible pour 114$. Une baisse de tarifs en contrepartie de laquelle l'interface de l'appareil sera agrémentée de publicités...
Amazon promet heureusement que ces publicités ne viendront pas troubler la lecture des possesseurs de l'appareil. Ces publicités, qui prendront la forme d'offres spéciales (réductions sur des livres numériques ou sur des albums en MP3 par exemple) seront insérées dans une zone dédiée en bas de l'écran d'accueil, ainsi que sur l'écran de veille de l'appareil.
Si ces publicités ne sont pas trop intrusives, elles constitueront donc un bon moyen d'économiser 25$ sur l'achat de l'appareil (soit tout de même 18% de réduction), ce qui devrait faire du bien au Kindle, qui souffre de la concurrence des tablettes tactiles, certes moins confortables et moins autonomes, mais beaucoup plus polyvalentes.
Posté par Matt le 13/04/2011 à 12h40
Aucun commentaire
Source : 01Net
Après l'annonce de son accord avec Microsoft pour la production de smartphones sous Windows 7, Nokia avait précisé que Symbian ne serait pas abandonné à court terme. Le finlandais vient de le prouver avec le lancement de deux nouveaux smartphones, accompagnés d'une nouvelle version de Symbian.
Baptisé E6, le premier est smartphone destiné au marché professionnel, reprenant un design façon BlackBerry, avec un écran en mode paysage et un clavier complet sur la partie inférieure de la façade. Avec son processeur à 680 MHz, ses 8 Go de stockage et son écran de 2.5", il risque toutefois de souffrir de la comparaison avec les smartphones d'autres marques, même s'il se distingue avec son APN de 8MP. Il pourrait par contre profiter de son tarif contenu (430€ TTC), de son port USB hôte et de son excellente autonomie (annoncée à 5 jours en utilisation normale) pour se faire sa place sur le marché.
Nettement plus orienté grand public, le X7 embarque la même base matérielle que le E6, mais troque l'écran paysage et le clavier contre un écran portrait AMOLED 640x360 couvrant la façade de l'appareil. Il sera vendu 450€ TTC. Comme le E6, il risque de souffrir du manque de puissance de son processeur, mais Nokia se défend en indiquant qu'une puce à 680 MHz suffit pour un appareil sous Symbian, le système étant peu gourmand et capable de tirer parti de l'accélération matérielle. Cette fréquence réduite est aussi un plus pour l'autonomie.
Côté système, des nouveaux Nokia embarqueront la toute nouvelle version de Symbian, baptisée Anna. Dotée d'une ergonomie améliorée, d'un navigateur web plus rapide et de la nouvelle version d'Ovi Cartes gérant les transports en commun, cette nouvelle version du système vise également les professionnels, avec la prise en charge du chiffrement matériel et de nouvelles fonctions collaboratives au niveau de la messagerie.
Cette version de Symbian ne sera pas réservée aux nouveaux appareils. Les actuels N8, E7, C7 et C6-01 auront droit à une mise à jour dans les mois à venir.
Posté par Matt le 13/04/2011 à 11h00
Aucun commentaire
Source : Business Mobile
Lancée par Apple et Intel il y a six semaines, cette interface est très intéressante sur le papier, mais souffre pour l'instant de l'absence de périphériques l'exploitant, même si LaCie et Promise ont déjà annoncé des solutions de stockage à cette norme. Avec le NAB 2011, la situation commence toutefois à évoluer...
Constructeur d'accessoires pour Mac, principalement dans le domaine du stockage et des cartes d'extensions, Sonnet a ainsi dévoilé une nouvelle gamme de produits, qui sera présentée en détail au NAB 2011.
La gamme commence avec du très classique, trois périphériques de stockage externe. Le premier embarque deux SSD en RAID0, le second offre quatre baies pour disque dur 3.5" SATA et le troisième en propose huit. Sonnet commercialisera également deux adaptateurs, l'un offrant une connectique Gigabit Ethernet, le second offrant un port Firewire 800.
Mais les deux produits les plus originaux et les plus intéressants sont probablement deux boîtiers permettant de connecter une carte PCI-Express via Thunderbolt. Le premier est destiné à des cartes de petite taille (pas plus longue que le port PCI-E 16x) et ne consommant pas plus de 75W, tandis que le second pourra accepter des cartes deux fois plus longues et consommant jusqu'à 150W. Dans les deux cas, le connecteur interne est un connecteur au format 16x, mais câblé seulement en 4x. Ces boîtiers permettront par exemple d'ajouter une carte graphique à un ordinateur portable.
Le NAB 2011 a également être l'occasion de présenter des périphériques Thunderbolt pour d'autres constructeurs spécialisés dans les solutions audio/vidéo. Par exemple, Matrox y a montré un adaptateur Thunderbolt pour ses boîtiers MXO2 (qui se connectent actuellement via une interface PCI-Express externe dans un format propriétaire), tandis que Blackmagic Design a présenté l'UltraStudio 3D, un boîtier d'acquisition vidéo haut de gamme.
Posté par Matt le 13/04/2011 à 08h21
Aucun commentaire
Source : Tom's Hardware
C'est en tout cas ce que promet le Parti Socialiste dans son projet pour la présidentielle 2012, à condition bien sûr que le candidat choisi à l'issu des primaires conserve cette idée dans son programme, et qu'il soit élu le 6 mai 2012...
En effet, le projet du PS indique que "l'adaptation du droit d'auteur à la révolution numérique passe plus que jamais par l'émergence d'un nouveau modèle économique réellement rémunérateur et redistributif pour les ayant-droits et non par des lois pénales que nous abrogerons". Rapidement, des journalistes ont supposé que les "lois pénales" mentionnées étaient le volet répressif de l'Hadopi et les dispositifs de filtrage autorisés par la loi LOPPSI.
Notre confrère PCInpact a donc contacté Christian Paul, député PS, qui a confirmé que ce sont bien ces textes qui sont visés par le projet PS. Lors des débats devant l'assemblé et le sénat, le PS avait déjà marqué son opposition à ces textes, jugés liberticides, et leur abrogation en cas de retour de la gauche au pouvoir est donc relativement logique. Rappelons d'ailleurs que certains de nos voisins ont eux aussi renoncés à ce type de répression ou au filtrage du réseau, comme par exemple en Allemagne, où un projet de loi autorisant le filtrage a été abandonné sans avoir jamais été validé, après plus de deux ans de débat.
Avec une telle promesse, le PS risque fort d'avoir les faveurs de la communauté Internet française. Mais attention, il faut tout de même garder à l'esprit que les promesses des politiciens n'engagent souvent que ceux qui y croient...
Posté par Matt le 12/04/2011 à 19h40
Aucun commentaire
Source : PCInpact
En début d'année, Sony a attaqué en justice le célèbre hacker GeoHot, dont les travaux sur la PlayStation 3 ont contribué à la mise au point de solutions permettant de copier les jeux de la console. Cette affaire a finalement été réglée à l'amiable.
Si Sony était dans son bon droit en déposant plainte contre GeoHot, le nippon avait été vivement critiqué pour cette procédure, menée de façon très agressive. Sony ne s'était en effet pas contenté d'obtenir la saisie du matériel de GeoHot et de lui faire interdire l'utilisation d'une PS3 : la firme était allé beaucoup plus loin, en réclamant l'accès au compte PayPal de GeoHot pour identifier tous les donateurs, mais aussi la liste des adresses IP de tous ceux qui auraient vu les vidéos de GeoHot sur YouTube ou visité son blog...
Cette attaque avait donc provoqué une levé de boucliers sur Internet, beaucoup critiquant la politique de Sony, allant même jusqu'à appeler au boycott. Le groupe de hackers Anonymous, spécialisé dans la "guerilla numérique" s'en était d'ailleurs pris aux intérêts de Sony, en attaquant leur site Internet ou encore le PlayStation Network.
Finalement, Sony et GeoHot ont annoncé avoir conclu un accord à l'amiable pour mettre un terme à la procédure. Les termes exacts de l'accord n'ont pas été révélés, mais on sait tout de même que GeoHot a accepté de retirer certains contenus de son site Internet. Par ailleurs, GeoHot reste soumis à une injonction permanente lui interdisant toute action qui pourrait porter préjudice à Sony. En contre-partie, Sony aurait, selon certaines sources, accepté de fermer un peu moins sa PlayStation 3, en acceptant le "homebrews" et en réactivant le support de Linux.
Posté par Matt le 12/04/2011 à 18h21
Aucun commentaire
Source : Tom's Guide
Plus de deux ans après son lancement, Windows 7 commence enfin à passer devant Windows XP dans certains pays, selon Stats Counter. Une position que le système doit à sa popularité chez le grand public, alors qu'XP reste le favori des entreprises.
Ainsi, si Windows XP reste en tête dans la plupart des pays durant la semaine, Windows 7 et Windows Vista reprennent du poil de la bête durant les week-end, ce qui permet désormais à Windows 7 de faire jeu égal avec Windows XP dans les pays riches. Aux États-Unis par exemple, sur les 30 derniers jours, Windows 7 l'emporte d'une courte longueur, avec 31.6% contre 31.5% à son vénérable ancêtre, tandis que les positions s'inversent en Amérique du Nord, avec 32.1% pour Windows 7 et 32.8% pour Windows XP.
En Europe, Windows XP garde la tête, mais commence à se faire dépasser par Windows 7 durant les week-end. Sur 30 jours, il garde tout de même une marge de près de 6 points, avec 39.6% du marché contre 33.8%. Ce sont surtout les pays du sud et de l'est de l'Europe qui permettent à XP de se maintenir ( ), alors que Windows 7 est en tête en France (33.4% contre 31.3%), au Royaume-Uni (33.4% contre 30.2%), ou encore en Allemagne (39.5% contre 31.8%), où, même en semaine, il garde quelques points d'avance.
Au niveau mondial, Windows 7 a par contre encore beaucoup de chemin à faire, avec plus de 15 points de retard sur XP (31.2% contre 46.9%). Comme en Europe, ce sont les pays pauvres qui tirent la part de marché de Windows 7 vers le bas. Ce dernier n'équipe par exemple que 13.5% des Chinois (contre 82.4% pour XP) ou encore 25.3% des Indiens (contre 65.4% à XP).
Posté par Matt le 12/04/2011 à 10h20
Aucun commentaire
Source : Tom's Hardware
Après avoir fait ses armes sur le marché des smartphones et lancé une offensive sur celui des tablettes, Android va prochainement faire son entrée sur celui des autoradio, mais de manière officieuse.
L'initiative ne vient en effet pas de Google, mais du français Parrot, qui va lancer le mois prochain un autoradio sous Android. Sous le nom Asteroid, il regroupera les fonctionnalités classiques d'un autoradio, mais aussi d'un GPS. Couplé à une clé 3G, il permettra également d'accéder à Internet, notamment pour des services de cartographie (Google Maps), de musique en streaming (Deezer) ou encore d'alertes GPS (Coyote).
Il coûtera un peu moins de 300€ et pourra être commandé par la voix, aussi bien pour le système de base que pour les applications additionnelles, si elles sont adaptées à un tel contrôle. Reste à convaincre les utilisateurs de l'utilité d'un tel système, par rapport à un smartphone doté d'un kit automobile, certes moins intégré, mais qui peut aussi servir en dehors de la voiture...
Posté par Matt le 12/04/2011 à 08h41
Aucun commentaire
Source : Numerama
Si Apple n'a jamais fait de gros efforts pour faciliter l'émergence du jeu vidéo sur la plateforme Mac, il en est tout autrement sur la plateforme iOS, destinée aux loisir, et dont les capacités vidéo-ludiques sont régulièrement vantés par la pomme. La communication sur cette capacité pourrait encore s'accentuer à l'avenir vu les derniers recrutements...
En effet, Apple a embauché deux nouvelles têtes dans son service de relations publiques, provenant toutes deux de grands noms du jeu vidéo. Ainsi, le nouveau responsable des relations publiques pour les applications iOS sera Robert Saunders, qui était jusqu'à présent directeur des relations publiques chez Nintendo au Royaume-Uni.
Le second recrutement est Nick Grange, l'ancien directeur des relations publiques pour Activision en Europe, et qui avait par la passé travaillé pour Microsoft et Electronic Arts. Alors que Saunders se concentrera sur la partie logicielle, Grange aura en charge toute la partie matérielle, qui a elle aussi une grande importance pour le marché du jeu vidéo.
Posté par Matt le 11/04/2011 à 16h25
Aucun commentaire
Source : PCInpact
Lorsque les modalités d'attribution des licences 4G ont été dévoilées, Bouygues Télécom s'était rapidement inquiété du risque que Orange rafle une trop grande partie des fréquences. Après avoir été rejoint par Free Mobile et SFR, ces inquiétudes ont été officiellement communiquées à l'État.
Les trois opérateurs ont en effet adressé une demande pour que le nombre de fréquences achetables par un seul opérateur soit plafonné, afin qu'Orange ne puisse pas profiter de sa puissance financière pour s'octroyer la majorité des fréquences disponibles, et obtenir ainsi la possibilité de construire un réseau sensiblement plus performant que celui de ses trois concurrents.
Pour limiter au maximum le risque, les opérateurs demandent également que l'attribution des fréquences soit également accompagnée d'une obligation de partager le réseau avec les autres opérateurs, afin que les plus petits opérateurs puissent proposer une offre compatible 4G même s'ils ne parviennent pas à obtenir des fréquences.
Rappelons que selon les modalités actuellement prévues, l'attribution des fréquences se fera par une vente aux enchères, l'État espérant pouvoir renflouer en partie ses caisses en vendant les fréquences 4G aussi cher que possible.
Mise à jour le 11/04/2011 à 15h25 : Dans une lettre adressée à Eric Besson, le ministre en charge du dossier, Xavier Niel a demandé que la procédure d'attribution des licences soit retardée et que l'État s'assure qu'au moins quatre opérateurs puissent obtenir une licence.
Actu originale : 11/04/2011 à 12h49
Posté par Matt le 11/04/2011 à 15h25
Aucun commentaire
Sources : Génération NT et Univers Freebox
Profitant de l'arrivée des nouveaux processeurs Intel Xeon E7-4800 embarquant dix cœurs, HP a annoncé la sortie prochaine d'un nouveau monstre, le ProLiant DL980 G7, embarquant pas moins de 80 cœurs et pouvant être doté de 4 To de RAM !
Si ces 80 cœurs restent "peu" comparé aux serveurs 512 cœurs proposés par Seamicro, il s'agit là de cœurs Nehalem à 2.4 GHz, bien plus performants que les cœurs Atom des serveurs de Seamicro. Les dix processeurs prennent place dans un châssis rackable 8U, doté de 128 slots mémoire DDR3L fonctionnant à tension réduite (selon HP, le gain atteindrait près de 2500W pour une configuration dotée de 4 To de RAM). Le stockage est limité à seulement 8 disques durs, au format SAS, mais ce genre de machines est généralement couplé à un stockage SAN, qui pourra être connecté via les 4 ports Gigabit Ethernet de la bête.
Elle risque par contre de ne pas être accessible à toutes les bourses, le processeur Xeon E7-4800 à lui tout seul étant déjà facturé près de 4400$ par Intel... Ce serveur sera disponible en juin. En attendant, j’accepte les dons pour le renouvellement du serveur d'Infobidouille :-)
Posté par Matt le 11/04/2011 à 10h50
1 commentaire
Source : PCWorld
Même si certains voient dans les tablettes un outil parfait pour gagner en productivité, une étude réalisée par AdMob, la plateforme de publicité pour mobiles de Google, révèle que c'est loin d'être l'usage principal des tablettes. Même le surf sur Internet n'est pas l'usage principal !
En effet, c'est le jeu vidéo qui remporte la palme, puisque 84% des 1430 personnes interrogées ont indiqué utiliser leur tablette pour jouer. Utilisé par environ trois quarts des possesseurs de tablettes, l'e-mail vient en seconde position, devant le suivi de l'actualité, effectué par un peu plus de six utilisateurs sur dix.
L'étude d'AdMob renseigne également sur le temps d'utilisation des tablettes, et montre qu'elles ont réellement changé les habitudes de leurs possesseurs. Ainsi, seuls 11% des propriétaires de tablettes les laissent prendre la poussière en les utilisant moins de trente minutes par jour, tandis que près de quatre utilisateurs sur dix s'en servent plus de deux heures par jour. Pour plus du quart des utilisateurs, la tablette est devenir l'outil technologique le plus utilisés, tandis que plus des trois utilisateurs sur quatre considèrent que la tablette à changé leur façon d'utiliser leur ordinateur.
Enfin, sans surprise, les tablettes prennent aussi le pas sur les médias plus traditionnels. 59% des utilisateurs de tablettes passent ainsi plus de temps devant leur tablette qu'à lire des livres, tandis qu'un peu plus de la moitié passent plus de temps à utiliser leur tablette qu'à écouter la radio.
Posté par Matt le 11/04/2011 à 08h15
Aucun commentaire
Source : Branchez-vous !
Aujourd'hui, grâce à différentes "listes noires" disponibles en ligne, la plupart des navigateurs savent protéger l'utilisateur contre les sites malveillants capables de lancer automatiquement le téléchargement d'un fichier via une faille du navigateur. Dans une future version, Google Chrome devrait pousser encore un peu plus loin cette protection.
En effet, les dernières versions de développement de Chrome intègrent, pour certains utilisateurs sélectionnés par Google, une nouvelle protection, basée elle aussi sur un principe de liste noire, qui vise à éviter à l'utilisateur de télécharger manuellement un logiciel malveillant. En effet, plutôt que d'exploiter des failles du navigateur, de nombreux sites se contentent de faire télécharger des fichiers à l'utilisateur en les faisant passer pour autre chose que ce qu'ils sont vraiment...
Lorsque l'utilisateur tentera d'initier un téléchargement depuis un site référencé par la liste noire, un message lui signalera le caractère potentiellement malicieux du fichier à télécharger, et demandera à l'utilisateur de confirmer qu'il souhaite bien le télécharger.
Posté par Matt le 08/04/2011 à 14h26
Aucun commentaire
Source : Génération NT
Avec l'arrivée sur le marché de nombreux nouveaux acteurs, l'année 2011 devrait être une année importante pour le marché des tablettes tactiles, qui devrait progressivement passer d'un quasi monopole de l'iPad d'Apple à une offre plus diversifiée. Mais pas forcément facile à décoder pour l'acheteur potentiel...
En effet, les tablettes vont se décliner sur une large gamme de prix (80 à 800€ !), avec des tailles d'écran variables (7" à 10", voir 12"), des résolutions allant du 800x480 au 1280x800, de gros écarts de performances en fonction du processeur (du ARM simple cœur à quelques centaines de MHz jusqu'à des solutions double cœur à plus d'1 GHz), des quantités de stockage très variées, différentes technologies de communications sans fil, une connectique plus ou moins riche, etc...
Et bien sûr, il faudra aussi compter sur le choix du système d'exploitation, avec au moins cinq systèmes différents (iOS, Android, Windows 7, Web OS, BlackBerry OS)... Et ce sans compter les différentes déclinaisons d'Android, qui peuvent encore compliquer le choix, certaines tablettes embarquant la version 3.0, spécialement adaptée à ce type d'appareils, tandis que d'autres se contentent d'un vieillissant Android 2, plutôt conçu pour les smartphones...
Pour vous aider à vous retrouver, notre confrère PCWorld a mis en ligne un tableau comparatif, permettant de vérifier en un coup d'œil les caractéristiques de 6 modèles déjà disponibles sur le marché et de dix modèles à venir.
Posté par Matt le 08/04/2011 à 12h20
Aucun commentaire
Source : PCWorld
Alors que le navigateur web Opera peine toujours à séduire le grand public, malgré ses qualités techniques, son éditeur semble vouloir diversifier ses activités. Après Unity, qui apportait de nombreuses fonctions additionnelles au navigateur, et My Opera, qui propose différents services en ligne (blogs, partage de photos, favoris...) le norvégien s'attaque maintenant au marché de l'e-mail.
En effet, l'éditeur vient de lancer en beta son service My Opera Mail, accessible à tous les titulaires d'un compte My Opera, avec des adresses en @myopera.com. Le service inclus bien évidement un webmail, plutôt sobre et assez proche de l'interface du webmail de Mobile Me. Elle est par contre encore loin de la richesse fonctionnelle d'un Gmail. Une version mobile est d'ores et déjà disponible, tandis que le courrier peut également être relevé via n'importe quel client mail capable de se connecter à des serveurs IMAP/SSL et SMTP/SSL.
Reste à voir si Opera sera réellement capable de se faire sa place sur ce marché, face aux ténors que sont Gmail, Yahoo Mail et Hotmail, avec plus de 600 millions d'utilisateurs à eux trois. Si Opera réussi sur ce marché, ce sera peut-être un bon moyen de promouvoir le navigateur Opera. Mais n'est pas Google ou Microsoft qui veut...
Posté par Matt le 08/04/2011 à 11h01
Aucun commentaire
Source : MacGénération
Commodore USA vient d'ouvrir les commandes pour le... Commodore 64 ! Mais cette fois, le 64 fait référence à son processeur 64 bits, et non à 64 Ko de RAM, comme pour son vénérable ancêtre, lancé en 1982.
Le Commodore 64 de 1982...
Il avait à l'époque été la star des débuts de l'informatique personnelle, en étant le premier ordinateur vendu à plus d'un million d'exemplaire. Et il reste aujourd'hui l'ordinateur le plus vendu, avec 17 à 25 millions d'exemplaires écoulées selon les sources. En plus de 64 Ko de RAM qui lui ont donné son nom, il embarquait un processeur MOS 6510 à 0.985 ou 1.023 MHz selon les modèles, 20 Ko de ROM pour le système, et un "GPU" surpuissant, capable d'afficher en 320x200 monochrome ou 160x200 en 16 couleurs !
... et son petit frère de 2011
Reprenant le design du modèle original, le Commodore 64 de 2011 est reconnaissable à sa face arrière, dotée de connectiques modernes, tandis que ses faces latérales sont ornées d'un lecteur DVD (à gauche) et d'un lecteur de cartes mémoire (à droite). À l'intérieur, on trouve un processeur Intel Atom D525 double cœur à 1.8 GHz accompagné de 2 à 4 Go de RAM et d'une puce graphique nVidia ION 2 doté de 512 Mo de mémoire dédiée. Il gère es connexions sans-fil Bluetooth et Wi-Fi et un disque dur de 160 Go à 1 To.
Côté logiciel, Commodore livrera sa machine sous Ubuntu 10.04, mais fournira aussi Commodore OS 1.0 et un lot de jeux tirés de la machine originale, qui fonctionneront probablement via un émulateur. Selon la configuration, il faudra compter entre 250 et 900 dollars, et les livraisons devraient débuter au moins de juin.
Posté par Matt le 08/04/2011 à 08h20
4 commentaires
Source : Clubic
Viking Modula Solution vient de présenter des SSD dans un format très original, qu'ils ont baptisé SATADIMM. Oui, DIMM, comme les barrettes de RAM, ces SSD étant faits pour s'installer dans des slots pour RAM DDR3 !
Bien entendu, il ne s'agit toutefois pas d'utiliser des SSD comme de la RAM, les performances seraient catastrophiques. Ces SSD se branchent à un port DIMM uniquement pour en tirer leur alimentation électrique, et ils proposent un port SATA pour les raccorder à la carte mère, comme un SSD classique.
Malgré ce format exotique, le constructeur n'a pas lésiné sur les performances, puisque ces SSD embarquent un contrôleur SandForce SF-2000 de toute dernière génération, capable de dépasser les 500 Mo/s en accès séquentielle via une interface SATA 6 Gbit/s et promettant 60 000 IOPS en accès aléatoire.
Proposé en format standard (25mm de hauteur) et en "Very Low Profile" (18.75mm), ces SSD originaux ont toutefois peu de chances de se retrouver un jour dans les boutiques traditionnelles, leur constructeur visant une toute petite niche de marché : les serveurs rackables 1U, où l'espace très exigu peut justifier de payer très cher un produit plus compact que ses concurrents...
Posté par Matt le 07/04/2011 à 14h11
Aucun commentaire
Source : Le Comptoir du Hardware
Depuis 2005, Canonical proposait via son programme ShipIt l'envoi gratuit (port compris) de CD d'Ubuntu à quiconque en faisait la demande, afin de faciliter la diffusion du système, y compris auprès de personnes ne disposant pas d'un accès haut débit. Après avoir envoyé des millions de CD, ce programme est désormais fermé.
Canonical souhaite en effet s'orienter vers de nouveaux moyens de promotion et de distribution, mieux adaptés à l'état actuel des technologies. Ainsi, l'argent économisé avec l'arrêt de l'envoi des CD gratuits sera réinvesti dans un nouveau service gratuit, qui permettra d'essayer directement Ubuntu en ligne. Un bon moyen de faire tester Ubuntu au plus grand monde, sans le moindre risque pour la machine de l'utilisateur.
L'idée du CD gratuit reste toutefois d'actualité, mais pas sur le même modèle. Désormais, ce seront les communautés locales (Ubuntu-fr pour la France) qui pourront être amenées occasionnellement à distribuer des CD gratuits. Ces opérations cibleront probablement en priorité les pays où les accès Internet haut débit restent rares, mais il ne serait pas surprenant que les communautés distribuent également des CD gratuits lors de certains événements, comme les "install parties".
Enfin, si vous tenez absolument à avoir votre Ubuntu sur une galette officielle, il restera toujours possible d'en acheter via le boutique de Canonical. En Europe, le pack de 5 CD d'une édition (Ubuntu Desktop, Ubuntu Server ou Kubuntu Desktop) est proposé pour 5€85 HT, et le lot regroupant un CD de chaque édition est vendu 4€68 HT.
Posté par Matt le 07/04/2011 à 12h50
Aucun commentaire
Source : Generation NT
Alors que la problématique du droit à l'oubli sur Internet n'est toujours pas réglée, et se traite donc encore au cas par cas, le plus souvent devant les tribunaux, la CNIL a publié il y a quelques jours un guide pour vous aider à effacer certaines de vos traces sur Internet.
Dans un premier temps, le guide explique comment demander à un webmaster d'effacer des données présentées sur son site : moyens d'identification du webmaster et modèle de lettre pour demander la suppression des données. La CNIL précise que le webmaster a alors un délai de deux mois maximum pour répondre à la demande, si elle est correctement justifiée.
Une fois les données supprimées du site, il faut ensuite les faire effacer des caches des différents moteurs de recherche. Google étant utilisé pour plus de neuf recherche sur dix en France, c'est bien entendu lui qui est principalement ciblé par ce guide. La CNIL explique donc comment faire la demande de suppression à Google, via les différents moyens mis à disposition par l'américain. Il est ainsi possible de demander la suppression d'une page ou d'un site dans les résultats de recherche, ou de vider le cache Google pour une page donnée. Google précise quand même dans les deux cas que les demandes n'émanant pas du webmaster du site ne seront pas traitées si le contenu du site n'a pas été nettoyé...
Google propose également différents moyens de demander la suppression de certains informations personnelles : numéro de sécurité sociale ou de papiers d'identité, numéro de cartes bancaires ou coordonnées bancaires, image de signature, nom et prénom sur un site pour adulte... Dans ces cas particuliers, Google gèrera lui même la prise de contact et la demande de suppression auprès du webmaster, et supprimera les informations des résultats de recherche.
Posté par Matt le 07/04/2011 à 10h11
Aucun commentaire
Source : Numerama
Google a diffusé accidentellement la nouvelle version du lecteur musical d'Android (Android Music) sur la version de l'Android Market réservée aux développeurs. Le temps de corriger l'erreur, certains ont eu le temps de télécharger l'application, puis de faire quelques captures d'écran avant que Google ne supprime l'application à distance...
Ces captures permettent de confirmer les nombreuses rumeurs sur le lancement d'un service de musique en ligne estampillé Google. Et elles montrent même qu'il ne s'agira pas que d'un simple service de vente par téléchargement, comme iTunes, mais d'une solution de streaming de musique. En effet, la boîte d'option de l’application propose plusieurs nouvelles options liées au streaming audio : masquage des tites non accessibles offline, mise en cache de la musique lue en streaming, file d'attente de téléchargements, options permettant d'empêcher le streaming/téléchargement lorsque la connexion ne se fait pas en Wi-Fi, etc...
Reste maintenant à voir quand Google lancera son service, mais aussi à quelles conditions (disponibilité géographique, tarifs, etc...).
Posté par Matt le 07/04/2011 à 08h50
4 commentaires
Source : PCWorld
Maintenant que Firefox 4 est lancé, la fondation Mozilla commence à donner plus de détails sur la prochaine version, qui portera en toute logique le numéro 5, ainsi que sur l'autre produit phare de la fondation, le client mail Thunderbird.
Comme le veut la tendance, les deux logiciels vont se "sociabiliser", avec l'ajout de fonctionnalités permettant de faciliter le partage d'informations sur les réseaux sociaux, en s'inspirant de ce que proposent actuellement l'extension "F1" pour Firefox.
Thunderbird bénéficiera également de nouvelles fonctionnalités, regroupées sous le nom de code "Raindrop", qui viseront à unifier les différents canaux d'arrivés d'informations (mail, notifications, twitter...) tout en offrant des possibilités d'organisation et de filtrage.
Du côté de Firefox, en plus des fonctionnalités sociales, le navigateur bénéficiera quelques autres nouveautés, comme un gestionnaire d'identités, l'intégration de la page d'accueil dans un onglet épinglé, la possibilité de placer des Web Apps dans la barre des tâches, un lecteur MP3 et PDF intégré, la sélection multiple d'onglets...
Rappelons qu'avec le rythme de sorties accéléré que compte adopter Mozilla, Firefox 5 devrait être disponible au début de l'été.
Posté par Matt le 06/04/2011 à 14h50
Aucun commentaire
Source : MacGénération
Annoncé il y a bientôt deux mois, le réseau Wi-Fi communautaire de Bouygues Telecom est enfin devenu réalité, avec l'activation du services "Bouygues Telecom Wi-Fi" sur les BBox de 700 000 abonnés ADSL.
Comme chez Free et SFR, ce service est activé par défaut sur tous les modems, mais les abonnés ne souhaitant pas partager leur accès pourront le désactiver. Les hot-spots ainsi créés seront accessibles à tous les abonnés n'ayant pas désactivé le partage, ainsi qu'aux abonnés mobiles disposant d'un forfait incluant les accès Wi-Fi.
Bien entendu, seule la bande passante non utilisée par l'abonné sera partagée via le hot-spot, et, pour éviter les abus, les connexions seront automatiquement interrompues toutes les deux heures. Enfin, Bouygues précise que les utilisateurs connectés via le hot-spot disposent d'une IP différente de celle de l'abonné, ce qui évitera des problèmes avec les "radars" de l'Hadopi.
Posté par Matt le 06/04/2011 à 12h50
Aucun commentaire
Source : Business Mobile
Après ses excellents résultats 2010 publiées il y a quelques jours, le français Archos a dévoilé officieusement ses résultats du premier trimestre 2011, et le moins qu'on puisse dire, c'est que l'année commence très bien !
En effet, avec 39 millions d'euros de chiffre d'affaire sur ce premier trimestre, le constructeur fait en un trimestre près de la moitié de son chiffre pour toute l'année 2010 ! Par rapport au premier trimestre 2010, les ventes sont en hausses de 599.3% en Asie, de 106% aux USA (marché qui n'est pas des plus faciles pour un constructeur français) et 142.4% dans le reste du monde, dont l'Europe.
Grâce à sa marque "low-cost" Arnova et à la production de certaines références pour le compte d'enseignes de la grande distribution (dont Carrefour et Auchan), le constructeur espère continuer dans cette dynamique pour le second trimestre, tandis que le lancement de sa neuvième génération de produits devrait permettre d'assurer la seconde moitié de l'année.
Posté par Matt le 06/04/2011 à 10h50
Aucun commentaire
Source : Le Journal du Geek
Ces dernières années, la stratégie d'Acer était claire : rogner sur la qualité et sur les marges pour faire de gros volumes (et donc des économies d'échelle) et tenter de devenir le premier constructeur mondial d'ordinateurs. Un objectif qui devrait être atteint cette année sur les portables et l'année prochaines sur les machines de bureau. Mais le taiwanais s'apprêterait à changer de stratégie...
En effet, si la stratégie a été efficace sur les volumes, elle ne l'est pas sur les marges, trop faibles au goût des investisseurs. La situation a mené au départ du PDG du groupe, l'italien Gianfranco Lanci. Le groupe semble désormais vouloir suivre les conseils de son fondateur, Stan Shih, qui suggérait il y a quelques jours qu'Acer devrait suivre l'exemple d'Apple.
Ainsi, JT Wang, le nouveau PDG par interim a-t-il annoncé que la stratégie d'Acer a été chamboulée par l'arrivée des tablettes, obligeant le groupe à s'adapter. Acer va donc désormais viser un peu moins les volumes, mais plutôt proposer des produits plus haut de gamme, sur lesquels le constructeur pourra faire plus de marges, tout en se donnant les moyens d'investir dans les secteurs porteurs actuels, les smartphones et les tablettes. Le taiwanais vise ainsi 10% du marché des tablettes en 2011, mais reste moins ambitieux sur les smartphones, dont il se contenterait de 2%.
Posté par Matt le 06/04/2011 à 08h30
Aucun commentaire
Source : PCInpact
Depuis qu'AMD s'est séparé de ses usines en les confiant à GlobalFoundries, une société créée pour l'occasion, cette dernière reste le principal fournisseur d'AMD pour la fabrication de ses processeurs. Mais AMD devient un client de plus en plus exigeant...
En effet, AMD ne serait pas du tout satisfait des faibles rendements offerts par GlobalFoundries sur la gravure en 32nm, d'autant plus que ces problèmes l'ont forcé à retarder le lancement de sa nouvelle gamme de processeurs à GPU intégré Llano, au profit de la gamme Ontario, gravée en 40nm chez un autre fondeur (TSMC).
Pour l'année 2011, AMD a donc décidé de renégocier son contrat avec le fondeur, pour lui mettre un peu plus la pression. Traditionnellement, les clients des fondeurs achètent les wafers à un tarif prédéterminé, quelque soit le nombre de puces fonctionnelles sur le wafer. AMD accepte de rester sur ce modèle pour les wafers 45nm, mais va par contre payer les wafers 32nm en fonction du taux de puces défectueuses. GlobalFoundries a donc intérêt à faire progresser son processus de gravure 32nm, les rebuts étant désormais à sa charge.
Ce différend est également l'occasion de constater l'avance prise par Intel sur son concurrent dans ce domaine... En effet, alors qu'AMD se bat pour obtenir un taux acceptable de puces fonctionnelles en 32nm et sortir son premier processeur de cette finesse, Intel distribue des Core i en 32nm depuis plus d'un an, et s'apprête déjà à passer au 22nm pour la fin de l'année... AMD pour ça part n'envisage pas mieux que du 28nm pour début 2012, et vise la commercialisation de ses premières puces 20nm fin 2013...
Posté par Matt le 05/04/2011 à 12h11
Aucun commentaire
Source : Tom's Hardware
L'un des reproches les plus souvent faits au navigateur Firefox concerne son temps de démarrage. Sur ce point, le panda fait en effet pâle figure face à Chrome ou Internet Explorer. Si une partie du problème est bien à imputer au navigateur, une partie provient également des nombreuses extensions qu'installent certains utilisateurs...
Pour redorer le blason de son bébé, la fondation Mozilla s'est donc lancée dans une chasse aux extensions qui ralentissent le plus le démarrage du navigateur. Pour ce faire, la fondation a tout simplement repris les 100 extensions les plus téléchargées, et mesuré leur impact sur le temps de démarrage du navigateur. À la clé, une classement des extensions les plus lourdes à charger.
En tête de ce classement peu glorieux, les extensions FoxLingo (assistance à la traduction) et Firebug (outils pour développeurs) augmentent le temps de chargement du navigateur de 74%. Le podium est complété par AniWeather (météo), avec une augmentation de 54%. La dernière extension du top 10, SimilarWeb (recherche de sites en liens avec le site courant) ralenti le chargement de 23%, ce qui montre tout de même que les ralentissements observés avec les extensions du podium sont exceptionnels. On notera également la présence dans ce top 10 de l'extension FastestFox, censée accélérer l'utilisation de Firefox, mais qui ralenti son démarrage de 33%...
Afin d'inciter les développeurs d'extensions à corriger le tire en optimisant le temps de chargement de leurs produits, Mozilla précise que ce classement sera mis à jour en temps réel, permettant ainsi de rendre compte rapidement des progrès effectués.
Posté par Matt le 05/04/2011 à 11h31
Aucun commentaire
Source : Tom's Guide
Rien ne semble pouvoir arrêter la croissance d'Android aux États-Unis ! Passé devant l'iPhone depuis cet automne et devant les BlackBerry depuis le début de l'année, Android continue de gagner des parts de marché aux États-Unis.
Même si sa croissance s'est très légèrement ralentie par rapport au mois de janvier, l'OS mobile de Google a en effet atteint quasiment le tiers du parc de smartphones américains au mois de février 2011, selon la dernière étude de ComScore. Comme d'habitude, la principale victime de cette croissance est le BlackBerry, suivi par les systèmes Microsoft et par Palm, tandis que l'iPhone stagne, ne gagnant que 0.2pt de part de marché.
En nombre d'unités, iOS et Android sont les deux seules systèmes à encore connaitre une croissance significative du nombre d'unités en circulation. Ainsi, en février, le nombre de smartphones Android a augmenté de 2.3 millions, pour s'établir à 23 millions (+11%), tandis que l'iPhone a progressé de 1.1 millions d'unités, atteignant un total de 17.5 millions (+6.7%) d'appareils. Le BlackBerry stagne à 20.1 millions, Windows Mobile passe de 5.3 à 5.4 millions (+1.9%) et Palm passe de 2.1 à 1.9 millions (-9.5%).
D'après ces chiffres, on peut estimer que la part de marché d'Android sur les ventes de smartphones doit désormais s'établir entre 50 et 65%.
Posté par Matt le 05/04/2011 à 11h00
Aucun commentaire
Source : Mac4Ever
Invité de l'émission Capital sur M6 dimanche dernier, Xavier Niel a évoqué la "guerre des prix" entre les opérateurs télécoms. L'occasion pour lui de donner également quelques informations, et non des moindres sur les tarifs de la future offre mobile...
En effet, Xavier Niel promet que Free Mobile proposera un forfait "tout illimité" à un tarifs significativement inférieur à 50€. Le dirigeant d'Iliad révèle en effet que le coût d'un tel forfait pour Free Mobile serait de seulement 25€ par mois en moyenne, et donc que le vendre à 50€ serait encore un tarif trop élevé à son goût. Il n'a par contre pas donné plus de détail sur le reste des offres que proposera l'opérateur. Cette information apporte toutefois un peu de crédit aux prévisions de l'ADUF sur les tarifs de Free Mobile.
Par ailleurs, l'ARCEP a communiqué la date à laquelle elle vérifiera le taux de couverture offert par Free Mobile : ce sera la 12 janvier 2012. Free Mobile devra donc d'ici là parvenir à couvrir 27% de la population française, sans quoi l'opérateur ne pourra pas lancer son offre et perdrait son accord d'itinérance avec Orange.
Posté par Matt le 05/04/2011 à 08h31
2 commentaires
Sources : Univers Freebox et Freenews
Jusqu'à présente, la plateforme Android était une plateforme très ouverte, que n'importe quel constructeur pouvait adopter pour n'importe quel appareil, quasiment sans condition. De plus, les constructeurs avaient la possibilité de modifier plus ou moins le système. Il semblerait que Google veuille mettre un terme à tout ça...
En effet, alors que Google avait annoncé il y a quelques jours que les sources d'Android 3.0 ne seraient pas disponibles immédiatement, pour éviter que n'importe qui puisse sortir un appareil sous cette version du système, ceci ne serait pas la seule mesure de Google. En effet, pour faciliter le développement d'applications et le déploiement des mises à jour du système, Google voudrait une plus grande uniformité du parc d'appareils Android.
Et cette uniformisation ne passera pas que par une limitation des modifications logicielles, puisque Google serait également en négociation avec ARM pour la définition d'une architecture matérielle standardisée pour les appareils Android. Ainsi, Google pourrait s'affranchir des constructeurs et diffuser directement les mises à jour du système.
Ce ne serait pas forcément une mauvaise chose, tant certains constructeurs trainent la patte pour fournir des mises à jour compatibles avec leur matériel, mais on peut par contre craindre qu'une telle solution soit un frein à l'évolution des appareils Android, en l'absence d'une vraie concurrence sur le matériel.
Posté par Matt le 04/04/2011 à 14h30
Aucun commentaire
Source : Tom's Hardware
Dans un récente discours, Francis Gurry, directeur de l'Organisation Mondiale de la Propriété Intellectuelle, a appelé les gouvernants et les ayants-droits à réformer le droit d'auteur pour l'adapter aux nouvelles technologies.
En effet, selon lui les bouleversements apportés par le numérique sont irréversibles, et le système de droits d'auteurs n'a d'autres choix que de s'adapter ou de disparaître. Il rappelle également que le but du droit d'auteur est de favoriser le dynamisme culturel, et non de protéger des intérêts commerciaux... Il va même jusqu'à évoquer quelque chose ressemblant beaucoup à une licence globale, en proposant la mise en place d'une infrastructure mondiale qui permettrait d'obtenir légalement des œuvres aussi facilement que via les réseaux pirates.
Pour Francis Gurry, une telle solution aurait l'avantage de mieux correspondre aux attentes du public, et permettrait de le responsabiliser face aux problématiques de droits d'auteurs. Il va même jusqu'à citer les aspirations du Parti Pirate comme exemple de ce qu'attend le public, tout en précisant quand même qu'il s'agit d'une position extrême : limiter la durée d'exploitation commerciale d'une œuvre à cinq ans, et permettre gratuitement une utilisation non commerciale dès sa sortie.
Si cette position de l'OMPI est un pas important vers la mise en place de nouvelles règles adaptées aux nouvelles technologies, elle risque malheureusement d'être suivie de peu d'effet, l'accord ACTA (Anti-Counterfeiting Trade Agreement), un traité international sur la lutte contre la contrefaçon, prévoyant d'ores et déjà le remplacement de l'OMPI par une nouvelle entité
Posté par Matt le 04/04/2011 à 12h50
2 commentaires
Source : Numerama
Comme prévu, le lancement jeudi dernier du Sony Ericsson Xperia Play, aussi connu sous le surnom de PlayStation Phone, a été accompagné de l'arrivée sur l'Android Market de plusieurs titres issus du catalogue de la PlayStation 1.
Au nombre de cinq pour l'instant (Syphone FIlter, Destruction Derby, MediEvil, Jumping Fish et Cool Boarders 2), ils sont vendus 6$38 (4€50) et sont proposés en anglais, espagnol et allemand. Ils seront utilisables sur la plupart des appareils Android, et non pas seulement sur le Xperia Play, et d'autres titres devraient rapidement compléter le catalogue.
Hasard du calendrier, ou réponse à une demande de Sony, Google a retiré de l'Android Market l'émulateur PlayStation PSX4Droid, au motif qu'il violerait leur politique de contenu. Cela fait pourtant huit mois que l'émulateur était proposé dans la boutique d'Android. D'autres émulateurs sont par contre toujours proposés, ce qui fait penser certains que PSX4Droid aurait été retiré suite à une demande de Sony, propriétaire du nom PSX.
Posté par Matt le 04/04/2011 à 11h11
Aucun commentaire
Sources : Tom's Guide et Le Journal du Geek
Prévu pour succéder à la plateforme Sandy Bridge en fin d'année , la plateforme Ivy Bridge sera essentiellement un die-shrink en 22nm du Sandy Bridge (32nm). Mais il apportera aussi quelques nouveautés, notamment au niveau du PCI-Express.
Ainsi, le contrôleur PCI-Express intégré au processeur va proposer 20 lignes PCI-Express, contre 16 actuellement, et les 16 premières lignes, généralement utilisées par la carte graphique, seront à la norme PCI-Express 3.0, qui offrira une bande passante doublée par rapport à l'actuelle norme PCI-Express 2.0.
La partie graphique intégrée sera également améliorée, avec le support de DirectX 11 et d'OpenCL 1.1 et pourra gérer trois écrans indépendants, tandis que le southbridge accompagnant le processeur supportera enfin l'USB 3.0.
Posté par Matt le 04/04/2011 à 08h22
Aucun commentaire
Source : Macbidouille
Lorsqu'nVidia avait relancé le SLI en 2005, c'était pour la firme au caméléon un bon moyen de rendre ses chipsets plus attractifs : le SLI n'était supporté que sur les chipsets nForce. Plus tard, nVidia l'a autorisé sur certains chipsets Intel via une puce additionnelle, puis sans cette puce... Et désormais, ce sont des chipsets AMD qui vont y avoir droit !
En effet, maintenant qu'nVidia n'est plus du tout présent sur le marché des chipsets haut de gamme, il a tout intérêt à ce que sa technologie SLI fonctionne sur un maximum de chipsets, dans la mesure ou le CrossFire d'AMD est ouvert depuis longtemps à quasiment tous les chipsets. Ce sont donc deux chipsets AMD qui vont avoir droit aux SLI : le 990X et le 990FX. Ces deux chipsets ne sont pas encore disponibles, mais équiperont la nouvelle plateforme AMD, qui ne devrait plus trop tarder.
Ces deux chipsets pourront supporter le SLI sans ajout de puce additionnelle, comme les derniers chipsets Intel. Le 990X aura droit au SLI à deux cartes, tandis que le 990FX, plus haut de gamme, pourra en exploiter jusqu'à trois.
Posté par Matt le 01/04/2011 à 14h41
Aucun commentaire
Source : Tom's Hardware
C'est la bonne blague du jour : Microsoft a déposé auprès de la Commission Européenne une plainte pour abus de position dominante à l'encontre de Google. La plainte concerne essentiellement le domaine des moteurs de recherche, où Google est effectivement largement dominant, mais ne s'y limite pas.
Mais en quoi abusent-ils de cette position dominante ? Pour le directeur juridique de Microsoft, ces abus sont au nombre de six :
- depuis le rachat de YouTube, Google tente de limiter les capacités des autres moteurs de recherche à indexer les contenus de la plateforme vidéo, réduisant ainsi la pertinence des résultats,
- l'application YouTube de Windows Phone 7 ne peut pas accéder à toutes les méta-données des vidéos, la rendant moins complète que les applications équivalentes sous Android et iOS,
- Google tente d'obtenir auprès des maisons d'édition un accès exclusifs aux livres dont les ayant-droits ne sont pas identifiés, afin de bloquer ses concurrents,
- les annonceurs utilisant le service AdWords n'ont pas le droit d'utiliser les données de leurs campagnes dans d'autres services de publicités,
- lorsqu'un site intègre un champ de recherche Google, l'américain leur interdit pas contrat l'utilisation d'autres champs de recherche,
- Google tricherait sur la tarification de certaines publicités, pour empêcher ses concurrents de faire apparaitre leurs produits en bonne position sur les pages de Google.
Il est tout de même assez cocasse de voir Microsoft déposer une plainte pour abus de position devant la Commission Européenne, qui avait condamné Microsoft à de très lourdes amendes pour les mêmes motifs il y a quelques temps. Mais Microsoft n'avait pas d'autres choix, puisque Google ne possède que 25% du marché aux USA (contre 95% en Europe), donc n'y est pas en position dominante.
Posté par Matt le 01/04/2011 à 13h00
Aucun commentaire
Source : Tom's Hardware
Il y a 35 ans jour pour jour, Steve Jobs et Steve Wozniak fondaient Apple dans un garage de la Silicon Valley. À l'époque, la société ne fabriquait que des ordinateurs. Depuis, elle a connu la gloire grâce à des baladeurs et des smartphones. Pour fêter son anniversaire, Apple a fait une annonce fracassante...
Souvenez-vous : il y a quelques jours, nous vous annoncions le départ de Bertrand Serlet, qui quitte officiellement Apple aujourd'hui même. Il y occupait le poste de vice-président en charge du développement de Mac OS X. L'annonce de son départ avait donc soulevé beaucoup de craintes dans la communauté Mac, qui reprochait depuis quelques temps à Apple de faire des Mac de plus en plus fermés, se rapprochant des iDevices qui ont fait le succès de la pomme, et pour beaucoup, le départ de Serlet n'était pas étranger à cette nouvelle orientation.
Ces craintes se confirment malheureusement aujourd'hui : Steve Jobs, de retour de son congé maladie, a pris la parole lors d'une keynote exceptionnelle pour annoncer que la vision d'Apple est que l'ordinateur est une machine dépassée, qui ne couvre plus du tout les attentes du grand public. La firme a donc décidé de cesser de produire des ordinateurs, pour concentrer toute son énergie sur les iPod, iPhone et iPad, qui ont fait sa fortune ces dernières années.
Steve Jobs a indiqué que c'est le concept Motorola Atrix qui a poussé Apple a prendre cette décision, en ressortant un vieux brevet d'une station d'accueil pour Macbook en forme d'iMac, qu'Apple avait déposé en 2008, mais sans jamais le concretiser. Ce concept va être réutilisé pour un nouveau produit, l'iTuna.
Mais au lieu d'accueillir un Macbook, comme prévu à l'époque, c'est un iPad ou un iPhone qui pourra s'enficher dans l'iTuna. Une fois connecté, l'iDevice profitera d'un écran de 21.5" ou de 27", identique à ceux des iMac actuels, d'un clavier et d'une souris ou d'un Magic Trackpad. L'écran devrait également être tactile, pour supporter les applications qui n'auront pas été conçues pour être utilisées avec un couple clavier/souris. Quelques ports USB permettront également d'y connecter la plupart des périphériques compatibles Mac.
Pour les utilisateurs nomades, Apple proposera, sur le même principe, l'iTurbot, qui transformera un iPad ou un iPhone en ordinateur portable, doté d'écrans allant de 13 à 17", tandis que l'iPad aura droit à une troisième version de la sation d'accueil, l'iTrout, qui ne comportera qu'un clavier, en utilisant directement l'écran de l'iPad. Pour exploiter toutes ces stations d'accueil, Apple lancera en juin iOS 5, qui proposera une nouvelle interface graphique capable de s'adapter à des grands écrans.
Pour les aficionados du Mac, Apple lancera quand même une dernière version de Mac OS X, la version 10.7 Lion (on comprend maintenant mieux pourquoi ce choix du nom du roi des animaux, il marque bien la dernière version du système...). Elle sortira cet été et sera vendue uniquement au détail, puisqu'Apple ne commercialisera plus de Mac. Apple assurera ensuite pendant un an le support de cette version, qui pourra s'installer sur n'importe quelle machine, et non plus seulement sur les Mac.
Après cette période de support, Apple promet que l'intégralité du code de Mac OS X sera distribué sous Apple Public Source License, ce qui permettra aux passionnés de continuer à faire vivre ce système. Il s'agit sans doute là de la meilleure nouvelle de toute cette keynote...
Posté par Matt le 01/04/2011 à 11h11
3 commentaires
Source : Pisciculture
L'une des fonctions les plus connues du réseau social Facebook est le bouton "J'aime", qui permet à l'utilisateur d'indiquer à tous ceux qui accèdent à son profil qu'il a apprécié un contenu donné. Présent sur quasiment tous les contenus du site Facebook, ce bouton est aussi apparu sur de nombreux autres sites. Google vient de lancer un système similaire.
Pour cette nouvelle fonctionnalité, Google a choisi un nom un peu plus "geek", puisque le bouton a été baptisé "+1", une expression que le habitués des forums connaissent bien. Le bouton +1 s'intégrera aux résultats de recherche, et vous permettra donc de recommander directement un lien que vous avez trouvé avec Google. Une fois le lien recommandé, le bouton +1 apparaitra en bleu, et une petite note dans le descriptif du lien précisera que vous l'avez approuvé. Un nouveau clic sur le bouton +1 permettra de retirer la recommandation.
Attention toutefois à l'usage que vous ferrez de ce bouton. Alors que vos "J'aime" sur Facebook ne sont pas systématiquement accessibles à tous, vos +1 sont totalement publics, comme le rappel d'ailleurs la petite note ajoutée dans les descriptions des résultats. Vous aurez été prévenu.
Si vous voulez tester cette fonctionnalité immédiatement, rendez-vous sur la page de sélection des fonctionnalités expérimentales. Une fois +1 activé, vous verrez le bouton +1 dans vos résultats de recherche, mais uniquement sur la version anglaise de Google pour l'instant.