UNE NOUVELLE VERSION D'INFOBIDOUILLE EST EN LIGNE CLIQUEZ-ICI POUR LA VISITER

Actualités du mois de mars 2011

Google

Alors que Google est toujours en conflit avec Oracle sur l'utilisation de Java, le géant américain vient de s'offrir les services de James Gosling, l'un des pères fondateurs du langage, à l'époque où il travaillait pour Sun.

Si le rôle de James Gosling au sein de son nouvel employeur n'a pas été officiellement révélé, il ne fait aucun doute qu'il aura un rapport avec Java, et donc probablement avec la plateforme Android, qui utilise massivement ce langage pour les applications tierces. Il ne serait pas étonnant que James Gosling apporte notamment son expertise dans le développement de la machine virtuelle Dalvik, interprétant du bytecode Java, et qui est justement la cause du désaccord entre Oracle et Google, le premier reprochant au second de violer la licence de Java avec sa machine virtuelle.

Google cherche depuis à mettre la pression sur Oracle en retournant la communauté Java contre l'éditeur, et il n'est pas impossible que l'arrivée de James Gosling apporte un peu de pression supplémentaire, celui-ci n'étant probablement pas un grand supporter d'Oracle, puisqu'il a quitté Sun après 16 ans de service peu après son rachat par Oracle, tout en invitant Larry Ellison à maintenir une politique d'ouverture autour de la plateforme Java.

Posté par Matt le 31/03/2011 à 14h40
Aucun commentaire
Source : Silicon.fr

Avec l'arrivée des élections présidentielles, qui se tiendront le 22 avril et le 6 mai 2012, les partis commencent à ébaucher leurs programmes. Dans ce contexte, le Parti Socialiste vient d'adopter un texte qui fera plaisir aux partisans du libre.

Destiné à "garantir le pluralisme effectif des médias" et à développer "un audiovisuel public fort et indépendant", ce texte contient différentes propositions pour l'avenir de l'audiovisuel public, et en particulier son intégration avec Internet. Un point très critiqué par le PS, qui reproche notamment au groupe France Télévisions d'avoir mis trop longtemps à lancer son offre de télévision de ratrappage (Pluzz.fr). Le PS veut donc développer tout le côté numérique de France Télévisions.

Ceci passera notamment par la mise en place d'un portail regroupant les cinq chaînes de France Télévisions, mais aussi les stations de Radio France, l'INA, l'AEF, Arte et LCP, pour faciliter l'accès aux contenus, actuellement disséminés sur de nombreux sites Internet indépendants. Ce portail aurait notamment vocation à accueillir les contenus diffusés par les différentes chaînes, et le PS souhaiterait qu'un maximum de ces contenus soient diffusés sous une licence "permettant leur réutilisation libre et gratuite".

Ce texte risque toutefois de connaitre encore quelques ajustements, puisqu'il fait aussi une proposition difficilement compatible avec la précédente... En effet, pour assurer le financement du service public, le PS ne souhaite pas rétablir la publicité, et propose donc d'augmenter la redevance, mais aussi de développer d'autres sources de revenus, notamment par la vente de contenus... Il reste tout de même envisageable d'offrir sous une licence mixte, comme souvent pratiqué dans le monde du logiciel, avec un accès gratuit pour un usage non commercial et payant dans le cas contraire.

Posté par Matt le 31/03/2011 à 12h40
Aucun commentaire
Source : Numerama

Free

En dehors du clavier virtuel du navigateur web, quasiment inutilisable, les fonctions de détection de mouvement de la zappette de la Freebox Révolution sont encore très peu exploitées, et il y a de quoi s'inquiéter sur les capacités de la bête. Mais selon son créateur, le potentiel de la télécommande va se dévoiler petit à petit.

Télécommande Freebox Révolution

L'Entreprise a en effet publié un article sur Movea, l'entreprise grenobloise à l'origine de cette télécommande. Et selon cette article, les possibilités de la télécommande sont loin d'être limitées à celles activées actuellement. Ainsi, on devrait prochainement voir arriver une mise à jour qui permettra de régler le volume et de changer de chaîne par de simples mouvements de poignet, tandis que les applications tierces, et en particulier les jeux, pourront tirer parti de l'accéléromètre et du gyroscope.

Quand aux problèmes de précision rencontrés avec le clavier virtuel, ils devraient également être corrigés via une mise à jour du firmware de la télécommande, le matériel n'étant pas en cause. Il faut dire qu'à ce niveau là, la société à quelques références, et non des moindre... En effet, même si elle est totalement inconnue du grand public, Movea se définit comme étant le leader mondial dans les technologies de détection de mouvement, et elle s'est récemment offert l'américain Gyration, qui est à l'origine de la Wiimote de Nintendo. Rien que ça...

Posté par Matt le 31/03/2011 à 11h01
2 commentaires
Source : Univers Freebox

Google

Le lancement de Google Buzz aux États-Unis avait fait grand bruit, Google ayant décidé de dévoiler automatiquement aux utilisateurs certaines données relevant de la vie privée. L'affaire avait couté près de dix millions de dollars à Google pour étouffer une class action, mais tout n'est pas encore réglé...

En effet, en plus de la class action réglée à l'amiable, la Federal Trade Commission avait été saisie du dossier par l'Electronic Privacy Information Center. Et face à la FTC, il ne suffit heureusement pas de sortir quelques millions de dollars pour se faire oublier. L'affaire est désormais terminée, mais au prix de grosses concession de la part de Google, formalisée dans un accord entre les deux entités.

Ainsi, Google a accepté d'être mis sous une surveillance régulière, visant à s'assurer que le géant de la recherche respecte bien la confidentialité des informations privées qui lui sont confiées par ses utilisateurs. Dans ce cadre, un contrôle indépendant sera effectué tous les deux ans pendant une période pouvant durer jusqu'à vingt ans.

Google s'est par ailleurs engagé à ne plus modifier la façon dont les données sont partagées sans l'accord explicite de l'utilisateur propriétaire des données. Ainsi, si Google décide par exemple de modifier la valeur par défaut du réglage de visibilité de certaines informations dans Google Profile, cette nouvelle valeur ne concernera que les nouveaux abonnés, les anciens ne passant à la nouvelle valeur que s'ils le veulent bien.

Et si la FTC allait maintenant jeter un coup d'œil du côté de Facebook ? :-)

Posté par Matt le 31/03/2011 à 08h42
Aucun commentaire
Source : Numerama

Amazon

Alors que des rumeurs de plus en plus insistantes font état de l'arrivée prochaine de services de stockage de musique en ligne chez Google et Apple, Amazon vient de griller la politesse aux deux géants, avec Amazon Cloud Drive et Amazon Cloud Player.

Amazon Cloud Drive

Le premier est un service de stockage en ligne sur l'infrastructure Amazon S3. Il propose gratuitement un espace de 5 Go, mais peut être étendu à 20 Go pour une durée d'un an pour l'achat d'un album sur Amazon MP3. Des capacités supplémentaires sont également disponibles contre paiement (1$/Go/an). Cet espace de stockage peut être utilisé pour uploader n'importe quel fichier, tandis que les achats sur Amazon MP3 peuvent y être transférés directement.

Amazon Cloud Player

Amazon Cloud Player est pour sa part une extension du service Cloud Drive, qui permet de lire la musique stockée en ligne, soit depuis un navigateur web, soit via une application Android dédiée.

Amazon Cloud Drive est proposé pour l'instant uniquement sur Amazon.com, mais il n'y a pas de filtre géographique, donc l'espace de stockage est accessible depuis la France (il est même possible de se connecter à Amazon.com avec des identifiants Amazon.fr). Cloud Player dispose par contre pour l'instant d'un filtre géographique.

MàJ le 31/03/2011 à 0h35 : Les industriels de la musique n'apprécient visiblement pas ce nouveau service lancé par Amazon. Sony Music reproche par exemple à Amazon de ne pas lui avoir demandé son accord pour la diffusion en streaming, et se dit prêt à "prendre toutes les mesures légales nécessaires". Une réaction à laquelle Amazon répond que Cloud Player permet uniquement à ses utilisateurs d'écouteur leur propre musique, et est donc à mettre au même plan que n'importe quel autre logiciel de lecture de musique lisant le contenu d'un disque dur externe. Amazon considère donc ne pas avoir besoin d'autorisation particulière des ayant-droits pour assurer ce service.

Actu originale : 30/03/2011 à 8h31

Posté par Matt le 31/03/2011 à 00h38
Aucun commentaire
Source : Génération NT

Firefox

En début d'année, Firefox devenait le navigateur le plus utilisé en Europe, mais restait à l'époque seulement le second en France. Selon les chiffres de StatCounter, ce ne serait plus le cas depuis quelques jours.

Parts de marché des navigateurs

En effet, les deux navigateurs sont au coude à coude depuis une grosse semaine, à environ 37-38% de parts de marché, et Firefox est déjà passé pour la première fois et à deux reprises devant le navigateur de Microsoft (le 22 et le 27), lui permettant d'atteindre une quasi égalité sur 7 jours (37.33% pour IE, 37.24% pour Firefox). Avec les très bons chiffres des téléchargements de Firefox 4, il y a fort à parier que cette tendance se confirme et que Firefox 4 passe pour de bon devant Internet Explorer.

Parts de marché des navigateurs

La fondation Mozilla ne pourra toutefois pas trop se venter d'avoir réussi à détrôner Microsoft sur le marché des navigateurs. En effet, si Firefox est le premier à dépasser Internet Explorer depuis de nombreuses années, il le doit avant tout au succès de Chrome ! Il suffit de regarder l'évolution des parts de marché sur un an pour s'en convaincre : celle de Firefox est quasiment stable, tandis que celles d'Internet Explorer et de Chrome suivent deux courbes opposées... Du premier au 28 mars 2010, IE atteignait 49.42% du marché, Firefox 36.53% et Chrome 6.71%, tandis que sur la même période en 2011 IE tombe à 37.98% (-11.44pts), Firefox "monte" à 36.77% (+0.24pt) et Chrome bondi jusqu'à 16.75% (+10.04pts).

Parts de marché des navigateurs

Au niveau mondial, Internet Explorer reste solidement installé en tête (45% en mars) avec une marge de 15 points sur Firefox (30%) et 28 points sur Chrome (17%), et c'est également Chrome qui est le principal responsable de la baisse d'IE : sur un an, IE a perdu 9 points, Firefox a perdu 1 point et Chrome a récupéré ces 10 points abandonnés par la concurrence. À ce rythme, il faudra encore plus d'un an avant de voir IE dépassé, et d'ici là, Chrome pourrait bien avoir dépassé Firefox !

Posté par Matt le 30/03/2011 à 14h08
Aucun commentaire
Source : Silicon.fr

Free

Après avoir plutôt mal terminé l'année 2010, avec un niveau de recrutement d'abonnés très inférieur à celui de ses concurrents, Free débuterait très bien l'année 2011, boosté par le succès de son offre Freebox Révolution.

En effet, si les chiffres officiels ne sont pas encore disponibles, les informations communiquées par le directeur financier d'Iliad aux investisseurs du groupe laissent entendre que Free aurait représenté environ 40% des recrutements du 1er trimestre 2011, contre moins de 10% au 4ème trimestre 2010. Alice continuerait pour sa part à perdre des abonnés, mais même ainsi, le groupe Iliad serait largement en tête des recrutements.

Ces bons résultats devraient donner à Free de nouveaux arguments face aux investisseurs pour débloquer les fonds nécessaires au financement de ses grands projets : la couverture fibre et la construction du réseau 3G. À noter d'ailleurs que les nouvelles sont plutôt bonnes aussi de ce côté, puisque Free estime être en mesure d'atteindre 27% de couverture dès novembre 2011 dans le meilleur des cas et juin 2012 au pire.

Posté par Matt le 30/03/2011 à 12h30
Aucun commentaire
Source : Univers Freebox

... à condition de faire n'importe quoi ! En effet, les vidéos de Rémi Gaillard devraient d'ici peu totaliser le milliard de visionnage. Un score que seuls quatre artistes américains auraient atteint pour l'instant : Lady Gaga, Justin Bieber, Eminem et Rihanna. Belle performance donc pour le français !



Pour ceux qui ne le connaitraient pas encore, Rémi Gaillard est probablement le premier gros buzz du web français, avant même qu'on parle de "buzz" d'ailleurs, grâce à ses vidéos où il se met en scène en faisant n'importe quoi (son slogan : "C'est en faisant n'importe quoi qu'on devient n'importe qui"). On le retrouve par exemple à faire du vélo d'appartement en pleine rue, utiliser un tapis de caisse de supermarché comme tapis de course, jouer à Mario Kart dans la vraie vie (avec la police en bonus), s'incruster dans le rang de l'équipe de France de Volley pendant la marseillaise, ou encore à faire l'escargot sur une route en heure de pointe...



En un peu plus de dix ans et plus de 100 vidéos, Rémi Gaillard est donc devenu le français le plus vu sur Internet, tout en restant relativement discret dans les médias plus traditionnels, à tel point que cette activité qui était originellement un hobbie pour occuper ses journées de chômeur lui permet aujourd'hui de vivre, tout en se lançant dans des défis de plus en plus dingues grâce au sponsoring. C'est ainsi par exemple qu'il a eu l'occasion de tester une monoplace dans les rues de Montpellier (et là encore, la blague n'a visiblement pas été au goût de la maréchaussée) :

Vous pouvez retrouver toutes les vidéos de Rémi Gaillard sur son site nimportequi.com.

Posté par Matt le 30/03/2011 à 11h10
1 commentaire
Source : PCInpact

Intel Atom

Présentée il y a bientôt un an, la plateforme Intel "Oak Trail", basée sur l'Atom, doit permettre à Intel d'entrer sérieusement sur le marché des tablettes, avec une plateforme x86 très basse consommation. Elle vient de faire son apparition dans la grille tarifaire du fondeur, donc ne devrait plus trop tarder.

Intel Oak Trail

Remplaçante de la plateforme Moorestown, Oak Trail se compose d'un processeur Atom Z670 "Lincroft" (1.5 GHz, mono-cœur, HyperThreading, 512 Ko de cache, contrôleur mémoire LPDDR/LPDDR2 intégré), intégrant un processeur graphique Intel GMA 600 (utilisant une architecture PowerVR SGX535), le tout couplé à un chipset SM35 (Whitney Point), descendant direct du MP20 "Langwell" de Moorestown. Ce dernier offrait des contrôleurs USB et ATA, un lecteur de cartes mémoire, un codec audio AC'97 et diverses fonctions de sécurité. SM35 y ajoute le support du SATA, un codec HD Audio et la prise en charge d'une sortie HDMI.

Proposée à 75 dollars, la plateforme Oak Trail risque toutefois d'avoir quelques difficultés à lutter contre les SoC à base de processeurs ARM, généralement bien moins onéreux. nVidia ne demande par exemple que 20$ pour son Tegra 2, le SoC star des tablettes Android de début 2011. Oak Trail aura tout de même l'avantage de pouvoir faire tourner Windows 7 (mais est-ce réellement un avantage pour une tablette ?) et pourrait peut-être aussi surpasser les solutions ARM en performance pure, mais il faudra attendre les premiers comparatifs de performances pour vérifier ce point.

Tablette Samsung 7-Series

Samsung, qui était déjà pressenti pour être le premier constructeur de smartphone à base de Moorestown jusqu'à l'abandon du projet, devrait être l'un des premiers constructeurs à proposer des tablettes Oak Trail, avec les 7-Series, une gamme de tablettes 10.1" 1366x768 sous Windows 7 Familiale Premium présentée en début d'année. Elles embarqueront 2 Go de RAM et 32 ou 64 Go de stockage et un clavier coulissant, pour un poids total inférieur à 1 kg et une autonomie de 9h. Le ticket d'entrée devrait être de près de 700$.

Posté par Matt le 29/03/2011 à 15h00
Aucun commentaire
Source : PCWorld

Tous les utilisateurs d'appareils mobiles le savent : la recharge des batteries est généralement une opération longue, qui fait perdre en mobilité, puisque l'appareil doit rester à proximité d'une prise électrique où brancher le chargeur, avec parfois un temps de charge supérieur à la durée d'utilisation... Une nouvelle technologie de batterie pourrait bientôt éliminer ces temps d'attente.

Batterie à recharge ultra-rapide

Pour ce faire, une équipe de chercheurs a mis au point un procédé de fabrication permettant de minimiser la distance que les électrons doivent parcourir pour passer de la cathode à l'anode. Cette minimisation est obtenue en partant d'un substrat de micro-billes (1.8µm) de polystyrène. Du nickel est injecté dans les interstices séparant ces billes, puis le polystyrène est retirée. La micro-structure de nickel ainsi obtenue est ensuite électro-polie pour l'"aérer", et les matérieux actifs de la batterie sont déposés sur cette micro-structure, formant ainsi une cathode offrant une énorme surface de contact dans un volume réduit, ce qui permet de mieux transférer les électrons.

Appliqué à des batteries Lithium-Ion, cette technique permet d'obtenir des batteries capables de récupérer 75% de charge en 1 minute et 90% de charge en 2 minutes, tandis qu'avec la technologie NiMH, ces temps diminuent respectivement à 2.7s et 20s ! De plus, la production de ces micro-structures serait relativement aisée, ce qui permet d'envisager un passage rapide à une production de masse.

Il reste toutefois un obstacle à la charge rapide : la puissance nécessaires pour les chargeurs. En effet, qui dit recharge rapide dit besoin d'une forte puissance d'alimentation. Pour recharger une batterie de smartphone de 4 Wh à 90% en 2 minutes, il faudrait en effet un chargeur de plus de 110W, soit la puissance d'un chargeur de gros ordinateur portable, tandis que pour charger en 2 minutes une batterie 60 Wh d'ordinateur portable, la puissance requise atteint plus de 1600W.

Posté par Matt le 29/03/2011 à 12h41
Aucun commentaire
Source : Tom's Hardware

Microsoft Windows Vista

Si la stabilité et la fiabilité de Windows ont énormément progressé depuis l'époque peu glorieuse de Windows 95 et 98, il arrive encore que le système soit corrompu en profondeur pour diverses raisons, obligeant à une réinstallation complète. Windows 8 pourrait limiter le recours à cette solution.

Windows 8 Reset

En effet, les pré-versions de Windows 8 comporte de nouvelles fonctionnalités de restauration. Outre le système de restauration déjà présent actuellement dans Windows, qui permet de restaurer les programmes et paramètres systèmes tels qu'ils étaient à une date antérieure, sans toucher aux documents, une nouvelle fonction ferait son apparition pour réinitialiser complètement le système.

Le résultat de l'opération serait la suppression de toutes les applications installées et la restauration des paramètres de Windows, menant donc à un état quasi identique à celui d'une machine fraichement installée, seules les données utilisateurs étant éventuellement conservée (une option permettra de les effacer également). S'il faudra toujours réinstaller ses logiciels après l'opération, elle devrait s'effectuer bien plus vite qu'une réinstallation complète du système, et la procédure sera peut-être suffisamment bien faite pour conserver toutes les mises à jour du système.

Espérons également que Microsoft saura sécuriser convenablement cette opération. Les conséquences de son exploitation par un logiciel malicieux pourraient en effet être désastreuses.

Posté par Matt le 29/03/2011 à 10h50
Aucun commentaire
Source : PCInpact

LibreOffice

Chaque année, le Google Summer of Code réunit de nombreux étudiants pour des stages rémunérés dans le domaine des solutions open-source. Pour l'édition 2011, la Document Foundation, qui gère le projet LibreOffice, sera de la partie avec une petit quarantaine de projets.

Dans cette liste, il en est un qui pourrait dont la concrétisation pourrait intéresser pas mal de monde : le portage de la suite bureautique LibreOffice sur Android. En effet, si Android pouvait bien se passer d'une suite bureautique tant qu'il était limité aux smartphones, le système de Google va cette année se retrouver dans bon nombre de tablettes et de netbooks.

Avec des grands écrans, voir des claviers, l'intérêt d'une suite bureautique devient plus marqué. Asus a d'ailleurs développé une suite bureautique basique pour ses Eee Pad. Un portage de LibreOffice pourrait donc être très intéressant, en apportant sur Android une suite bureautique réputée, et gérant différents formats de fichiers, dont le standard OpenDocument.

On notera également qu'un autre projet évoque le portage de l'interface graphique de la suite en HTML5 / Canvas, ce qui permettrait de créer une version en ligne de LibreOffice. Le sujet précise que le but de cette version en ligne serait notamment une utilisation sur des tablettes.

Les autres sujets portent essentiellement sur l'ajout de nouvelles fonctionnalités (11 sujets), le support de nouveaux formats de fichiers en lecture et en écriture (8 sujets) ou encore l'optimisation de la suite bureautique, avec un sujet portant sur la traque et le colmatage des fuites mémoire, ou encore l'uniformisation et la modernisation de l'interface graphique.

Posté par Matt le 29/03/2011 à 08h28
Aucun commentaire
Source : Silicon.fr

Baidu

Baidu, vous connaissez ? Il s'agit d'un moteur de recherche chinois, très populaire dans son pays et dans quelques autres pays utilisant une écriture par idéogrammes, qui revendiquait il y a quelques temps la place de numéro un de la recherche, en annonçant traiter plus de requêtes que Google. L'américain semble d'ailleurs être le modèle du chinois...

En effet, les fonctionnalités offertes par les deux moteurs sur leur cœur de métier sont très proche, Baidu ayant lui aussi lancé petit à petit des moteurs spécialisés (images, vidéos, blogs, actualités...), des services annexes (cartographie, traduction...). Mais la ressemblance ne s'arrête pas là ! En effet, Baidu a annoncé la semaine dernière qu'il préparait à se lancer sur le marché des OS mobiles, tandis qu'un navigateur Internet Baidu serait actuellement en phase de test !

Une concurrence qui pour l'instant ne vient pas vraiment empiéter sur les terres de Google, du fait de la différenciation linguistique, mais ceci pourrait bien ne pas durer, puisque le PDG de Baidu a également indiqué son intention de racheter quelques petits moteurs de recherche anglophones, pour élargir son marché.

Posté par Matt le 28/03/2011 à 23h11
Aucun commentaire
Source : Clubic

Ces derniers temps, on a parfois l'impression que les sociétés de droits d'auteurs et les majors sont en train de jouer à celui qui aura l'idée la plus stupide pour monétiser son catalogue d'œuvre... À ce petit jeu, la SABAM, équivalent belge de la SACEM, vient de marquer de gros points, en taxant les routiers !

En effet, la SABAM considère que la cabine du chauffeur est un lieu de travail (jusqu'ici, tout va bien), et qu'elle doit donc verser la redevance au titre de la sonorisation des lieux de travail, même sil le chauffeur se contente d'écouter la radio (qui verse déjà une redevance...) ou ses propres CD. Et ce malgré le fait que le chauffeur est généralement seul dans sa cabine, donc n'entre pas dans le cadre d'une diffusion à plusieurs personnes.

L'association regroupant les professionnels de la route belges, la Transport en Logistiek Vlaanderen a signé un accord avec la SABAM pour fixer les modalités de cette redevance. Elle sera perçue auprès de toutes les entreprises de transport de plus de 9 salariés, et calculée proportionnellement au nombre d'équivalents temps plein.

La SACEM va désormais devoir rivaliser d'ingéniosité pour trouver une taxe plus idiote. Pourquoi pas une taxe sur les prothèses auditives, qui permettent d'écouter des œuvres protégées ?

Posté par Matt le 28/03/2011 à 22h49
1 commentaire
Source : Numerama

Alors que la fibre optique prend son temps pour se développer en France, une autre technologie pourrait venir la concurrencer pour l'accès Internet à très haut débit : le VDSL2+. Cette technologie pourrait en effet bientôt être proposée sur le réseau téléphonique français.

Autorisée pour l'instant uniquement sur des réseaux non connectés au réseau téléphonique, en raison des perturbations que le VDSL2+ pourrait engendrer sur les autres services, cette technologie permet de véhiculer sur une ligne téléphonique des flux pouvant atteindre 100 Mbit/s en download en mode asymétrique, ou encore 50 Mbit/s en download et en upload en mode symétrique.

Pour atteindre de tels débits, il faut toutefois une ligne de bonne qualité et de faible longueur : les 100 Mbit/s ne sont atteints que sur 500m, tandis qu'au delà de 1500m les débits sont équivalents à ceux de l'ADSL2+. Le VDSL2+ pourrait donc constituer une alternative à la fibre dans les zones denses, où on trouve beaucoup de lignes de moins de 1000m.

Selon des rumeurs de plus en plus nombreuses, y compris sur certains canaux officiels, dont le Twitter de Free, le VDSL2+ pourrait être autorisé sur le réseau français avant la fin de l'année. Rappelons d'ailleurs que la Freebox Révolution est équipée d'un chipset réseau Broadcom compatible VDSL2+. La prochaine LiveBox d'Orange, prévue pour 2012, pourrait également être compatible.

Posté par Matt le 28/03/2011 à 22h22
Aucun commentaire
Source : Freenews

Le Parlement Européen travaille actuellement à un projet de loi encadrant le commerce dans l'Union Européenne, et en particulier les ventes en ligne. Bonne nouvelle, les nouveaux textes sont plutôt en faveur du consommateur.

Parmi les nouvelles mesures proposées par ce texte, on notera par exemple :

  • augmentation du délai de rétractation pour les ventes en lignes, qui passera à 14 jours pour effectuer la demande de rétractation, puis encore 14 jours de délai pour le renvoi du produit et 14 jours de délai de remboursement. Ce droit de rétractation s'appliquera aussi aux ventes aux enchères quand le vendeur est un professionnel. Par ailleurs, si le commerçant n'informe pas l'acheteur de ce droit de rétractation, le délai pourrait être porté à 3 mois, voir un an. En France, le délai de rétractation est actuellement de 7 jours.
  • délai de livraison de 30 jours. Passé ce délai, le commerçant ne pourra refuser l'annulation de la commande.
  • interdiction des options en "opt-out". C'est souvent le cas des assurances facultatives pour les ventes en ligne, elles sont activées par défaut et l'acheteur doit les supprimer manuellement.
  • remboursement des frais de retour. En cas de rétractation, les frais de retour seront à la charge du revendeur pour tous les objets de valeur supérieure à 40€. Actuellement, en France, ces frais sont quasiment toujours à la charge de l'acheteur.
  • rétractation pour les ventes par téléchargement : l'acheteur pourra se rétracter tant qu'il n'a pas téléchargé le produit acheté.

Avant d'entrer en application, ce texte doit tout de même encore être validé par le Parlement Européen, la Commission Européenne et le Conseil de l'Europe, puis être retranscrit dans le droit national.

Posté par Matt le 28/03/2011 à 09h01
Aucun commentaire
Source : PCInpact

Très populaire aux États-Unis jusqu'à sa fermeture fin 2010, le réseau P2P Limewire est actuellement trainé en justice par les industriels de la musique. Les majors sont toutefois très gourmandes, à tel point que le juge en charge du dossier à rejeté leurs demandes !

En effet, le dédommagement réclamé par les industriels de la musique à l'éditeur de Limewire sont compris dans une fourchette allant de 400 milliards de dollars à 75 mille milliards de dollars. Rien que ça...

Pour se donner une idée de l'ordre de grandeur de ces valeurs, la valeur minimale est du même ordre de grandeur que les revenus des principaux pays pétroliers, tandis que la fourchette haute dépasse largement le PIB cumulé de tous les pays de la planète ! En d'autres termes, avec une telle somme, l'industrie de la musique pourrait acheter l'ensemble de la production mondiale de biens et de services pendant plus d'un an !

Il est donc évident que ces montants sont sans commune mesure avec le préjudice réellement subi, et on comprend donc bien pourquoi le juge à rejeté la demande.

Posté par Matt le 27/03/2011 à 20h30
Aucun commentaire
Source : Macbidouille

Android Honeycomb

Depuis que Google a lancé son système d'exploitation mobile Android, celui-ci a toujours été open-source, laissant ainsi à tout un chacun, et en particulier aux constructeurs, la possibilité de le modifier et de l'adapter à ses besoins spécifiques. Avec Android 3.0 Honeycomb, la donne change quelque peu...

En effet, cette version ayant été développée spécifiquement pour les tablettes tactiles, Google n'a pas pris le temps d'optimiser son fonctionnement sur d'autres types d'appareils, et en particulier les smarpthones. Le géant d'Internet ne souhaite donc pas voir Android 3.0 sur des smartphones dans l'immédiat, et, pour éviter que des constructeurs puissent l'adapter à de tels appareils, Google a décidé de ne pas publier le code source pour l'instant.

Google promet toutefois que le code source sera mis à disposition plus tard, mais sans donner la moindre précision sur la date. Espérons que cette publication ne tardera pas trop, sans quoi Android pourrait perdre définitivement son image de liberté...

Posté par Matt le 27/03/2011 à 19h00
Aucun commentaire
Source : Numerama

Wysips

Le français Wysips (What you see is photovoltaic surface), spécialiste des capteurs solaires photovoltaïques, vient de présenter un projet original, qui pourrait peut-être un jour équiper les smartphones : un capteur photovoltaïque parfaitement transparent et d'à peine un dixième de millimètre d'épaisseur.

Sa transparence et sa finesse lui permettrait d'être utilisé pour couvrir l'écran, sans trop altérer sa lisibilité (il y a tout de même une légère chute de luminosité), et permettre ainsi de recharger légèrement la batterie lorsque l'appareil est exposé à la lumière. Selon la société, six heures d'exposition seraient suffisante à recharger totalement la batterie d'un smartphone classique, et la lumière reçue en usage courant pourrait suffire à couvrir tous les besoin en énergie de l'appareil.

Si le concept est intéressant d'un point de vue pratique, on peut toutefois se poser des questions sur son intérêt écologique : vu la faible quantité d'énergie récupérée (forcément, un smartphone ne passe pas sa vie en plein Soleil), les coûts énergétiques liés à la fabrication de ces capteurs pourraient bien ne pas être couverts.

Ce type de capteur seraient peut-être plus utiles pour des panneaux de grande taille : leur transparence permettrait de les utiliser sans sacrifier l'esthétique, par exemple sur les façades vitrées des immeubles de bureau ou sur les carrosseries des voitures hybrides et électriques.

Posté par Matt le 25/03/2011 à 17h00
8 commentaires
Source : French iPhone

ARCEP

Depuis plusieurs années, les tarifs de terminaison d'appel des opérateurs mobiles (c'est-à-dire le tarif qu'un opérateur facture à un autre opérateur pour les appels entrants dans son réseau) sont plafonnés par l'ARCEP. Ces tarifs devraient fortement diminuer dans les prochains mois...

En effet, l'ARCEP a notifié la Commission Européenne des nouveaux tarifs qu'elle souhaite mettre en place pour la période du 1er juillet 2011 au 31 décembre 2013. Actuellement, ce tarif est de 3 cts/min pour Orange et SFR et 3.4 cts/min pour Bouygues Telecom. Si le plan de l'ARCEP est validé, ce tarif serait unifié au 1er juillet 2011, avec 2cts/min pour tout le monde.

Au 1er janvier 2012, ce tarif baisserait de 25%, pour atteindre 1.5 cts/min, puis une nouvelle baisse de 0.5 cts/min interviendrait au 1er juillet 2012. Enfin, le tarif passera à 0.8 cts/min le 1er janvier 2013. Au total, la baisse atteindra donc environ 75% en moins de deux ans. L'ARCEP n'a pas évoqué le tarif maximal qui sera autorisé pour Free Mobile, dans la mesure ou son service n'est pas ouvert à ce jour, mais il y a des chances qu'il soit similaire, avec peut-être un petit bonus pour faciliter son entrée sur le marché (tout comme Bouygues a bénéficié jusqu'à aujourd'hui d'un tarif un peu plus élevé).

Cette décision devrait mener à des forfaits offrant un plus gros crédit de communication pour le même prix, voir à la multiplication des offres illimitées vers les mobiles. Elle devrait aussi beaucoup arranger Free. On se souviendra des interviews de Xavier Niel peu après l'annonce de l'offre Freebox Revolution, où le dirigeant de Free indiquait espérer une forte baisse des tarifs des terminaisons mobiles... Selon certains analystes, l'économie pour Free pourrait dépasser la dizaine de millions d'euros par an.

Posté par Matt le 25/03/2011 à 14h40
Aucun commentaire
Source : Génération NT

En attendant que les licences 4G soient attribuées officiellement, Orange, SFR et Bouygues ont été autorisés à tester la technologie LTE, retenue pour la 4G en France. Malheureusement, tout ne se passe pas aussi bien qu'espéré...

En effet, les premières expérimentations ont provoqué des perturbations de la TNT. Dans le pire des cas, certains foyers perdaient totalement le signal TV. Bien que la 4G et la TNT utilisent des fréquences différentes, certains canaux TNT sont dans des gammes relativement proches de celles des antennes LTE, et ce sont ces canaux qui seraient les plus perturbés.

Selon les opérateurs, leurs équipements de test ne seraient pas en cause. Ils expliquent en effet que les antennes-relais 4G n'interfèrent pas sur des fréquences autres que celles auxquelles elles sont censés fonctionner. Pour expliquer ces problèmes, les opérateurs pointent donc du doigt les tuners TNT. Selon eux, certains modèles de piètre qualité ne filtreraient pas suffisamment le signal, et seraient donc sensibles à des signaux utilisant des fréquences relativement proches de celles des signaux TNT.

Espérons toutefois que ces problèmes ne retarderont pas le déploiement de la 4G en France, alors que nous sommes déjà en retard par rapport à certaines de nos voisins, ou de tels réseaux sont déjà exploités.

Posté par Matt le 25/03/2011 à 12h40
Aucun commentaire
Source : Freenews

C'est la bonne blague du jour ! Gearbox nous avais promis Duke Nukem Forever pour le 6 mai, et que cette fois-ci, c'était la bonne, avec plusieurs années de retard de développement et après plusieurs annulations du projet... Et voilà-t-y-pas que l'éditeur nous annonce finalement qu'il y aura du retard...

Que les fans de la finesse et de la classe de ce cher Duke se rassurent, il ne s'agirait cette fois que de cinq petites semaines de retard, la nouvelle date de sortie étant fixée au 10 juin.

Reste à voir si le jeu saura répondre aux attentes des fans, après une si longue période de promesses non tenues...

Posté par Matt le 25/03/2011 à 10h11
Aucun commentaire
Source : NoFrag

Free

Attaqué par l'UFC-Que Choisir, Free a été condamné mardi par le Tribunal de Grande Instance de Paris, qui lui a ordonné de mettre un terme à certaines de ses pratiques et à réviser ses conditions générales de ventes pour en retirer certaines clauses considérées comme abusives.

Cette décision concernerait notamment les frais d'activation à perception différée, nom que Free a donné à la somme perçue lors de la résiliation d'un abonnement. Cette astuce leur permettait de considérer qu'il ne s'agit pas de frais de résiliation, et que cette somme reste donc due même en cas de résiliation suite à une modification unilatérale des conditions d'abonnement.

L'UFC-Que Choisir reprochait également à Free de présenter les modes de paiement de façon trompeuse pour pousser les clients à opter pour le prélèvement automatique. Les frais supplémentaires facturés par Free en cas de paiement par chèque ou carte bancaire ont par ailleurs été jugés illégaux par le tribunal, et Free devra donc cesser de les réclamer.

Free devra de plus verser 50 000€ de dommages et intérêts à l'UFC-Que Choisir.

Posté par Matt le 25/03/2011 à 08h52
Aucun commentaire
Source : Univers Freebox

Si les utilisateurs d'ordinateurs ont à peu près intégré les risques de sécurité auxquels ils s'exposent, même s'ils ne prennent pas forcément de mesures de protection, il n'en est pas de même des utilisateurs de smartphones, qui semblent ne pas avoir pris conscience que les smartphones sont bel et bien des petits ordinateurs...

En effet, selon une étude d'AVG, éditeur de solutions de sécurité, 89% des américains ignorent qu'ils manipulent parfois des informations confidentielles avec leur smartphones. Pire, 57% des utilisateurs considèrent que les fonctions de sécurité de leur appareil ne sont pas importantes et 91% des utilisateurs ne s'imaginent pas qu'une application pour smartphone peut être infectée par un malware permettant de récupérer des informations, y compris des identifiants bancaires ou des numéros de carte de crédit.

Plus de la moitié des utilisateurs (56%) ignorent également le risque d'usurpation d'identité qu'ils courent en ne déconnectant pas leurs applications de réseaux sociaux quand ils ne les utilisent pas. En cas de pertes ou de vol du terminal, un utilisateur indélicat aurait ainsi un accès complet au profil du propriétaire de l'appareil.

Enfin, si une large majorité (66%) utilise son smartphone à la fois à des fins personnelles et professionnelles, 28% ne sont pas conscient des risques que cette mixité induit pour le SI de l'entreprise...

Notons également qu'une étude menée par un hacker sur des téléphones d'occasion a également donné des résultats édifiants, le hacker ayant réussi à récupérer bon nombre d'informations "sensibles" sur ces appareils, et notamment des données bancaires, des e-mails, des identifiants de réseaux sociaux et des photos... Si vous décidez de revendre votre ancien téléphone, assurez vous bien de faire le ménage !

Posté par Matt le 24/03/2011 à 14h48
Aucun commentaire
Sources : Business Mobile et Clubic

Toshiba

Toshiba a annoncé un nouveau périphérique plutôt original : un écran portable de 14", auto-alimenté par USB et utilisant la technologie DisplayLink, pour récupérer l'affichage via USB, en plus de son alimentation.

Écran 14" USB Toshiba

D'une résolution de 1366x768, il ne fait que 25mm d'épaisseur pour un poids de 1.27 kg, avec une un étui de protection intégré, qui fait également office de pied pour maintenir l'écran debout. Malheureusement, Toshiba n'y a pas intégré de connectique autre que l'USB. En l'absence de VGA ou de HDMI, il faudra donc se contenter des piètres performances du DisplayLink, qui excluent toute utilisation pour de la vidéo ou de la 3D.

Proposé à 200$, cet écran devrait surtout trouver son public auprès des professionnels, pour qui il permettra par exemple de faciliter certaines présentations, en permettant à plusieurs intervenants de consulter l'écran.

Posté par Matt le 24/03/2011 à 12h31
Aucun commentaire
Source : Le Journal du Geek via Ptit_bœuf

Une équipe de chercheurs anglais, menée par Krishna Palem, de l'Université de Rice propose une idée originale pour booster les performances des processeurs et réduire leur consommation électrique : les laisser faire des erreurs !

Et ils ne se contentent pas de l'affirmer, puisqu'ils ont réalisé une puce mettant en œuvre cette théorie : un DSP pour prothèse auditive. Grâce à leur astuce, la puce parvient à monter deux fois plus haut en fréquence, tout en consommant moitié moins que des DSP standard, et ce en introduisant un taux d'erreur de seulement 8%.

Ces performances s'expliquent en fait par la simplicité de la puce : une puce classique, garantissant un fonctionnement sans erreur, utilise énormément de transistors pour assurer le contrôle d'erreurs, ce qui augmente grandement la complexité de la puce, et donc sa consommation, tout en diminuant sa tenue aux hautes fréquences.

Bien entendu, de tels taux d'erreurs ne sont pas tolérables pour toutes les applications. Pour le calcul scientifique par exemple, il est important d'avoir une précision maximale. Mais selon les chercheurs, dans tous les domaines où la perception humaine entre en jeux, un tel taux d'erreur est tolérable, car imperceptible pour l'utilisateur. Cette astuce pourrait donc être utilisé dans les processeurs audio, mais aussi les GPU et les puces de traitement vidéo.

Cette idée est d'ailleurs assez proche de celle qui est utilisée en compression audio et vidéo, où les forts taux de compression sont atteints avec des compression dites destructrices, qui éliminent les détails les moins perceptibles par l'oreille ou l'œil humain.

Posté par Matt le 24/03/2011 à 10h11
3 commentaires
Source : Tom's Hardware

Apple

Après avoir été un des fidèles lieutenant de Steve Jobs pendant 22 ans, d'abord chez NeXT, puis chez Apple, le français Bertrand Serlet, qui occupait le poste de Senior Vice President OS X Software a annoncé qu'il allait prochainement quitter la pomme. Il était notamment en charge du développement de Mac OS X.

Après un passage à l'INRIA, Bertrand Serlet s'était expatrié aux États-Unis en 1985, pour rejoindre le Xerox PARC. Quatre ans plus tard, il a rejoint un autre français, Jean-Marie Hullot, chez NeXT, la société créé par Steve Jobs après son éviction d'Apple. Il y a a notamment travaillé sur les interfaces OpenStep et sur Interface Builder, le logiciel de conception d'interfaces graphiques, qui fait encore partie de l'environnement de développement sous OS X 20 ans plus tard.

Il rejoint ensuite Apple lors du rachat de NeXT en 1997, où il devient rapidement vice-président en charge de la plateforme technologique, et travaille au développement de Mac OS X, sous la houlette d'Avie Tevanian, créateur du micro-noyau Mach et vice-président en charge du développement de Mac OS X. Bertrans Serlet récupéra finalement ce poste en 2003, après la promotion de Tevanian au poste de directeur technique. Il n'avait plus quitté ce poste depuis.

Il sera remplacé par Craig Federighi, un autre ancien de NeXT, où il avait été à l'origine de WebObjects, mais qui avait quitté la société peu après son rachat par Apple, avant de revenir croquer la pomme en 2009 en tant que vice-président de l’ingénierie dans la division Mac OS.

Avec le départ de Serlet, c'est donc un personnage clé d'Apple qui quitte le navire, et on ne peut s'empêcher de se demander si ce départ n'est pas en rapport avec le fait qu'OS X tend de plus à plus à se fermer et à devenir un iOS pour ordinateur... La date de son départ est fixée au 1er avril (non, ce n'est pas un poisson), pile le jour des 35 ans d'Apple. Certains pensent d'ailleurs que cette date symbolique est un signe de protestation de la part de Serlet, tout comme lorsque Tevanian et Rubinstein avaient quitté Apple le 1er avril 2006, le jour de ses 30 ans. Officiellement, Serlet indique quitter Apple pour retourner dans le monde de la recherche, en travaillant plus sur la science que sur les produits.

Posté par Matt le 24/03/2011 à 09h10
Aucun commentaire
Source : MacGeneration

Firefox

Maintenant que la version classique de Firefox 4 est disponible, c'est au tour de la version de faire l'actualité, avec l'arrivée de la première Release Candidate de Firefox 4 Mobile.

Utilisant le même moteur de rendu que la version classique, elle reprend aussi une partie de ses nouvelles fonctionnalités, en particulier Firefox Sync, qui simplifiera grandement la vie de ceux qui utilisent Firefox sur leur ordinateur et sur leur smartphone.

On retrouve aussi les performances améliorées, l'ajout d'extensions sans redémarrage, le meilleur support des normes récentes, etc... Des fonctions spécifiques à la version mobile font également leur apparition, comme par exemple une fonction de copier-coller pour faciliter la manipulation des formulaires et la séparation de l'interface et du rendu dans deux processus distincts.

Firefox 4 Mobile RC est disponible pour tous les appareils Android 2 et supérieur, via l'Android Market, ainsi que pour le Nokia N900 sous Maemo.

Posté par Matt le 23/03/2011 à 14h47
Aucun commentaire
Source : Business Mobile

Navteq

Avec les GPS, on connaissait déjà la navigation guidée en mode automobile ou en mode piéton, mais dans les deux cas les logiciels de navigation se contentaient de proposer des itinéraires en extérieur. Avec Navteq Destinations Maps, la filiale de Nokia change la donne...

En effet, ce service vise à donner à l'utilisateur des informations de navigation en intérieur. Couvrant 200 centres commerciaux parmi les plus grands des USA, le service permet de localiser les ascenseurs, les escalators, les toilettes, les sorties de secours... Bref, tout le nécessaire pour aller passer son samedi dans ces temples de la consommation sans craindre de ne pas parvenir à en ressortir.

Le service sera disponible sur les principaux smartphones du marché, et sa couverture géographique s'étendra petit à petit au reste de l'Amérique du Nord, à l'Europe et à l'Asie.

Posté par Matt le 23/03/2011 à 12h40
Aucun commentaire
Source : Übergizmo

Xbox 360

Lancée par Microsoft fin 2005, la Xbox 360 pourrait n'être qu'à la moitié de sa carrière. En effet, selon des sources internes de Microsoft, sa remplaçante pourrait n'arriver sur le marché qu'en 2015.

Si cette information se confirme, la durée de vie de la Xbox 360 serait un record pour une console, même si elle pourrait être rapidement rejointe par la PlayStation 3, à qui Sony avait également promis une durée de vie de l'ordre de la décennie. Même s'il ne s'agit là que d'une rumeur, cette information concorde avec une annonce de Microsoft, qui avait annoncé que l'interface Kinect donnerait encore 5 ans de durée de vie à la console.

Pour rappel, la première Xbox n'avait pour sa part eu droit qu'à quatre ans avant d'être remplacée par la Xbox 360. C'était la plus courte durée de vie parmi les consoles de sixième génération, la PlayStation 2 et Gamecube ayant respectivement duré 6 et 5 ans.

On notera également que nVidia, qui a déjà annoncé travailler sur les GPU des prochaines générations de consoles, a indiqué récemment voir bien plus d’opportunités pour son avenir dans le marché des mobiles que dans celui des consoles, qu'il trouve trop statique. Cette déclaration tendrait aussi à confirmer que la génération actuelle de console durera beaucoup plus longtemps que la précédente...

Posté par Matt le 23/03/2011 à 10h30
3 commentaires
Sources : Tom's Hardware et Gamepro

Amazon

Annoncé et ouvert aux développeurs en janvier dernier, la boutique logicielle d'Amazon pour les terminaux Android a ouvert ses portes aujourd'hui, mais elle est pour l'instant réservée aux résidents américains.

Amazon Appstore

Pour fêter l'occasion, Amazon attaque fort, avec une nouvelle version d'Angry Birds disponible en exclusivité sur l'App Store. Mieux, elle sera gratuite pendant une journée. Amazon promet par ailleurs qu'une application payante sera offerte gratuitement chaque jour. La boutique référence pour l'instant 3800 applications et est accessible soit via un simple navigateur Internet, soit via une application dédiée. Cette dernière offre de plus la possibilité de tester les applications pendant 30 minutes avant de décider ou non de les acheter.

Malheureusement pour Amazon, son arrivée sur ce nouveau marché ne se fait toutefois pas sans heurts. En effet, Apple n'a pas manqué de remarquer la similitude entre le nom de sa boutique (App Store) et celui de la boutique d'Amazon (Appstore), et la pomme a donc décidé d'attaquer Amazon, le nom App Store étant déposé. Attaqué pour le même motif, Microsoft s'était défendu en expliquant que le nom "App Store" est trop générique pour pouvoir être déposé... Nous verrons dans quelques mois si la justice ce range à cet avis.

Posté par Matt le 23/03/2011 à 09h11
Aucun commentaire
Sources : Übergizmo et Macbidouille

Amazon

En lançant son Kindle il y a plus de trois ans, Amazon est devenu l'un des acteurs majeurs du livre numérique, tant du côté du matériel que du contenu. La librairie en ligne, qui a déjà beaucoup diversifié ses activités, envisagerait désormais de s'attaquer au marché des tablettes tactiles, avec un Kindle sous Android.

En effet, Amazon a publié cinq offres d'emploi pour des postes demandant une expérience professionnelle avec Android, tant dans le secteur logiciel que dans le matériel. Les analystes prévoyant une explosion du marché des tablettes tactiles en 2011, il ne serait donc pas surprenant que ces annonces soient en lien avec ce type de produit, d'autant que la hausse de leurs ventes pourrait impacter négativement les ventes de Kindle.

En lançant sa propre tablette, Amazon pourrait donc non seulement compenser l'éventuelle baisse des ventes du Kindle, mais aussi profiter de la renommé de sa marque Kindle pour se tailler une place de choix sur le marché des tablettes.

Rappelons également qu'Amazon a dévoilé il y a quelques temps l'Amazon AppStore, une boutique d'applications Android. Celle ci pourrait donc être en lien avec l'arrivée de produits Amazon basés sur Android.

Posté par Matt le 22/03/2011 à 14h20
Aucun commentaire
Source : Silicon.fr

Firefox

Il y a quelques mois déjà, Mozilla avait annoncé son intention d'accélérer le rythme de sortie de Firefox, en passant à un rythme d'une version tous les trois à quatre mois. Malgré le retard de Firefox 4, Mozilla compte respecter ce nouveau rythme pour la version 5 de Firefox.

Passer à un rythme plus rapide semble en effet nécessaire de nos jours : l'époque où Firefox était la seule alternative crédible à Internet Explorer est largement révolue, et le monde des navigateurs Internet est aujourd'hui particulièrement concurrentiel et bouge très vite, principalement sous l'impulsion de Google, qui sort des nouvelles versions de Chrome à un rythme effréné.

C'est d'ailleurs des processus de développement de Google que Mozilla va s'inspirer pour accélérer le développement de Firefox. La fondation va en effet mettre en place un architecture à quatre niveaux : une branche "mozilla-central", qui remplacera les nightlies, une branche expérimentale, un peu plus stabilisée, une branche beta et une branche finale. Les fonctionnalités introduites et validées dans mozilla-central seront portées dans la version expérimentale au bout de six semaines, puis passeront en beta, et éventuellement en version finale si Mozilla valide définitivement ces fonctionnalités.

Ce nouveau processus de développement devrait apporter la souplesse et la réactivité nécessaire pour maintenir Firefox dans la bataille des navigateurs, face à Chrome et Opera qui ont déjà adopté un rythme de sorti rapide.

Posté par Matt le 22/03/2011 à 13h00
1 commentaire
Source : Tom's Guide

République Française

Depuis que la redevance copie privée a été instaurée, son montant est censé être évalué via des études d'usage, déterminant pour chaque support le manque à gagner résultant de son utilisation dans le cadre de la copie privée. Or, selon le SECIMAVI, ce manque à gagner serait aujourd'hui sur-estimé.

En effet, selon ce syndicat, qui regroupe les fabricants de matériel audio, vidéo et informatique, le nombre moyen d'œuvres licites stockées sur un disque dur multimédia aurait fortement baissé entre 2008 (étude Sofres en octobre) et 2010 (étude CSA en septembre). Pour la musique par exemple, ce nombre serait passé de 139 en 2008 à 38 en 2010, tandis que la vidéo serait passée de 15.2 à 12.9.

En estimant l'espace occupé par les fichiers, sur la base de 16 Ko/s pour l'audio et 130 Ko/s pour la vidéo, le SECIMAVI en déduit qu'entre les deux études, le volume de fichiers éligibles à la redevance copie privée est passé de 34.8 Go à 27.3 Go, alors que dans le même temps, la capacité moyenne des disques multimédias est passée de 90 Go à 251 Go. Ainsi, alors que 38.7% du disque était éligible à la redevance en 2008, il n'y aurait plus que 10.9% d'éligible aujourd'hui. Et sur les disques récents, atteignant des capacités de 500 Go à 2 To, le SEMICAVI considère que le taux d'occupation par des fichiers éligibles devient "ridiculement faible" (5.5% à 1.4%), alors que dans le même temps, de poids de la redevance dans le prix de vente explose, atteignant plus de 30% du prix sur certains modèles.

Partant de ce constat, le SEMICAVI réclame plusieurs évolutions de la redevance, pour l'adapter à la réalité des usages :

  • maintien du plafonnement de la capacité dans les barèmes,
  • diminution du plafond,
  • utilisation du même barème pour les disques avec et sans entrée vidéo (le poids des enregistrements réalisés avec le disque étant négligeable),
  • baisse du barème proportionnelle à la baisse d'usage (-73% pour l'audo, -15% pour la vidéo),
  • plafonnement de la redevance à 8% du prix de vente des disques,
  • suivi régulier des évolutions d'usages à venir.

Malheureusement, ce genre de proposition a peu de chances de s'imposer auprès de la Commission Copie Privée : les représentants des ayant-droits y ont autant de voix que les représentants des constructeurs et des consommateurs réunis, et le président de la Commission est dans le camp des ayant-droits...

Posté par Matt le 22/03/2011 à 10h51
Aucun commentaire
Source : PCInpact

Sony

Présentée par Apple et Intel fin février, l'interface Thunderbolt n'est pour l'instant présente que sur certains ordinateurs de la pomme. Elle pourrait toutefois bientôt arriver sur un nouveau portable Sony Vaio "hybride". Le constructeur préparerait également une nouvelle entrée de gamme Vaio, fonctionnant sous Chrome OS.

Port Thunderbolt

De référence encore inconnue, le Vaio Thunderbolt serait un ultra-portable très léger (1.13 kg) et autonome (8h) en sacrifiant le lecteur optique et la connectique, qui serait limité à une sortie HDMI, de l'USB et un port Thunderbolt, mais embarquant tout de même un processeur puissant, puisqu'il s'agirait d'un Core i7. Il pourra également se connecter sans-fil à un écran, via une interface Intel Wireless Display. L'intérêt du port Thunderbolt sur cette machine sera la possibilité d'y connecter un dock. Ce dernier embarquera notamment un lecteur Blu-Ray et une connectique enrichie, avec un port HDMI, un port VGA, un port Ethernet et quelques ports USB supplémentaires.

Google Chrome OS

Pour l'entrée de gamme, c'est un netbook Vaio sous Chrome OS qui serait en préparation chez le nippon. Doté d'un écran 11.6" 1366x768, d'1 Go de RAM et de 16 Go de stockage flash eMMC, il s'appuiera sur la plateforme nVidia Tegra 2, star des tablettes Android de 2011. Une machine qui viendra donc concurrencer l'Eee PC sous Chrome OS d'Asus, même si le Vaio sera probablement positionné sur une tranche plus haut de gamme, comme d'habitude chez Sony.

Posté par Matt le 22/03/2011 à 08h51
Aucun commentaire
Source : Tom's Hardware

Google

L'affaire avait fait grand bruit l'année dernière : dans une enquête sur Google Street View, la CNIL avait détecté que les Google Cars charger de prendre les rues en photo ne se contentaient pas de ce travail, puisqu'elles sniffaient aussi les réseaux Wi-Fi qu'elle croisait sur son chemin...

Officiellement, Google ne récupérait ces informations dans le but de compléter sa base de données de géolocalisation, pour qu'elle puisse fournir une position la plus précise possible via une triangulation Wi-Fi pour les appareils non dotés de puce GPS. La CNIL a alors exigé que Google lui communique l'intégralité des données capturées, afin de pouvoir les contrôler de manières plus poussée.

Surprise, la CNIL a constaté que Google capturait des trames réseau complètes. Sur un réseau non chiffré, ces trames pouvaient contenir de nombreuses informations personnelles : identifiants et mots de passe de sites web et de messagerie, adresse e-mail, contenus de certains e-mail, parfois avec des contenus "sensibles" (santé, orientation sexuelle...). Depuis, Google a cessé de collecter ces données avec les Google Cars et s'est défendu en expliquant que les données de ces captures n'ont pas été utilisées et qu'elles résultaient d'un bug de leur logiciel, normalement destiné à récupérer uniquement les noms des réseaux Wi-Fi et les adresses MAC des points d'accès.

Malgré cette défense, la CNIL a finalement décidé de condamner Google à 100 000 euros d'amende. Une décision que la CNIL justifie par quatre raisons :

  • le manque de collaboration de Google, qui refuse de fournir le logiciel incriminé, empêchant donc à la CNIL de constater si les captures résultaient vraiment d'un bug,
  • le fait que Google continue à collecter certaines données (identifiants des points d'accès Wi-Fi) à l'insu de leurs propriétaires, via les utilisateurs du service Google Latitude sur les terminaux mobiles,
  • le fait que Google Latitude contrevient à la loi française, en n'ayant pas été déclaré à la CNIL,
  • le fait que Google a tiré un avantage économique d'une partie des données collectées, qui lui ont permis de devenir l'acteur dominant du marché de la géolocalisation.

Malheureusement, vu le chiffre d'affaire de Google, il n'est pas sûr qu'une amende de 100 000€ joue un effet très dissuasif à l'avenir...

Posté par Matt le 21/03/2011 à 23h10
Aucun commentaire
Source : Clubic

Alors que les analystes estiment que le marché des SSD devraient continuer à connaitre une forte croissance en 2011, certains évoquant des chiffres supérieurs à 90%, les constructeur de SSD fourbissent leurs armes pour se faire leur place sur le marché 2011.

Micron RealSSD C400

Ainsi, après le lancement officiel des nouveaux contrôleurs SandForce il y a quelques semaines, c'est au tour de Micron de lancer sur le marché son RealSSD C400. Successeur du RealSSD C300, qui était vendu sous la marque Crucial (filiale de Micron), le C400 embarque le contrôleur Marvell 88SS9174 de seconde génération (BKK2), à la place du contrôleur de première génération (BJP2). Doté de mémoire Flash IMFT 25nm, de 128 Mo de cache DDR3 et d'une interface SATA 6 Gbit/s, il promet des débits de 415 Mo/s en lecture séquentielle et 260 Mo/s en écriture séquentielle, pour 40 000 IOPS en lecture aléatoire et 50 000 IOPS en écriture aléatoire.

Disponible immédiatement au Japon et aux USA, il y est proposé au format 2.5" (une version 1.8" arrivera plus tard) avec des capacités de 64 Go (130$), 128 Go (245$), 256 Go (445$) et 512 Go (920$).

SSD Intel X25-M Postville 34nm

Côté Intel, c'est les SSD 320 Series qui sont en approche. Après les SSD 510 Series, lancés en début de mois, qui utilisent eux aussi le contrôleur Marvell, les SSD 320 Series sont considérés comme les "vrais" nouveaux SSD Intel, puisqu'ils sont basés sur un contrôleur maison. Évolution du contrôleur des X25-M, ce nouveau contrôleur restera en SATA 3 Gbit/s et exploitera de la mémoire flash 25nm, probablement aussi d'origine IMFT. En raison de la "vieille" interface SATA, le débit en lecture séquentielle ne progressera pas (250 Mo/s), limité par l'interface, tandis que le débit en écriture séquentielle pourra faire un gros bon en avant, en montant à 170 Mo/s, soit environ le double des X25-M actuels. En aléatoire, Intel promet 39 500 IOPS en lecture et 23 000 IOPS en écriture.

La gamme SSD 320 Series comportera six capacités, avec des tarifs aux environs de 2$ le Go, sauf sur l'entrée de gamme, nettement plus chère : 40 Go (110$), 80 Go (190$), 120 Go (240$), 160 Go (330$), 300 Go (570$) et 600 Go (1120$).

Posté par Matt le 21/03/2011 à 22h50
Aucun commentaire
Sources : BHMag et Clubic

Firefox

Avec plusieurs mois de retard sur son planning initial, la fondation Mozilla a mis en ligne aujourd'hui sur son FTP la version finale de Firefox 4, qui commencera officiellement sa carrière demain. Cette version est identique à la Release Candidate 2 publiée il y a quelques jours.

Firefox 4

Cette nouvelle version, qui est une évolution majeure, était très attendue pour remettre Firefox dans la course, alors qu'il était dépassé par certains de ses concurrents. Elle apporte donc beaucoup de nouveautés, en plus d'une importante optimisation du code, notamment avec le nouveau moteur JavaScript JaegerMonkey, qui, si elle ne permet toujours pas à Firefox d'atteindre la vitesse de Chrome, lui permet toutefois de ne plus être laissé sur place... Elle remet également Firefox à niveau sur le plan technique : meilleure prise en charge du HTML5 et du CSS3, support des vidéos WebM, du WebGL (animations 3D), amélioration du support SVG, accélération matérielle...

L'évolution la plus visible est la nouvelle interface du navigateur. Le barre de menu est désormais masquée par défaut, pour gagner un peu en hauteur. Elle laisse sa place à un unique menu "Firefox" dans la barre de titre, regroupant les fonctions les plus importantes. La barre des modules disparait également, toujours pour gagner de la place en hauteur, tandis que le barre des onglets se repositionne au dessus de la barre d'adresses (mais elle peut être remise à sa position classique).

Firefox 4 - Groupes d'onglets

Les onglets peuvent désormais être épinglés, ce qui les réduits à une petite icône sur la gauche de la barre d'onglet. Pratique pour ne pas trop encombrer cette barre avec les onglets qui restent ouvert en permanence en tâche de fond, comme un webmail ou un lecteur de flux RSS. Ces onglets épinglés réapparaissent aussi lors de la réouverture du navigateur. Toujours pour réduire l'encombrement de cette barre, Firefox 4 introduit la notion de "Groupes d'onglet", assez similaire au principe des bureaux virtuels. Elle permet de définir des sous-ensembles d'onglet et, en passant d'un sous-ensemble à un autre, seuls les onglets du sous-ensemble sélectionné s'affichent dans la barre d'onglets.

Firefox 4 - Gestionnaire d'extensions

Le gestionnaire d'extensions est également revu. Il s'intègre désormais dans un onglet, et non plus une fenêtre dédiée, et bénéficie d'une interface plus claire, permettant de trouver plus facilement son bonheur. Le nouveau framework Jetpack permettra par ailleurs l'arrivée d'une nouvelle génération d'extensions installables sans redémarrer le navigateur. L’ancien framework reste supporté, et bon nombres d'anciennes extensions sont d'ores et déjà compatibles, mais ces extensions "à l'ancienne" nécessiteront toujours le redémarrage.

Firefox Sync

Firefox Sync fait désormais partie intégrante du navigateur. Concurrent d'extensions telles que Xmarks ou LastPass, Firefox Sync permet la synchronisation des marque-pages, des mots de passe, des préférences, de l'historique et des onglets ouverts entre plusieurs instances de Firefox. Pratique pour ceux qui ont plusieurs ordinateurs.

Enfin, Firefox 4 propose la nouvelle option "Do Not Track", qui permet d'ajouter aux en-têtes des requêtes du navigateur un indicateur pour signaler aux sites que vous ne souhaitez pas être tracé, par exemple par les régies publicitaires. Encore faudra-t-il que cette en-tête soit prise en compte par les serveurs distants...

Posté par Matt le 21/03/2011 à 22h00
Aucun commentaire
Source : Génération NT

République Française

Voici revenu un sujet récurrent en matière de fiscalité : la taxation des ventes de biens entre particuliers sur Internet... Un sujet régulièrement évoqué par les législateurs, mais sans qu'il n'y ait jamais eu de décision. Une fois de plus, il est d'actualité, "grâce" à deux députés UMP : Bruno Bourg-Broc et Martine Aurillac.

Tous deux ont en effet adressé une question écrite au gouvernement, et plus précisément au ministre du Travail, qui a renvoyé la balle au ministre de l'Économie et des finances. La première évoque le cas des particuliers qui achètent des produits en mauvais état, les réparent et les revendent sur Internet, tandis que la première s'attaque aux particuliers qui achètent des produits en lots pour les revendre à l'unité.

Dans les deux cas, les députés s'attaquent au fait que ces reventes se font sans déclarations, ce qui serait selon eux une concurrence déloyale vis à vis des professionnels, mais aussi une perte de recette fiscales. Les deux députés appellent donc le gouvernement à prendre des mesures pour freiner ce marché gris.

La dernière fois que la question avait été évoquée, le Secrétariat à l'Économie Numérique, à qui elle avait été posée, avait répondu de façon très vague, indiquant que les particuliers "dont les activités commerciales dépassent le cadre de la vie courante" doivent le déclarer comme activité commerciale et s'enregistrer auprès du registre du commerce, faute de quoi ils risquent jusqu'à 3 ans de prison et 45 000 euros d'amende. Le SEN n'avait pas précisé dans quelle limite l'activité est considérée comme étant dans le cadre de la vie courante.

Posté par Matt le 21/03/2011 à 08h31
2 commentaires
Source : Numerama

Prévu depuis plus de cinq ans mais jamais validé par l'ICANN (Internet Corporation for Assigned Names and Numbers, l'organisme qui gère l'espace de nommage des sites Internet et l'attribution des adresses IP), l'extension de domaine .xxx, destinée aux sites pornographiques a finalement été acceptée par l'ICANN.

Le but de l'introduction de cette extension est d'améliorer la sécurité des transactions, en limitant les usurpations, mais aussi d'améliorer le filtrage, et en particulier le contrôle parental. ICM, qui administre le registre .xxx, indique aussi que l'adoption d'un tel nom de domaine sera un bon moyens pour les acteurs de l'industrie du porno d'améliorer leur image, en montrant qu'ils assument bien leurs responsabilités.

Ce registre sera de plus réglementé par l'IFFOR (International Foundation For Online Responsibility), un groupe à but non lucratif composé de représentants de la protection de l'enfance, d'experts informatiques, de défenseurs de la liberté d'expression et de représentants de l'industrie du porno. L'IFFOR veillera notamment à ce que cette extension ne soit utilisée qu'à des sites rattachés officiellement à l'industrie du porno. Le fonctionnement de l'IFFOR sera financé directement par les titulaires de domaines en .xxx, qui verseront une contribution annuelle de 10$ par domaine, en plus de 60$ annuels facturés par ICM pour l'enregistrement du domaine.

Malgré les réticences de l'industrie du porno, qui craignait qu'une identification trop claire des sites pornographique ne soit pas bonne pour leurs affaires, ICM a déjà enregistré plus de 280 000 réservations de domaines en .xxx.

Posté par Matt le 20/03/2011 à 20h30
Aucun commentaire
Source : PCInpact

Archos

Grâce au succès de ses tablettes, le français Archos a réussi une excellente année 2010, avec un chiffre d'affaire en hausse de 44% et un déficit en baisse de 88%. Pour continuer sur cette dynamique, le constructeur va lancer en juin sa neuvième génération de tablettes tactiles.

Archos ayant lancé il y a peu sa marque low-cost Arnova, ces nouvelles tablettes sous Android seront probablement positionnées un peu plus haut de gamme, comme le laissent entendre des premières informations sur les spécifications. On parle notamment d'un processeur ARM Cortex A9 double cœur à 1.6 GHz, annoncé comme le plus puissant du marché. À titre de comparaison, la plupart des tablettes de dernière génération sont basées sur des processeurs A9 double-cœur fonctionnant entre 1 et 1.2 GHz.

Les six nouvelles tablettes, dont les tailles d'écran iront de 5 à 10", utiliseront également un nouveau châssis à base de métal et de plastique et embarqueront un modem 3G, ce qui devrait permettre de les trouver à bon prix chez les opérateurs mobiles, en contrepartie d'un forfait 3G. Il faudra par contre se contenter de disques durs, Archos préférant privilégier la capacité et le prix plutôt que la performance.

Enfin, le constructeurs a annoncé qu'en plus de ces nouvelles tablettes, il allait diversifier son activité en lançant des "gadgets pour la maison", alors qu'il se limitait jusqu'à présent aux tablettes et baladeurs, sans toutefois préciser leur nature exacte.

Posté par Matt le 20/03/2011 à 18h30
Aucun commentaire
Source : Tom's Guide

Asus

Après avoir connu un grand succès avec la vague des netbooks en 2009, la gamme Eee PC d'Asus a depuis marqué le pas, à cause de la chute du marché des netbooks, résultant de l'arrivée des tablettes et de la hausse des prix des netbooks liée à un équipement de plus en plus complet. Mais Asus ne s'avoue pas vaincu !

Asus Eee PC Chrome OS

En effet, le taiwanais s'apprêterait à lancer une nouvelle gamme de netbooks à bas prix. Dotés de processeurs Atom et d'écrans de 10 à 11", ces nouveaux Eee PC fonctionneront sous Google Chrome OS. Les tarifs seront particulièrement agressifs, les rumeurs évoquant à peine 200 à 250$. Asus devrait de plus commercialiser ces Eee PC via des opérateurs mobiles. Associés à des forfaits clé 3G, ces Eee PC pourraient bénéficier d'une subvention ramenant leur prix à un tarif symbolique.

Reste à voir si Chrome OS saura se trouver un public. En effet, malgré les tarifs très faibles des machines, Chrome OS reste un OS nettement plus limité qu'un OS classique, ce qui pourrait mettre un frein aux ventes.

Posté par Matt le 18/03/2011 à 13h00
Aucun commentaire
Source : Übergizmo

Google Docs

Dès son lancement, Google Docs, la suite bureautique en ligne de Google, a mis l'accent sur le travail collaboratif. Mais depuis, ces fonctionnalités ont peu évolué, et étaient devenues quelque peu obsolète. Google vient donc de dépoussiéré l'une des fonctions essentielles au travail collaboratif : les fonctionnalité de discussion.

Google Docs

Le but : fournir un outil de discussion plus puissant, plus complet et plus simple à utiliser. Ainsi, les commentaires sont désormais éditables par leurs auteurs et datés, tandis que les avatars font leur apparition dans les fils de discussion, facilitant identification des intervenants.

Google Docs

Les commentaires pourront désormais aussi être utilisé pour traiter des demandes de modification, grâce à une fonction permettant de "résoudre" un commentaire, ce qui consiste à le masquer une fois qu'il a été pris en compte. Il restera accessible dans les détails de la discussion, et pourra être ré-ouvert si la solution mise en œuvre n'a pas été satisfaisante.

Google Docs

Enfin, Google a implémenté un système de notification au niveau de ceux des principaux outils professionnels de discussion collaborative, grâce à la possibilité de s'adresser directement à un intervenant dans un commentaire, en mentionnant son identifiant ou son adresse e-mail, ce qui aura pour effet de le notifier par mail.

Google Docs

Avec ces nouvelles fonctionnalités, Google confirme donc sa volonté de venir chasser sur les terres des spécialistes des outils collaboratif, avec une solution entièrement en ligne et gratuite.

Les changements étant importants, la nouvelle version ne sera dans un premier temps disponible que pour les documents.

Posté par Matt le 18/03/2011 à 11h08
Aucun commentaire
Source : Le Journal du Geek

TomTom

Il y a un peu plus de deux ans, TomTom lançait son service Live, permettant de recevoir sur les GPS de la marque des informations en temps réel sur les points d'intérêt, la météo, les conditions de circulation, via une carte SIM intégrée et un abonnement mensuel. Les informations de trafic en temps réel sont désormais accessibles gratuitement sur Internet.

TomTom Live Traffic

TomTom vient en effet de lancer un site baptisé Live Traffic. Celui-ci reprend les informations trafic du service HD Traffic, inclus dans TomTom Live. Pour rappel, HD Traffic est l'un des services d'information trafic les plus avancés, grâce à une astuce tout simple : dans chaque pays couvert, TomTom a un accord avec un opérateur mobile (en France, il s'agit de SFR). Il utilise alors le réseau de cet opérateur pour fournir le service Live à ses abonnés, mais aussi pour collecter les positions des utilisateurs du service Live et de tous les abonnés de l'opérateur. En analysant leurs déplacements, TomTom peut ainsi repérer les bouchons, caractérisés par une forte concentration d'abonnés se déplaçant à faible vitesse, et déterminer leur impact sur les temps de trajet.

Malheureusement, malgré la gratuité de cette version web, le service intégré aux GPS TomTom reste payant, en raison de l'utilisation du réseau de téléphonie mobile.

Posté par Matt le 18/03/2011 à 08h22
Aucun commentaire
Source : Génération NT

Intel

Depuis quelques temps, une nouvelle tendance est apparue sur le marché des serveurs : les "micro serveurs", des machines basées sur des processeurs de faible puissance, destinées à des applications légères, comme par exemple un site web, ou encore des applications massivement parallèles, en dotant les serveurs d'un très grand nombre de petits cœurs. Un marché parfait pour l'Atom !

Châssis SeaMicro SM10000

Mais jusqu'à présent, l'Atom est toujours resté pour Intel un processeur destiné à des machines grand public de faible puissance, les netbooks et les nettops. Toutefois, quelques constructeurs ont fait le pari de l'utiliser dans des serveurs, comme par exemple SeaMicro, qui a monté jusqu'à 512 processeurs Atom dans des serveurs 10U.

Intel a annoncé qu'à partir de l'année prochaine, il proposera officiellement un processeur Atom pour serveur, qui viendra compléter par le bas sa gamme de processeurs Xeon basse consommation. Le fondeur n'a par contre pas donné de détail sur les caractéristiques de ces nouveaux processeurs, si ce n'est qu'ils consommeront moins de 10W, contre 20 à 45W pour les processeur Xeon basse consommation actuellement au catalogue et 15W pour les Xeon basse consommation qui seront lancés au second semestre, basés sur l'architecture Sandy Bridge.

Posté par Matt le 17/03/2011 à 14h50
3 commentaires
Source : Tom's Hardware

Dans le domaine de la téléphonie mobile, outre le développement des réseaux de quatrième génération, la prochaine évolution majeure devrait être la généralisation des fonctionnalités NFC (Near Field Communication), permettant d'utiliser le téléphone comme moyen de paiement ou comme titre de transport et qui équipent déjà certains modèles. Dans ce domaine, Apple et Google pourrait s'affronter...

En effet, alors que Google va expérimenter des services basés sur le NFC des cet été dans différentes villes américaines, notamment grâce au récent Nexus S, disposant d'une puce NFC, il se murmure qu'Apple préparerait sa propre "norme" NFC, incompatible avec les solutions existantes et s'appuyant sur iTunes pour la gestion des paiements. eBay serait également intéressé par cette technologie, via sa filiale PayPal.

Si plusieurs normes incompatibles venaient à émerger, nous assisterons probablement à une rude bataille entre les différents acteurs, pour tenter de s'attribuer ce marché, dont les analystes estiment qu'il gérera pour 110 milliards de dollars de transaction en 2015. Si la pomme se lance dans un système propriétaire, elle risque toutefois d'avoir du mal à l'imposer, sa part de marché étant désormais insuffisante par rapport à celle d'Android.

Posté par Matt le 17/03/2011 à 12h30
Aucun commentaire
Sources : The Independent et Silicon.fr

Free

Free a publié hier un nouveau firmware pour son boîtier Freebox Player, qui passe à la version 1.0.3.2. Comme la précédente mise à jour, la 1.0.3.2 est une mise à jour mineure, corrigeant quelques uns des bugs signalés sur le bugtracker de Freeplayer.org.

Freebox Player

Freebox Player

Corrections

  • Pas de son lors de la lecture de DVD/Blu-ray (FP #5918)
  • Plantage lors de la lecture du DVD Brazil (FP #3580)
  • Impossible de lire certains films en vidéo à la demande (FP #5212)
  • Chaînes payantes inaccessibles sur Freebox Replay (FP #3639)
  • Gel de la vidéo sur les chaines TV alors que le son continue (FP #4585)
  • Multiposte TNT ne fonctionne plus lorsque le Player change d’adresse IP (FP #5823)
  • Le clavier virtuel du navigateur web reste affiché lorsqu’un clavier USB est branché (FP #3780)
  • Le clavier virtuel du navigateur web est caché lorsqu’une souris USB est branchée (FP #4673)
Posté par Matt le 17/03/2011 à 10h50
Aucun commentaire
Source : L'actualité de la Freebox

HTC

Le récent Android 3.0 Honeycomb est officiellement réservé aux tablettes tactiles, même s'il contient tout le nécessaire pour fonctionner sur un smartphone, y compris une interface s'adaptant à leurs écrans bien moins spacieux que ceux des tablettes. HTC pourrait bien en profiter pour se démarquer en lançant un smartphone sous Honeycomb.

HTC Pyramid de face

En effet, selon les informations révélées par le site chinois Xda.cn, le HTC Pyramid pourrait bien fonctionner sous Android 3.0. Clairement positionné sur le haut de gamme, l'appareil embarquera un écran Super-LCD de 4.3" (960x540), un processeur Qualcomm Snapdragon MSM8260 à 1.2 GHz et 768 Mo de RAM, dans un châssis ressemblant à un croisement de Desire HD et de Nexus One.

HTC Pyramid de dos

Bien entendu, tous les autres équipements classiques d'un smartphone haut de gamme seront de la partie : APN 8MP avec flash LED, Wi-Fi, Bluetooth, GPS, caméra 1.3 MP en façade, etc...

Il ne reste plus qu'à attendre une annonce officielle d'HTC pour voir s'il fonctionnera bien sous Android 3.0.

Posté par Matt le 17/03/2011 à 08h12
Aucun commentaire
Source : Le Journal du Geek

OCZ

Présent sur le marché des SSD depuis qu'il a atteint le grand public, OCZ n'était jusqu'à présent qu'un intégrateur, assemblant des SSD avec des mémoires et des contrôleurs fournis par des tiers. Une stratégie qui est en train de changer, la Californien ayant racheté Indilinx, un constructeur de contrôleurs.

OCZ collaborait déjà avec Indilinx depuis quelques années, et lui doit d'ailleurs une bonne part de son succès sur le marché des SSD, les OCZ Vertex ayant connu un grand succès grâce au contrôleur Indilinx Barefoot. Depuis Indilinx a perdu un peu de sa superbe et s'est vu relégué aux SSD de milieu, voir d'entrée de gamme, mais OCZ compte bien relancer la R&D pour proposer à nouveau des contrôleurs dignes du haut de gamme.

Ce rachat marque une étape importante dans la stratégie d'OCZ, qui mise désormais clairement tout son avenir sur les SSD, après avoir annoncé il y a quelques temps l'abandon de son activité historique, les barrettes de mémoire.

OCZ précise également que cette acquisition ne remet pour l'instant pas en cause sa collaboration avec SandForce à court terme, les SSD OCZ utilisant ces contrôleurs ne devraient donc pas disparaitre des rayons dans les prochains temps.

Posté par Matt le 16/03/2011 à 15h10
Aucun commentaire
Source : Macbidouille

Internet Explorer

Comme prévu, Microsoft a publié hier la neuvième mouture de son navigateur Internet Explorer. Une évolution majeure par rapport à la précédente, pour tenter d'endiguer la fuite des utilisateurs vers Firefox, mais aussi et surtout Chrome.

Internet Explorer 9

En effet, si Firefox avait déjà bien entamé la part de marché d'Internet Explorer, le navigateur de Microsoft a récemment beaucoup souffert de la croissance très rapide des parts de marché de Chrome. Internet Explorer 9 à donc fort à faire pour redorer le blason de la série, et il semble s'en donner les moyens.

Au programme de cette nouvelle version :

  • compatibilité partielle avec les futures normes HTML5 et CSS3,
  • nouveau moteur JavaScript, plus performant,
  • meilleur respect des normes HTML et CSS existantes,
  • nouveau moteur d'affichage nettement plus rapide,
  • utilisation de l'accélération graphique Direct2D,
  • possibilité de mettre des raccourcis vers les sites Internet dans la barre des tâches de Windows 7.

Cette nouvelle mouture n'est toutefois pas encore parfaite, puisque le support des normes HTML5 et CSS3 est assez éloigné du niveau offert par Chrome, le plus en pointe sur ce point, tandis que le support des normes existantes souffre encore de quelques défauts, le test Acid3 échouant à 95/100, contre 97/100 pour Firefox 4 et 100/100 pour Opera, Safari et Chrome. Internet Explorer 8 n'atteignait pour sa part que 20/100, ce qui montre bien l'ampleur du fossé qui sépare les deux versions. Internet Explorer 9 est disponible en version 32 et 64 bits, mais cette dernière ne dispose pas du nouveau moteur JavaScript et Adobe ne propose pas encore de plug-in Flash 64 bits.

Pour le téléchargement, c'est par ici. Attention, seuls Windows Vista, 2008 et 7 sont supportés, et la différenciation 32/64 bits sur la page de téléchargement concerne la plateforme cible, et non la version d'IE (le package 32 bits contient la version 32 bits d'IE pour un OS 32 bits, le package 64 bits contient la version 32 bits et la version 64 bits pour un OS 64 bits). Les versions de Windows antérieures à Vista ne bénéficieront plus de nouvelles versions d'Internet Explorer.

Notez également que Google n'a pas trainé pour sortir son plug-in WebM, en réponse au plug-in H.264 que Microsoft propose pour Chrome. C'est par ici que ça se passe.

Posté par Matt le 16/03/2011 à 12h50
Aucun commentaire
Sources : Le Journal du Geek via Ptit_bœuf

Apple

Ces derniers mois, l'iPhone s'est illustré plus d'une fois avec des problèmes d'horloges et d'alarmes, survenant au moment du changement d'heure et de la nouvelle année. Contre toute attente, ces problèmes ne sont toujours pas résolus avec la dernière version d'iOS, la 4.3, sortie il y a seulement quelques jours.

En effet, les américains sont passés à l'heure d'été ce week-end, et ceux qui ont font confiance à leur iPhone pour prendre en compte ce changement correctement ont eu la mauvaise surprise d'être réveillés 2h trop tard, les iPhone ayant reculé d'une heure au lieu d'avancer d'une heure...

Il y a de fortes chances que ce bug se produise également en France lors du passage à l'heure d'été, qui surviendra le 27 mars lorsque les horloges passeront directement de 2h à 3h du matin. Si vous avez besoin de vous réveiller à une heure précise le 27 mars, par exemple pour l'ouverture du Championnat du Monde de Formule 1 par le Grand Prix d'Australie, à 8h du matin, prenez vos précautions et prévoyez un second réveil...

Posté par Matt le 16/03/2011 à 10h40
4 commentaires
Source : Clubic

Reporters Sans Frontières a profité de la journée mondiale contre la cybercensure pour mettre à jour sa peu glorieuse liste des pays ennemis d'Internet. Mauvaise nouvelle pour les français : notre pays fait son entrée dans la liste des pays sous surveillance.

C'est le première fois que la France se retrouve sur cette liste. Elle y rejoint notamment l'Australie et la Corée du Sud, mais aussi la Tunisie et l'Égypte, deux pays qui étaient connus pour leur Internet fortement filtrés, mais qui rejoignent cette année la liste des pays simplement sous surveillance, après la chute de leurs régimes dictatoriaux. Les pays considérés comme ennemis d'Internet sont désormais au nombre de 10 : Arabie Saoudite, Birmanie, Chine, Corée du Nord, Cuba, Iran, Ouzbékistan, Syrie, Turkménistan et Viêt-nam.

Reporters Sans Frontières a au total placé 16 pays sous surveillance : Australie, Bahreïn, Bélarus, Corée du Sud, Égypte, Émirats Arabes Unis, Érythrée, France, Libye, Malaisie, Russie, Sri Lanka, Thaïlande, Tunisie, Turquie et Venezuela. Il est assez inquiétant de voir le pays des droits de l'homme côtoyer celui de Kadhafi...

C'est "grâce" à la loi LOPSSI 2 que la France a pris place dans cette liste. Sous couvert de lutte contre la pédopornographie, cette loi a mis en place une procédure de filtrage des sites Internet. Si en soit, le filtrage de tels sites n'est bien entendu pas contesté par Reporters Sans Frontières, l'organisme n'approuve par contre pas le fait que la filtrage puisse être mis en place sans contrôle par un juge indépendant. RSF craint également que ce filtrage ne soit détourné pour censurer d'autres types de contenus, et notamment certains contenus qui ne seraient pas au goût du chef de l'État.

Posté par Matt le 16/03/2011 à 08h41
1 commentaire
Source : Génération NT

Vendredi dernier, la Japon subissait un tremblement de terre particulièrement violent, suivi d'un tsunami dévastateur, causant de nombreuses pertes humaines et des dégâts matériels considérables. Les associations humanitaires se sont donc rapidement mises à pied d'œuvre, et collectent donc des dons pour financer leurs actions. Les escrocs ont malheureusement réagit tout aussi vite...

En effet, selon l'Internet Crime Complaint Center, près de 2 millions de pages frauduleuses, plus de 420 scams et 50 nom de domaines comportant les mots "japan", "tsunami" et "earthquake" ont déjà été lancés par des escrocs. Le but : collecter des dons, qui tomberont directement dans la poche des escrocs au lieu de contribuer à la reconstruction du Japon.

Si vous souhaitez effectuer un don pour cette cause, nous ne pouvons donc que vous conseiller de vous rendre directement sur les sites des associations humanitaires et ONG reconnues, avec lesquels vous aurez la quasi certitude que les sommes versées seront utilisées à bon escient.

Quelques exemples :

Posté par Matt le 16/03/2011 à 01h10
Aucun commentaire
Source : Übergizmo

Apple

Chaque année, le Pwn2Own réuni pendant trois jours un grand nombre de hackers et de chercheurs en sécurité et leur donne un but commun : mettre à mal la sécurité de produits électroniques grand public, avec en cas de succès une forte récompense et le droit de repartir avec le matériel hacké. Et comme ces dernières années, les Pwn2Own 2011 a fait souffrir les produits Apple...

En effet, ni le MacBook Air sous Mac OS X, ni l'iPhone 4 sous iOS 4.2 n'ont résisté à l'acharnement des hackers. Et les deux systèmes ont en commun un même maillon faible : le navigateur Safari. Pour Mac OS X, c'est une équipe de spécialistes français, de la société employés de Vupen Security, qui a trouvé la faille. Une fois Safari pointé vers un site web forgée pour l'occasion, les chercheurs sont parvenus à exécuter des applications et écrire des fichiers sur le disque dur de l'utilisateur sans la moindre intervention de sa part et surtout, sans aucun signe lui permettant de soupçonner une prise de contrôle à distance. Plus inquiétant, l'équipe de chercheur n'a travaillé "que" pendant 15 jours pour trouver la faille et mettre au point l'exploit...

L'iPhone 4 a pour sa part été un peu plus résistant. Le hack est à mettre au crédit de Dion Blazakis et du célèbre Charlie Miller, qui est souvent reparti des éditions précédentes de Pwn2Own avec un nouveau produit Apple sous le bras... Là encore, c'est un site web forgé pour l'occasion qui permet d'exploiter la faille, qui donne accès aux données stockées sur l'iPhone 4 sans autorisation de son utilisateur. Charlie Miller précise toutefois qu'il a eu beaucoup plus de difficultés que les années passées, et qu'il a finalisé son exploit seulement la veille de la conférence, alors qu'il était prêt plusieurs mois à l'avance les années passées. La faille est d'ailleurs devenue bien plus difficile à exploiter avec iOS 4.3, même si elle n'a pas encore été corrigée. Le chercheur a indiqué qu'il a communiqué ses résultats à Apple et qu'il leur laisse six mois pour résoudre le problème. Passé ce délai, il rendra ses résultats publics.

Deux autres produits ont été mis en échec face aux spécialistes de la sécurité, le navigateur Internet Explorer 8 et le smartphone Blackberry Torch 9800. Les smartphones Android et Windows Phone ainsi que le navigateur Chrome n'ont par contre pas été compromis.

Posté par Matt le 15/03/2011 à 14h30
Aucun commentaire
Source : MacGénération

Flash

Alors que le plug-in Flash est déjà disponible depuis quelques mois pour le navigateur des smartphones Android, celui-ci n'était pas compatible avec la récente version 3.0 du système, dédiée principalement aux tablettes tactiles. Adobe va diffuser cette semaine une mise à jour du plug-in, le rendant compatible avec ces tablettes.

Portant le numéro 10.2, cette version sera officiellement compatible avec Android 2.2 Froyo et Android 2.3 Gingerbread. Pour Android 3.0 Honeycomb, il faudra par contre encore se contenter pendant quelques temps d'une version beta, ce qui est toujours mieux que rien. Elle devrait être plus complète que la version destinée aux smartphones, en offrant quasiment toutes les possibilités de la version pour ordinateur, et notamment la possibilité pour le navigateur d'afficher en simultané des pages HTML et des composants Flash.

Côté matériel, Flash 10.2 saura tirer parti des processeur double-cœur, fréquents dans les tablettes et qui commencent à équiper les smartphones, ainsi que de l'accélération graphique matérielle. Elle supportera également les processeurs ARM sans coprocesseur multimédia Neon, comme par exemple la plateforme Tegra 2 d'nVidia.

Motorola devrait être le premier à intégrer Flash dans une tablette, la Xoom.

Posté par Matt le 15/03/2011 à 12h20
Aucun commentaire
Source : Silicon.fr

ARCEP

La procédure d'attribution des licences 4G pour les opérateurs français devrait être lancée par le Conseil d'État cette année. Il devrait suivre la recommandation de l'ARCEP d'imposer une très large couverture (99.6% de la population), en contrepartie d'une licence vendue à un tarif relativement modéré.

En effet, l'ARCEP souhaite imposer une telle couverture pour limiter la fracture numérique, en imposant ainsi aux opérateurs un même niveau de service dans les zones de faible densité, peu rentables, que dans les grands centres urbains à forte rentabilité. D'où le tarif réduit, pour compenser la rentabilité amoindrie.

Si la nouvelle ne va pas arranger l'État, qui souhaitait vendre les licences à un tarif élevé pour renflouer ses caisses, elle devrait faire plaisir aux opérateurs, et en particulier les plus petits, comme Bouygues Télécom et Free Mobile, qui craignaient qu'un tarif de licence trop élevé n'engendre une distorsion de la concurrence en faveur de Orange et SFR, qui disposent d'une assise financière bien plus solide.

La décision du Conseil d'État devrait rapidement être officialisée, pour que les opérateurs puissent monter leur dossier de candidature pour postuler à l'attribution d'une licence. Il devrait vraisemblablement y avoir quatre licences en jeu, deux "grosses" dotées d'une bande de dix MHz et deux "petites" de 5 MHz. On peut donc logiquement s'attendre à l'attribution d'une licence à chacun des quatre opérateurs 3G, avec 10 MHz pour Orange et SFR et 5 MHz pour Bouygues Télécom et Free Mobile.

Posté par Matt le 15/03/2011 à 11h00
Aucun commentaire
Source : PCInpact

Hadopi

Un an après le décret du 5 mars 2010 sur le fichier électronique de l'HADOPI, le ministère de la Culture vient de publier un Journal Officiel un nouveau décret, daté du 11 mars 2011, qui met à jour le décret du 5 mars 2010 pour prendre en compte la transmission électronique des dossiers de l'HADOPI vers les procureurs. Il s'agit donc de la préparation de la troisième étape de la riposte gradué, la répression.

Ce décret donne notamment plus de détails sur la durée de conservaftion des informations personnelles de l'abonné contrevenant. Ces données seront par exemple conservées pendant un an après la transmission du dossier à un procureur, puis pendant un an après la saisine du tribunal et, le cas échéant, au maximum pendant deux ans après la condamnation à une suspension d'accès et au minimum jusqu'à ce que la sanction soit exécutée.

Le décret prévoit aussi de nouvelles infractions pour lesquelles l'HADOPI peut intervenir. Outre la "négligence caractérisée" pour non sécurisation de la connexion Internet, que l'on connaissait déjà, l'HADOPI pourra stocker des données dans le cadre de délits de "contrefaçon par édition", "contrefaçon par reproduction, représentation ou diffusion d'œuvres protégées" et "contrefaçon par fixation, reproduction, communication ou mise à disposition du public d'une œuvre". L'intervention de l'HADOPI reste par contre bornée aux cas où ces délits seraient commis par le biais d'un réseau P2P.

Posté par Matt le 15/03/2011 à 08h41
Aucun commentaire
Source : Numerama

Google

Il y a quelques années, Google lançait Gears, un plug-in pour navigateur permettant d'utiliser hors ligne certains services du géant de la recherche, grâce à un serveur local mettant en cache les données. Il est ainsi possible d'utiliser Google Documents ou encore Gmail même en cas de coupure de la connexion, avec bien entendu quelques limitations. Dans Chrome 12, Google a annoncé que Gears sera abandonné au profit du HTML5.

Un abandon qui avait déjà été évoqué il y a un peu plus d'un an, mais sans indiquer précisément quelle il interviendrait. Google motive cette décision par le fait que la norme HTML5 intègre la plupart des fonctionnalités essentielles de Gears, et en particulier le stockage de données en local, pré-requis à toute utilisation hors ligne. Bien qu'elles soit toujours en cours d'élaboration, la norme HTML5 est déjà largement supportée par les navigateurs, y compris chez Microsoft avec Internet Explorer 9, qui sortira dans les semaines à venir.

En plus de l'abandon dans Chrome à partir de la version 12, Google a également annoncé que le plug-in Gears pour Firefox ne sera pas adapté à la version 4, tandis que celui pour Internet Explorer ne supportera pas la version 9. Ceux qui utilisent Gears devront donc attendre que toutes les fonctionnalités soient accessibles via HTML5 avant de mettre à jour leur navigateur.

Posté par Matt le 14/03/2011 à 22h54
Aucun commentaire
Source : Clubic

République Française

Comme le rappelait Xavier Niel lors de la présentation de la Freebox Révolution, les opérateurs de télécommunications français sont soumis à un nombre croissant de taxes, leur succès aiguisant de nombreux appétits, en particulier dans l'industrie audiovisuelle. L'Union Européenne pourrait toutefois les aider à ce débarrasser de l'une d'elles.

En effet, les règles européennes dans le domaine des télécommunications stipulent que les opérateurs ne doivent pas supporter de taxes autres que celles nécessaires au financement de la régulation du secteur des télécommunications. En septembre 2010, la Commission Européenne avait donc notifié à la France que la taxe Copé imposée au FAI pour compenser la suppression de la publicité sur le service public audiovisuel n'est pas conforme à ces dispositions.

Malgré cette notification de Bruxelles, l'État a maintenu la taxe, qui s'élève à 0.9% du chiffre d'affaire des opérateurs dépassant 5 millions d'euros de chiffre d'affaire annuel. La Commission Européenne passe donc à la vitesse supérieure : l'État va être traduit devant la Cour de Justice de l'Union Européenne.

La opérateurs pourraient donc prochainement faire l'économie de cette taxe, tandis que l'État devra trouver une autre vache à traire pour récupérer les 400 millions d'euros que devaient rapporter la taxe Copé.

Posté par Matt le 14/03/2011 à 22h20
2 commentaires
Source : PCInpact

Splitted-Desktop Systems

Le français Splitted-Desktop Systems vient de lancer une nouvelle gamme de mini-PC, alliant à la fois la compacité, le silence et la performances. En effet, malgré leur refroidissement intégralement passifs, ils sont bâtis sur des bases plutôt solides.

SDS mCube mBOX

Pour ce faire, le constructeur a conçu un imposant système de refroidissement maison, et il utilise des composants mobiles, à la fois moins générateur de chaleur et capables de supporter des températures plus élevés. Au format mini-ITX, la carte mère est également conçue par le constructeur. Dotée d'un socket S1G3 et d'un chipset RS780E/SB710, elle accueille des processeurs AMD de la famille Turion II. Malgré la compacité, la connectique est plutôt riche, avec 2 slots So-DIMM DDR2 pour la mémoire, 4 ports SATA 3 Gbit/s, 1 port MXM 3.0, un port Compact Flash, un port LVDS, un mini-PCI, 10 USB 2.0, 2 ports Gigabit Ethernet, 1 sortie HDMI 1.3, 6 entrées/sorties audio jack et une sortie audio optique.

Pour tirer parti du port MXM, SDS propose un large choix de cartes graphiques à ce format, de la Mobility Radeon HD 4650 à la Mobility HD 5870 en passant par les GeForce 470M. Le constructeur prépare également une carte basée sur un GPU Radeon HD 5870 de bureau monté sur un module MXM.

L'ensemble prends place dans un boîtier 225x225x250 doté d'une alimentation de 160W et sera disponible à la vente dès la fin du mois. Le ticket d'entrée pour bénéficier du silence sans sacrifier les performances est par contre plutôt salé, à 1490€ la configuration de base.

Posté par Matt le 14/03/2011 à 10h30
2 commentaires
Source : PCInpact

Sony

Lorsqu'il avait présenté son "PlayStation Phone", le Xperia Play, Sony Ericsson avait présenté le logiciel PlayStation Suite, compagnon idéal du Xperia Play, lui apportant un vaste catalogue de jeux issus de la première PlayStation. Il ne sera pas le seul appareil Android à en profiter.

En effet, nVidia a annoncé il y a quelques jours que l'application PlayStation Phone sera en fait disponible pour tous les appareils Android construits sur la même base que le Xperia Play : le SoC Tegra 2 d'nVidia.

Une bonne nouvelle donc pour tous les possesseurs de smartphones à base de Tegra 2 (Galaxy S2, Motorola Atrix...), qui pourront profiter des jeux PlayStation sur leur appareil, mais aussi pour nVidia, qui bénéficie ainsi d'un argument commercial supplémentaire pour imposer sa solution sur le marché.

Posté par Matt le 14/03/2011 à 08h45
Aucun commentaire
Source : Le Journal du Geek

Free Mobile

À environ un an du lancement des offres de Free Mobile, le quatrième opérateur 3G n'a bien entendu pas encore dévoilé ses offres, qui ne le seront sans doute qu'au dernier moment pour créer la surprise. Ce qui n'empêche pas l'ADUF de proposer son estimation des futures offres en s'appuyant sur les déclarations faites par Iliad et sur quelques sources internes...

La proposition de l'ADUF comporte quatre forfaits, tous très compétitifs par rapport aux offres actuelles :

  • forfait haut de gamme tout compris à 30€ : illimité fixes et mobiles en France 24h/24, data illimitée en 3G avec "fair use" à 3 Go, usage modem autorisé, 2 cartes SIM,
  • forfait 5h à 20€ : 5h d'appels, data illimitée en 3G avec "fair use" à 2 Go,
  • forfait 2h à 15€ : 2h d'appels, data illimitée en 3G avec "fair use" à 1 Go,
  • forfait "mini" à 10€ : 2h d'appels, data à 1ct/Mo en 3G.

Tous ces forfaits incluraient en plus :

  • appels illimités vers les fixe en France et Free Mobile,
  • appels internationaux illimités, aux mêmes conditions qu'avec la Freebox,
  • SMS et MMS illimités,
  • Free WiFi illimité.

Les offres seraient sans aucun engagement et n'inclueraient pas le subventionnement du mobile, qui pourra être acheté à crédit sur 6, 12, 18 ou 24 mois.

Bien entendu, il ne s'agit là que de suppositions, et certains points paraissent difficiles à réaliser en passant par l'itinérance Orange (peut-être que les portions illimitées des offres ne seront accessibles qu'en zone couverte par le réseau 3G de Free ?), mais si ces offres prenaient vie, elles risquent de faire très mal à la concurrence.

Posté par Matt le 13/03/2011 à 19h10
1 commentaire
Source : Univers Freebox

Linux

En ces temps de crises, la plupart des gouvernements ont initié des plans d'économie pour réduire la dépense publiques. Parmi les économies possibles, il y a notamment le passage au logiciel libres, qui pourrait permettre d'économiser des sommes importantes, comme le montre un rapport néerlandais sur le sujet.

En effet, selon ce rapport, commandé par le Ministère de l'Intérieur et publié accidentellement sur Internet, les Pays-Bas pourraient économiser de 1 à 4 milliards d'euros par an en généralisant le recours au logiciel libre au sein des services de l'État. Pour arriver à ces chiffres, l'auteur du rapport s'est notamment appuyé sur les gains obtenus en pratique par la migration de 11 000 postes vers des logiciels libres dans différents ministères.

Malheureusement, malgré les gains annoncés, il semblerait que le gouvernement néerlandais ait décidé de ne pas donner suite à ce rapport. Rapporté à la population, l'économie serait pourtant de 60 à 240€ par habitant, ce qui n'est pas négligeable.

En France, l'État recourt déjà relativement massivement au logiciel libre, avec plusieurs centaines de milliers de postes migrés dans la gendarmerie, les ministères, les administration, mais aussi une implication dans le développement de certains projets open source. Il y aurait toutefois sans doute encore beaucoup d'économies à faire en renforçant le recours au logiciels libres.

Posté par Matt le 13/03/2011 à 16h40
Aucun commentaire
Source : Numerama

Ubuntu

Il y a quelques mois, Canonical annonçait l'abandon futur de l'interface graphique Gnome au profit de l'interface graphique maison : Unity. Une évolution qui interviendra dès la version 11.04. Mais ce ne sera pas le seul abandon...

En effet, l'interface Unity étant conçue pour s'adapter à toutes les types de machines, du netbook à la station de travail, Canonical a jugé qu'il n'est plus nécessaire de distribuer une version d'Ubuntu spécifiquement dédiée aux netbooks. C'est donc un Ubuntu 11.04 "tout court", qui succédera à la fois à Ubuntu 10.10 Netbook Edition et Ubuntu 10.10 Desktop Edition. La version serveur restera par contre séparée, puisqu'elle n'intègre pas du tout les mêmes paquets de base.

Ubuntu 11.04 "Natty Narwhal" devrait normalement sortir le mois prochain.

Posté par Matt le 11/03/2011 à 14h20
3 commentaires
Source : Génération NT

RockMelt

Le marché des navigateurs est aujourd'hui dominé par trois navigateurs (Internet Explorer, Firefox et Chrome), suivis par deux outsiders (Safari et Opera) et une nuée de navigateurs alternatifs peu connus du grand public. Mais un sixième acteur pourrait bien finir par sortir de ce nuage : RockMelt.

RockMelt

Soutenu par l'un des personnages clé des débuts d'Internet, Marc Andresessen, fondateur de Netscape, le lointain ancêtre de Firefox, le but de RockMelt est de moderniser les navigateurs, en les adaptant le mieux possibles aux besoins des utilisateurs d'aujourd'hui, qui ont beaucoup évolué par rapport à ceux des internautes d'il y a cinq ans.

Ainsi, les réseaux sociaux seront mis au cœur du navigateur, avec l'intégration des API Facebook et Twitter, permettant d'afficher dans le navigateur deux panneaux latéraux, l'un reprenant la liste des contacts et faisant office de messagerie instantanée (à gauche) et l'autre affichant en le flux des publications des réseaux sociaux (à droite), mais aussi tout flux RSS que l'utilisateur souhaite ajouter. Des boutons permettent également de partager simplement des contenus avec ses contacts.

Côté moteur de rendu, on aura droit encore une fois à WebKit, et, en dehors des deux panneaux latéraux, RockMelt adoptera une interface très proche de celle de Chrome, puisqu'il s'appuie sur Chromium, la version entièrement open source du navigateur de Google.

Autorisations Facebook demandées par RockMelt

Un bémol toutefois : il est obligatoire de disposer d'un compte Facebook pour utiliser RockMelt. Les plus soucieux de leur vie privée passeront donc leur chemin, même si l'équipe de développement du navigateur insiste sur l'importance qu'a à ses yeux le respect de la vie privée des utilisateurs. Mais la liste des autorisations d'accès à Facebook que demande RockMelt n'est malgré tout pas très encourageante...

Posté par Matt le 11/03/2011 à 13h11
1 commentaire
Source : Clubic

Free Mobile

Invité par BFM pour évoquer les résultats annuels d'Iliad, publiés mercredi, Maxime Lombardini, directeur général du groupe, a aussi évoqué l'avenir, en confirmant que Free Mobile sera certainement candidat pour obtenir une licence 4G.

En effet, bien que les conditions d'acquisition et les critères d'attribution ne soient pas encore connus, Lombardini a rappelé l'importance pour tous les opérateurs mobiles de disposer de leurs propres fréquences, pour garantir une concurrence saine et équitable. Il invite donc l'État à ne pas être trop gourmand en vendant les licences à des tarifs exorbitants pour renflouer ses caisses.

Des tarifs trop élevés créeraient en effet une distorsion entre les deux principaux opérateurs (Orange et SFR) et les autres, qui risquent d'avoir du mal à dépenser une trop grosse somme.

Par ailleurs, pour accélérer le déploiement de la 4G une fois la licence acquise, le directeur général d'Iliad n'exclue pas une extension de l'accord d'itinérance conclu avec Orange pour la 2G et la 3G, même s'il précise que l'accord actuel ne le prévoit pas. Orange envisage le lancement commercial de la 4G dès 2013 dans les principales agglomérations.

Enfin, Xavier Niel a annoncé l'ouverture très prochaines des premières boutiques Free. Au nombre de six, elles seront dans un premier temps ouvertes dans des villes situées entre 50 et 200 km de la capitale et disposeront de surfaces comprises entre 50 et 300m². Free prend donc un peu d'avance sur le réseau de boutique que l'opérateur avait promis d'ouvrir pour vendre ses offres de téléphonie mobile. Ces boutiques devraient aider Free a se relancer dans la course au recrutement d'abonnés, où le FAI a été très à la traine au 4ème trimestre 2010.

Posté par Matt le 11/03/2011 à 11h12
3 commentaires
Sources : Numerama et Freenews

Gmail

L'été dernier, Google introduisait dans Gmail un système de "Boîte de réception prioritaire", détectant automatiquement les mails considérés comme les plus importants pour les mettre en évidence. Gmail Labs propose désormais une version encore plus poussée de ce système, avec l'extension "Libellés intelligents" (SmartLabels).

Libellés intelligents dans Gmail

Une fois activé, cette fonctionnalité expérimentale crée trois nouveaux libellés : Bulk, Forums et Notifications. La première catégorie accueillera autotmatiquement les e-mails identifiés comme étant un envoi de masse dont vous faites partie des destinataires (newsletters, publicités sollicitées, etc...)... La seconde servira pour les mails issus de groupes de discussion dont vous faites partie. Enfin, la catégorie Notifications regroupera tous les messages de notifications qui vous sont adressés directement (confirmations d'inscription, notifications d'expédition de commandes, etc...).

L'extension peut par ailleurs être personnalisés via les onglets Libellés (édition des noms de libellés, affichage ou non dans la barre latérale) et Filtres (pour créer un filtrage plus complexe ou pour utiliser le filtrage automatique avec vos libellés existants) des options de Gmail.

Comme d'habitude, cette fonction n'est pour l'instant disponible que pour les utilisateurs anglophones, mais il est possible de rebasculer en français une fois l'option activée. Son arrivée sur la version française est d'ores et déjà prévue, la description s'affichant en français une fois Gmail rebasculé dans la langue de Molière.

Posté par Matt le 11/03/2011 à 08h14
Aucun commentaire
Source : Le Journal du Geek

République Française

Depuis fort longtemps, le paiement de la redevance télévision est basé sur l'honnêteté du contribuable, qui doit indiquer s'il possède ou non un dispositif de réception. Pour limiter la fraude, des contrôles ponctuels sont effectués au domicile du contribuable, ou encore en interrogeant les diffuseurs de services télévisuels payants.

Mais l'administration fiscale a poussé ce principe encore plus loin, et ce en toute discrétion. En effet, dans un document adressé aux FAI fin 2008, la Direction Générale des Finances Publiques demande la mise en place d'une procédure automatisée pour traiter ces demandes, à la place de la demande sur papier.

Le cahier des charges décrivant la fonctionnalité, qui a été valisée par le CNIL, montre qu'il ne s'agit plus de simples contrôles ponctuels, mais bien de contrôles systématiques. En effet, la volumétrie évoquée est d'un million de contribuables contrôlés par an (sur 36 millions de foyers fiscaux) et le document précise qu'il s'agit là du nombre de contribuables ayant déclaré ne pas posséder de télévisions et introuvables dans les déclarations des vendeurs de télévisions. En clair, tous les fraudeurs seraient concernés...

Pour chaque contribuable concerné, le FAI (ou tout autre fournisseur de service télévisuel) doit répondre en indiquant si la personne est titulaire d'un contrat auprès du fournisseur et, si c'est le cas, la date de souscription de ce contrat (permettant donc de déterminer si le contribuable recevait la télévision au 1er janvier, date de référence pour l'assujettissement à la redevance).

Bien que le document date de 2008 et demandait la mise en place de la procédure dès 2009, on peut toutefois se demander si l'administration fiscale a effectivement mis son idée en application, puisque l'existence de ce système n'avait pas été révélée jusqu'à présent. Bien qu'avalisé par la CNIL, il est en effet possible que ce système ait été abandonné pour non conformité à loi, qui précise que les demandes doivent être ponctuelles. La déclaration à la CNIL ne prouve en effet pas la légalité du dispositif, la CNIL n'effectuant pas ce type de vérifications.

Posté par Matt le 10/03/2011 à 19h40
Aucun commentaire
Source : PCInpact

C'est bien connu, l'un des maillons faibles de la sécurité informatique est l'utilisateur, souvent peu informé sur la question. En particulier, de nombreux utilisateurs ont la mauvaise habitude d'utiliser des mots de passe très simples, faciles à retenir et à taper, mais pas très sûrs... D'où l'idée de Platform45 d'utiliser le sexe pour pousser à sécuriser les mots de passe...

Comment ? Simplement en exploitant la libido de ces messieurs, via une petite image de pin-up 8 bits affichée dans le formulaire de mot de passe. Au fil de la saisie du mot de passe, la pin-up ôte petit à petit ses vêtements à chaque fois qu'elle estime que le mot de passe à gagner un point sur l'échelle de la sécurité.

Original, mais pas sûr que cette idée ait beaucoup de succès...

Si vous souhaitez l'intégrer à votre site, suivez les instructions sur le site dédié.

Posté par Matt le 10/03/2011 à 12h40
Aucun commentaire
Source : ExtremeTech via Ptit_bœuf

Free

Les annonces de nombreux recrutement d'abonnés au 4ème trimestre 2010 chez Orange, SFR et Bouygues le laissaient supposer, la présentation des résultats d'Iliad le confirme : le groupe à terminé l'année en roue libre, avec à peine 6000 nouveaux abonnés en cumulant Free et Alice...

Avec 3 696 000 abonnés, Free a progressé de seulement 30 000 abonnés sur le trimestre, tandis que Alice en perdait 24 000, en ne comptant désormais plus que 565 000 abonnés. Des chiffres qui ne sont finalement pas très surprenant, le groupe Iliad étant mis à rude épreuve par les offres quadruple-play de ses trois principaux concurrents (Bouygues, en tête des recrutements, le doit principalement à ses forfaits Ideo) et par l'attente du renouvellement de la Freebox. Le lancement de la Freebox Révolution devrait toutefois permettre de meilleurs chiffres début 2011, mais il faudra par contre encore attendre au moins un an pour que Free puisse s'attaquer aux offres quadruple-play...

Malgré cette quasi stagnation du nombre d'abonnés (+1.3%), le groupe signe toutefois de bons résultats sur le plan financier. Ainsi, le chiffre d'affaire atteint un nouveau record, en progression de 4.3%, ce qui lui permet pour la première fois de passer la barre symbolique des 2 milliards d'euros (2.038 milliards). Le résultat net progresse pour sa part de 78%, atteignant un nouveau record, à 313 millions d'euros.

Enfin, une forte diminution de l'endettement permet à Iliad d'envisager sereinement les lourds investissements à consentir pour la fibre optique et la téléphonie mobile. Le groupe vise 100 000 abonnés fibre optique et 3.6 millions de prises installées dans 100 villes d'ici à la fin de l'année, contre à peine 21 000 abonnés aujourd'hui. Pour la téléphonie mobile, Free Mobile prévoit toujours de lancer son offre début 2012, avec une couverture de 27% de la population via un réseau de plus de 5 000 antennes.

Ces évolutions permettent à Iliad de viser un doublement du chiffre d'affaire d'ici à 2015.

Posté par Matt le 10/03/2011 à 10h41
Aucun commentaire
Source : Univers Freebox

Orange

Dans un rapport sur l'activité du groupe Orange, l'Autorité de la concurrence propose une mesure "extrême" pour réguler l'activité : séparer le groupe en deux entités, la marque commerciale Orange d'un côté, et l'exploitation du réseau fixe France Télécom de l'autre.

Cette mesure, qui a déjà été mise en place pour plusieurs autres ex-grandes entreprises nationales (EDF séparé d'ERDF, SNCF séparée de RFF) aurait pour but d'isoler l'activité de service public (monopole sur la boucle local cuivre) de l'activité d'entreprise privée, soumise à la concurrence (ADSL, téléphonie fixe et mobile). C'est l'ARCEP qui aura le pouvoir de décider d'une telle scission, et l'autorité de la concurrence l'invite dès à présent à étudier la question.

L'ARCEP s'est toutefois déjà exprimée sur la question, en indiquant n'être pas très favorable à une telle mesure, qui ne devrait être utilisé qu'en dernier recours, en cas d'échec de toutes les autres mesures de régulation mises en œuvre.

Posté par Matt le 10/03/2011 à 08h20
Aucun commentaire
Source : Freenews

Android

Il y a deux mois, comScore annonçait qu'Android était passé devant l'iPhone au niveau du parc américain de smartphones, d'après des données collectées de septembre à novembre. Avec les données collectées de novembre à janvier, l'OS de Google a détrôné le BlackBerry !

Parts de marché des OS pour smartphone aux USA

En effet, selon les chiffres de comScore, la part d'Android dans le parc de smartphones américain à progressé de 7.7 points en 3 mois, pour atteindre 31.2%, soit un petit peu plus que le BlackBerry, qui ne totalise que 30.4%, en baisse de 5.4 points.

L'iPhone continue de stagner, avec près d'un quart du marché, en hausse de seulement 0.1 point. Derrière, le lancement de Windows Phone 7 ne suffit pas à enrayer la chute de Windows, qui perd encore 1.7 points, tombant à seulement 8% du parc de smartphones, tandis que Palm ne séduit plus que 3.2% des américains, en baisse de 0.7%.

Posté par Matt le 09/03/2011 à 16h20
Aucun commentaire
Source : PCInpact

Android

Google a diffusé une mise à jour pour son application de navigation sous Android basée sur Google Maps. Elle apporte une fonctionnalité qui pourra s'avérer très utile en périodes de pointe : la prise en compte de l'info-trafic en temps réel dans les calculs d'itinéraires !

Android Google Maps Navigation

À l'instar d'un Tom Tom Live, Google Maps Navigation est donc désormais capable d'adapter l'itinéraire en temps réel pour mener l'utilisateur à destination au plus vite en fonction de l'évolution du trafic, sans qu'une intervention ne soit nécessaire. Et contrairement aux solutions proposées par les spécialistes du GPS, ces info-trafic en temps réel restent gratuites. Elles seront par contre probablement moins précises que celles de Tom Tom Live, qui s'appuient sur l'analyse de la vitesse de déplacement de millions d'abonnés mobiles.

On notera par contre que Google a décidé de ne pas laisser l'utilisateur choisir s'il veut ou non tenir compte du trafic dans le calcul de son itinéraire.

Posté par Matt le 09/03/2011 à 12h41
Aucun commentaire
Source : PCInpact

Opera

À peine la fondation Mozilla a-t-elle lancé sa boutique d'applications Web, Opera Software fait de même, en lançant le portail Opera Mobile Store, dédié au téléchargement d'applications mobiles multi-plateformes.

Opera Mobile Store

Mais contrairement à Mozilla, Opera a fait le choix d'une plateforme propriétaire (fournie par Appia), et non sur des applications web, ce qui réduit forcément la compatibilité. Les applications de l'Opera Mobile Store seront disponible sur BlackBerry, Symbian, Android et sur la plupart des mobiles supportant le Java. L'iPhone fait donc partie des grands absents de l'Opera Mobile Store. Accessible via le navigateur Opera Mobile, le portail s'adaptera automatiquement au terminal de l'utilisateur, en filtrant les applications compatibles.

Pour les développeurs, Opera a présenté l'Opera Publisher Portal, qui permettra de soumettre les applications. Pour les attirer, Opera annonce que son Mobile Store a déjà attiré plus de 15 millions d'utilisateurs le mois dernier pendant sa phase de pré-lancement, et a engendré 700 000 téléchargements par jour.

Posté par Matt le 09/03/2011 à 10h20
Aucun commentaire
Source : Génération NT

Free

Free a publié lundi un nouveau firmware pour son boîtier Freebox Player, qui passe à la version 1.0.3.1. Comme le numéro de version le laisse entendre, il s'agit d'une mise à jour mineure, corrigeant quelques uns des bugs signalés sur le bugtracker de Freeplayer.org.

Freebox Player

Freebox Player

Corrections

  • Son haché lors de la lecture de contenu avec audio DTS (FP #5850)
  • Pas de son lorsque la sortie SPDIF est la sortie principale (FP #3971)
  • Pas de son en retour de veille active (FP #5858)
  • Bande passante TV non libérée lors de la mise en veille (FP #5870)

Nouvelles fonctionnalités

  • Ajout d’un paramètre "Gamme complète RVB" dans les options d’affichage en HDMI; en 1.0.3 nous avons activé ce paramètre par défaut mais certains utilisateurs trouvent que l’affichage est trop sombre. Nous avons donc ajouté une option de configuration afin de laisser les utilisateurs choisir leur mode préféré.
Posté par Matt le 09/03/2011 à 08h20
Aucun commentaire
Source : L'actualité de la Freebox

Mozilla Foundation

En fin d'année dernière, Google lançait son Chrome Web Store, une boutique d'applications web destinées principalement aux utilisateurs du navigateur Chrome et du futur système d'exploitation Chrome OS. Mozilla riposte aujourd'hui avec son Web App Store.

En plus d'offrir aux développeurs d'applications web une certaine visibilité, grâce au répertoire d'applications, Mozilla leur fournit une documentation détaillées sur les possibilités d'HTML5, un langage encore loin d'être maitrisé par tous les développeurs. Les applications pourront être gratuites ou payantes, et les développeurs auront même la possibilité de lancer leur propre boutique, grâce aux outils fournis par Mozilla.

Le but avoué de Mozilla est de proposer une solution multiplateforme pour faciliter le portage d'applications sur tous les OS, tout en gérant aisément la synchronisation des données entre tous les terminaux d'un même utilisateur.

Vector Racer

La boutique contient déjà une petite vingtaine d'applications, dont l'excellent Vector Racer que je vous recommande vivement :-)

Posté par Matt le 08/03/2011 à 14h41
Aucun commentaire
Source : Clubic

Western Digital

Western Digital a annoncé le rachat d'Hitachi Global Storage Technologies, la division disque dur d'Hitachi, que le japonais avait racheté à IBM il y a quelques années. Une transaction chiffrée 4.3 milliards de dollars, dont 3.5 milliards en cash.

Le marché continue donc à se consolider petit à petit, sous la pression des marges de plus en plus faibles dans ce secteur. En 2005, Seagate avait déjà racheté Maxtor, qui avait lui même acquis Quantum cinq années plus tôt. Plus récemment (fin 2009), c'est Toshiba qui s'était porté acquéreur de la division disques durs de Fujitsu.

Il ne reste donc plus que trois constructeurs de disques durs 3.5" (Western Digital, Seagate et Samsung), quatre constructeurs de disques durs 2.5" (les mêmes + Toshiba) et un seul constructeur de disques 1.8" (Toshiba), toute la dynamique du marché du stockage s'étant transféré sur le marché des SSD, occupé par plus de dix constructeurs.

Au passage, Hitachi réalise une joli plus-value, puisque sa division disque dur avait été acheté à IBM en 2003 pour seulement 2.05 milliards de dollars.

Posté par Matt le 08/03/2011 à 13h11
Aucun commentaire
Source : TT-Hardware

Android

Depuis qu'Apple a lancé son App Store, il y a bientôt trois ans, les terminaux à la pomme sont dotés d'un "kill switch", permettant à Apple de supprimer à distance une application installée sur l'appareil. Une fonctionnalité que Google a repris dans Android. Et le géant de la recherche est le premier à l'avoir utilisé !

En effet, la semaine dernière, Google a fait un grand nettoyage dans l'Android Market, pour supprimer bon nombre d'applications jugées dangereuses, car exploitant des failles du système pour collecter des informations auxquelles elles n'ont normalement pas accès sans accord de l'utilisateur (IMEI, IMSI, voir certaines données personnelles...). Google a également banni les développeurs de ces applications de l'Android Market et diffusé une mise à jour de sécurité spécifique pour corriger ces failles sur les terminaux restés dans d'anciennes versions du système.

Mais Google ne s'est pas arrêté là. En effet, la firme de Mountain View a annoncé avoir utilisé pour l'occasion son "kill switch", afin de nettoyer à distance les terminaux infectés par ces applications malveillantes.

Espérons toutefois que Google n'aura pas à recourir trop souvent à cette solution, et, surtout, qu'ils se contenteront de l'utiliser dans des cas où la suppression à distance des applications se justifie vraiment dans un soucis de protection des utilisateurs.

Posté par Matt le 08/03/2011 à 11h00
Aucun commentaire
Source : Silicon.fr

Nos confrère de Tom's Hardware viennent de publier un intéressant comparatif de cartes graphiques. Une fois n'est pas coutume, elles ont été comparées non pas sur leurs performances 3D, mais sur le coût d'utilisation lié à leur consommation électrique.

Pour ce faire, ils ont défini trois profils d'utilisateurs, en analysant les habitudes de trois utilisateurs pendant une durée de 4 semaines : un jeune joueur, amateur de FPS dernière génération, un utilisateur moyen et un amateur de performances. Au total, ce sont une bonne trentaine d'applications et de jeux qui ont été utilisées, avec 12 cartes graphiques milieu et haut de gamme, six rouges (5850, 5870, 6850, 6870, 6950 et 6970) et six vertes (460, 465, 470, 480, 570, 580).

Par rapport à une carte graphique d'entrée de gamme utilisée comme référence (Radeon HD 5450), la surconsommation atteint 327 dans le pire des cas (GTX 480 en pleine charge) et 24W dans le meilleur des cas (5850 au repos). Pour le profil joueur, qui utilise son ordinateur en moyenne un peu plus de 8h par jour, principalement sur des jeux, la surconsommation annuelle varie entre 316 kWh pour la 5850 et 693 kWh pour la GTX 480, deux cartes aux performances pourtant relativement similaires, soit une différence de coût de fonctionnement qui atteint tout de même 44€ par an, et un surcoût par rapport à la carte de référence qui monte jusqu'à 81€.

Pour l'utilisateur moyen, avec une durée d'utilisation de 6h par jour environ et relativement peu de jeux, l'écart est bien moins marqué, puisque le surcoût varie entre 9€ (78 kWh) pour la 5850 et 19€ (165 kWh) pour la GTX 480. Enfin, l'amateur de performances se situe en toute logique entre les deux, en devant supporter un surcoût allant de 16€ (137 kWh) avec 35€ (300 kWh).

Même en France, où l'électricité est très abordable, la différence de coût d'utilisation n'est donc pas négligeable pour ceux qui font un usage intensif de leur machine. Cette différence est à prendre en compte à l'achat, il peut en effet être bien plus intéressant de mettre quelques euros de plus dans une carte à l'achat, pour les économiser ensuite à l'usage. À ce petit jeu, on notera que c'est globalement AMD qui s'en tire le mieux, avec ses cartes au rapport performances/consommation très favorable.

Posté par Matt le 08/03/2011 à 09h00
Aucun commentaire
Source : Tom's Hardware

Le cabinet d'analyste Nielsen a publié une étude sur les ventes de smartphones aux USA de novembre à janvier, prenant la forme deux graphiques, présentant de manière très visuelle la répartition par constructeur et par tranche d'âge pour chaque OS.

Répartition des OS pour smartphones par constructeur

Derrière les deux mastodontes que sont Apple et RIM, s'octroyant chacun 27% du marché avec leur OS exclusif, on constate la domination d'HTC, majoritaire sur les deux systèmes qu'il propose officiellement, avec 41% des ventes de smartphones Android et 70% des ventes de smartphones Windows, ce qui lui confère au total 19% du marché des smartphones. Il est suivi par Motorola, Samsung et HP. On notera au passage la présence d'une petite part d'HTC sous WebOS. Bien que le constructeur ne propose pas officiellement ce système, certains l'ont effectivement porté vers différents modèles de smartphones HTC.

Répartition des OS pour smartphones par tranche d'âge

La répartition par tranche d'âges est également plutôt intéressante, car elle semble correspondre aux quatre vagues successives d'OS ayant dominé le marché des smartphones aux USA : tout d'abord, il y a eu Palm OS, qui devient aujourd'hui logiquement celui qui séduit le plus les tranches d'âges supérieures, qui ont adopté Palm OS il y a quelques années et y ont été fidèles. Ensuite, c'est la vague BlackBerry qui a dominé, avec un public un peu plus jeune. iOS dispose d'un public encore un peu plus jeune, et enfin, c'est Android qui l'emporte chez les plus jeunes : 38% des 18-24 ans utilisent Android, contre 25% pour iOS et BlackBerry, alors que chez les 35-44 ans, les trois systèmes sont ex-æquo à 27% et que chez les 45-54 ans la tendance s'inverse avec 29% pour BlackBerry et seulement 24% pour Android et iOS.

Posté par Matt le 07/03/2011 à 14h20
Aucun commentaire
Source : Le Journal du Geek

Hadopi

Il y a un an, les législateurs belges discutaient d'un projet de loi très similaire à notre loi Hadopi, mais tombé dans l'oubli lorsque son auteur avait décidé de quitter la politique. Mais le projet renait aujourd'hui à l'identique, "grâce" à cinq députés.

Baptisé "proposition de loi favorisant la protection de la création culturelle sur Internet", ce texte est une sorte de condensé de notre LOPSI et de notre Hadopi, puisqu'il vise à imposer aux FAI le blocage des sites hébergeant des contenus piratés et à mettre en place le principe d'une riposte graduée pour sanctionner les abonnés soupçonnés de piratage.

Cette riposte graduée serait toutefois un peu plus laxiste que celle mise en place en France, avec un découpage en quatre étapes :

  • avertissement par e-mail,
  • amende en cas de récidive dans les 6 mois, sans poursuites judiciaires,
  • transmission au parquet en cas de nouvelle récidive, avec possibilité d'amende et de limitation du débit de l'abonné,
  • en cas de nouvelle récidive, doublement de l'amende et éventuellement suspension de l'abonnement.

Comme en France à l'époque, des internautes commencent à se mobiliser contre ce projet, avec notamment le collectif Hadopi Mayonnaise, qui a mis en place un "système de riposte graduée à l'encontre de cette proposition". Le première étape de cette riposte consiste en un document présentant les arguments contre le projet, à destination des députés et sénateurs belges.

Posté par Matt le 07/03/2011 à 13h00
Aucun commentaire
Source : Numerama

Khronos Group

Le Khronos Group a récemment annoncé la finalisation de WebGL, une API JavaScript permettant d'exécuter des commandes OpenGL ES 2.0 depuis une page web. Suite logique, le groupe a annoncer qu'il allait désormais travailler sur le WebCL.

Comme son nom l'indique, WebCL sera à OpenCL que ce WebGL est à OpenGL : un moyen d'appeler l'API existante depuis une page web via du code JavaScript. Pour rappel, OpenCL est une API permettant de simplifier la parallélisation de tâches sur l'ensembles des unités de calcul présentes dans un ordinateur, qu'ils s'agisse de bon vieux CPU, de GPU, ou même de DSP (comme la carte son par exemple).

WebCL permettra donc de simplifier la parallélisation du code JavaScript, et d'accéder à toutes les unités de calcul de la machine. Ceci devrait donc permettre d'accélérer nettement le JavaScript, et donc de permettre le développement d'applications web de plus en plus évoluées.

Posté par Matt le 07/03/2011 à 10h20
Aucun commentaire
Source : MacGénération

Nokia

Lorsque Nokia avait annoncé son nouveau partenariat avec Microsoft, le finlandais avait précisé que son projet MeeGo d'OS pour smartphones et tablettes n'allait pas être abandonné pour l'instant. Nokia a d'ailleurs présenté aux développeurs le N950, qui sera le premier smartphone sous MeeGo.

Nokia N950 sous MeeGo

Apparemment doté d'un châssis métallique, le N950 propose des caractéristiques plutôt alléchantes :

  • processeur (x86 ?) 1 ou 1.2 GHz,
  • 768 Mo de RAM,
  • écran tactile capacitif de 4",
  • connectivité 3G/4G,
  • APN 8 ou 12 MP avec flash LED,
  • 16 ou 32 Go de stockage interne + port micro-SD,
  • Bluetooth 3.0,
  • A-GPS.

Reste à voir quand et à quel prix le N950 sera lancé, mais aussi et surtout, si le système MeeGo arrivera à se faire sa place sur le marché des OS pour smartphones, où ses principaux concurrents sont déjà fermement installés depuis quelques années.

Posté par Matt le 07/03/2011 à 09h00
Aucun commentaire
Source : PCInpact

Free

Free a publié hier deux nouveaux firmware pour ses boîtiers Freebox Server et Freebox Player, qui passent respectivement à la version 1.0.4 et la version 1.0.3, avec de nombreuses corrections de bugs à la clé, grâce aux retours des utilisateurs sur le bugtracker de Freeplayer.org.

Freebox Server

Feeebox Server

Corrections :

  • Téléphone passe automatiquement sur messagerie (FP #5213). Le correctif du firmware 1.0.3 n’était pas suffisant.
  • Incompatibilité avec certains DECT : l’identifiant interne de la base DECT utilisé par la Freebox n’était pas correct, ce qui cause des problèmes de compatibilité avec certains téléphones DECT. L’identifiant a été modifié pour corriger le problème, toutefois en raison de ce changement, les associations des téléphones DECT déja présentes ne seront plus valides, et il est donc nécessaire de répéter cette procédure d’association. Nous nous excusons pour le désagrément occasionné.
  • Support de la commande ALLO en FTP (FP #4876)
  • Le serveur NTP ne répond plus (FP #5763)
  • Server NTP V4 (FP #495) : le serveur NTP répond maintenant aussi sur mafreebox.freebox.fr

Freebox Player

Freebox Player

Corrections

Télévision
  • Mauvaise calibration de la sortie péritel (FP #4145, #5009)
  • Désentrelacement de la vidéo inefficace (FP #4022)
  • Paramètre audio DRC bloqué sur « max » (FP #4330)
  • Sous-titres manquants ou rémanents sur certaines chaînes (FP #3674, #4512, #5792)
  • Pas de son dans certains cas en HDMI (FP #4826)
  • Luminosité trop forte sur les sorties vidéo (FP #5064)
  • Passage au format vidéo « Plein écran » intempestif (FP #4985, #4986, #3706, #3695)
  • Scan des chaînes TNT bloqué (FP #5421)
  • Scan des chaînes TNT non mémorisé (FP #4055)
  • Enregistrement impossible sur la TNT (FP #3733)
  • Enregistrement non disponible sur Canalsat (FP #3587)
Vidéos à la demande
  • Message « Erreur 23 » au début de la lecture
Lecteur de Blu-ray
  • Freeze lors de la lecture d’une piste audio Dolby TrueHD (FP #3964)
  • Freeze lors de la lecture d’un Blu-ray utilisant un espace de stockage persistant (FP #3580)
  • Incompatibilités audio et vidéo en HDMI (FP #3886, #4127)
  • Paramètres audio et vidéo non appliqués (FP #3821, #4537, #5127)
  • Délai avant la mise en pause et l’arrêt des CD audio (FP #4210)
  • Menus « Lire le disque » ou « Insérer le disque » incorrects (FP #4576, #5680)
  • Ejection du disque à chaque sortie de mise en veille active (FP #3853)
Lecteur multimédia
  • Pas de son lors de la lecteur de fichiers VOB (FP #5503)
  • Date de modification non affichée en UPnP ou sur le Freebox Server (FP #4116)
  • Impossible de lire une vidéo avec du son au format WMA : la vidéo sera maintenant lue, sans le son
Navigateur Web
  • Impossible de dézoomer à un facteur inférieur à 1:1 (FP #4930)
  • Remontée intempestive en haut de la page (FP #5471)
Système
  • Entrée ou sortie de la mise en veille impossible (FP #4801)

Modifications mineures

  • Un message d’avertissement s’affiche maintenant quand le niveau des piles de la télécommande est trop bas
  • Le bouton rouge de la télécommande ramène à la chaîne précédente dans l’interface Freebox TV (FP #3603)
  • Ejection des disques non reconnus dans le lecteur de Blu-ray
Posté par Matt le 04/03/2011 à 11h30
Aucun commentaire
Source : L'actualité de la Freebox

RIM

Ces derniers temps, Research In Motion a beaucoup mis l'accent sur BlackBerry Messenger dans ses publicités pour ses smartphones. Ce logiciel de messagerie a en effet beaucoup d'avantages par rapport aux SMS (gratuité des messages, qui passent dans le forfait data), tout en étant bien plus pratique que les messagerie instantanée classique, en utilisant le numéro de téléphone comme identifiant...

Mais RIM semble avoir compris que pour qu'une solution de messagerie s'impose, elle ne doit pas être restreinte à une plateforme, les utilisateur de BlackBerry pouvant avoir envie de communiquer avec des utilisateurs de smartphones concurrents. Le canadien envisagerait donc de porter son application BlackBerry Messenger vers iOS et Android, ce qui lui permettrait de toucher une large majorité des utilisateurs de smartphone.

Les fonctionnalités seraient toutefois restreintes par rapport à la version fonctionnant sur les smartphones de la marque, ce qui en ferait aussi un moyen de promotion, sous la forme d'une sorte de démonstration à fonctionnalités limités pour pousser les utilisateurs à se tourner vers la version complète.

Posté par Matt le 04/03/2011 à 10h30
Aucun commentaire
Source : Génération NT

Motorola

En début d'année, Motorola créait la surprise en présentant le Lapdock, un accessoire pour son dernier modèle de smartphone Android, l'Atrix. Comportant un écran 10", un clavier et un trackpad, le Lapdock permet de transformer son smartphone en netbook.

Motorola Atrix 4G Laptop Dock

Deux mois plus tard, il semblerait que cet accessoire original soit un succès. En effet, Sanjay Jha, l'actuel CEO de Motorola a annoncé avoir pris la décision de livrer tous les futurs smartphones Android haut de gamme de la marque avec l'application Webtop.

Or, c'est justement cette application qui gère l'appareil lorsqu'il est connecté au Lapdock, en lui conférant une ergonomie mieux adapté à cette configuration. Il y a donc fort à parier que tous les futurs appareils haut de gamme de Motorola auront droit eux aussi à leur Lapdock.

L'Atrix n'étant pas encore disponible en France malgré son nom "gaulois", il nous faudra par contre encore patienter un peu avant de voir ce genre de solutions dans nos contrées.

Posté par Matt le 04/03/2011 à 08h31
Aucun commentaire
Source : Le Journal Du Geek

Microsoft

SideWinder... voici une gamme qui doit rappeler beaucoup de souvenirs aux 25-30 ans qui l'ont connue à son apogée, à l'époque où Microsoft proposait tout une gamme de périphérique de jeux parmi les meilleurs du marché, avec ses gamepad chaînables, ses joysticks et volants à retour de force, et même une manette à accéléromètres, des années avant la Wii...

Plus tard, en 2003, Microsoft avait décidé de l'abandon de cette gamme qui, faute de renouvellement, était alors largement dépassée par la concurrence. En 2007, Microsoft relançait finalement cette marque, avec une nouvelle gamme de produits pour joueurs. Mais cette fois, ni volant, ni manette, ni joystick, Microsoft s'est contenté de quelques références de souris et de claviers spécialisés dans les jeux vidéos.

Mais un grand nom n'étant pas suffisant à assurer le succès, la nouvelle gamme SideWinder a beaucoup souffert de la concurrence sur ces produits, nouveaux pour Microsoft alors que d'autres constructeurs y sont implantés de longue date. Pour la deuxième fois, Microsoft a donc annoncé l'abandon de sa gamme SideWinder. Elle ne sera probablement pas regrettée autant qu'à l'époque...

Les manettes de jeu pour Xbox 360 et Windows ne sont bien entendu pas concernées par cette décision, puisqu'elles n'appartiennent pas à la gamme SideWinder.

Posté par Matt le 03/03/2011 à 22h51
Aucun commentaire
Source : Tom's Hardware

Free Mobile

Il y a un peu plus d'un an, Free Mobile obtenait une licence lui permettant d'exploiter un réseau 3G en France. Cette licence incluait l'obligation pour les autres opérateurs de laisser Free Mobile utiliser leurs infrastructures 2G dans les zones non couvertes par le nouveau réseau, mais ne prévoyaient aucune obligation pour la 3G...

Or, sans cette itinérance 3G, difficile pour Free Mobile de proposer une offre compétitive : en 2012, lors du lancement de son offre, Free Mobile ne couvrira que 25% de la population. Les 75% restants auraient donc dû se contenter dans un premier temps de la 2G, ce qui rendait difficile la réalisation d'offres haut de gamme incluant un accès Internet.

Alors que SFR a marqué plusieurs fois son opposition au partage de ses infrastructures 3G avec Free et que Free avait menacé d'aller en justice pour obtenir une obligation d'itinérance, comme pour la 2G, le nouvel opérateur a finalement réussi à convaincre Orange de lui prêter (ou plutôt louer...) un peu de son réseau. Un accord sans doute grandement aidé par le réchauffement des relations entre Free et Orange depuis que ce dernier a changé de direction. Cet accord permettra donc à Free Mobile de proposer une offre disponible dans quasiment toute la France, via le réseau d'Orange, considéré par beaucoup comme le meilleur réseau du pays.

Selon certaines sources, cet accord serait valable pour une durée de cinq ans, de quoi laisser un peu de temps à Free Mobile pour construire son réseau (qui doit couvrir au moins 90% de la population d'ici à 2018), tout en rapportant une manne non négligeable à Orange, qui devrait facturer cette itinérance plus d'un milliard d'euros.

Posté par Matt le 03/03/2011 à 21h50
Aucun commentaire
Source : Univers Freebox

Facebook

Parmi les API fournies par Facebook, il y en a une fort utile pour les webmasters, qui permet de mettre simplement en place un système de commentaire, qui sera alors intégralement géré par Facebook. Une solution qui apporte simplicité et visibilité, les commentaires étant repris sur les profils Facebook de leurs auteurs. Facebook a lancé une mise à jour importante de cette API : la fin des commentaires anonymes !

En effet, jusqu'à présent, l'API permettait à tout le monde de poster un commentaire, sans avoir à s'identifier. Ceci fait désormais partie du passé, puisque l'API impose désormais aux auteurs de commentaires de se connecter au préalable, soit avec un compte Facebook, soit avec un compte OpenID supporté par Facebook. Pour justifier ce choix, Facebook explique que la fin de l'anonymat devrait se traduire par une plus grande qualité des commentaires, les internautes étant moins extrêmes dans leur propos lorsqu'il ne sont plus anonyme. On pourra tout de même leur rétorquer qu'on peut tout a fait être anonyme derrière un compte OpenID non nominatif ou ouvert sous un faux nom...

En contrepartie de cette limitation, la mise à jour offre par contre bon nombre de nouvelles fonctionnalités, en particulier au niveau de la modération, avec la possibilité de censurer des mots clés ou de bannir certains utilisateurs. Malgré tout, la fin de l'anonymat risque de pousser bon nombre de webmasters à se tourner vers d'autres solutions, imposer une identification aux utilisateurs n'étant pas toujours bénéfique...

Posté par Matt le 03/03/2011 à 10h40
Aucun commentaire
Source : Numerama

Unity, qui édite des outils de développement pour iOS, spécialisés dans les applications exploitant la 3D, compte s'attaquer au marché Android de manière originale, en s'adressant tout simplement à ses clients qui développent sous iOS...

L'éditeur vient en effet de finaliser Android Unity, une extension pour son environnement de développement iOS, qui permet de faciliter grandement le portage vers Android des applications développées pour iOS : il suffit d'une simple recompilation, en indiquant Android comme plateforme cible. Difficile de faire plus simple.

Et la solution a déjà fait ses preuves, puisque la version beta, disponible depuis quelques mois, a été utilisé avec succès pour porter une cinquantaine de jeux vers Android.

Unity Android est vendu 400 dollars pour les utilisateurs de la version gratuite d'Unit et 1500 dollars pour les utilisateurs d'Unity Pro.

Posté par Matt le 03/03/2011 à 09h21
Aucun commentaire
Source : Business Mobile

Apple

Comme prévu, Apple a organisé aujourd'hui une keynote pour présenter l'iPad 2, le nouveau gadget haute technologie de la pomme. Si le produit en lui même se révèle sans surprise majeure, le gros ayant été dévoilé par les rumeurs, c'est la présentation de la keynote qui a créé la surprise, puisqu'elle a été confiée à Steve Jobs, malgré son congé maladie.

Comme a son habitude, le "gourou" a commencé par présenter les gros chiffres :

  • 200 millions de comptes iTunes,
  • 2 milliards de dollars redistribués aux développeurs,
  • 15 millions d'iPad vendus en 9 mois, lui conférant plus de 90% du marché, pour un total de 9.5 milliards de dollars,
  • 65 000 applications optimisées pour l'iPad.

iPad 2

Conformément à ce qu'annonçaient les rumeurs, l'iPad 2 embarque un nouveau processeur, baptisé A5, doté de deux cœurs ARM. Selon Apple, le processeur serait ainsi deux fois plus rapide, tandis que les performances du GPU seraient multipliées par 9, le tout en ne consommant pas plus que l'A4. L'iPad 2 embarquera deux caméras, une VGA en façade et une 720p à l'arrière. Comme comme l'iPhone 4, bénéficie d'un gyroscope, en plus des accéléromètres. Comme son prédécesseur, il sera décliné en version Wi-Fi et 3G (GMS ou CDMA) avec des capacités de 16, 32 ou 64 Go, et le GPS reste réservé au modèle 3G. Enfin, il gagne en épaisseur (8.8mm au lieu de 13.4mm) et en poids (un peu plus de 600g au lieu de 680g).

iPad 2 avec Smart Cover

L'iPad 2 sera disponible aux États-Unis à partir du 11 mars et dans les autres pays à partir du 25 mars. Il sera proposé en noir, mais aussi en blanc, contrairement à l'iPhone 4 qui, 9 mois après son lancement, n'est toujours pas disponible en blanc... Les tarifs américains restent inchangés, avec une gamme s'étalant de 499 à 829$. Pour la France, les tarifs ne sont pas encore annoncés, Apple continuant pour l'instant à proposé l'iPad premier du nom, avec une importante baisse de prix (120€).

iPad 2 avec Smart Cover

Apple proposera également une protection originale, baptisée Smart Cover. Proposée en cuir (69$) ou en polyuréthane (39$), il s'agit d'une protection rigide ne couvrant que l'écran. Elle se fixe à l'iPad grâce à un système magnétique, et l'iPad se met automatiquement en veille lorsqu'elle est en place (et se réveille lorsqu'on l'ouvre). Articulée, elle peut aussi être repliée sur elle même pour former un support.

Côté OS, l'iPad 2 fonctionnera avec iOS 4.3. Cette version sera également disponible dès le 11 mars pour l'iPad, les iPhone 3GS et 4 (sauf modèle CDMA) et les iPod Touch 3G et 4G. Elle n'apportera par contre pas énormément d'améliorations, la principale nouveauté étant le mode routeur Wi-Fi, déjà disponible sur l'iPhone 4 CDMA.

Posté par Matt le 02/03/2011 à 22h22
Aucun commentaire
Source : Macbidouille

Hadopi

Dans quelques semaines, l'Hadopi va attribuer ses premiers labels aux plateformes de distribution d'offres audiovisuelles légales. Parallèlement, l'Hadopi prépare le lancement d'un moteur de recherche, permettant de faciliter l'accès aux offres labelisées.

Ceci devrait permettre à l'Hadopi de se faire connaitre du grand public de façon plus positive, la haute autorité n'étant pour l'instant connue quasiment que pour son rôle central dans la riposte graduée. La mise en place d'un tel moteur fait d'ailleurs parti des rôles de l'Hadopi définie par la loi, puisque selon le Code de la Propriété Intellectuelle, l'Hadopi doit "veiller à la mise en place, à la mise en valeur et à l'actualisation d'un portail de référencement" des offres légales labellisées.

On ne sait par contre pas pour l'instant si l'Hadopi va entièrement développer son propre moteur de recherche, adossé les bases de données des sites labellisés, où si elle optera plutôt pour un moteur de rechercher "client", basé sur un des moteurs déjà existant.

Posté par Matt le 02/03/2011 à 14h40
2 commentaires
Source : Numerama

République Française

Cet été, le Parti Socialiste avait présenté une proposition de loi en sept articles visant à garantir la neutralité d'Internet. Une loi largement en faveur des internautes, au détriment des FAI, dont le rôle se rapprocherait un peu plus de celui de simple fournisseur de "tuyauterie".

Ce projet visait par exemple à garantir aux utilisateurs le droit d'utiliser leur accès pour les services de leur choix, avec les applications de leurs choix et pour recevoir les contenus de leurs choix, sans la moindre restriction, en dehors de celles éventuellement justifiées par des raisons de sécurité ou imposées par la justice. Interdiction donc pour les FAI de favoriser certains services (surtout les leurs...), et encore moins d'en bloquer certains. Afin de garantir le respect de ces principes, la proposition demandait aussi que les boîtiers de connexion fournis par les FAI soient contrôlés et validés par l'ARCEP, pour s'assurer qu'ils ne soient pas conçus pour favoriser l'accès à certains services.

Le PS proposait également de faire entrer dans la loi un droit inaliénable à une connexion Internet à au moins 1 Mbit/s, remettant ainsi en cause le principe de la coupure d'accès imposée par la loi HADOPI, qui deviendrait simplement une limitation du débit à 1 Mbit/s. Un débit dont le PS juge qu'il est suffisant pour profiter d'Internet en tant qu'espace d'expression, mais pas pour de la consommation massive de contenus piratés.

Après divers remaniement et un rejet par la Commission des Affaires Économiques de l'Assemblée Nationale début février, le texte est passé aujourd'hui devant les député, pour un vote bloqué (c'est-à-dire un vote "express" tout ou rien, plutôt qu'une discussion et un vote article par article... une procédure demandée par le gouvernement, pour s'assurer d'un rejet de la loi...). Sans surprise, les députés UMP ont fait front, et la loi a été rejetée par 311 voix contre 218.

La neutralité de l'Internet français ne sera donc pas garantie par la loi... pour l'instant !

Posté par Matt le 02/03/2011 à 11h20
2 commentaires
Source : Numerama

Bing

Disponible en beta depuis quelques temps déjà, la version française de Bing a été lancée officiellement par Microsoft hier, avec l'objectif de venir prendre des parts de marché à Google France sur le secteur de la recherche en ligne.

Aux États-Unis, Bing a déjà réussi à grappiller 12% du marché en direct, et même 31% en comptant les recherches effectuées via Yahoo!, qui s'appuie sur Bing. La tâche risque toutefois d'être plus difficile en France, où, Google est beaucoup plus dominant. Pour y parvenir, Microsoft joue la carte de la différenciation par rapport à son concurrent :

  • mise en avant de certains contenus dans les résultats de recherche,
  • favorisation des réponses locales, grâce à un partenariat avec les PagesJaunes,
  • partenariat avec le GIE e-Presse (Figaro, L'Équipe, Libération, Le Point, Les Échos...) pour privilégier ses contenus d'actualité,
  • partage des revenus publicitaires avec ses partenaires fournisseurs de contenus,
  • accès au contenu numérique de la Bibliothèque Nationale de France.

Malgré tout, la tâche de Bing risque de ne pas être facile, surtout que Google ne restera probablement pas les bras croisés... Rendez-vous dans un an pour un premier bilan !

Posté par Matt le 02/03/2011 à 09h41
Aucun commentaire
Source : Tom's Guide

Picasa

Alors que la capacité de stockage offerte par Gmail ne cesse d'augmenter (un peu plus de 7.5 Go actuellement), celle de Picasa Web, le service de partage de photos de Google, est restée bloquée à 1 Go depuis des années. La mise à jour du service dévoilée la semaine dernière a toutefois apporté une petite modification à ce niveau.

Picasaweb

En effet, alors que Google a surtout parlé de l'amélioration de l'ergonomie et de la possibilité de partager des vidéos HD, une autre nouveauté plus discrète a fait son apparition, mais pourrait changer la vie de certains utilisateurs : l'espace offert reste limité à 1 Go, mais les photos de petite taille ne seront plus comptabilisées dans l'espace utilisé.

La limite est pour l'instant fixée à 800 pixels en hauteur et en largeur. Il devient ainsi possible de partager une version miniature intégrale de sa photothèque, quel que soit le nombre de photos qu'elles comporte. L'espace de stockage est également devenu illimité pour les vidéos ne dépassant pas 15 minutes, ce qui est plutôt logique, puisque YouTube le permet, et que les deux services appartiennent à une même maison mère...

Posté par Matt le 02/03/2011 à 08h41
2 commentaires
Source : Generation NT

Orange

Avec la multiplication des smartphones liés à des abonnements 3G avec données illimitées, le tethering, qui consiste à utiliser la connexion du smartphone sur un ordinateur, et une pratique de plus en plus courante, ce qui n'est pas tout a fait au goût des opérateurs...

Souvent interdits par le contrat, ces usages étaient toutefois jusqu'à présent largement toléré, les opérateurs ne prenant aucune mesure technique pour l'empêcher : et pour cause, ce blocage nécessite une analyse en profondeur du traffic, pour déterminer les logiciels utilisés par le client, et en déduire qu'il utilise la connexion depuis un ordinateur, au lieu de son smartphone...

Mais depuis le début de l'année, SFR, et maintenant Orange, semblent avoir pris des mesures. En effet, certains témoignages font état de blocage de la navigation, toutes les adresses étant redirigées directement vers une page proposant la souscription de l'option adéquate pour bénéficier du mode modem.

Si ces pratiques ne sont pas illégales, elles vont toutefois à l'encontre des principes de neutralité du net, qui veulent notamment que l'accès aux contenus soient indépendants du matériel et du logiciel utilisé (ce qui n'est pas le cas ici, les opérateurs filtrant les accès en fonction du navigateur utilisé). On peut aussi s'inquiéter du respect de la vie privée, une infrastructure permettant d'analyser le type de navigateur utilisé étant aussi capable d'analyser des données beaucoup plus privées, situées elles aussi dans les en-têtes HTTP.

Enfin, si vous utilisez régulièrement le tethering sans avoir souscrit d'option dédiée, nous vous conseillons de surveiller régulièrement vos factures : maintenant que les opérateurs ont l'infrastructure nécessaire à la détection, certains contrats les autoriseraient à facturer systématiquement ces usages plutôt que de les bloquer...

Posté par Matt le 01/03/2011 à 22h50
Aucun commentaire
Source : Numerama

Sony

Sony se serait-il trompé de combat ? Pendant que le constructeur nippon déployait ses avocats pour attaquer en justice toutes les personnes impliquées dans le hack de sa PS3, allant jusqu'à réclamer à YouTube les IP de toutes les personnes ayant posté un commentaire sur les vidéos démontrant les hack, LG attaquait Sony pour violation de brevets relatifs au Blu-Ray et demandait l'interdiction de la commercialisation de la PS3...

Dans cette affaire, LG vient de signer une première victoire en Europe : la cour civile de La Haye (où siège l'Office Européen des Brevets) a décidé de bloquer les importations de la console de Sony en Europe pour une durée d'au moins dix jours. Toutes les consoles qui arriveront sur le territoire européen pendant cette période seront saisies par les douanes.

Sony et LG peuvent tous deux faire appel de cette décision, le premier pour faire lever l'interdiction, le second pour la faire durer au delà des dix jours. Dans le second cas, la console pourrait rapidement être en rupture dans toute l'Europe, les stocks n'excédant que rarement deux à trois semaines de ventes.

Voilà donc une affaire qui risque de coûter bien plus cher à Sony que le piratage de sa console, d'autant plus que si le nippon était reconnu coupable, il pourrait avoir à verser à LG une compensation pour les dizaines de millions de consoles déjà vendues...

Posté par Matt le 01/03/2011 à 13h20
Aucun commentaire
Source : Kotaku

Gmail

Gmail, le service de messagerie de Google, utilisé par environ 200 millions de personnes dans le monde, à connu hier soir une panne mineure sur le nombre de comptes touchés, mais majeure par son impact : certains comptes ont tout simplement été vidés de l'intégralité des messages qu'ils stockaient ! Google travaille activement à restaurer les messages effacés, ce qui semble heureusement être possible dans la plupart des cas...

Gmail

Au plus fort de la crise, le 27 février à 22h20 heure française, Google estimait que moins de 0.29% des comptes étaient impactés. Une estimation revue à seulement 0.08% quatre heures plus tard, soit environ 150 000 comptes, puis 0.02% le 28 février à 19h. À cette heure, Google précisait aussi qu'environ un tiers des comptes affectés avaient déjà été réparés, ce qui ne laissait donc que 0.013% de comptes concernés et promettait une résolution complète dans un délai de 12 heures. Si vous êtes concerné, vous pouvez suivre l'évolution de la résolution sur l'Apps Status Dashboard.

Si cet incident devrait heureusement bien se terminer pour les utilisateurs, qui vont récupérer l'ensemble de leurs données, il constitue une bonne piqure de rappel sur la pérennité des données, à l'heure où les services de stockage en ligne se multiplient : lorsque vous stockez des données en ligne, n'oubliez jamais que vous êtes alors à la merci du fonctionnement de serveurs sur lesquels vous n'avez pas le contrôle, et dont vous n'avez pas forcément connaissance de la fiabilité et de la fréquence des procédures de sauvegarde. De quoi changer d'avis quand envisage de mettre toutes ses données dans le nuage.

Gmail avec Thunderbird

Il ne faut toutefois pas non plus tomber dans la paranoia : les services de stockage les plus populaires sont globalement plutôt fiable, et sauvegardés régulièrement, ce qui devrait éviter des pertes de données. Mais les utilisateurs avisés prendront garde à toujours garder une (voir plusieurs) copie locale des données qu'ils stockent sur des serveurs distants. Dans le cas d'un compte Gmail par exemple, il suffit d'un client mail compatible IMAP et de quelques Go d'espace disque pour effectuer une sauvegarde complète des données de son compte, qu'il suffira ensuite de synchroniser à intervalles réguliers pour récupérer les modifications.

Posté par Matt le 01/03/2011 à 09h30
Aucun commentaire
Source : Le Journal du Geek via Ptit_bœuf

Intel

Notre confrère Hardware.fr a testé la nouvelle gamme de SSD Intel 510, que le fondeur a lancé aujourd'hui même, avec un modèle 120 Go à 284$ et un modèle 250 Go à 584$. Le testeur n'a pas résisté à la tentation de démonter la bête. Ce qui ne s'est pas fait sans surprise...

SSD Intel 510

Photo : Hardware.fr

En effet, alors que jusqu'à présent, Intel a toujours fabriquée ses SSD en couplant sa propre mémoire flash avec ses propres contrôleurs, le fondeur a opté sur sa gamme 510 pour un contrôleur client, le 88SS9174-BKK2 de Marvell, une évolution du contrôleur qu'on trouve dans le très connu Crucial C300.

Malheureusement, cette évolution n'a pas que des avantages... Les débits en accès séquentiels, très utilisés par le marketing, sont en net progrès, surtout par rapport aux Intel X25-M, qui n'étaient pas très véloces en écriture séquentielle. Mais on ne peut pas en dire autant des débits en accès aléatoires, qui sont pour leur part nettement moins bons que sur les Crucial C300, mais aussi que sur les X25-M ! Et pas qu'un peu, puisque dans certains cas, les performances sont quasiment divisées par trois par rapport au C300 !

Cette découverte tendrait à confirmer le fait qu'Intel rencontre des problèmes avec son nouveau contrôleur développé pour ses futurs SSD exploitant de la mémoire 25nm, ces Intel 510 ressemblant vraiment à un produit sorti à cause du retard de la nouvelle génération, pour occuper le marché en attendant que les problèmes soient résolus.

Posté par Matt le 01/03/2011 à 08h13
Aucun commentaire
Source : Hardware.fr