UNE NOUVELLE VERSION D'INFOBIDOUILLE EST EN LIGNE CLIQUEZ-ICI POUR LA VISITER

Google

Google est probablement aujourd'hui l'une des marques préférée des geeks. Une position qu'elle doit au fait d'avoir presque toujours conçu ses produits de manières à ce qu'ils conviennent aux geeks, mais peut être aussi parce que la firme est dirigée par des geeks, comme les montrent les montants récemment misés par Google dans les enchères des brevets de Nortel...

En effet, même si Google a perdu les enchères sur le portefeuille de 6000 brevets, finalement remportées collégialement par Apple, Microsoft, Sony, EMC, Ericsson et RIM, le géant de la recherche s'est fait remarquer pour les montants peu conventionnels des enchères... Après une première offre à 900 millions de dollars, Google a suivi avec une offre à 1 495 978 700$ (dix fois la distance de la Terre au Soeleil), puis a enchaîné sur une offre à 1 902 160 540 dollars, ce qui est une approximation de un milliard de fois la constante de Brun.

Un peu plus tard, Google a posé 3.14159 milliards de dollars (vous aurez tous reconnu les premières décimales nombre Pi) sur la table, avant une dernière offre plus ronde, à 4 milliards de dollars. Apple et ses partenaires l'ont finalement emporté avec une offre à 4.5 milliards de dollars, que Google n'a pas suivi, le groupe s'étant fixé une limite à 4 milliards de dollars.

Pour certains, ces montants originaux serait en fait un signe que Google n'était pas forcément très intéressé par ces brevets, et s'est contenté de faire monter les prix pour augmenter la facture de ses concurrents. Les dirigeants de Google se sont toutefois déclarés déçus du résultat des enchères.

Posté par Matt le 05/07/2011 à 08h31
Aucun commentaire
Source : Génération NT

Intel Atom

Dans un peu plus d'un an, Microsoft devrait lancer Windows 8. Ce nouveau Windows étant prévu notamment pour fonctionner sur des tablettes, Intel semble vouloir profiter de l'occasion pour imposer ses processeurs Atom dans ce type d'appareil, en accompagnant le lancement de Windows 8 avec une nouvelle génération de sa puce basse consommation.

Baptisée Clover Trail, la nouvelle plateforme reprendra le chipset NM10 Express, déjà utilisé aujourd'hui par la plupart des machines à base d'Atom, mais le couplera avec une nouvelle puce Atom Cloverview. Gravé en 32nm, cette puce permettra une consommation plus faible que celle des puces Atom actuelles, gravées en 45nm, et donc une autonomie accrue pour les tablettes. Il y aura probablement aussi quelques améliorations de performances, notamment au niveau de la partie graphique, mais Intel n'a pas donné d'informations à ce sujet.

Avant la plateforme Clover Trail, Intel devrait lancer deux versions intermédiaires, elles aussi gravées en 32nm : les plateformes Cedar Trail pour les netbooks et Medfield pour les smartphones. Elles devraient arriver avant la fin de l'année.

Posté par Matt le 04/07/2011 à 12h14
Aucun commentaire
Source : PCWorld

Free Mobile

Alors que les fréquences radio pour la 4G LTE vont prochainement être attribuées aux opérateurs mobiles, il se pourrait que Free Mobile opte pour une autre technologie pour son offre Internet mobile haut débit : le WiMAX, éternelle arlésienne du haut débit sans fil...

Iliad, maison mère de Free Mobile, dispose en effet via sa filiale Iliad Free Wimax d'une licence WiMAX 3.5 GHz valable sur l'ensemble du territoire français, et qui est actuellement quasiment inutilisée. Ceci permettrait à Free Mobile de proposer relativement rapidement des offres haut débit mobile, en complément de la 3G, qui resterait utilisée pour les communications vocales. Une solution qui serait toutefois probablement temporaire, en attendant le déploiement d'un réseau LTE, seul technologie qui sera largement supportée par les futurs smartphones.

C'est en effet sur le support matériel que le WiMAX pose problème aujourd'hui : les constructeurs se sont tous orientés vers les LTE, et les quelques modèles de smartphones supportant le WiMAX risquent bien de ne pas avoir de successeurs. Certaines rumeurs évoqueraient toutefois un partenariat entre Iliad et HTC pour le développement de téléphones WiMAX, tandis que d'autres indiquent plutôt que la licence WiMAX pourrait servir comme alternative à l'ADSL pour l'Internet fixe dans les zones non couvertes en ADSL. Cette hypothèse est toutefois assez peu crédible, puisque Free n'a donné aucun signe en ce sens depuis des années...

Notons également qu'à partir de 2016, Free aura le droit d'utiliser les fréquences de sa licence WiMAX pour diffuser du LTE. Mais là aussi, il faudra du matériel compatible avec ce LTE à fréquences atypiques...

Posté par Matt le 04/07/2011 à 08h32
Aucun commentaire
Source : Tom's Hardware

IBM

Dans les prochaines années, nous allons probablement vivre de gros changement dans le secteur des mémoires, avec l’émergence de nouveaux types de mémoire capables d'offrir des performances proches de celles de la RAM, tout en étant non volatiles, comme la flash. IBM va apporter sa part à cette évolution, avec des progrès intéressant dans les mémoires à changement de phase (PCM).

En effet, alors que le géant estime que les premières générations de ces mémoires basées sur le changement d'état de la matière les constituant ne seront largement adoptées que dans cinq ans, ses chercheurs travaillent déjà sur une seconde génération, qui devrait être introduite dans cinq ans et qui promet une densité quadruplée, en stockant quatre bits par cellule au lieu d'un seul. Avec une telle densité, les mémoires PCM arriveraient à une densité du même ordre que celle de la flash, tout en gardant de bien meilleurs performances (mais en étant plus lentes que les PCM classiques) et une endurance très supérieure, quasiment au niveau de celle de la RAM.

Cerise sur le gâteau, les PCM devraient également être suffisamment économiques pour s'imposer rapidement dans tous les appareils électroniques, des plus petits appareils mobiles jusqu'aux plus gros calculateurs. Elles devront toutefois faire leurs preuves face aux autres nouveaux types de mémoire, aux caractéristiques assez similaires : MRAM, FeRAM...

Posté par Matt le 01/07/2011 à 12h41
Aucun commentaire
Source : engadget via Ptit_boeuf

Google

Peu après l'officialisation de son nouveau réseau social Google+, Google a lancé un nouveau service, Google Takeout, qui vous permettra d'exporter aisément les données associés à votre compte Google, pour pouvoir ensuite les importer dans d'autres services.

En soit, ce n'est pas vraiment une nouveauté, les services Google permettant déjà pour la plupart l'export des données via des formats ou des protocoles ouverts (fiches de contacts au format vCard, courriers en IMAP, documents en OpenDocument, etc...), mais cette possibilité d'exporter en un clic les données de plusieurs services Google est bel et bien nouvelle, et il est difficile de ne pas faire le lien avec le lancement de Google+ : avec Takeout, Google propose une fonctionnalité similaire à la fonction "Télécharger vos données" de Facebook, qui permet de récupérer une archive ZIP contenant toutes les données partagées sur Facebook.

Et Google pourrait bien utiliser Takeout comme un argument supplémentaire en sa faveur, en montrant son ouverture : le fichier proposé par Google permettra de réimporter aisément les données dans de nombreux autres services ou applications, contrairement à celui de Facebook, qui semble être plutôt destiné à un rôle informatif. Google a d'ailleurs mis en ligne une vidéo humoristique pour présenter cette fonction. Elle présente le "Data Liberation Front", qui œuvre clandestinement pour permettre aux utilisateurs de quitter les services Google en emportant leurs données :

Les services Google ne sont par contre pas encore tous disponibles dans Takeout. L'export prend pour l'instant en charge l'export de Buzz (une page HTML par publication), de Contacts et de Circles (un fichier vCard par groupe de contacts), de Picasa Web Albums, de Profile (un fichier JSON) et des Flux Google+. Il manque donc essentiellement les mails (peut-être non inclus pour des questions de volumétrie...), les documents, les itinéraires Google Maps, etc... Pour pousser l'ouverture et la transparence jusqu'au bout, il serait également bon que Google propose une fonction "Takeout & Leave", qui exporterait les données avant de les supprimer.

Enfin, on notera que Google a pris soin de sécuriser cette fonction : même si vous êtes connecté à votre compte Google, il faudra saisir une première fois le mot de passe pour déclencher la génération de l'archive, et une seconde fois pour la télécharger. Il ne manquerait plus qu'un mot de passe sur l'archive.

Posté par Matt le 01/07/2011 à 08h41
Aucun commentaire
Source : Le Journal du Geek via Ptit_boeuf

République Française

Vu le peu de succès de l'Hadopi, un groupe baptisé Création, Public et Internet, qui réuni différentes organisations de défense des consommateurs, mais aussi des artistes, profite de l'approche de l'élection présidentielle pour appeler les candidats à prendre position fermement sur la mise en place d'une vraie licence globale.

La proposition de CPI est on ne peut plus simple : une taxe de 5€ par mois serait prélevée sur les abonnements Internet et redistribuée aux ayants droits. De quoi ramener chaque année 1.3 milliards d'euros dans les caisses de la création, ce qui représente quelques millions d'euros de plus que les sommes actuellement redistribuées. En contrepartie de cette taxe, le P2P français passerait en mode "open bar", et l'Hadopi n'aurait du coup plus de raison d'être.

CPI appelle par ailleurs à une refonte majeure du système de redistribution des droits. Selon eux, ce système fait aujourd'hui la part belle aux producteurs, qui touchent le gros des revenus, au détriment des artistes. Le groupe appelle donc à une réorganisation de ce système pour qu'il soit plus équitable vis à vis des artistes, alors que toutes les mesures récentes ont surtout profité aux producteurs.

Composé de la Quadrature du Net, de l'UFC Que Choisir, du SAMUP (Union des Syndicats des Artistes Interprètes Créateurs et Enseignants de la Musique de la Danse et de l'Art Dramatique de France) et de réalisateurs, producteurs et acteurs, le groupe ne devrait pas avoir de mal à convaincre les candidats de gauche et du centre, François Hollande, Martine Aubry, Nicolas Hulot, Eva Joly et François Bayrou ayant tous déjà annoncé être en faveur d'une certaine forme de licence globale, mais aura probablement plus de mal à convaincre la droite, où seul Dominique de Villepin s'est exprimé favorablement, alors qu'il y a peu de chance que Nicolas Sarkozy renie l'Hadopi, dont il a été l'un des principaux artisans...

Posté par Matt le 29/06/2011 à 12h30
3 commentaires
Source : Numerama

Sony

Quelques mois après le lancement des premiers ordinateurs Thunderbolt chez Apple, Sony vient d'annoncer son nouvel ultra-portable Vaio Z, la premier machine non Apple dotée de Thunderbolt... ou presque, puisque Sony a opté pour un connecteur différent.

Sony Vaio Z

Ainsi, alors qu'Apple et Intel ont opté avec Thunderbolt pour un connecteur mini-DisplayPort, pouvant véhiculer à la fois l'image et quatre liens PCI-Express, Sony fait pour sa part passer les liens PCI-Express via un connecteur USB 3.0. Sony a d'ailleurs veillé à ne pas employer le terme Thunderbolt, mais plutôt Light Peak, le nom de code de la technologie sous-jacente. Cette machine ne sera donc pas compatible avec les produits Thunderbolt.

Sony Power Media Dock

Mais en contrepartie, Sony va commercialiser un dock spécifique à ce Vaio Z, le Power Media Dock. Utilisant le connecteur Light Peak, il offre un lecteur/graveur optique (le Vaio Z en est dépourvu), deux ports USB 2.0, un port USB 3.0, un port Gigabit Ethernet, mais aussi et surtout, un GPU Radeon HD 6650M doté d'1 Go de mémoire, avec une sortie HDMI et une sortie VGA. De quoi donner un gros coup de boost à la machine lorsque qu'elle est utilisée au bureau.

Sony Vaio Z

La configuration interne de la machine n'aura par ailleurs pas à rougir face à des ordinateurs plus volumineux : Core i5-2410M à Core i7-2620M, 4 à 8 Go de RAM, SSD de 128 à 512 Go, Wi-Fi N, Bluetooth, 3G, écran mat 13.1" (avec une définition pouvant aller jusqu'à 1920x1080 !)... Le tout dans une machine ne pesant que 1.2 kg pour 16.65mm, de quoi concurrencer sérieusement le Macbook Air d'Apple.

Cette technologie se paie par contre le prix fort, avec 1830 à 2500€ pour le Vaio Z et 305 à 525€ pour le dock...

Posté par Matt le 29/06/2011 à 10h12
2 commentaires
Source : Clubic

Google

Malgré le succès de la plupart de ses services en lignes, Google est toujours à la traine sur un secteur majeur du web d'aujourd'hui : les réseaux sociaux, largement dominés, pour ne pas dire écrasés, par Facebook et Twitter. Après plusieurs tentatives infructueuses, un nouveau projet, Google+, pourrait venir faire de l'ombre à Facebook...

En effet, alors que Google a jusqu'à présent toujours évité le choc frontal, en lançant des outils sociaux relativement différents de ceux de Facebook, semble viser clairement le réseau de Mark Zückerberg, au moment où justement ce dernier commence à perdre de la vitesse aux USA, et pourrait bien combler l'un des défauts les plus souvent cités à propos de Facebook.

Ainsi, dans la présentation du service, Google+ met l'accent sur la notion de "Cercles". Chaque contact pourra être placé dans un ou plusieurs cercles, et les informations partagées sur le réseau social pourront l'être avec les cercles de votre choix, alors qu'on reproche souvent au système de groupes de Facebook de ne pas offrir une gestion fine des niveaux de partage.

On retrouvera bien entendu aussi la possibilité d'uploader et de partager des photos, des vidéos, des liens, de participer à des chats de groupe... Le service proposera aussi des conversations vidéos, avec là encore une nouveauté assez originale, avec le concept de "Bulles" : branchez votre webcam, vos amis seront notifiés de votre disponibilité, et ceux qui le souhaitent pourront venir discuter avec vous et tous ceux qui vous auront rejoint dans votre "bulle". Autre nouveauté, la fonction "Déclics" permettra d'obtenir automatiquement des suggestion de contenus en fonction des centres d'intérêts définis dans votre profil.

Le service est pour l'instant en beta fermée, accessible uniquement sur invitation, mais il se pourrait bien qu'il ouvre rapidement, comme en témoigne le site de présentation du projet, déjà intégralement traduit en plusieurs dizaines de langues, ce qui n'est pas courant dans les beta de Goole.

Posté par Matt le 29/06/2011 à 08h21
1 commentaire
Source : Le Journal du Geek

Nokia

Drôle de stratégie que celle de Nokia... Alors que le finlandais voit ses ventes dégringoler, il vient de lancer le N9, son nouveau smartphone haut de gamme sous MeeGo, tout en annonçant quelques jours plus tard sa volonté d'abandonner ce système.

Nokia N9

En effet, Stephen Elop a confirmé dans une interview que la société ne comptait pas continuer le développement de MeeGo, quelques soient les résultats des ventes du N9, qui restera donc le seul smartphone de la firme à exploiter cet OS, même si Nokia envisage des possibilités dans le secteur des tablettes, auquel Windows Phone n'est pas encore adapté. Il est certain qu'avec une telle attitude, les ventes du N9 ont peut de chance d'être exceptionnels, avec un OS déjà condamné, ce qui n'attirera pas les développeurs d'applications tierces.

L'avenir de Nokia selon sous l'ère Stephen Enlop se résume donc en trois mots : "Windows ou rien". En effet, outre l'abandon officialisé de MeeGo, Enlop a totalement passé sous silence l'avenir de Symbian, comme si celui-ci faisait déjà partie du passé pour le PDG du groupe finlandais. Cette interview a tout de même le mérite d'annoncer clairement la couleur, et évitera donc peut-être à certains d'investir à perte dans ces deux plateformes à l'abandon.

Posté par Matt le 28/06/2011 à 10h50
Aucun commentaire
Source : Tom's Hardware

Bouygues Telecom

Il y a quelques mois, les premiers tests de diffusion 4G par les opérateurs mobiles avaient révélé que la 4G LTE pouvait interférer avec les signaux TNT, au point de faire perdre complètement l'image sur certains récepteurs TNT. Un problème pour lequel Bouygues vient de saisir le Conseil d'État.

Si ce dernier n'est bien entendu pas compétent pour résoudre le problème d'un point de vue technique, c'est sur le plan réglementaire que Bouygues Télécom souhaite le faire intervenir. En effet, dans l'état actuel de la législation, en cas d'interférence avec d'autres services, ce sont aux opérateurs télécoms de prendre en charge le problème. Selon Bouygues, l'addition pourrait se chiffrer entre 500 millions et 1.7 milliards d'euros pour les opérateur, ce qui le fait hésiter à postuler pour une licence 4G dont il ne maitrise pas parfaitement le coût d'exploitation.

D'après les tests, se sont environ 20% des récepteurs TNT qui pourraient être perturbés par les signaux 4G dans la bande 800 MHz, bande qui est concernée par l'appel à candidature en cours, qui se terminera le 15 décembre prochain. Bouygues souhaiterait donc que l'État prenne en charge, au moins partiellement, les évolutions techniques nécessaires pour empêcher la perturbation des ces 20% de récepteurs.

Posté par Matt le 28/06/2011 à 08h31
Aucun commentaire
Source : Tom's Hardware