Si Intel a l'intention de venir s'attaquer à l'architecture ARM sur le secteur de la mobilité, le fondeur fourbit également ses armes pour se défendre contre les assauts d'ARM sur le marché des serveurs, où l'efficacité énergétique et la petite taille des SoC ARM attire de plus en plus, en particulier pour les serveurs destinés au cloud computing.
Baptisé Centerton, la nouvelle arme d'Intel sur le marché des serveurs est un SoC à base de processeur Atom. Il embarque en effet deux cœurs Atom à 1.6 GHz, dotés chacun de 512 Ko de cache et supportant l'HyperThreading et la virtualisation, un contrôleur mémoire DDR3 simple canal avec support ECC et un contrôleur PCI-Express 2.0 à 8 voies. Gravée en 32nm, cette solution devrait être commercialisée au second trimestre 2012.
Grâce à sa petite taille et sa faible consommation (5.7 à 8.1W), Intel indique qu'une armoire serveur pourra accueillir jusqu'à 2000 de ces puces, soit un total de 4000 cœurs/8000 threads par armoire. ARM pourra peut-être faire un peu mieux sur ce point, grâce à une consommation encore plus réduite, mais Intel conserve l'avantage de la compatibilité avec les logiciels existants, et précise que le passage à une gravure de 22nm est déjà prévu, ce qui devrait réduire encore un peu la consommation.
Posté par Matt le 28/12/2011 à 13h55
Aucun commentaire
Source : Clubic
Rares sont aujourd'hui les offres d'accès Internet "illimitées" qui ne comportent pas un certain nombres de clauses limitatives, restreignant le volume de données transmissible, les débits, les protocoles autorisés, voir tout à la fois. Une situation qui pourrait changer à l'avenir si les députés se rangent à l'avis des sénateurs...
Un projet de loi est en effet actuellement en cours d'élaboration, avec notamment des articles visant à encadrer l'usage du terme "illimité" pour les offres de télécommunications, et en particulier les accès Internet. Après avoir été largement édulcoré par les députés de l'Assemblé Nationale (majorité de droite) en première lecture en septembre dernier, le texte voté hier par le Sénat (majorité de gauche). Ainsi, alors que les députés validaient le principe d'une offre "illimitée" limitée, tant que les clauses limitatives sont précises et mentionnées à côté du terme "illimité", les sénateurs demandent l'interdiction de l'emploi du terme illimité dès lors que l'offre comporte des clauses prévoyant "une coupure temporaire, une facturation supplémentaire des services ou une dégradation excessive de débits ou de la qualité de service". Le principe du "fair use", largement répandu dans les offres Internet "illimitées" mobiles devient ainsi proscrit : il faudra cesser de qualifier ces offres d'"illimitées", ou ne plus appliquer la restriction de débit après un certain volume.
Les sénateurs autorisent toutefois la conservation de certaines clauses limitatives, lorsqu'elles ont pour but de protéger les opérateurs de certains abus, comme par exemple le partage (ou la revente) de l'abonnement avec d'autres personnes. Ainsi, des clauses limitant le nombre de correspondants par mois dans le cadre d'une offre de téléphonie illimitée restent admises. Enfin, la notion d'"Internet illimité" ne pourra plus être mise en avant lorsque certains protocoles ou ports sont bloqués par l'opérateur. Un premier pas en avant vers la neutralité.
Le texte voté par les sénateurs étant différent de celui voté en septembre par les députés, ce nouveau texte devra toutefois passer en seconde lecture devant l'Assemblée Nationale avant de pouvoir éventuellement être inscrit dans la loi française, et il n'est pas impossible que les députés modifient à nouveau ces amendements...
Posté par Matt le 28/12/2011 à 11h19
4 commentaires
Source : Freenews
Lors de la mise en vente des lots de fréquences dans la bande de 800 MHz pour l'exploitation de réseaux mobiles 4G LTE, les opérateurs étaient conscients d'un fort risque d'interférence avec les émission TNT, et s'étaient engagés à investir les sommes nécessaires à assurer le bon fonctionnement de toutes les transmissions. Vu les résultats des premières expérimentations, ils pourraient toutefois avoir à payer bien plus que prévu...
Menées notamment à Laval durant l'automne, ces expérimentations, effectuées en collaboration avec les opérateurs, ont en effet mis en évidence des perturbations "plus importantes que prévues", et impactant tous les canaux de la TNT, pas seulement ceux situés dans les plus hautes fréquences. Pire, les ajustements effectués pendant ces expérimentations pour tenter de remédier au problème se sont révélés insuffisants, et il n'a pas été possible de pousser l'expérimentation jusqu'au bout, en activant les huit émetteurs LTE qui devaient normalement être utilisés.
D'après les résultats de ces expérimentations, il se pourrait que les opérateur soient obligés d'aller intervenir directement sur les installations TNT des utilisateurs pour résoudre les problèmes, en y installant des filtres suffisamment sensibles pour éliminer tous les parasites. Le coût pourrait dépasser la centaine d'euros par installation à mettre en conformité.
Au regard de ses résultats, on peut se demander si Free n'aurait pas finalement fait LA bonne affaire en n'obtenant aucun bloc de la bande 800 MHz. En n'exploitant la 4G que sur la bande 2.6 GHz, l'opérateur estime en effet être en mesure de couvrir 80% de la population, ce qui limitera le coût du roaming 800 MHz, tout en n'ayant pas à payer pour résoudre les problèmes d'interférence avec la TNT (même si ce coût sera probablement en partie répercuté sur le montant des accords de roaming). Dans une moindre mesure, Bouygues aussi réalise une bonne opération. L'opérateur a en effet payé son bloc de 10 MHz nettement moins cher qu'Orange et SFR, car ce bloc était présumé être le plus problématique. D'après ces expérimentations, les autres blocs sont autant affectés, et donc, en plus d'avoir coûté plus cher à l'achat, seront aussi coûteux en mise aux normes des installations TNT.
Posté par Matt le 28/12/2011 à 09h19
Aucun commentaire
Source : Tom's Hardware
Depuis de nombreuses années, Google est le plus gros contributeur aux revenus de Mozilla, dont il représente plus de 80% du chiffre d'affaire. Depuis que Google s'est lancé sur le marché des navigateurs, beaucoup craignaient que le contrat, expirant en novembre dernier, ne soit pas renouvelé. Qu'on se rassure, Google a signé un nouveau contrat.
Google et Mozilla ont en effet publié mardi un communiqué de presse annonçant qu'un nouvel accord a été trouvé entre les deux entités. Comme le contrat précédent, il court pour une durée de trois ans, pendant laquelle Google sera configuré comme moteur de recherche par défaut à l'installation de Firefox, en échange d'espèces sonnantes et trébuchantes.
En 2010, l'accord avec Google représentait 103 millions de dollars sur les 123 millions encaissés par Mozilla. Mozilla et Google n'ont pas communiqué sur les montants en jeu dans ce nouveau contrat, et il faudra donc probablement attendre le rapport d'activité 2012 de la fondation pour connaitre le montant exact négocié.
Mozilla est donc désormais tranquille pour 3 ans, avant de devoir à nouveau négocier à Google. Une négociation qui risque de devenir plus compliquée si Chrome continue de grappiller des parts de marché.
Mise à jour le 27/12/2011 : Si Mozilla et Google ont refusé de communiquer le montant de l'accord, certaines sources évoquent un montant très en faveur de Mozilla, qui aurait réussi à convaincre Google de signer pour 300 millions de dollars par an, soit trois fois plus que dans le précédent accord, en le menaçant d'aller voir du côté de Yahoo! et de Bing (rappelons d'ailleurs qu'une version de Firefox avec Bing comme moteur de recherche par défaut est diffusée depuis quelques temps par Microsoft). Si ce montant se confirme, la fondation Mozilla va donc pouvoir se lancer sereinement dans ses projets les plus ambitieux, avec un budget en très nette hausse.
Actu originale : 22/12/2011 à 11h20
Posté par Matt le 27/12/2011 à 18h00
Aucun commentaire
Sources : Silicon.fr et PCInpact
L'ARCEP a dévoilé hier soir les résultats de la procédure d'attribution des licences 4G dans la bande des 800 MHz. Une procédure à laquelle avaient répondu les quatre opérateurs mobiles 3G, mais à l'issue de laquelle seuls les anciens opérateurs de la 2G ont obtenu des fréquences.
Il y avait pourtant bien quatre lots en vente, deux de 10 MHz et deux de 5 MHz, mais la procédure prévoyait qu'un opérateur puisse obtenir plusieurs lots. C'est chose faite pour SFR, qui a obtenu les deux lots de 5 MHz, en ayant mis 1 065 millions d'euros sur la table. C'est l'opérateur qui a misé le plus, après avoir fait des économies en mettant le strict minimum sur l'enchère des fréquences de la bande 2.6 GHz. Les deux blocs de 10 MHz ont pour leur part été attribués à Bouygues Telecom (683 millions d'euros) et Orange (891 millions d'euros).
Les trois opérateurs se sont par ailleurs engagés à accueillir des MVNO sur leur réseau et à atteindre une couverture de 99.6% de la population totale du pays, avec une couverture d'au moins 95% dans chaque département. Ils devront également mettre particulièrement l'accent sur le déploiement dans les zones moins denses, souvent oubliées par la technologie.
Free Mobile n'a pas été retenu pour une licence 800 MHz, son offre étant trop basse par rapport à celle de ses concurrents. La procédure prévoyait toutefois que les opérateurs obtenant deux lots aient l'obligation d'accueillir en itinérance les opérateurs n'ayant obtenu aucun lot, dès lors que ces opérateurs couvriront 25% du territoire avec leur réseau 2.6 GHz. Free Mobile pourra donc rapidement bénéficier de l'itinérance avec SFR.
Au final, en cumulant les deux plages de fréquence, les attributions sont les suivantes :
- Bouygues Telecom : 25 MHz (3x5 MHz en 2.6 GHz, 1x10 MHz en 800 MHz) pour un montant total de 911 millions d'euros,
- Free Mobile : 20 MHz (4x5 MHz en 2.6 GHz) pour un montant total de 271 millions d'euros,
- Orange : 30 MHz (4x5 MHz en 2.6 GHz, 1x10 MHz en 800 MHz) pour un montant total de 1 178 millions d'euros,
- SFR : 25 MHz (3x5 MHz en 2.6 GHz, 2x5 MHz en 800 MHz) pour un montant total de 1 215 millions d'euros.
Le total atteint 3 575 millions d'euros, soit 1 075 de plus que ce que l'État espérait récupérer.
C'est donc SFR qui s'en sort le moins bien d'un point de vue financier, mais l'opérateur bénéficiera de l'itinérance de Free Mobile, qui ne sera pas accordée gratuitement. Free Mobile est pour sa part celui qui paie le moins cher, tout en bénéficiant tout de même d'une plage de 20 MHz. Il s'en sort donc très bien, mais risque d'être mis en difficulté par le coût de l'itinérance. Il y a fort à parier que l'opérateur privilégiera donc la couverture des zones denses avec son réseau 2.6 GHz, malgré la mauvaise pénétration de ces ondes dans les bâtiments, pour minimiser le recours à l'itinérance.
Posté par Matt le 23/12/2011 à 08h50
4 commentaires
Source : Univers Freebox
Après avoir été maintes et maintes fois repoussés, les premiers smartphones à base de processeurs x86 pourraient arriver sur le marché en juin prochain. Intel a fait la démonstration d'un premier modèle de référence.
Embarquant une puce Atom Medfield, ce modèle de référence est le premier à avoir des dimensions "normales" pour un smartphone d'aujourd'hui, les précédents prototypes étant pour leur part des briques bien épaisses et bien larges...
Intel n'a donné que très peu d'informations sur l'appareil, mais selon le MIT Technology Review, l'appareil serait capable de faire tourner correctement Android 4.0 (Ice Cream Sandwich), de lire de la vidéo HD, et permettrait un surf parfaitement fluide. Intel a également réalisé un design de référence qui, selon les premiers témoignages, est plus léger qu'un iPad, tout en étant aussi fin et doté d'un écran plus grand. À l'usage, cette tablette de référence sous Android 4 serait plus performante que les actuelles tablettes à puce ARM sous Android 3.x (Honeycomb).
Mais pour s'imposer sur ce marché, les performances ne font pas tout : la consommation est également particulièrement importante. Sur ce point, Stephen Smith (vice-président d'Intel) affirme que la plateforme Intel bat une plateforme ARM faisant partie du "top 3", mais sans donner plus de précision.
Il faudra aussi que la plateforme Intel soit compétitive sur le plan tarifaire, ce qui n'est malheureusement que rarement le cas chez Intel...
Posté par Matt le 22/12/2011 à 12h20
Aucun commentaire
Source : Übergizmo
Il y a un an et demi, Anobit avait fait parler d'elle, en annonçant sa technologie Memory Signal Processing, qui permet de multiplier par cinq l'endurance des cellules mémoire MLC. Plutôt discrète depuis, la société fait aujourd'hui de nouveau parler d'elle, en se faisant racheter par Apple.
Apple étant devenue une très grosse consommatrice de flash depuis qu'elle en met de grandes quantités dans quasiment tous ses produits, il n'est pas surprenant qu'Apple s'intéresse de près aux technologies permettant d'améliorer l'endurance de ces mémoires.
Les technologies développées par Anobit pourraient en effet permettre à Apple de substantielles économies, en lui permettant d'utiliser de la mémoire MLC 3BPC au lieu de la classique 2BPC, sans perdre en durée de vie. Une telle évolution se traduirait pas une réduction de 33% du coût en mémoire flash pour Apple.
Ce rachat donne aussi un avantage énorme à Apple sur ses concurrents : ils devront probablement payer cher pour accéder à ces technologies dans leurs produits... Et à condition qu'Apple veuille bien les licencier, ce qui est loin d'être certain vu le passif de la pomme en matière de protection de ses brevets.
Le montant du rachat n'a pas été communiqué pour l'instant, mais les rumeurs évoquent une facture comprise entre 400 et 500 millions de dollars, ce qui en fait le plus gros rachat d'Apple depuis 1996, lorsqu'elle avait racheté NeXT à Steve Jobs pour 404 millions de dollars et en reprendre les concepts et les frameworks pour créer Mac OS X.
Posté par Matt le 22/12/2011 à 08h50
2 commentaires
Source : Tom's Hardware
La question du droit d'auteur et de sa quasi inévitable réforme sera un des points clés des programmes pour l'élection présidentielle de 2012. Pour traiter ce point dans son programme, Europe Écologie-Les Verts est allé piocher dans les idées de Richard Stallman.
Afin de "promouvoir le logiciel libre" et "un modèle qui permet le partage", Eva Joly est en effet allée s'inspirer de l'idée de Mécénat Global prônée notamment par Richard Stallman. Il s'agit en fait d'une version améliorée du concept de la licence globale. Le Mécénat Global repose sur le principe du paiement d'un montant forfaitaire obligatoire, qui donnerait le droit d'accéder aux œuvres, comme une licence globale. Mais plutôt que de traiter l'intégralité des sommes ainsi collectées en gestion collective, redistribuée sur la base de la popularité des œuvres, seuls deux tiers des sommes perçues seraient mises en gestion collective. Pour le dernier tiers, chaque internaute pourra choisir à quels artistes il souhaite l'attribuer.
Si les positions de Stallman sont parfois un peu trop extrémistes, il faut reconnaitre que l'idée du Mécénat Global est plutôt séduisante, et il est intéressant que des partis politiques de premier plan commencent à s'en inspirer. Espérons que l'intérêt des verts pour cette idée trouvera un écho dans d'autres formations politiques, les verts n'étant pas là pour jouer la gagne lors de la présidentielle.
Posté par Matt le 20/12/2011 à 10h50
1 commentaire
Source : Numérama
Cela fait quelques années que la rumeur d'une TV Apple refait régulièrement surface. C'est au tour du Wall Street Journal de l'évoquer, sur la base de certaines informations qui laisseraient entendre que le projet est plutôt bien avancé.
Selon le WSJ, Apple serait ainsi en contact avec les principaux acteurs du monde de l'audiovisuel, et en particulier les majors, pour discuter avec eux de sa vision du futur de la TV. Le projet serait visiblement de haute importance pour Apple, dont les "gradés" participent à ces discussion, comme par exemple Eddy Cue, l'un des vice présidents de la firme.
Les projets de la pomme comporteraient de "nouvelles" interfaces de commandes, basées sur la voix et les gestes (qui a dit Kinect ?) et la TV Apple serait conçue pour s'intégrer dans l'éco-système iOS, permettant par exemple de commencer la lecture d'un média sur un appareil, puis de la reprendre sur un autre appareil là où elle s'était arrêtée.
Posté par Matt le 20/12/2011 à 08h10
Aucun commentaire
Source : Mac4Ever
Alors qu'AMD doit dévoiler dans quelques jours sa nouvelle gamme de cartes graphiques, les Radeon HD 7000, les caractéristiques du futur haut de gamme ont déjà fait leur apparition sur Internet. Et elles sont plutôt alléchantes...
Avec un GPU doté de 2048 processeurs de flux cadencés à 925 MHz (overclockable à plus d'1 GHz avec le ventirad de référence), la Radeon HD 7970 développera une puissance de calcul de 3.5 TFLOPS. Ils seront assistés par 128 unités de texturing et 32 ROPs. La carte sera dotée de 3 Go de GDDR5 à 5500 MHz adressée via un bus 384 bits. Elle proposera quatre sorties vidéo : une DVI, deux mini-DisplayPort et une HDMI.
Côté consommation, comme toutes les cartes haut de gamme de ces dernières années, la Radeon HD 7970 sera très gourmande en charge, avec une consommation qui pourra friser les 300W. Bonne nouvelle par contre pour la consommation au repos, qu'AMD a particulièrement soignée : le constructeur promet moins de 3W pour la carte complète au repos, ce qui devrait même permettre d'arrêter la ventilation.