mardi 30 octobre 2012

Les salariés convaincus des bienfaits du BYOD, pas disposés à se restreindre

A lire sur:  http://www.atelier.net/trends/articles/salaries-convaincus-bienfaits-byod-disposes-se-restreindre?utm_source=emv&utm_medium=mail&utm_campaign=alerte_us

Par L'Atelier - Paris 30 octobre 2012 BYOD
Les collaborateurs qui se tournent vers la consumérisation, baptisés d'élite mobile, le font car ils sont convaincus des bienfaits sur leur productivité. Et ils continueront à utiliser ainsi leurs combinés, même sous interdiction.
Le fossé est-il voué à grandir entre les salariés qui utilisent leurs outils personnels à des fins professionnelles et les responsables des systèmes d'information de l'entreprise ? En effet, on le répète fréquemment ces temps-ci, les collaborateurs sont de plus en plus nombreux à passer au fameux BYOD (Bring Your Own Device). Certains n'hésitent pas à les rebaptiser, comme "mobile elite" pour Unisys et Forrester Consulting, qui viennent de mener une étude sur le sujet, auprès de ces travailleurs et d'un groupe de dirigeants et DSI. La conclusion ? C'est que malgré les interdictions ou les frilosités de leurs entreprises, ces salariés continueront à le faire. 88% de cette "élite mobile" en France téléchargerait ainsi des applications ou des logiciels à des fins professionnelles, bien que leur entreprise ne les y autorise pas. Ces solutions répondant aux besoins de leurs activités, expliquent-ils. Au contraire, 84% des employeurs voient ces téléchargements comme une source potentielle future de conflit juridique.
Des salariés convaincus d'une meilleure productivité
Néanmoins, pour la mobile elite, ces actions sont importantes car ces salariés "ont l’impression que la consumérisation de l’IT les rend plus productifs (65%) et plus aptes à répondre efficacement à leurs clients", explique Alain Colombo, consultant Mobilité pour Unisys. Ainsi, 65% de l'élite mobile interrogée explique se sentir plus productive et efficace (si l'on élargit à l'ensemble des salariés à qui il arrive d'utiliser les technologies pour leur travail, soit les iWorkers, ce ratio tombe à 42% en France). 45%, également, jugent que cela simplifie la collaboration avec ses collègues. Et près de la moitié en sont tellement convaincus qu'ils achètent ces solutions sur leurs propres deniers. Véritable constat d'absence de solutions dédiées en entreprise ? Là encore, salariés et responsables ne sont pas d'accord. Près des deux tiers des salariés interrogés en France et qui utilisent leurs outils personnels pour travailler disent le faire car ils en ont besoin et que leur société ne leur propose pas d'alternative.
Des cadres en construction
Au contraire, seulement un quart des directeurs et DSI interrogés jugent que ces dispositifs sont essentiels pour le bon accomplissement du travail des collaborateurs. Le problème de cette incompréhension, c'est que du coup, le constat est souvent répété, cette multiplication des points d'entrée non sécurisée fait courir des risques à l'entreprise. Si l'on en croit l'étude, la mise en place de cadres sécuritaires et de chartes est cependant en train de progresser : plus de 60% des entreprises françaises interrogées auraient déclaré avoir placé en tête de leurs priorités le fait d'améliorer la sécurité mobile, et 60% ont déjà mis en place ou s'apprêtent à déployer des solutions comme des mots de passe sécurisés pour les téléphones de leurs employés.

10 000 transistors en nanotubes de carbone sur un seul composant

A lire sur:  http://www.industrie.com/it/10-000-transistors-en-nanotubes-de-carbone-sur-un-seul-composant.13956?emv_key=AJ5QmugnaTq78yA9MA#xtor=EPR-25

Le 29 octobre 2012 par Mathieu Brisou

La précision du procédé mis au point par IBM trouve une illustration dans cette image: la barre d'échelle en bas à gauche fait 2 micromètres.
La précision du procédé mis au point par IBM trouve une illustration dans cette image: la barre d'échelle en bas à gauche fait 2 micromètres.
IBM
En parvenant à intégrer un nombre significatif de transistors en nanotubes de carbone sur un seul circuit, IBM pense tenir une alternative à la filière silicium.
Une équipe d’IBM bat un record d’intégration de transistors en nanotubes de carbone (10 000 transistors sur un circuit) grâce à un nouveau procédé. Cette recherche est publiée dans la revue Nature Nanotechnology.

Un substrat à base de silicium et de de dioxyde de hafnium (HfO2) est plongé dans une solution de nanotubes de carbone et de détergent. Des liaisons entre nanotubes et HfO2 s’établissent et servent à créer des transistors deux fois plus petits que ceux obtenus avec les finesses de gravure actuelles les plus précises.

Faisant appel à des techniques issues de la chimie et de la filière silicium, ce procédé promet des expérimentations à grande échelle et se pose en alternative à la filière silicium selon IBM.

L'utilisation de nanotubes de carbone autorise l'élaboration de transistors plus rapides car le déplacement des électrons se fait plus facilement qu'au sein du silicium. De plus, le potentiel de miniaturisation à l'échelle atomique des transistors de ce type dépasse les possibilités offertes par le silicium.

Mathieu Brisou

Pour en savoir plus :
L’annonce officielle d’IBM
Un diaporama décrivant le procédé

Selon Accenture, la majorité des internautes accèdent à Internet depuis un ou plusieurs terminaux mobiles

A lire sur:  http://www.decideur-public.info/article-selon-accenture-la-majorite-des-internautes-accedent-a-internet-depuis-un-ou-plusieurs-terminaux-mo-111889203.html

Mardi 30 octobre 2012
Les terminaux mobiles s’imposent comme un moyen privilégié d’accès à Internet. Ils sont utilisés chaque jour par plus de deux tiers (69%) des internautes interrogés par Accenture (59% en France) pour son étude Mobile Web Watch 2012. Menée auprès de consommateurs en Europe, en Amérique latine et en Afrique du Sud, cette étude indique par ailleurs que les smartphones sont les terminaux mobiles les plus couramment utilisés pour accéder au Web (par en moyenne 61% des répondants), suivis des netbooks (37%) et des tablettes (22%).
L’étude révèle que les économies émergentes telles que le Brésil, l’Afrique du Sud et la Russie sont pionnières dans l’adoption des terminaux mobiles (plus de 70% en moyenne) pour l’accès à Internet. En raison de leur coût abordable, les smartphones sont plus susceptibles que d’autres équipements de servir de passerelles d’accès à Internet sur ces marchés émergents.
Dans les économies matures, l’Internet mobile est également en progression. En Allemagne, l’usage des smartphones pour accéder à Internet a triplé depuis 2010 (passant de 17 à 51%). En Suisse, 67% des personnes interrogées emploient aujourd’hui un téléphone mobile pour aller sur le Web, contre 27% en 2010. En Autriche, le pourcentage des mobinautes a doublé en deux ans (de 31 à 62%). Pour la France – qui n’a pas fait partie du panel de l’étude les années passées – cette proportion est de 53%.
Un écosystème grandissant d’applications mobiles nourrit l’essor rapide de l’Internet mobile, facilitant aux consommateurs l’accès à des services qu’ils jugent importants. 71% des mobinautes interrogés ont ainsi téléchargé des programmes ou des applications sur leur mobile. Les applications d’information (horaires de train, météo, actualités) rencontrent le plus de succès, séduisant en moyenne près de trois quarts (72%) des personnes consultées, ce chiffre grimpe à 79% en France. Elles sont suivies de près par les applications de loisirs (70% en moyenne, 73% en France).
L’étude révèle également que les contacts avec d’autres utilisateurs constituent la principale activité des mobinautes. L’envoi ou la réception d’e-mails via un logiciel installé est l’occupation favorite des consommateurs interrogés (70%). Viennent ensuite la participation à des réseaux sociaux (62%) et la messagerie instantanée (61%).
Pour les jeunes, les réseaux sociaux et la messagerie instantanée s’affirment comme des outils essentiels de communication. Deux tiers (68%) des 14-19 ans s’en servent au moins une fois par jour. 16% de cette tranche d’âge représente de gros utilisateurs communiquant via les réseaux sociaux et la messagerie instantanée plus de dix fois par jour depuis leur mobile. La proportion des plus de 30 ans utilisant ces services quotidiennement est nettement inférieure (de 41 à 57%) et seuls 3 à 9% d’entre eux y recourent intensivement.
Les personnes interrogées sur les marchés émergents que sont le Mexique et l’Afrique du Sud sont les plus nombreuses à utiliser l’e-mail mobile et la messagerie instantanée (plus de 80% dans les deux pays). Parmi l’ensemble des sondés, 27% se servent de leur mobile pour accéder à Twitter et à des blogs, et près de la moitié (46%) pour effectuer des opérations bancaires.
L’étude met également en lumière le fort potentiel de croissance des services mobiles payants (cloud, infos, bourse, jeux…). Près de 60% des répondants à cette étude menée dans treize pays sont au courant de l’existence de services cloud ou de stockage de données, et 78% sont disposés à payer pour des applications cloud. Les consommateurs sont encore plus intéressés par les services premium (à 87%).
Avec le développement du marché de l’Internet mobile, la sécurité et la confidentialité des données demeurent des sujets majeurs de préoccupation pour 79% des consommateurs interrogés. En outre, 95% d’entre eux rangent le coût des connexions Internet parmi leurs cinq premiers critères de choix d’un opérateur.
Les consommateurs souhaitent une couverture universelle, la grande majorité d’entre eux (89%) plaçant la qualité du réseau en tête des critères pour le choix d’un prestataire de services, talonnée par la couverture géographique (88%), le débit de la connexion (85%) et le coût du service (81%). L’usage des services mobiles est le plus répandu chez les jeunes (82% chez les 14-19 ans, contre 81% pour les 20-29 ans, 74% pour les 30-39 ans, 66% pour les 40-49 ans et 45% des utilisateurs âgés de 50 ans et plus).
Les mobinautes sont davantage des hommes (73%) que des femmes (66%). La publicité sur mobile est considérée comme une nuisance par 38% des personnes interrogées, quand il s’agit de bannières, et par 37 % d’entre elles lorsqu’elle prend la forme de textos. Plus de 90% des sondés accueillent favorablement les messages d’information sur des offres spéciales, promotions et coupons de réduction, 60% les trouvant même agréables. Les participants à l’étude sont plus nombreux à accéder au Web sur un smartphone pour des raisons personnelles (58%) que professionnelles (20%).

eSanté : les patients veulent être traités comme des consommateurs

http://www.atelier.net/trends/articles/esante-patients-veulent-etre-traites-consommateurs?utm_source=emv&utm_medium=mail&utm_campaign=lettre_toute_zone
Par L'Atelier - San Francisco 29 octobre 2012 homme assis dans la pelouse avec sa tablette
La startup de bien-être et d’eSanté Novu considère que traiter les patients comme des consommateurs est clé pour développer des produits de qualité ; et le meilleur moyen de changer leurs comportements au long terme.
Si de nombreux services d’eSanté et de bien-être bourgeonnent sous la forme d’applications mobiles ou de services web, la plupart des interactions qu’ont les citoyens avec les parties prenantes du système de santé revêtent un aspect négatif : ils n'appellent leur compagnie d'assurances que pour résoudre une plainte ou un problème de facture et ils ne contactent les hôpitaux que lorsque les problèmes deviennent sérieux. Lorsque les patients reçoivent des soins ou passent un contrôle médical, les praticiens sont souvent la seule personne des organismes médicaux en qui ils ont confiance. Le système de santé Novu entend créer pour les patients une expérience consistante et positive, en les traitant comme des consommateurs.John Wicka, Fondateurs et Président de Novu explique à l'Atelier que l'entreprise compte améliorer la santé et le ROI pour les employeurs et les fournisseurs médicaux en influençant les comportements et en développant la confiance.
Un programme de santé qui se concentre sur l’engagement au long terme
Novu fournit à ses membres une interface qui leur permet d'accéder à leur niveau de santé (leur LifeScore),de choisir un objectif santé et de recevoir des conseils d'activité personnalisés pour améliorer ce score et évoluer vers leur objectif. Ils peuvent pratiquer ces activités seuls ou avec des amis qu'ils trouvent sur le site de Novu, ce qui leur permet de recevoir des points qu'ils peuvent échanger contre des produits, des bonnes affaires locales ou des dons à des œuvres sociales. Une large adoption au sein d'une organisation permet aux employeurs de créer une culture de la santé sur le lieu de travail, de diminuer le coût des soins de santé et d'accroître la productivité. Les fournisseurs de soins, quant à eux, gagnent en influence sur leurs patients en vue d'améliorer leur comportement et de développer les relations qui manquent si souvent dans la culture des systèmes de santé actuels.
Maximiser l'expérience utilisateur grâce au jeu et au mobile
L'équipe de Wicka espère avoir développé le produit qui assure le lien entre l'engagement à court terme (motiver les membres à manger mieux ou à faire du vélo) et la valeur à long terme (l'amélioration de la santé). Leur composante mobile, utilisable comme un produit indépendant, augmente la commodité pour les membres. En la combinant aux mécaniques du jeu – le LifeScore et les Reward Points – Novu propose une innovation technologique choisie, appropriée et logique pour le produit, et positionnée pour l'optimisation de l'engagement.

Internet devient-il de plus en plus monopolistique ?

A lire sur:  http://www.journaldunet.com/media/publishers/part-grands-groupes-audience-internet.shtml?utm_source=benchmail&utm_medium=mail&utm_campaign=ML7_E10233182&f_u=23951499


La concentration actuelle des acteurs du web-publishing aboutit-elle à une situation de plus en plus oligopolistique ?
L'observateur averti de l'évolution des médias peut s'interroger sur le sort deux évolutions contradictoires.
D'un côté : la concentration de plus en plus importante des acteurs du web-publishing. Que cela soit à travers des méga rachats, comme la récente acquisition de LeGuide par le groupe Lagardère. Ou par de mini opérations ciblées comme en réalise actuellement le groupe Prisma qui a repris HelloCoton en juillet puis SiAndSo en septembre et d'autres bientôt. Les acteurs dits indépendants se font rares dans le top 30 des marques Internet de Médiamétrie.
De l'autre côté : la multiplication des plateformes de diffusion et leur facilité d'utilisation. Une tendance notamment mise en avant par Glam Media qui est devenu aux Etats-Unis le premier agrégateur d'audience féminine en recrutant des blogs verticaux sous sa bannière (publicitaire). Le PDG de Glam, Samir Arora aime à reprendre l'image de la plaine (les multiples blogs) qui devient aussi haute que les montagnes (les principaux carrefours d'audience) jusqu'à les ensevelir.
D'où la question : Internet devient-il de plus en plus monopolistique, suite aux concentrations, ou au contraire moins avec le développement de dizaines de sites concurrents ? Et la réponse : amusons-nous à calculer la part des 10 plus grands sites Internet dans l'audience Internet totale, mois par mois. Notez bien que les 10 sites en question ne sont pas les mêmes chaque mois, nous prenons chaque mois le top 10 versus l'ensemble. Utilisons les pages vues comme outil de mesure, puisque c'est l'indicateur qui est le plus directement lié à la monétisation des sites. Observons que, petit à petit, en quatre ans, la part du top 10 est passée de 24% (juillet 2008) à 38% (juillet 2012). Le Web devient donc de plus en plus oligopolistique, à défaut d'être monopolistique.
Bref un mouvement exactement contraire à la télévision où le top 5 des chaînes voit sa part de marché reculer par rapport à l'ensemble. Question subsidiaire : que serait-il advenu si, au lieu des pages vues, nous avions choisi le temps passé comme indicateur ?
partr
Part des 10 plus grands sites Internet français dans l'audience totale mesurée en pages vues, de juillet 2008 à juillet 2012.© JDN

Windows Phone 8 : les premiers smartphones

A lire sur:  http://www.businessmobile.fr/actualites/windows-phone-8-les-premiers-smartphones-39784013.htm#xtor=EPR-10010

Technologie - C'est ce lundi que Microsoft lancera officiellement Windows Phone 8, évolution majeure de son OS mobile. 6 terminaux seront disponibles d'ici la fin du mois de novembre.
« Précédent
1 sur 7
Après le lancement de Windows 8, Microsoft va s'occuper ce lundi du deuxième étage de la fusée avec Windows Phone 8. Rappelons que la nouvelle plate-forme se présente comme une refonte importante de l'OS.
En effet, il partage son coeur avec Windows 8, notamment le noyau et les pilotes. Le principe : un développement natif (C++) sur Windows 8 fonctionnera également en natif sur téléphone, avec peu d’adaptations. L'objectif est clair : établir des passerelles très étroites entre les deux éco-systèmes.
Windows Phone 8 supporte désormais les processeurs multi coeurs, le NFC, les affichages en 720p et supérieurs…Côté interface, il offre un nouvel écran d’accueil, principal ajout visible de la nouvelle mouture. Promettant plus de personnalisation, la firme a dévoilé une version de sa page de démarrage aux « tuiles » à taille variable et personnalisable.
Reste désormais à savoir si Windows Phone 8 deviendra un vrai challenger au duopole iOS/Android qui écrase aujourd'hui le marché des smartphones. Si les nouveautés de Nokia ont surpris par leur innovation, la sortie de l'iPhone 5 a quelque peu éclipsé ces annonces. Après un départ très timide, Windows Phone commence à décoller, notamment en Europe. Le site Digitimes crédite l’OS mobile de Microsoft d’une croissance annuelle en 2012 de 107,80%, ce qui représenterait 21 millions de terminaux écoulés.
Si l’on se réfère aux chiffres IDC pour les premier et deuxième trimestres, les livraisons de Windows Phone se montent respectivement à 3,3 et 5,4 millions d’unités, soit 8,7 millions au total.On est encore très loin des sommets atteints par un Apple (28 millions d'iPhone écoulés au 3e trimestre) ou d'un Samsung.
Comme d'habitude, ce sont les terminaux qui feront de WP8 un succès ou pas. Sur ce point, Microsoft peut compter sur des partenaires de renom et des smartphones plutôt attirants.
Par Olivier Chicheportiche , businessMOBILE.fr

lundi 29 octobre 2012

Les jeunes conducteurs disposés à recevoir des informations via tous les canaux

A lire sur:  http://www.atelier.net/trends/articles/jeunes-conducteurs-disposes-recevoir-informations-canaux?utm_source=emv&utm_medium=mail&utm_campaign=alerte_us

Par L'Atelier - Paris 29 octobre 2012 Conductrice américaine
Aux Etats-Unis, les fabricants, concessionnaires et fournisseurs doivent développer une stratégie cross et multicanal pour répondre aux besoins d'information de la jeune partie de la population américaine.
Les conducteurs américains se montrent disposés à recevoir des informations en provenance de concessionnaires, vendeurs de solutions et de pièces, détaillants... Et ce, via plusieurs modes de communication. Selon une étude menée par DMEautomotive, plus d'un tiers des personnes interrogées (sur un total de 2000) serait ainsi d'accord pour recevoir ce type de données via l'ensemble des canaux existants : email, courrier, coups de téléphone, messages enregistrés, applications mobiles. Sans surprise, les plus multicanaux sont les moins de 35 ans : près de neuf sur dix souhaitent un contact par mail, 85% par courrier, 64% par SMS, 62% par téléphone, et 59% depuis une application. Un choix n'excluant pas l'autre. "Ces consommateurs multi-plateformes sont très friands d’information. Ils sont également dynamiques, et influents auprès d'autres catégories de la population. Il est donc important que les constructeurs développent une stratégie d’informations multicanale", souligne Doug van Sach, chef analyste chez DMEautomotive.

Des automobilistes disponibles et très connectés

D'autant que si elle est bien menée, cette communication n'est pas considérée comme intrusive : la majorité souhaite des contacts fréquents, soit plus que tous les deux ou trois mois. Cette partie de la population représente donc une cible importante pour les constructeurs. En effet, elle a intégré l’usage de nombreux supports d’informations. Parmi ces canaux, les e-mails, les appels téléphoniques, et les applications s’intègrent harmonieusement dans cette diversité de canaux car ils correspondent aux usages de consommation de ces jeunes générations. Les applications mobiles en sont un exemple flagrant. 74% des personnes interrogées dont l’âge varie entre 18 et 35 ans utilisent des applications mobiles, et 55% d’entre eux s’en servent quotidiennement. Pour Doug van Sach, il est évidemment important que les entreprises du secteur automobile se mettent au diapason de ces usages.

Se tourner vers les réseaux sociaux

"Un trop grand nombre de marques et de concessionnaires peuvent apparaître comme déconnectés de leurs consommateurs, s’ils ne mettent pas à jour leur stratégie de communication, par ces nouveaux canaux, très privilégiés de leurs clients". D'autant que ces mêmes consommateurs se montrent également disposés à scanner des QR Code pour accéder à l'information souhaitée, et se tournent de plus en plus vers les réseaux sociaux et les blogs pour trouver des informations sur la maintenance par exemple de leur véhicule. 34% recherchent ces données sur le site du constructeur, près de 20% sur les sites sociaux, 13% sur les blogs. A noter que toutes classes d'âges confondues, c'est le mail et le courrier qui gagnent la palme de la communication : quatre personnes sur cinq interrogées sont ainsi ouvertes à la réception par courrier ou mail d'informations de ce type, au minimum tous les deux ou trois mois.

La fusion nucléaire dans un appartement

A lire sur: Innov 24


Julien S., 24 ans, vient de terminer la fabrication artisanale d'un réacteur nucléaire à fusion ''froide'' (à température ambiante) pour produire de l'énergie. Reste à convaincre la communauté scientifique.


C'est en glanant des informations sur le Web que Julien S., 24 ans, s'est formé à la fusion froide. À savoir une branche de la recherche nucléaire négligée par la communauté scientifique qui n'y voit que charlatanerie. Principe : obliger deux noyaux atomiques à fusionner à température ambiante plutôt qu'à 150 000 000°C (à l'instar des expériences pratiquées à Cadarache dans le cadre du projet ITER). Le tout dans le but de produire une gigantesque énergie avec une faible quantité d'électricité en entrée... « Demain, on rase gratis », ironise un chercheur du CNRS spécialiste de l'atome, qui préfère rester anonyme. Pourtant, dans une partie de son appartement transformé en laboratoire, Julien assure avoir fabriqué une centrale nucléaire miniature, calquée sur ce principe. « La fusion froide fonctionne ! En voici la preuve », s'exclame l'autodidacte. D'un air convaincu, il enclenche un interrupteur. Dans un vrombissement, la réaction démarre (voir notre vidéo).

Intense lumière blanche. Sur la table, un assemblage de fils et de tuyaux renferme un tube à essai. À l'intérieur, de l'eau enrichie en oxyde de deutérium, un dérivé de l'hydrogène, se met à bouillir. « Le récipient est chauffé par le courant électrique domestique », explique Julien S. d'une voix forte afin de couvrir le bruit assourdissant de l'appareil. « J'injecte l'électricité dans le liquide via une électrode en tungstène composée à 2% de Thorium 230 [Une matière radioactive, NDLR]. J'ai acheté ce matériel... sur eBay ! » Rapidement, une boule de feu apparaît dans le contenant. Puis elle se double d'une intense lumière blanche. « La structure atomique du Thorium ''piège'' les atomes de deutérium qui s'agitent sous l'effet de l'électricité. Ne pouvant s'échapper, ils fusionnent. » Soudain, la lumière blanche redouble d'intensité tandis que le liquide en ébullition lâche une gerbe d'éclaboussure. « Voilà la fusion froide ! », s'égosille le scientifique.

Production inexpliquée de chaleur. Au risque de s'ébouillanter, Julien plonge un thermomètre dans le tube à essai. Résultat : 108°C. Rien de très impressionnant. Pourtant, à l'intérieur du récipient, le Thorium se met à crépiter et commence à fondre. Signe que sa température interne vient de dépasser 1 750°C ! « Avec le peu d'électricité que j'injecte [125 Watts, NDLR], il est théoriquement impossible de produire autant de chaleur », indique le jeune chercheur. « La réaction n'est donc pas uniquement électrique. » Selon lui, elle n'est pas non plus purement chimique. Reste l'explication nucléaire. « C'est la fusion des atomes de deutérium qui génère cette énergie supplémentaire. » Pour le prouver, le chercheur autodidacte manque de moyens. Mais plus pour longtemps : le laboratoire d'une grande école d'ingénieur se serait engagé à lui ouvrir ses portes une fois par semaine. Là, Julien pourra tenter de valider ses conclusions. Une affaire à suivre qui pourrait faire soit ''Pschitt'' soit ''Boum'' !
© Guillaume Pierre 


Un système 10 fois plus puissant en vue « La fusion froide n'est jamais qu'une astuce pour piéger deux atomes et les obliger à fusionner », estime Julien S. Le jeune chercheur ''bricole'' actuellement un transformateur. Le dispositif vise à récupérer la vapeur d'eau issue de la forte chaleur produite par sa réaction. Objectif : faire tourner une turbine afin de produire de l'électricité. « On revient à la vapeur », s'amuse-t-il. Prochaine étape, multiplier par 10 la puissance actuelle de son installation. « Je compte alimenter ainsi tout l'électroménager de mon habitation. »

"La ville de demain doit permettre de recréer du lien social"

A lire sur:  http://www.atelier.net/trends/articles/ville-de-demain-permettre-de-recreer-lien-social?utm_source=emv&utm_medium=mail&utm_campaign=alerte_emea

Par Claire Cavret 29 octobre 2012 Stéphane Cagnot - agence Dédale
Plus proche des usages et des besoins des citoyens, la ville du futur devrait être enrichie, plus interactive et collaborative.
Interview de Stéphane Cagnot, fondateur de dedale, une agence dédiée à la culture, aux nouvelles technologies et à l'innovation sociale en Europe. L'agence faisait partie des acteurs innovants qu'il était possible de rencontrer lors de Demain dans ma vie, organisé par la ville de Paris.

L'Atelier : A quoi va ressembler la ville du futur?

Stéphane Cagnot : Je dirais que l'un des enjeux futurs, c'est de penser et imaginer les services qui vont changer la ville. Cela va représenter une grande partie du travail pour l'ensemble des acteurs économiques, sociaux, les collectivités publiques. Aujourd'hui, nous avons les contenus et les technologies (Internet et Mobile) qui fonctionnent, les réseaux aussi sont suffisamment rapides. L'important, ce n'est pas tant de savoir qu'il y a deux pizzerias et un supermarché à proximité, mais d'imaginer des services collaboratifs qui vont associer et faire se rencontrer des groupes de gens en fonction de leurs intérêts. Il faut imaginer d'autres modes de mise en relation au niveau des villes.
Par contre, en termes de conception et de design, on est encore à l'âge de pierre. Très peu de gens ont vraiment pensé des services pertinents qui répondent à de nouveaux usages. Mais, le processus est vraiment en train de se faire. Il y a encore peu d'offres de services, contrairement aux services marchands qui sont en train de naître, même s'ils sont relativement basiques compte tenu des moyens qui sont mis en œuvre par ces acteurs économiques.

La ville sera-t-elle plus orientée vers l'humain ou vers la technologie à l'avenir ?

Côte technologie, la question est comment faire en sorte que les technologies contribuent à recréer du lien social dans la ville de demain? Dernièrement, elles ont eu tendance à casser le lien social et à homogénéiser l'espace urbain. La deuxième vague, ça va être de créer un écosystème beaucoup plus hétérogène avec une diversité qui n'existe pas aujourd'hui. Le citoyen doit s'emparer de ces réseaux et de ces outils pour recréer du lien social, pour avoir une vie urbaine plus confortable.
Côté humain, la ville enrichie est encore à organiser et mettre en place. Elle sera plus interactive, plus collaborative et elle va s'organiser autour de projets collaboratifs, d'innovation et de services. Finalement, il y a un équilibre à retrouver entre l'offre de service du marché et les usages des citoyens. Aujourd'hui, les services sont proposés de manière brutale sans que cela ne répondent à un besoin ou à un usage. L'idée, c'est de repartir des usages et des besoins pour imaginer de nouveaux services.

Qui doit donner l'impulsion pour conduire cette transformation?

Ce sera une dynamique qui devra être portée par les usagers eux-mêmes ou les citoyens. Avec la démocratisation des outils, les technologies numériques offrent de nouvelles opportunités en matière de lien social et de projets collaboratifs. Les personnes peuvent fabriquer des projets et devenir acteurs de leurs villes. On passe d'une logique d'économie industrielle - avec une offre et une demande, une production de biens en grande quantité - au développement d'écosystème sur des segments particuliers. Les entrepreneurs peuvent être en relation directe avec leurs clients sans passer par une chaîne de production ou de distribution. Cela modifie l'économie du domaine.
Lors de l'événement Demain dans ma ville organisé par la mairie de Paris, la plupart des projets de startups étaient des projets souvent d'usagers qui, confrontés à une problématique personnelle, d'une expérience ont construit un projet de société, d'un nouveau produit ou service.

Aides publiques aux TIC : le rapport rendu en janvier par l'IGF inspirera-t-il le gouvernement ?

A lire sur:  http://www.zdnet.fr/actualites/aides-publiques-aux-tic-le-rapport-rendu-en-janvier-par-l-igf-inspirera-t-il-le-gouvernement-39784030.htm#xtor=EPR-100

Aides publiques aux TIC : le rapport rendu en janvier par l'IGF inspirera-t-il le gouvernement ?Stratégie - En janvier, l'Inspection Générale des Finances rendait un rapport sur les aides publiques au secteur numérique. Très fourni, il semble avoir été largement oublié par le gouvernement par certains aspects... Mais on peut retrouver sa patte dans la Banque publique d'investissement.
L'Inspection générale des finances (IGF), organe interministériel de contrôle et d'audit des politiques publiques françaises, a publié jeudi 25 octobre un rapport sur l'état des politiques publiques en faveur de l'économie numérique en France. Ce rapport avait été commandé par la précédente majorité – François Baroin et Eric Besson – et n'a pas fait parler de lui dans le gouvernement actuel.
Pourtant, dotée de sa lettre d'engagement dès le mois de septembre 2011, la mission de l'IGF a rendu son rapport au gouvernement dès le 22 janvier 2012. Il décrit une situation "intermédiaire" pour la France au regard des différents indicateurs liés à l'économie numérique, et trace quelques pistes de développement qui méritent d'y jeter un œil.
La France, "intermédiaire" dans le concert des nations numériques
Relevé par le consultant et blogueur Olivier Ezratty, le rapport de l'IGF s'est fixé pour but de dresser un "bilan des politiques publiques en matière d'économie numérique et des recommandations visant à en renforcer l'efficacité et la cohérence."
En clair, quid du financement des innovations par la puissance publique, ou du soutien au développement des entreprises numériques ? Sur ces deux points, n'en déplaisent aux déclinologues et autres Pigeons brailleurs, le rapport de l'IGF est tranchant : la France est "intermédiaire". Au top nulle part, mais jamais en fond de classement non plus.
L'IGF s'est basée sur trois indicateurs pour calculer son indice de classement : l'E-readiness publié par The Economist en 2010, qui mesure la capacité d'une économie à utiliser les TIC pour son développement, le Global Innovation Index de l'école de commerce européenne Insead en 2011 (capacité d'innovation d'une économie), et l'IT Industry Competitiveness 2011 de la Business Software Alliance (lobby des éditeurs de logiciels), qui mesure la compétitivité des industries des TIC.
Il en ressort que la France est globalement stable dans le classement mondial : 19ème en 2007, elle se trouve à la 20ème place en 2011, dépassée par Israël mais en meilleure forme que le Royaume-Uni par exemple, qui passe de la 3ème à la 9ème place. L'Allemagne est 16ème du classement.
Cela place la France à la 8ème place des pays du G20. Avec une position somme toute moyenne : la France n'accuse pas de "retard aggravé", mais n'a "aucune avance dans un secteur particulier." Une sorte de verre à moitié plein.
Six leviers de politique publique
L'étude est très fournie en indicateurs, qui vont de la part des TIC dans l'emploi ou dans le solde commercial d'un pays, au développement des infrastructures. A partir de ce constat, l'IGF a tenté d'établir des liens entre les performances du secteur numérique dans l'économie globale d'un pays et les politiques publiques.
Les "leviers" retenus sont au nombre de six : gouvernance nationale de la stratégie numérique et pilotage de cette stratégie, financement des infrastructures, politiques de formation orientées vers le secteur du numérique, aides publiques à la R&D, soutien au financement des entreprises et politiques publiques en faveur de la constitution de clusters pour favoriser les synergies entre entreprises, centres de recherche et universités.
L'IGF a comparé l'utilisation de ces différents leviers par neuf pays dans le monde : France, Allemagne, Royaume-Uni, Suède, Inde Corée du Sud, Japon, Israël et Etats-Unis.
Il ressort deux grands types de modèles d'aide à l'innovation : l'un se base sur le développement des infrastructures et des usages (Corée du Sud et Suède, grande championne du classement 2011). L'autre s'appuie sur la création d'un environnement favorable au développement par le soutien au financement (Etats-Unis, Allemagne, Royaume-Uni).
Ces deux modèles ne sont pas étanches, et aucun pays ne se contente de l'un au détriment de l'autre. Mais la France apparaît ici encore comme "intermédiaire" : un peu sur tous les tableaux, elle n'excelle dans aucun en particulier.
Le rapport note par exemple les aides puissantes à la recherche, via le Crédit impôt-recherche, les programmes publics de R&D et les soutiens au financement des entreprises. Mais aussi des perspectives de "fort soutien au déploiement des infrastructures", haut et très haut débit en tête.
Le très haut débit est par exemple bien plus soutenu en France qu'ailleurs, avec 2 milliards d'euros d'aides annoncés (1% du PIB), contre 0,1% du PIB en Allemagne et 0,6% aux Etats-Unis.
Au final, l'IGF note que si la France veut se démarquer un peu mieux dans les classements mondiaux, et se débarrasser de l'étiquette "Innovation follower" collé par l'Union européenne, il ne sert à rien de chercher à appliquer un autre modèle préétabli.
Ainsi, sur les sept autres pays étudiés, il semble qu'aucun ne soit transposable en l'état. L'Inde a par exemple un avantage comparatif lié au salaire assez bas de ses ingénieurs; Israël s'en sort grâce à un gros effort d'aide au capital-risque, mais aussi grâce aux liens privilégiés avec les entreprises américaines; le Japon et la Corée du Sud ont construit leur secteur numérique autour de conglomérats impossibles à reproduire.
Développer la formation au numérique
Même le développement et la modernisation des infrastructures n'est pas un gage de modèle réussi. Si on ne peut nier son impact positif sur l'économie et le secteur numérique, les Etats-Unis, par exemple, ont un ratio d'accès au haut débit assez bas, et la France fait presque figure de champion en terme d'investissement dans ce secteur.
Seul levier qui semble recueillir l'unanimité : le développement de la formation au numérique. Alors que la plupart des pays ont vu la courbe des diplômés du secteur redescendre depuis 2001, l'Allemagne a su conserver une bonne progression. Et les Etats-Unis feraient preuve d'une approche intéressante avec des formations basées sur l'interdisciplinarité (numérique, management, design, marketing, etc).
L'e-éducation, soutenue par l'IGF, ne coûterait d'ailleurs pas si cher : dans ses propositions, le rapport estime que 50 à 100 millions d'euros seraient "suffisants pour un investissement initial." Open-data, plateformes collaboratives et serious games sont trois piliers mis en avant par l'IGF.
L'autre grande réussite mise en avant dans plusieurs pays, ce sont les clusters. L'idée est de regrouper dans un même lieu sources de financement privées, entreprises, laboratoires de recherche et développement, et universités ou grandes écoles. L'exemple le plus typique est la Silicon Valley.
La France a son plateau de Saclay depuis les années 70, avec un bon niveau d'enseignement et de recherche. Problème, selon le rapport : on y compte moins de 10 entreprises, quand la Silicon Valley en dénombre 6000, Kista (Suède) un millier, Silicon Wadi (Israël) au moins 2000 et la Tech City de Londres 800. Même l'Electronics City indienne, encore l'une des moins développées du secteur, en dénombre 120, soit plus de 10 fois le nombre présent en France.
La raison est simple, selon le rapport de l'IGF : "le fait que la première initiative vienne du privé est un élément caractéristique de la réussite de ces politiques." Tous les clusters seraient nés d'une initiative privée, généralement d'une grande entreprise, ralliée ensuite par des PME, des laboratoires, des universités, etc.
Des clusters à initiative privé plus pertinents que le modèle public français
L'orientation préconisée par le rapport de l'IGF - laisser le privé prendre l'initiative - ne semble pas dans les cartons du gouvernement. Ainsi, en annonçant "Paris Capital Startup", Fleur Pellerin souhaite mettre l'action publique au coeur du développement d'un nouveau quartier numérique. On est loin de l'initiative venue d'une grande entreprise.
Pour autant, les conditions économiques sont loin d'être similaires à celle ayant favorisé l'émergence et le développement des autres "Silicon Valley" du monde.
Parmi les propositions, l'IGF souhaite voir la puissance publique se focaliser sur d'autres actions. Côté innovation par exemple, elle préconise de "rééquilibrer les ressources de l'Agence nationale de la recherche (ANR) au profit du numérique", de "renforcer l'attractivité du statut de Jeune entreprise innovante (JEI) en transformant la dépense fiscale en dépense sociale", et d'engager une "démarche de simplification administrative pour les entreprises innovantes."
Estimant que la part des ressources de l'ANR pour les TIC diminue depuis 2005, elle veut la réhausser de 7,5% actuellement à 15% à l'horizon 2015. Voilà pour les aides.
Côté entreprises, les jeunes entreprises innovantes doivent, selon l'IGF, bénéficier d'une "exonération dégressive de charges sociales" pour favoriser la dépense dans l'emploi, et permettre aux JEI de répondre à leur fort besoin de "réactivité et de capacité de réorientation stratégique" en simplifiant les démarches administratives pour l'obtention des aides.
Idem, le Fonds pour la société numérique (FSN), devrait être modifié. Trop éparpillé, selon l'IGF, il doit prendre en compte certains critères (filières de formation présentes en France, acteurs industriels existants, potentiel de marché ou de création de valeur, avantages concurrentiels pour localiser l'activité et l'emploi en France, etc).
Sur le financement des entreprises, les propositions sont assez conformes aux volontés des entrepreneures a priori. Dynamisation des fonds d'amorçage, possibilité d'intervenir sur des sommes inférieures à celles injectées actuellement (et donc plus tôt dans la vie de l'entreprise), et rééquilibrage en faveur du secteur numérique, contrairement à la tendance actuelle.
La BPI, une réponse au rapport ? 
Pour favoriser l'investissement privé, l'IGF souhaitait aussi voir le gouvernement créer un nouveau "fonds de fonds" pour "répartir une partie de l'épargne sur les FCPR (fonds commun de placement à risque, NDLR) et FCPI (fonds commun de placement dans l'innovation, NDLR) les plus performants." La gestion aurait été confiée à CDC Entreprises, filiale de la Caisse des dépôts et des consignations.
Evidemment, ces dernières dispositions semblent un brin obsolètes, notamment depuis la création - effective depuis ce mois-ci - de la Banque publique d'investissement (BPI) voulue par François Hollande (c'est même son premier engagement). Celle-ci regroupe Oseo, la CDC Entreprises et le Fonds stratégique d'investissement (FSI).
Par certains côtés, la BPI reprend quelques-unes des idées émises par le rapport de l'IGF qui nous intéresse. Ainsi, le financement des entreprises des "secteurs stratégiques d'avenir" vise notamment le secteur numérique, et les 42 milliards d'euros de la force de frappe allouée à la BPI sont loin d'être négligeables.
Le problème (potentiel) que scrutera très attentivement l'IGF, c'est la question du pilotage. Car celui-ci a été confié aux régions dans le cadre de la BPI. Avec de possibles conflits d'intérêts et autres utilisations à visées électorales. Cette critique est d'ailleurs très largement reprise par l'opposition.
Notons d'ailleurs que la BPI a été mise en place suite à un rapport de préfiguration rendu fin juillet par Bruno Parent, membre... de l'Inspection générale des finances.
Reste donc à connaître l'accueil fait par le gouvernement à ce rapport fouillé de l'Inspection générale des finances. Car depuis janvier, il n'en est pas vraiment question.
Certaines dispositions ou propositions ont pu influencer le gouvernement mais aucune publicité ne lui a vraiment été faite.

Télécoms : taxer les géants du Web, augmenter les prix de la 4G

A lire sur:  http://www.linformaticien.com/actualites/id/26842/telecoms-taxer-les-geants-du-web-augmenter-les-prix-de-la-4g.aspx

Dans une intéressante interview au Figaro, le président de la Fédération française des télécoms Pierre Louette souhaite trouver le modèle économique de demain, en taxant les géants du Web et en proposant une hausse des tarifs pour les futurs forfaits 4G. 
Comme le soulignent nos confrères du Figaro en introduction, les opérateurs télécoms sortent d’une année agitée, marquée notamment par l’arrivée d'un quatrième opérateur mobile. Une « onde de choc » plus qu’un choc en lui-même, puisque les concurrents ont perdu des clients sur deux trimestres consécutifs, avant de recommencer à gagner de nouveaux clients au troisième trimestre.
Pour Pierre Louette, le président de la Fédération française des télécoms (et directeur général adjoint de France Télécom), l’industrie de la mobilité est en plein essor ; une chance si on la compare aux secteurs en crise de l’automobile ou de la sidérurgie. « Nous devons en profiter pour inventer le modèle économique des opérateurs de demain », souligne-t-il, volontaire. Car le monde des télécoms a changé pour les opérateurs, qui font face notamment à une explosion de la demande en data. « Un forfait télécoms mensuel, avec tous les services que cela implique, coûte désormais le même prix qu'une journée de parking à Paris », explique-t-il encore, ne trouvant pas normal que « l'accès au sous-sol parisien vaudrait donc autant que l'accès à un monde de savoirs, de distractions et d'échanges! Ce n'est pas possible ».

Taxer les « géants du Web »

Problématique récurrente, Pierre Louette estime que les opérateurs doivent taxer les entreprises des contenus qui utilisent « massivement nos «tuyaux» sans contribuer à leur financement ». On pense à Google, YouTube et consorts, des gros consommateurs de bande passante, et qui ne sont « pas fiscalisées ni régulées dans les pays où elles opèrent ». Bruxelles doit s'emparer de ce sujet, juge-t-il encore.
« Il est important de mettre des bornes à l'univers de la gratuité perçue: nos investissements et nos innovations ont une vraie valeur qu'il faut savoir maintenant monétiser », résume-t-il.

Hausse des prix de la 4G

« Un modèle économique dans lequel chaque innovation s'accompagne d'une nouvelle baisse des prix est insoutenable », estime aussi Pierre Louette. Difficile de ne pas lui donner raison sur ce sujet, en tout cas à court ou moyen terme, le temps d’amortir les dépenses liées à la construction des nouveaux réseaux.
« Je ne serai pas choqué par l'idée que la 4G soit vendue plus cher », admet-il. « Le secteur peut retrouver une segmentation de l'offre, avec des tarifs plus élevés pour les offres plus rapides ». Car parallèlement, les taxes sur les opérateurs augmentent, avec « une fiscalité supérieure de 25 % à celle des autres secteurs ». L’an dernier, les opérateurs ont payé 1,2 milliard d'euros de redevances et taxes spécifiques: 235 millions d'euros pour financer France Télévisions, 150 millions d'euros pour financer le cinéma…
Il est temps que le gouvernement fasse « des choix clairs (…) sinon la vache à lait des télécoms risque de devenir enragée ». Message passé.

Les goulots d’étranglements du sans fil, Raphael Lignier, Fortinet

A lire sur:  http://www.decideur-public.info/article-les-goulots-d-etranglements-du-sans-fil-raphael-lignier-fortinet-111857155.html

Lundi 29 octobre 2012
Raphael-Lignier.JPGForce est de constater qu’aujourd’hui les salariés utilisent plus de bande passante. De plus en plus, entre deux taches  professionnelles, ils utilisent leurs systèmes et appareils mobiles pour effectuer des achats, jouer, télécharger des films, de la musique et bien plus encore.
Mais qu’advient-il lorsque la bande passante de l’entreprise est utilisée pour des applications personnelles plutôt que professionnelles? Cela pourrait se traduire par l’interruption d’une importante vidéoconférence du comité exécutif, ou bien, par de longs temps d’attente lors d’une présentation WebEx faite à une centaine de clients potentiels.
Sur un réseau câblé, ce problème peut être facilement corrigé  en augmentant la bande passante  et en fournissant aux utilisateurs LAN des liens gigabit dédiés à leurs ordinateurs pour éviter les goulots d’étranglements. En cas de gros problème réseau ou d’attaques Internet, le personnel informatique sait exactement quel câble Ethernet déconnecter. Mais c’est un peu plus délicat lorsqu’il s’agit d’un réseau sans-fil.
En effet, comme de plus en plus d’appareils se connectent au sans-fil, en particulier avec la prolifération des tablettes et smartphones, le WiFi est devenu une nécessité, faisant évoluer les besoins en données. Et les problèmes commencent à apparaitre car tout le monde se bat pour la même part de réseau sans-fil.
Alors qu’il y a 15 ans, le réseau câblé d’une organisation pouvait ajouter du débit en passant de l’Ethernet partagé à l’Ethernet commuté pour fournir une bande passante dédiée à chaque utilisateur et augmenter les performances, une telle approche ne peut pas s’appliquer au WiFi car c’est un espace partagé. Par conséquent, les réseaux sans-fil deviennent souvent obstrués, ce qui conduit à une latence qui peut coûter un temps précieux aux organisations en matière de productivité et à une profonde frustration pour les salariés.
Cependant, il existe des moyens pour minimiser les problèmes pouvant émaner d’une flopée grandissante d’applications gourmandes en bande passante et d’une armée d’utilisateurs adeptes des applications dans un environnement sans-fil.
Pour répondre à la demande de bande passante de plus en plus accrue, les organisations pourraient créer plus de points d’accès et des canaux utilisateurs — une approche qui promet d’être couteuse, longue et difficile à entretenir pour les entreprises.
Une approche plus rentable implique la visibilité et le contrôle fournis par les technologies de contrôle d’applications. Les organisations doivent pouvoir évaluer quelles applications passent par le réseau sans-fil, et s’en servir comme base pour définir les règles et politiques résultantes. Une fois que le trafic est évalué, les administrateurs IT devront ensuite se munir d’outils pour l’attribuer aux canaux appropriés. Par exemple, si un utilisateur  WebEx ou le trafic d’un ordinateur à distance est entravé parce que quelqu’un d’autre est en train de regarder un film sur Dailymotion ou Youtube, alors des règles pourraient être créées pour interdire ou limiter les films ou jeux pendant les heures de travail et donner la priorité au trafic d’entreprise.
En bref, l’IT doit s’assurer que la bonne bande passante soit allouée à la bonne personne et à la bonne application.
La visibilité est également un facteur important lorsqu’on planifie sa stratégie de réseau sans-fil, car elle permet à l’organisation de pouvoir vraiment évaluer ce qui est transmis sur le réseau et d’assurer un accès sans entraves au trafic critique de l’entreprise tout en limitant toutes les autres applications secondaires.
L’IT devrait être capable de détecter toutes les applications se trouvant sur le réseau pour déterminer leur nature et savoir qui les lance. Des trames spécifiques applicatives peuvent ensuite être envoyées pour détruire les applications indésirables et garder la bande passante pour les applications d’entreprises. Il est également important qu‘à ce moment là, l’IT ait les outils immédiatement disponibles pour permettre à un utilisateur en particulier, ou à un  groupe, de faire les choses différemment au cas où celui-ci fasse exception à ces règles.
Le même concept s’applique aux applications malveillantes, souvent accessibles sans le vouloir, par les salariés sur le réseau de l’entreprise. Historiquement avec les réseaux câblés, les organisations pouvaient minimiser les problèmes de sécurité en ôtant un câble. Mais sur le réseau sans-fil, les organisations devront s’appuyer sur les technologies de listes noires et de localisation pour bloquer automatiquement tout trafic nuisible et repérer où se trouve l’auteur. En attendant, la prévention d’intrusions est également cruciale dans la détection de tout comportement anormal - comme un énorme pic de trafic qui sous-tendrait une attaque DDoS - et la résolution des menaces en temps réel.
Enfin, pour avoir un degré de confiance élevé dans la visualisation des applications, le contrôleur sans-fil doit employer la technologie DPI (deep packet inspection ou inspection des paquets en profondeur), et appliquer le packet shaping (ou régulation des flux) à chaque session sans-fil. Un tableau de bord dynamique est également nécessaire pour contrôler les sessions et les utilisateurs  principaux dans le cadre de la gestion de l’organisation.
Le sans-fil est plus qu’une simple connectivité IP. Et, avec l’évolution des comportements des utilisateurs et des technologies, le déploiement d’une solution de gestion efficace pour un WLAN de classe entreprise, couvrant les points susmentionnés, doit être abordé d’urgence.  
Raphael Lignier, responsable des ventes Wireless pour la région EMEA, Fortinet

Des réseaux sans fil 10 fois plus rapides sans rien changer (ou presque)

A lire sur:  http://www.presence-pc.com/actualite/coded-TCP-49093/

par - source: Tom's Hardware FR










Augmenter d'un facteur 10 le débit de n'importe quel réseau sans fil sans rien changer dans les infrastructures existantes, voilà promesse assez incroyable faite par des chercheurs du MIT, de l'université de Porto, de Harvard, du CalTech et de l'université technique de Munich. Du bluff ? Non, une idée toute simple en apparence : éviter de devoir retransmettre des données perdues.
Le nombre de paquets perdus dans une transmission en WiFi ou en 3G est relativement faible, moins de 5 %. Cela peut paraître peu mais chaque paquet perdu engendre beaucoup de trafic : l'envoi originel, mais aussi les transactions pour déclarer la perte et enfin le nouvel envoi. Le système d'encodage mis au point par le MIT permet de reconstituer les données perdues à partir de celles correctement transmises. Les détails techniques du protocole inventé par le MIT - baptisé coded TCP - sont encore secrets, couverts par des accords de licence déjà conclu avec plusieurs sociétés. Mais le principe est communément appliqué dans les systèmes de fichiers, grâce à des données de parité.
L'allègement du réseau est énorme. Sur un réseau WiFi du MIT montrant un taux de perte de 2 %, la bande passante a pu être augmentée de 1 Mbit/s à 16 Mbit/s ! Sur un réseau de moins bonne qualité (3G dans un train, 5 % de pertes), la bande passante a grimpé de 0,5 Mbit/s à 13,5 Mbit/s !
L'encodage coded TCP pourrait en outre être déployé à grande échelle sans mise à jour des infrastructures. Pour conduire leurs tests, les chercheurs ont ainsi utilisé une application qui prenait en charge l'encodage et le décodage des données, qui étaient ensuite transmises normalement sur les réseau IP. Les gains pourraient être encore plus importants si les routeurs du réseau étaient optimisés.
Cerise sur un gâteau déjà appétissant : cette technologie pourrait permettre d'entrelacer le trafic WiFi et 3G/LTE, quand les smartphones actuels doivent basculer de l'un à l'autre. Les chercheurs espèrent que leurs idées seront utilisées en masse d'ici deux à trois ans. À suivre...

BIG DATA pérégrination #1

A lire sur:  http://www.decideo.fr/BIG-DATA-peregrination-1_a5579.html?utm_medium=email&utm_campaign=Decideo+453&utm_content=Decideo+453+CID_eec2766510cf4922a2d6f546e3fbcb1a&utm_source=CampaignMonitor&utm_term=Lire%20la%20suite%20et%20commenter


Philippe Lacassaigne, Réseau'Nable
Mercredi 17 Octobre 2012

Je participe depuis quelques mois à des événements sur les BIG DATA. J'avais organisé DATACRUNCH en avril sur Lille pour poser les enjeux, j'ai co-organisé le 16 octobre une journée coup de point sur 4 technologies que des entreprises ont pu découvrir voire expérimenter. Je vous partage ces expériences positives sur lesquelles je pose aussi un regard personnel.



Philippe Lacassaigne, Réseau'Nable
Philippe Lacassaigne, Réseau'Nable
Faire du BIG DATA sans faire du BIG DATA!
Je prends l'exemple du secteur du commerce pour illustrer ces premiers propos. Les bases comptent des centaines de milliers voire des millions de clients pour les plus grands acteurs du secteur, des dizaines voire des centaines de milliers d'opération ont lieu chaque jour en magasin (retail) et sur le web (e-commerce). Aujourd'hui, il n'est pas rare que ces différentes données se croisent (exemple du drive). Avec la multiplication des supports légers (tablette, mobile), l'on voit aussi se multiplier de nouveaux usages qui produisent de nouvelles données (ex : géolocalisation). L'ensemble des données dîtes de comportements d'achat (clients, RFM « récence, fréquence, montant ») se complètent de nouvelles données dîtes d'usage (logs « navigation web », traces furtives « géolocalisation, prochainement nfc ? » sans oublier les données sociales (blogs, réseaux sociaux, forums).
Bref, la donnée crée l'usage, et l'usage produit de la donnée. Dans le cadre d'un marketing très opérationnel, l'on sait que 5% des données génèrent de nouvelles connaissances sur les clients. Or, séparer le bon grain de l'ivraie implique une sélection alors que sélectionner peut être vue comme une réduction ! Ainsi, les BIG DATA attestent qu'il faut envisager l'intégration des flux de données à travers un ensemble de transformations visant à ne garder que l'essentiel. Comme a pu le préciser un intervenant expert lors d'une manifestation récente : "il est possible de faire du BIG DATA sans faire du BIG DATA !" Comment?

BIG DATA = une logique d'abstraction !
Dans un dernier article, Les BIG DATA modifient notre rapport à l'information, http://www.decideo.fr/Quand-les-BIG-DATA-modifient-le-rapport-a-l-information_a5464.html, j'évoquais le recours à de nouvelles technologies réflexes en temps réelle et d'autres technologies basées sur des mécanismes cognitifs tel que l'induction et l'abduction. De tels systèmes se concentrent sur l'essentiel et ne traitent que l'information utile.
Elles n'appliquent pas de modèle mais s'appuient sur des formalismes de haut niveau pour faire des transformations à partir d'indices inhérents aux contextes et aux situations. Il y a une variété de contextes et de situations spécifiques à la relation client : l'achat, la fidélité, l'engagement, la consommation, l'adhésion, la distribution... En général, nous nous évertuons à segmenter et à compartimenter la relation client dans des scénarii (exemple typique de la description du parcours d'achat sur un site web ou en cross canal). Or, c'est tout l'inverse qui se passe dans la réalité, les clients évoluent dans des situations au sein desquelles ils vont agir (rechercher, comparer, échanger des points de vue sur un produit, acheter, négocier, se faire livrer, payer en caisse...) mais dont l'on ne connaît pas le cheminement, pour lesquelles il y a des similitudes mais pas de véritable logique. Or, l'un des enjeux forts des BIG DATA se situe dans les technologies qui vont permettre d'industrialiser la singularité. Un client dans une situation d'achat peut aller en magasin pour rechercher un produit, comparer ce produit avec d'autres via son mobile, rentrer chez lui et l'acheter via internet, tandis qu'un autre client dans la même situation d'achat va rechercher le produit sur le web et l'acheter en magasin après avoir recueillit l'avis de ses amis...Aussi, ne pas prendre en compte le contexte et la situation du client consistent à ne pas le traiter dans sa singularité.
Or, dans ce cas, des systèmes s'inspirant de ces principes sont aujourd'hui capables d'identifier des singularités et de détecter de phénomènes émergents. D'ailleurs, des expérimentations ont lieu actuellement sur de telles technologies à l'image de la solution In4sight, à laquelle je collabore et de web sales Booster, solution de Netwave dédiée au E-Commerce. Toutes deux s'appuient sur les processeurs situationnels développés par Jean Pierre Malle, société M8. Toutefois, il faudra beaucoup de pédagogie pour que les entreprises s'approprient ce nouveau paradigme car il remet en question le modèle d'analyse de chacune de ces entreprises.

Perception des entreprises, attitudes face aux technologies BIG DATA et évolutions sous jacentes de l'offre.
Il est intéressant de confronter la réalité d 'expérimentations avec la dernière étude EMC de septembre 2012 qui dresse l'état du marché des BIG DATA en France. 70% des entreprises françaises n'ont pas débuté d'expériences, cela signifie que 30% des entreprises tentent des choses. Le frein principal à l'intégration des BIG DATA semble relatif à un manque de compétences clés au niveau des entreprises sur les technologies des BIG DATA. En effet, j'ai pu le vérifier et la présentation d'un panel de technologies allant de Hadoop, à Active pivot en passant par Google Big Query montre qu'il y a un travail d'évangélisation à mener auprès des entreprises. Des conditions propices à l'expérimentation semblent nécessaires pour faire ce travail. Dans ce cadre, il faut nécessairement que les gens des métiers et de l'informatique mettent « les mains dans le cambouis ». Or, il est encore difficile de mesurer si les entreprises sont en attente de quelque chose ou prêtent clairement à s'investir sur le sujet. D'un coté, on perçoit qu'elles ont des attentes puis de l'autre, on ressent qu'elles attendent des réponses. Aussi, je ne peux être surpris que rapidement d'ici un ou deux ans, l'on retrouve plusieurs attitudes face aux technologies BIG DATA. Des entreprises auront franchi le pas des BIG DATA celles qui auront basculé vers le tout stockage, les autres vers des technologies associant des logiques de stockage et de flux, enfin d'autres qui auront fait le choix de l'abstraction. Plusieurs sociétés éditrices vont probablement tirées leur épingle du jeu. Tout d'abord, les entreprises qui proposent du stockage, surferont sur le Cloud et le SAAS et c'est dans leur intérêt. D'autres sociétés, celles ci ne sont pas françaises (exemple : Google, Amazon..) apportent déjà de grandes capacités de stockage mais aussi des capacités de traitement. Google BIG Query, offre Google, fait profiter des avancées technologiques de Google aux entreprises qui souhaitent distribuer dans le nuage le traitement de leurs grands volumes de données. Alors la question de l'écosystème est d'une importance cruciale en perspective d'une offre structurante embrassant toute la chaîne de valeur du traitement des BIG DATA. La technologie Hadoop soutenue par les grands noms du Web et maintenant les éditeurs français s'adosse aussi à une communauté internationale visant à bâtir un socle technique solide et à faire évoluer l'architecture. En cela, et parce que les BIG DATA requièrent des synergies, des écosystèmes gravitant autour de PaaS « plateforme as a service » développées en France pourraient associer de telles collaborations entre des entreprises utilisatrices, des sociétés de développement et éditrices de technologies et des start-up issues de labo de recherche. Il y a nécessité d'une prise en main du sujet par les entreprises elle-mêmes au risque de se voir contrainte par l'offre.

Culture de la réaction face à une culture de l'opportunité
De fait, les BIG DATA incitent à un changement culturel plus orienté sur l'action opérationnelle que la réaction aux stimulii et aux évolutions des marchés. Or, cela change pas mal de choses dans les entreprises. Tout d'abord sur l'efficience de la performance opérationnelle. Il n'est plus question d'analyser des grands volumes de données récurrentes mais de ne s'intéresser qu'aux seules données « utiles » pour prendre des décisions. D'un coté, on utilise des grands volumes de données du passé pour prédire les actions du futur, d'un autre coté, l'on agit sur les données singulières pour agir dans l'instant. Les BIG DATA sont alors une culture de l'opportunité. J'aime citer l'exemple de l'épisode neigeux qui a concerné toute la France y compris le Sud de la France, il y a quelques années. Un petit malin avait prévu le coût en constituant un stock de pelles qu'il avait ensuite revendu à des villes françaises du sud de la France dépourvues de matériels. On imagine qu'en plus d'écouler son stock, cette personne a du réaliser une plus value sur cette vente. Un autre exemple, celui s'appuyant sur l'usage à chaud de données BIG DATA atteste que l'opportunité vient aussi d'une détection d'opportunités par le croisement de données par nature hétérogènes (données de vente et open data notamment). Par exemple, chez Tesco, 10°C supplémentaires en été peut faire varier la consommation de produits barbecue de 400%. Je pourrai également citer cet exemple du client passant à proximité du magasin et qui reçoit 3 jours plus tard une offre sur le produit qu'il aurait pu acheter le jour j.

Expériences à mener.
L'association des données d'entreprises et des open data semblent une bonne idée. Je pense que le projet Mes infos porté par la Fing peut y aider. Des living lab comme ICTUsage Lab ont l'objectif d'aider les différents acteurs de la chaîne de l'innovation technologique en PACA de concevoir et de mettre au point de nouveaux produits et services avec rétroaction entre des technologies et des usagers testeurs. L'échange de données en contrepartie d'un meilleur confort, d'une meilleure qualité de services semble aussi une bonne idée. D'ailleurs, on voit clairement que les BIG DATA est un sujet porté par les citoyens. Aux états-unis, le quantified self est une vraie tendance, suivie d'un vendor relationship management, sujet émergent en France. Le développement d'écosystèmes réunissant des usagers, des entreprises et des développeurs de services peut avoir un vrai intérêt. À l'instar des initiatives comme CAStore (Crédit Agricole) et d'autres banques, le crowdsourcing est un premier pas vers l'innovation ouverte au service d'une nouvelle relation client.
En conclusion, ces exemples attestent qu'aborder les BIG DATA doit se faire selon deux approches complémentaires, l'une orientée sur la donnée, le fameux 3V, l'autre axée sur les usages. L'une et l'autre sont indissociables et facilitent les jonctions entre la technique et les métiers pour coordonner les actions des entreprises. C'est ce corollaire qu'il faut maintenant vérifier en multipliant les expériences autour des BIG DATA.

Un premier « déclin » de l’utilisation d’Internet

A lire sur: http://www.gizmodo.fr/2012/10/29/premier-declin-utilisation-internet.html?utm_source=Newsletter+Gizmodo&utm_campaign=886d3d63b1-RSS_EMAIL_CAMPAIGN&utm_medium=email


Un premier déclin de l'utilisation d'InternetInternet s’est imposé dans les foyers depuis de nombreuses années maintenant. Les gens passent des heures et des heures connectés. Mais une récente étude de Forrester met au clair le tout premier « déclin » concernant le temps passé en ligne. Que cela signifie-t-il ? Explications.
Les résultats de cette étude montrent que, sur les 58 000 adultes américains sondés, la moyenne d’heures passées sur Internet au cours d’une semaine traditionnelle serait redevenue proche de celle de 2009. 19,6 heures en 2012 contre 21,5 l’année précédente et « seulement » 18,9 en 2009.
(Mal)heureusement, il ne s’agit pas ici d’un simple recul de l’utilisation d’Internet mais d’une banalisation de celle-ci. Pour la majorité des sondés, ceux-ci n’ont pas conscience d’être connectés quand ils consultent la météo sur leur smartphone par exemple… Pour termine, notons que cette étude confirme la stagnation de la lecture de magazines et journaux papier ainsi que du temps passé devant la TV. Seule l’écoute de la radio semble en légère baisse.
[slashgear]