lundi 30 septembre 2013

L’efficacité des dossiers électroniques dans le traitement des maladies chroniques confirmée

A lire sur:  http://www.atelier.net/trends/articles/efficacite-dossiers-electroniques-traitement-maladies-chroniques-confirmee_424111

Par 23 septembre 2013 DMP

Malgré les fortes réticences rencontrées auprès de certains professionnels de la Santé, les données apportées par l'utilisation de dossiers médicaux informatisés permettent de mieux adapter les traitements des patients, notamment dans le cas des diabétiques.
Entre 2005 et 2010, le consortium médical Kaiser Permanente de Californie du Nord a choisi de mettre en place un système éectronique de dossiers médicaux personnels (DMP), baptisé Kaiser Permanente HealthConnect, dans 17 de ses hôpitaux et 45 de ses bureaux médicaux. Attentivement encadré par un groupe de chercheurs, cette première expérience du DMP était concentrée sur le suivi des patients atteint de diabète. Ce n'est que cette année que les résultats de cette étude ont été publiés dans les Annales de la Médecine Interne et ceux-ci semblent apporter des preuves conséquentes du gain d'efficacité que l'utilisation des DMP offre à certains types de patients.

Une information actualisée et centralisée

"Une amélioration de de la disponibilité de l'information, des supports de décision et la fonctionnalité ordre-entrée aident les médecins à identifier les patients les plus appropriés pour une intensification des dosages médicamenteux et réitération des tests, ce qui mène à une meilleure prise en charge des patients atteints de diabète" exprime Marc Jaffe médecin du programme Kaiser pour la réduction des risques cardio-vasculaires. Effectivement on peut observer une véritable amélioration aussi bien au niveau glycémique, que de celui du contrôle du cholestérol ou de la pression sanguine, de l'ordre de 2 à 6,5% selon les patients. Si les études précédentes se sont concentrées sur l'amélioration de la relation patient-médecin grâce aux nouvelles technologies, l'apport ici des DMP tient en réalité à la simplification du suivi médical. Plutôt que de volumineux dossiers, aisément égarés et contenant souvent des informations devenues obsolètes, les DMP doivent permettre de rassembler l'intégralité des données relatives à un patient. Il s'agit ainsi de ne donner que les informations les plus à jour tout en recherchant l'exhaustivité. Dans le cas du diabétique dont il faut contrôler systématiquement les taux de glycémie par exemple, les DMP permettent de rendre l'information disponible au médecin traitant presque immédiatement.

Certaines réserves subsistent encore

En théorie, l'utilisation des DMP ne semble pas porter à polémique : une information actualisée, centralisée, qui permettrait de désembouteiller les services d'archives déjà surchargés des hôpitaux. Cependant en dehors des réticences quant au passage du dossier papier à la digitalisation au nom de l'habitude, les DMP soulèvent en fait une certaine appréhension auprès des médecins. S'il ne fait aucun doute qu'ils sont le futur des dossiers médicaux, leur mise en place doit se faire en évitant certains écueils. La principale crainte tient à la sécurisation des données, extrêmement personnelles, qui sont ainsi mises en ligne, même si ce n'est que sur des réseaux réservés aux professionnels de la Santé. Kaiser Permanente semble montrer une voie efficace, si les problèmes de sécurité ne sont pas soulevés, la standardisation des DMP entre les différents hôpitaux du consortium a permis un réel partage des informations, obstacle sur lequel ceux-ci butent encore en Europe.

Haptix permet de contrôler les écrans à partir de surfaces planes

A lire sur:  http://www.atelier.net/trends/articles/haptix-permet-de-controler-ecrans-partir-de-surfaces-planes_424087

Par 23 septembre 2013 haptix

De nouveaux accessoires permettent un usage plus fluide des écrans connectés.
Les technologies de reconnaissance gestuelle en plein essor depuis plusieurs années continuent à développer des produits grand public avec le récent lancement de Leap Motion par exemple. Dernier accessoire en date, Haptix propose également de contrôler à distance les plateformes connectées grâce à des capteurs de mouvements. Cependant alors que Leap Motion proposait une configuration nécessitant des mouvements dans l'espace, ce nouveau produit permet de transformer toutes les surfaces planes en clavier tactile permettant un usage sans friction et précis. Ayant récemment lancé une levée de fond via la plateforme de crowdsourcing Kickstarter, Haptix se propose de "transformer la manière dont les personnes interagissent avec les ordinateurs".
Des capteurs rendant sensible n'importe quelle surface plane
Concrètement Haptix se présente sous la forme d'une webcam pouvant se connecter à n'importe quel écran par transmission USB. Le capteur pointe vers une surface plane et enregistre les mouvements des mains. Ceux-ci sont transmis à la plateforme et reconstitués à l'aide d'algorithmes en représentations 3D permettant ainsi de contrôler le contenu à l'écran. Cette disposition ne nécessite que très peu de mouvements de la part de l'utilisateur et est compatible avec n'importe quelle surface plane. Cette approche multi-tactile permet donc de réduire les mouvements répétés sur un clavier et permet même d'utiliser les doigts de la main comme curseurs, rendant ainsi obsolète l’utilisation d’une souris. Cette disposition plus fluide ne nécessite pas d'adaptation progressivepour faire le lien entre les mouvements physiques et le contrôle de l'appareil comme cela avait été reproché à Leap Motion.
Des applications multiples
Potentiellement commercialisé en février 2014 pour 14 dollars l'unité, Haptix pourrait avoir des applications autant professionnelles que domestiques. Dans sa vidéo de démonstration postée sur Kickstarter, la start-up met en scène un artiste utilisant un vrai pinceau pour réaliser une création digitale, on peut donc envisager une application dans le monde du design et d’architecture en se substituant aux palettes graphiques. Plus généralement Haptix permettrait également de réduire les fameux TMS (troubles musculosquelettiques) liés à une utilisation prolongée d'un clavier et l’exécution répétée de gestes encourageant une mauvaise posture. Des entreprises comme Haption ont déjà mis au point des services utilisant la technologie haptique pour réduire la douleur au travail.

Asus et Acer : une fusion entre les deux groupes pourrait être envisage

A lire sur:  http://www.tablette-tactile.net/actualite-generale/asus-acer-fusion-les-groupes-pourrait-etre-envisageable-145725/



Les acquisitions de Motorola par Google et de Nokia par Microsoft donneraient-elles des idées à Asus et Acer ?
Acer-Asus-Logo
Dans une interview donnée au China Times, le président de l’entreprise Asus, Johnny Shih, a répondu à une question sur une possible fusion entre Asus et Acer en disant qu’il fallait garder l’esprit ouvert. De son côté, le fondateur de l’entreprise Acer, Stan Shih (bien qu’ils portent le même nom, ces deux personnes ne sont pas liées), a lui aussi dit qu’il était ouvert à des propositions de fusions et d’acquisitions.
Pour la petite histoire, le groupe Asus a été fondé en 1989 par quatre anciens employés d’Acer,  T.H. Tung, Ted Hsu, Wayne Hsieh et M.T. Liao, et l’actuel PDG d’Asus, Johnny Shih, les a rejoint en 1994.
Acer&Asus-Logo
Depuis une vingtaine d’années, ces deux entreprises taïwanaises sont concurrentes sur à peu près tous les secteurs de l’informatique, et réalisent même des chiffres d’affaires très proches (16 milliard de dollars pour Acer, 15,17 milliard de dollars pour Asus).
Aujourd’hui, ces deux entreprises se retrouvent dans la même position sur le marché des ordinateurs (notebooks et ultrabooks) et des tablettes; et finalement, connaissant leur histoire, cette hypothèse de fusion ne seraient pas si tirée par les cheveux.
Source : ChinaTimes via Unwiredview

Détecter la pollution à distance et en temps réel passe par l’infrarouge

A lire sur:  http://www.atelier.net/trends/articles/detecter-pollution-distance-temps-reel-passe-infrarouge_424118

Par 23 septembre 2013 car pollution

Grâce à la modification d’une caméra à infrarouge, un prototype mesure en temps réel la pollution émise notamment sur les autoroutes à 3 voies.
Jusqu’alors, la détection de la pollution s’effectuait par des relevés aériens. Son analyse ajoutée à la température ainsi qu’aux projections de circulation permettaient d’émettre ou non des alertes de pollution à l’ozone, notamment. Cependant, ce système disposait plus d’une valeur empirique que d’une valeur exacte à un moment donné et à un point donné. Un groupe de recherche travaillant dans le cadre du projet INNPACTO, dirigé par Technet et associant les chercheurs du CIEMAT , de Tevaseñal et de l’ UC3M a mis au point un objectif sur une caméra à infrarouge permettant d’effectuer des tests en temps réel sur les émissions automobiles. En effet, le prototype est capable d’effectuer des mesures intelligentes de la circulation routière par la collecte immédiate de données tant sur la densité du trafic que sur les émissions et la consommation propres à chaque véhicule. L’objectif de ce projet est double : analyser l’impact de la circulation sur l’environnement et améliorer la sécurité routière.

L’infrarouge pour détecter les polluants excédentaires de chaque véhicule.

Le prototype mis au point modifie l’image multispectrale d’une caméra infrarouge grâce à des filtres interférentiels. « Ces filtres sont situés dans une roue qui tourne à une vitesse élevée en face du détecteur. Ils fournissent des images consécutives de la même scène sur des bandes différentes, ce qui permet une détection à distance de certains gaz imbrûlés (CO2, CO et HC) » a expliqué Fernando López, chef du laboratoire infrarouge de l’ UC3M. Selon lui, le dispositif est le seul prototype sur le marché capable de mesurer les émissions de chaque véhicule. Alerter les propriétaires de ces voitures serait également appréciable pour ces derniers car qui dit grande émission, dit aussi grosse consommation.

Aiguiller la politique environnementale du gouvernement.

Environ 5% des véhicules seraient responsables de plus de 90% des émissions toxiques selon l’étude.  Les chercheurs espèrent donc de nombreuses applications pour cette technologie à des fins environnementales. Des variations des limites de vitesse sur les routes à grande capacité aux abords des villes pourraient ainsi être préconisées. Un autre exemple type serait de retirer de la circulation les véhicules les plus polluants grâce à des données réelles. De plus, le système apparaît comme une solution logistique complète pour les entreprises de transport notamment. Plusieurs entreprises ibères auraient déjà montré leur intérêt pour l’adopter.

Fiscalité du numérique : Fleur Pellerin remet le couvert

A lire sur:  http://www.zdnet.fr/actualites/fiscalite-du-numerique-fleur-pellerin-remet-le-couvert-39794235.htm

Réglementation : La ministre déléguée à l'Economie numérique entend relancer le débat sur la fiscalité des géants du numérique. Malgré l'avis défavorable du CNNum, elle penche pour une taxe, qu'elle devrait défendre au niveau européen.
Dans une interview à France Info, la ministre de l'Economie numérique revient sur ses déclarations à Libération en fin de semaine dernière (article désormais gratuit). Rien de bien neuf sur le fond, si ce n'est un polissage intéressant des éléments de langage de la ministre.
Fleur Pellerin, qui ne relevait pas, dans l'interview accordée à Libération, le terme de "guerre" employé par le journaliste du quotidien, reprend avec prudence celui de France Info, insistant sur le fait qu'il n'est "pas question de partir en guerre" mais de "créer les conditions en Europe pour que des champions européens puissent émerger".
Un Airbus du numérique ?
Recréer les Airbus et compagnie du numérique en somme, même si "on peut considérer que dans l'économie numérique c'est plus difficile de créer ce type d'entreprises". La ministre, convaincue que "nous avons un peu raté l'Internet 1.0 et 2.0 [le web 1.0 et 2.0, NDLR] et qu'il faut se mettre en ordre de bataille pour essayer de créer les champions du numérique de demain et l'écosystème européen de demain".
Idem, les vils "conglomérats du XXIè siècle" cités dans Libération ne semblent plus autant montrés du doigt. Alors que l'expression semblait laisser à penser que les conglomérats, trust, chaebol et autres keiretsu auraient pu disparaître pour revenir en force avec l'ère de l'économie numérique, la ministre affirme sur France Info qu'elle ne "pense pas que ce soit la faute des géants américains".
La responsabilité en reviendrait aux Européens, tout d'abord. C'est donc à l'Europe d'y remédier. Fleur Pellerin cite à nouveau "une autorité qui serait responsable de la régulation" et "qui pourrait édicter un certain nombre de règles qui s'imposeraient aux acteurs européens mais aussi à un certain nombre d'acteurs qui viennent faire du chiffre d'affaires (...) sur le marché européen".
"L'arme fiscale", une "conséquence"
Rien de neuf, disions-nous, comme "l'arme fiscale", "conséquence" de cette situation. Là encore, la ministre repasse en revue les taux d'imposition globaux certes ridicules des géants du numérique, et la nécessité "que tous les acteurs jouent avec les mêmes règles".
Si la ministre n'est pas particulièrement diserte sur les moyens qu'elle proposera au mini-sommet européen de demain, elle passe en revue l'habituelle cohorte de choses à mettre en oeuvre : fiscalité harmonisée, promotion de l'innovation, du capital risque, définition des normes et standards... On attendra donc les conclusions de ce sommet pour en savoir plus.
Voir la vidéo en entier - et noter avec gourmandise que Fleur Pellerin ne se laisse pas piéger, à la fin, sur la "Silicon Valley à la française" :

Fleur Pellerin veut "réguler les plateformes... par FranceInfo

Aménagement du territoire : le rapport Lebreton prône le développement des usages numériques

A lire sur:  http://www.zdnet.fr/actualites/amenagement-du-territoire-le-rapport-lebreton-prone-le-developpement-des-usages-numeriques-39794240.htm

Ils proposent : Le rapport sur "les territoires numériques de la France de demain" souligne qu'au-delà de l'accès physique à Internet, il faut pousser l'utilisation du numérique pour que les périphéries des villes et les campagnes en tirent parti.
Cécile Duflot, ministre de l’Égalité des territoires et du Logement, a reçu un rapport de Claudy Lebreton, président de l’Assemblée des départements de France (ADF), consacré aux territoires numériques (PDF). Pour lui, "le déploiement du haut débit est un aspect primordial de l’égalité d’accès au numérique", mais il ne faut pas oublier les inégalités existantes en matière d’usages.
Le rapport souligne "l’importance de développer les pratiques que peut permettre une connexion à internet, quel que soit le milieu générationnel, social ou culturel" pour lutter contre une "e-exclusion" (définie comme l’impossibilité d’accès aux réseaux, l’incapacité à bénéficier d’un accès à internet, et surtout la méconnaissance des usages qu’il permet).
Télétravail en hausse et EPN à usages élargis
Le développement du numérique et de son potentiel "permettra de renforcer le lien social, de développer le télétravail, mais aussi d’assurer un meilleur accès aux services et aux droits".
Dans les zones périurbaines et rurales, le développement du télétravail permettra de rapprocher les lieux d’activité des lieux de vie. "Une réflexion sera engagée sur l’évolution des modes d’organisation du travail qu’induit le télétravail, ainsi que sur les infrastructures d’accueil qu’il nécessite, envisagées sous la forme d’espaces publics du numérique" (EPN).
Le rapport propose de "densifier le maillage territorial" des EPN et d'élargir leur champ "à la culture et à la formation, au travail et aux solidarités, à l’expression citoyenne et aux télé-services, à la création et à l’innovation, etc."
Le texte énumère 22 propositions, comme mutualiser les investissements entre les collectivités locales, "conserver les données dans les territoires" en mettant en œuvre "une stratégie interterritoriale mutualisée de stockage et d'archivage des données", "développer massivement le télétravail", "territorialiser l'e-santé", etc.
Le ministère de l’Egalité des Territoire indique que les propositions du rapport "serviront d’orientation pour la politique numérique portée par le ministère, notamment à l’occasion de la loi de mobilisation des régions pour la croissance et l’emploi, et la loi promotion de l’égalité des territoires".

Mais au fait comment a-t-on construit internet?

A lire sur:  http://www.rslnmag.fr/post/2013/08/21/Mais-comment-a-t-on-construit-Internet.aspx

Mais au fait, comment a-t-on construit Internet ? Blog
ANTISECHE - Internet est loin de n’être qu’un espace virtuel. C’est aussi et d’abord du concret, du solide : des tonnes et des kilomètres de matériel répandus un peu partout sur la planète, entre ciel, terre et mer. Un immense bazar, que RSLN vous propose de rendre un peu moins bizarre.
Si vous surfez tous les jours, ou presque, pour vous comme pour la plupart des utilisateurs, Internet est avant tout une formidable fenêtre sur le monde : on y travaille, découvre et s’y amuse. L’idée est certes juste, mais elle occulte le reste. Car à force d’avoir la tête dans le nuage, on en oublie parfois que le réseau des réseaux est avant tout là, sous nos pieds !
Alors, de quoi est-il fait ? Quelles sont ses mensurations ? Continue-t-il de grandir? On vous propose une petite géographie de ces tubes qui, mis bout à bout, exaucent comme par magie n’importe laquelle de vos requêtes...

> Internet, cet immense espace “verre”

Aussi étrange que cela puisse paraître, l’unité de base d’Internet n’est pas le bit, mais le verre. Des tonnes de verre. Pourquoi ? Parce que le verre est un excellent conducteur pour la lumière, qui transporte les précieuses informations faites de 0 et de 1. Sans lui, Internet ne pourrait donc pas apporter “ses lumières” partout où il se répand...
Le verre utilisé par les ingénieurs est le plus pur possible pour éviter un maximum toute déperdition du signal lumineux. Chauffé à très haute température - plus de 2000 degrés - le verre est fondu pour mieux l’étirer sous la forme d’un fil plus fin qu’un cheveux. Et voilà comment un tube massif et translucide se transforme en une bobine de plusieurs centaines de kilomètres de fibres optiques. Rien de sorcier, donc, comme le rappelle le journaliste Andrew Blum, auteur du livre “Tubes : A Journey to the Center of the Internet”, et qui a enquêté pendant deux ans sur la structure du réseau :
“Pour faire simple, Internet est fait d’impulsion de lumière. Ces impulsions peuvent sembler miraculeuses, mais il n’y rien de magique. Elles sont le fruit de puissants lasers disposés dans des coffres en acier, eux-mêmes abrités dans des bâtiments la plupart du temps banalisés. Ces lasers existent. Ces coffres existent. Ces bâtiments existent. Internet existe : il a une réalité physique, une infrastructure essentielle.”
Voilà de quoi démystifier un peu notre quotidien ! Même si le défi technique n’en reste pas moins impressionnant. Les câbles de fibre optique sont les “autoroutes” d’Internet et en forment l’épine dorsale. Gainés de jaune et noir, de la grosseur d’un bras, ils traversent les océans et relient les continents entre eux. Ils sont près de 250 à parcourir ainsi les océans, et s’étalent sur au moins un million de kilomètres. Vingt fois le tour de la Terre.



Tout cela a bien entendu un coût, supporté par des consortiums qui mêlent plusieurs acteurs privés - souvent des opérateurs télécoms, ceux qui possèdent les “tuyaux” -. Sur France Culture, Marie-Noëlle Laveissière, directrice des réseaux internationaux chez Orange, explique par exemple que “Ace” - chacun a son nom - est un des derniers câbles dans lequel son groupe a investi. Il relie la France à l’Afrique du Sud, et dessert plusieurs pays africains au passage. Facture totale ? 700 millions d’euros.
Ces sommes, souvent colossales, sont à relativiser au regard des bénéfices évidents que Internet apporte. Un seul exemple : la première dépêche envoyée par télégramme depuis les États-Unis, à la fin du 19ème siècle, coûtait environ 100 dollars. Un montant à comparer avec le prix de l’envoi d’un e-mail aujourd’hui : quasiment rien.

> Attention, fragile ?

Qui dit réseau physique, câbles, fils et fibres, dit donc failles potentielles. On pourrait donc “couper” Internet, au sens propre ? Oui, et les accidents ne sont pas rares : travaux malencontreux, catastrophe météorologique, filet de pêche qui racle le fond des mers, voire une simple grand-mère armée d’une pelle, tous ces exemples existent. Cependant, il faut savoir que les câbles maritimes comme terrestres peuvent avoir leur jumeau. Ensuite, les interventions en urgence pour “réparer l’Internet” sont rapides - en moins de 48h, même en pleine mer - puisqu’il est possible de localiser la faille au kilomètre près.



Enfin, il ne faut pas oublier que la structure réticulaire d’Internet constitue dans ces cas là un immense atout. Les routeurs, ces machines qui scindent l’information en différents paquets, peuvent trouver un autre chemin quand il y a un “incident” sur la voie principale. Cela vaut bien sûr pour les zones les plus densément reliées, comme l’Europe ou l’Amérique du Nord. Ailleurs, dans les endroits plus isolés, comme en Polynésie française où un seul câble est relié l’archipel, un incident serait plus préoccupant.
En tout état de cause, il y a donc moins à craindre d’un crash physique d’Internet que d’une réelle volonté politique de couper l’accès du réseau de tout un pays. Par exemple, en faisant pression directement sur les fournisseurs d’accès, comme cela s’est vu lors des révolutions des Printemps arabes.

> Des besoins en débit toujours plus grands

Si les câbles maritimes sont des autoroutes, cela veut aussi dire qu’Internet est fait de routes nationales, voire des départementales. En France, encore aujourd’hui, le réseau terrestre n’est pas en fibre optique mais reste encore largement cuivré. C’est tout simplement le même qui nous servait à passer un bon vieux coup de fil. Il a certes fait beaucoup de progrès, par des mises à jour d’ordre logicielle, comme avec l’apparition de l’ADSL et son développement fulgurant au début des années 2000.
Mais pour passer du haut débit au très haut débit (THD), il faudrait donc aménager de nouvelles portions d’autoroutes optiques sur le territoire. Aujourd’hui, le THD concerne pour l’instant moins 400 000  des foyers en France en 2013, sur un total de 25 millions. Le gouvernement a d’ailleurs prévu de dépenser 20 milliards d’euros pour démultiplier ce chiffre en 2020, pour atteindre (très idéalement) 100% des foyers d’ici là.

Quels que soient les moyens mis en oeuvre, il est évident que l’investissement en vaut la chandelle quand on voit le nombre toujours plus vertigineux de données échangées. D’après l’institut d’études en télécommunication TeleGeography, le besoin en bande passante des échanges numériques ont crû de 40% en 2012 dans le monde. En août 2013, il existait plus de 716 millions de sites Internet enregistrés : c’est vingt fois plus qu’il y a dix ans.
La croissance des serveurs de données, qui constituent une autre des facettes de l’Internet “physique”, sont le reflet de cette demande galopante. Certaines fermes de serveurs s’étalent ainsi sur l’équivalent de trois stades de foot. Et d’ores et déjà, on estime qu’ils consomment près de 2% de l’électricité mondiale pour satisfaire les requêtes des internautes.

> Bientôt à la conquête de l’espace ?

Nous avons évoqué l’Internet des mers et des terres, qu’en est-il des airs ? De plus en plus les connexions sont “mobiles”, et l’apparition progressive de la norme 4G en France devrait permettre d’avoir du haut débit sur son smartphone un peu partout. Les réseaux télécoms mobiles sont d’ailleurs une chance pour les territoires dépouillés de réseau filaires, comme en Afrique. Là-bas, Internet passe d’abord par le ciel.
Autre solution : les satellites. Ce moyen était déjà utilisé pour raccorder des endroits éloignés de tout, comme les îles. Aujourd’hui, des projets comme O3b, ambitionne d’envoyer plusieurs engins en orbite moyenne autour de la Terre, pour couvrir les zones laissé de côté par les réseaux filaires. Des initiatives louables, qui jouent la complémentarité avec le reste des infrastructures. Cependant, cette technologie reste dans l’absolu plus coûteuse et moins fiable que les câbles.
Mais mieux vaut un peu de connexion que pas du tout. Début 2013, environ 2,5 milliards d’êtres humaines disposaient d’une connexion Internet, mais les 4,5 milliards restants attendent toujours d’en voir la couleur.

Le web 3.0, c'est pour quand ?

A lire sur:  http://www.rslnmag.fr/post/2013/08/22/Le-web-30-cest-pour-quand.aspx

Le web 3.0, c'est pour quand ? Blog
ANTISECHE - On l'imagine beau et intelligent, sachant tout de nous et capable de prévoir nos moindres désirs. Le web 3.0 serait aux données ce que le 2.0 était à nos amis et à notre vie sociale. Mais pour que la chimère devienne réalité, il faut que les développeurs avancent pas à pas, en pragmatiques et sachent raison garder : c'est ce que nous a expliqué Robin Berjon, le consultant en standards web et frenchie au W3C que nous vous avions déjà présenté. Petit point sur la situation.

RSLN : on dit que le web 3.0 sera "sémantique". Qu'est-ce que ça veut dire exactement ?
Robin Berjon : L'idée de base du web sémantique, c'est de mettre en réseau des données qui soient traitables de façon automatique par des ordinateurs. Actuellement le contenu des pages web est orienté vers l'utilisateur, il est fait pour les humains, avec des éléments ergonomiques qui ne sont pas facilement traitables par des machines.
Automatiser tout cela, c'est fabriquer un web de données. On parle d'ailleurs de moins en moins de web sémantique, mais plus de web des données, de linked data. Quant au "web 3.0", il ne correspond tout simplement à rien : c'est peut-être un concept marketing mais ça n'a aucun fondement technique. On ne fait pas des versions du web ! 
 

Quand on pense à ce web du futur, on imagine tout un tas de chose formidables... qu'est-ce que ça représente pour toi ?
R.B : La vision classique, c'est que tu dis à ton ordinateur "commande-moi une pizza". Il sait qui tu es, il peut retrouver tes préférences, toutes les pizzerias alentour où que tu sois, retrouver les notes de gens que tu connais et en qui tu as confiance, trouver le restaurant dont la pizza qui a la meilleure note en fonction de tes goûts, la commander et la faire livrer à ton adresse. Un monde où les données sont tellement partout et si accessibles que tu n'as pas de question à te poser.
Ce scénario est inenvisageable dans un futur proche, car il y a encore beaucoup de chemin à faire pour en arriver là. D'abord il faut aller au-delà des données "bêtes". Il faut pouvoir obtenir le contexte de chaque donnée : les données et leur interprétation doivent aller ensemble. Si tu donnes un nom, par exemple celui de Jaurès, la machine doit pouvoir savoir si tu veux parler de l'homme politique, de la station de métro ou du titre d'un livre. Si tu donnes un nombre, il faut savoir à quoi il se réfère. Sur la base de ces informations, on doit pouvoir faire des formes d'inférence ou de recherche. Par exemple, pour trouver toutes les personnes nées le 15 mars dans une liste donnée. Tout ça implique un tas de techniques et de mécaniques.

Justement, où en est-on dans ce processus ?
R.B : Il y a eu beaucoup de fantasmes. Une bonne partie des développeurs qui bossent en ce moment sur le web sémantique se tirent une balle dans le pied, car il travaillent sur des trucs qui demandent de repartir de zéro. Ils manquent de contact avec la réalité : pour que ça fonctionne il faudrait partir de ce qui existe déjà, en l'augmentant avec des modèles tout simples. Aujourd'hui une grosse partie de la communauté sémantique comprend ça, même si certains - les "ontologistes" - veulent mener le débat très loin avec la description de méta-méta-données.
Tout le système d'ontologies complexes dont on a parlé pendant des années - qui consiste, en gros, à créer un nouveau web plus structuré en parallèle de celui que l'on connaît - va à mon avis disparaître, ou sera utilisé dans des cas particuliers. Par exemple pour des données d'entreprise : ces nouvelles règles d'inférences, c'est intéressant surtout pour des systèmes d'entreprises très complexes.

Le web 3.0 serait alors celui que l'on connaît, mais augmenté ?
Oui. Aujourd'hui on a des données, on a simplement besoin de les traiter de manière plus automatisée. On commence à voir comment faire, mais ça ne va pas être une révolution. Il faudra demander le minimum de changements infrastructurels pour que ça fonctionne.
En fait, c'est plus facile d'obtenir le scénario que j'ai décrit avec des données bien exploitables dans le système existant. Pour moi, l'objectif pragmatique du web sémantique serait de faciliter l'exploitation de données réutilisables. C'est déjà la direction que prennent naturellement les choses. Le web de base est lui-même devenu plus sémantique : il y a beaucoup de données qu'on peut extraire d'une page web de façon automatique.
A l'avenir, on peut imaginer que chacun pourra manipuler des données complexes sans avoir besoin de grandes connaissances en informatique. Si on en arrive là, on aura tellement facilité la tâche des développeurs qu'on y aura déjà gagné quelque chose.

Est-ce que le mouvement open data participe de la création de ce web sémantique ?
Le mouvement open data pourrait être parfait pour le web sémantique, mais le problème est que les données ne sont pas au bon format : ce sont en majorité des fichiers Excel, souvent de mauvaise qualité. Pourtant elles sont là, publiées en masse partout dans le monde - et il va bien falloir en faire quelque chose. On ne peut pas demander aux institutions de les convertir elles-mêmes vers de nouveaux formats adaptés au web sémantique : ce serait bien trop cher ! Mais on peut les encourager à continuer de publier leurs données au format CSV, et demander aux développeurs qui souhaitent les utiliser d'ajouter eux-mêmes et de partager les métadonnées qui permettront de mieux les traiter. Ce ne serait pas si difficile car ce travail est crowdsourçable.
Pour que l'open data contribue efficacement au web sémantique, il faudra enfin encourager la publication de données de qualité. Le W3C participe de cette normalisation avec ses standards : les données ouvertes se classent par exemple de 1 à 5 étoiles qui permettent d'évaluer la facilité de leur réutilisation.
Mais le web sémantique ne se nourrit pas que de données ouvertes : nos données personnelles participent énormément au système. De ce côté, il faudra s'occuper d'un problème qui n'a pas été soulevé au moment où l'utopie du web sémantique a été formulée : c'est la question de la confidentialité des données.

Les éditeurs français ont le moral

A lire sur:  http://www.lemagit.fr/actualites/2240205798/Les-editeurs-francais-ont-le-moral

Cyrille Chausson Publié: 20 sept. 2013

Les éditeurs de logiciels français n’ont jamais eu autant le moral, révèle le dernier baromètre BVA - Syntec Numérique. Selon lui, 68% des entreprises du secteur du logiciel ont confiance «dans l’avenir de la situation économique». Une bouffée d’air dans un contexte économique encore sclérosé par la crise. Syntec parle même de record depuis septembre 2011, où l’indice de confiance avait atteint 60%. Depuis juin dernier, l’indice aurait progressé de 13 points, ajoute encore le baromètre.
Ainsi, la majorité des éditeurs sondés, 58%, se disent aujourd’hui en ligne ou au dessus de leurs objectifs pour 2013. Le secteur semble donc avoir le sourire. D’ailleurs, les investissements vont même repartir sur le dernier trimestre de l’année, pour 67% des éditeurs interrogés.
Pourtant, si le moral plafonne, les éditeurs avancent toutefois avec beaucoup de prudence. Côté embauche, Syntec note encore une «frilosité des entreprises», avec seulement 50% des répondants ayant l’intention de recruter cette année - un niveau équivalent à celui de juin, le plus bas enregistré depuis juin dernier.
«Reste à savoir si ces signaux positifs ne sont pas liés à un effet psychologique de rentrée. Ils doivent être confirmés dans le temps afin de pouvoir affirmer que les éditeurs connaissent à nouveau une accélération de leur croissance», indique Bruno Vanryb, Président du collège Editeurs Syntec Numérique, dans un communiqué.

Propulsion électrique des satellites : un des 34 projets pour la France

A lire sur:  http://www.futura-sciences.com/magazines/espace/infos/actu/d/astronautique-propulsion-electrique-satellites-34-projets-france-48928/#xtor=EPR-42-[HEBDO]-20130923-[ACTU-Propulsion-electrique-des-satellites-:-un-des-34-projets-pour-la-France]

La propulsion électrique pour les satellites est considérée comme une solution d'avenir pour maintenir la compétitivité du secteur spatial de l'industrie française. Elle est l’un des 34 projets d'avenir de la politique industrielle que compte mettre en œuvre le gouvernement pour réindustrialiser le pays ces prochaines années.

Si la propulsion électrique des satellites fait son entrée dans les plans de l'Élysée, elle est au programme des industriels européens depuis plusieurs années. © P. Carril, Esa

Le président de la République et le ministre Arnaud Montebourg ont dévoilé une liste de 34 projets dits d’avenir pour aider l’industrie. De nombreux secteurs sont concernés, notamment ceux des technologies de l’information et du transport, où l’on imagine des voitures sans pilote ou à faible consommation, des TGV de nouvelle génération, des dirigeables pour les charges lourdes, ou encore des avions et des satellites à propulsion électrique. Dans ce contexte, le Cnes (Centre national d’études spatiales) a été nommé chef de projet des satellites à propulsion électrique.
L’idée de cette liste, préparée par le cabinet d'audit McKinsey (et non pas par le gouvernement), est de soutenir les filières identifiées comme les plus porteuses dans l'économie mondiale et s’appuyant sur des technologies que la France maîtrise. Il s’agit également de défendre et pérenniser les secteurs d’activité d’avenir qui occupent aujourd’hui une position forte sur leurs marchés respectifs. C’est le cas du secteur de l’industrie spatiale, dans lequel la France est numéro un européen : si elle ne veut pas perdre sa place de leader, elle se doit de suivre l'évolution du marché et de la demande. Et la propulsion électrique est particulièrement attendue des opérateurs de satellites, notamment pour les satellites utilisés depuis l'orbite géostationnaire.

La France parie sur la propulsion électrique pour les satellites

L’intérêt de la propulsion électrique pour un satellite de télécommunications est qu’elle optimise la masse du satellite au profit de la charge utile, en réduisant la masse d’ergols chimiques embarqués. Principal inconvénient, le délai de la mise à poste est allongé. Alors qu’il faut quelques jours pour qu’un satellite classique (en propulsion chimique) rejoigne sa position géostationnaire, c’est plusieurs mois qui sont nécessaires à un satellite mû par la seule propulsion électrique.
Le module de service d'Alphabus, ici vu dans les locaux cannois de Thales Alenia Space, utilise la propulsion électrique afin d’optimiser la masse du satellite au profit de la charge utile, en réduisant la masse d’ergols chimiques embarqués.
Le module de service d'Alphabus, ici vu dans les locaux cannois de Thales Alenia Space, utilise la propulsion électrique afin d’optimiser la masse du satellite au profit de la charge utile, en réduisant la masse d’ergols chimiques embarqués. © Thales Alenia Space
L’industrie spatiale française, l’Agence spatiale européenne (Esa) et le Cnes n’ont évidemment pas attendu le gouvernement français pour prendre le virage de la propulsion électrique et répondre à ces besoins futurs clairement identifiés. Nos deux grands champions, Astrium et Thales Alenia Space, ont chacun des produits en cours de développement. On citera en exemple la plateforme Alphabus de nouvelle génération qui comprend une alimentation électrique : le premier satellite qui l’utilise, Alphasat, a été lancé cet été par une Ariane 5. Et que dire du projet de l'Esa de la plateforme électrique Neosat auquel participe le Cnes. Cette future installation, destinées à des satellites de 3 à 6 t, devrait amener un gain de compétitivité de l'ordre de 30 % en s'appuyant notamment sur la propulsion électrique. Cependant, si la propulsion électrique est une des solutions d’avenir, elle n’est pas une fin en soi. Comme le souligne Eric Béranger, le patron de la branche satellites d’Astrium, les satellites du futur ne seront pas tous « uniquement électriques mais plutôt “plus électriques” ».
Enfin, on citera le projet d’avion électrique, un vrai pari sur l’avenir – lointain –, tant cette technologie n’est pas suffisamment mûre pour envisager à court et moyen terme (une dizaine d’années) la mise sur le marché d’un avion de transport de passagers. Dans ce domaine, les initiatives les plus visibles sont celles d’EADS qui, lors du Salon du Bourget 2013, a présenté l'E-fan, un concept d’avion de tourisme électrique après son Cri-Cri, le premier quadrimoteur de voltige tout électrique au monde dévoilé lors du Salon de 2011. La présentation générale des 34 projets est accessible sur le portail du gouvernement, et le détail sur le site du ministère du Redressement productif.

Début de la guerre des suites bureautiques mobiles

A lire sur:  http://www.lemagit.fr/actualites/2240205812/Debut-de-la-guerre-des-suites-bureautiques-mobiles

Valéry Marchive Publié: 20 sept. 2013

Les tablettes s’apprêtent à devenir le nouveau terrain d’affrontement des suites bureautiques. Un domaine clé pourtant négligé jusque-là par le champion du secteur, Microsoft. C’est devant un parterre d’analystes que Steve Ballmer, PDG de Microsoft, a laissé planer l’idée d’une version d’Office destinée aux iPad, voire aux tablettes Android. Une éventuelle version iPad fait l’objet de rumeurs récurrentes depuis de longs mois. Mais Microsoft s’était jusqu’ici contenté d’une version pour iPhone, destinée aux utilisateurs de sa suite bureautique en mode Cloud, Office 365, et d’une version pour smartphone Android, visant la même cible. Et surtout, il affirmait lors de son lancement, en juin dernier, ne pas prévoir de version iPad. Une façon, sûrement, de chercher à attirer les utilisateurs devant manipuler des documents bureautiques vers ses propres tablettes Surface, et les appareils hybrides sous Windows 8.
Mais là, réfutant l’idée «d’avoir la tête dans le sable » et refusant de laisser passer des opportunités, Steve Ballmer semble décidé à changer son fusil d’épaule. Un changement d’approche qui pourrait trouver sa justification dans les mauvaises performances commerciales de Surface, mais également dans les évolutions d’un marché où les tablettes sont, selon IDC, sur le point de détrôner les PC en volume.
QuickOffice gratuit pour les tablettes
En fait Microsoft pourrait avoir été poussé à accélérer son changement d’approche par Apple  et Google. Le premier a anoncé la gratuite de sa suite bureautique iWork sur mobile lors du lancement des iPhone 5s et 5c. Le second a riposté en annonçant la gratuité de sa propre suite bureautique, QuickOffice, à tous les utilisateurs de ses services. Un sérieux revirement. Google avait en effet racheté QuickOffice en juin 2012 - l’application fonctionne sur les terminaux iOS et Android. Mais jusqu’ici, le géant du Web ne la proposait gratuitement qu’aux clients des Google Apps Entreprise.
C’en est donc fini de cette limitation et tous les utilisateurs de tablettes peuvent donc désormais profiter gratuitement d’une suite bureautique compatible avec les documents Microsoft Office. Nombre d’entre eux seront d'ailleurs probablement satisfaits de ne plus avoir besoin d'être connectés pour pouvoir travailler sur leurs documents. 
Reste à savoir si cette décision agressive de Google aura véritablement un effet sur l’approche de Microsoft et, si oui, lequel.

Le MDM, quatre conseils pour un retour sur investissement optimisé

A lire sur:  http://www.decideo.fr/Le-MDM-quatre-conseils-pour-un-retour-sur-investissement-optimise_a6335.html

Yves de Montcheuil, Talend
5 Septembre 2013

Pour une entreprise soucieuse de résoudre au plus vite ses challenges de management des données, le MDM (Master Data management) est de plus en plus considéré comme la solution idéale pour obtenir une meilleure connaissance et cohérence des données réparties dans de multiples applications et systèmes.



Yves de Montcheuil, VP Marketing de Talend
Yves de Montcheuil, VP Marketing de Talend
L’implémentation de quelques bonnes pratiques permet aux entreprises de réussir la mise en œuvre d’une solution de MDM et de valoriser rapidement leur patrimoine informationnel. Alors que les bénéfices du MDM sont généralement clairs, un certain nombre de facteurs doivent être analysés pour mettre en œuvre un programme efficace de MDM, garantissant sa réussite ainsi que son retour sur investissement.

· Voyez grand mais démarrez petit. Trouver le bon point de départ de votre programme de MDM est essentiel pour démarrer. Vous souhaitez que votre hiérarchie soutienne votre projet et que le programme commence à dégager de la valeur avant que ce soutien ne s’essouffle ou que certains dirigeants changent de poste ? Démarrez en choisissant un domaine clairement délimité, à l’origine d’une problématique métier importante, et assurez-vous que la portée du projet soit raisonnable et réalisable en quelques semaines – quelques mois au plus. Une fois que le projet de MDM commence à offrir les résultats escomptés, les prochaines étapes deviendront évidentes. Cependant, avec cette approche, vous devez garder à l’esprit votre objectif final et vous assurer que le projet reste pérenne, c’est-à-dire qu’il puisse être étendu dans le temps.

· Ne négligez aucune donnée. Les projets de MDM doivent également capitaliser sur la richesse des « nouvelles données » aujourd’hui disponibles et qui font désormais partie des ressources informationnelles étendues des entreprises : les nouveaux types de données issus à la fois de l’intérieur et de l’extérieur de l’entreprise, de sources de données parfois méconnues, ou d’autres sources auparavant inaccessibles. Ces nouvelles sources doivent être intégrées à l’infrastructure de MDM – soit en étant gérées dans le hub MDM lui-même, soit reliées au hub MDM via une approche fédérée. Les nouveaux types de données incluent par exemple des données issues des réseaux sociaux, des données publiques (open data), ainsi que les « dark data », c’est-à-dire les données cachées dans les fichiers de log, les équipements industriels et d’autres systèmes.

· Intégrez les Big Data dans votre stratégie de MDM – et vice-versa. Avant la fin de l’année 2013, les Big Data seront à l’origine de nombreux programmes de MDM, notamment pour l’intégration des nouveaux types de données. Cette tendance, qui touche généralement des entreprises ou divisions centrées sur les clients, s’étend déjà à d’autres secteurs tels que la fabrication ou la logistique. Les Big Data viennent enrichir les sources conventionnelles de MDM pour fournir une vue complète du domaine concerné. Ajouter la notion de « big » au programme de MDM ne signifie pas que le hub MDM va être stocké dans Hadoop (bien que certaines entreprises testent l’utilisation de bases de données NoSQL), ni que sa taille s’accroitra rapidement de manière exponentielle, mais plutôt que certaines Big Data seront gérées dans le hub MDM lui-même, ou reliées depuis le hub de MDM via une approche fédérée, ou encore bénéficieront des services de dédoublonnage, de résolution et d’enrichissement fournis par le MDM.

· Master data as a service. Un projet de MDM ne se résume pas simplement à des opérations de construction, de gouvernance et de maintenance du hub de données de référence. Une dimension importante du MDM réside dans son rôle dans l’architecture applicative globale. Plutôt que de laisser votre système de MDM devenir un composant d’une architecture « accidentelle », concevez-le dans l’optique qu’il devienne un composant à part entière du système d’information. De plus, au lieu de restreindre les flux de données à une synchronisation directe entre applications, incorporez le système de MDM dans l’architecture orientée service et – au minimum – publiez les données de référence dans d’autres applications et systèmes via des services de master data, et rendez ses fonctions (par exemple dédoublonnage ou enrichissement) disponibles sous la forme de services pour d’autres applications.

La technologie en elle-même ne garantit pas la réussite des programmes de MDM. Ceux-ci n’atteindront leurs objectifs que s’ils reçoivent un soutien permanent de l’ensemble de l’organisation, et le seul moyen d’y parvenir est d’offrir de nouvelles sources de valeur, suffisamment tôt et souvent. De trop nombreuses entreprises s’embarquent encore dans des programmes sur plusieurs années, sans objectif bien défini, ce qui accroît les risques d’échec, tout en garantissant l’obsolescence technique avant même la fin du projet. En partageant les bonnes pratiques issues des projets couronnés de succès, les entreprises peuvent espérer tirer plus rapidement le meilleur parti du MDM.

Les neurosciences à la rescousse de l'écologie

A lire sur:  http://www.lesechos.fr/opinions/chroniques/0203018006500-les-neurosciences-a-la-rescousse-de-l-ecologie-607867.php

Chroniques de Olivier Oullier
Par Olivier Oullier | 23/09 | 06:00
Le président de la République vient d'annoncer la mise en place d'une aide financière à l'isolation des habitations. L'enquête annuelle de l'Ademe rapportant que 80 % des ménages souhaitent réduire leurs dépenses liées à l'énergie souligne la pertinence de cette initiative… en théorie. L'aspect financier ne peut être éludé. Mais penser que les incitatifs monétaires vont à eux seuls régler le problème de la surconsommation énergétique serait une erreur. Au Royaume-Uni, quand une aide comparable a été testée, l'un des freins aux travaux d'isolation était de devoir vider son grenier ! Les économistes n'avaient rien vu venir. Normal, le comportement des vrais gens n'est pas leur fort. Le tout fut réglé par un partenariat avec une société vidant les greniers. Comme quoi, cela sert de tester les politiques publiques avant de les appliquer. Dans le contexte économique actuel, les gens ont souvent d'autres préoccupations que l'écologie. Leur faire prendre conscience des économies possibles grâce à l'aide de l'Etat est un bon début, mais pas suffisant. Leur envoyer une facture sur laquelle apparaît leur propre consommation d'énergie par rapport à celle des habitants de leur quartier fonctionne mieux. C'est ainsi qu'une entreprise américaine, OPower, a réussi à faire économiser plus de 330 millions de dollars à des foyers. Une société française, Sustain-Able, utilise la comparaison sociale pour inciter de grands groupes industriels et de services à faire des économies d'énergie massives tout au long de la chaîne de production. Les institutions publiques dépensent des sommes conséquentes auprès d'organismes privés pour réaliser des campagnes de communication ou des sondages dont l'efficacité est difficilement quantifiable. Bonne nouvelle : les (enseignants-) chercheurs en sciences comportementales exerçant dans des établissement publics ont des solutions beaucoup moins onéreuses et souvent plus efficaces que les aides fiscales. L'Etat sait où nous trouver.
Olivier Oullier
Olivier Oullier est professeur en psychologie et en neurosciences à Aix-Marseille Université.

4G Monitor, le benchmark des connexions mobiles

A lire sur:  http://www.zdnet.fr/services/4g-monitor/

Réalisé en partenariat avec l'éditeur de 4Gmark, le service ZDNet.fr 4G Monitor mesure la qualité de service des réseaux (3G, 3G+ et bientôt 4G) des principaux opérateurs mobiles. Il s’appuie sur les tests de connexion réalisés avec l'application 4Gmark (iOS et Android). Son objectif est de vous fournir des indicateurs de performance, le débit bien sûr, mais aussi des tests de navigation, de transfert de fichier, mis à jour quotidiennement.
 

Débits Moyens

Moyennes des débits constatés sur les 7 derniers jours, lors d'un transfert de 10s, dans le sens montant (envoi-upload) et descendant (réception-download), pour les 4 réseaux sur l'ensemble des Speed Test.

Débits (TOP & MINI)

L'indicateur TOP 10% présente le percentile 10 de chaque opérateur. Il s'agit du débit minimal atteint pour les 10% des tests mesurés comme les plus rapides pour chaque opérateur dans le sens descendant (réception-download).
L'indicateur TOP 90% présente le percentile 90 de chaque opérateur. Il s'agit du débit minimal atteint par 90% des utilisateurs dans le sens descendant.

Expérience Client

Les trois graphiques ci-dessous présentent pour chaque protocole la répartition des bilans des différentes actions effectuées. Les taux d'erreurs (Echec, Coupure, TimeOut) et la répartition par performance des mesures OK.
  • Téléchargement : Bilan et répartition des débits constatés pour la réception d’un fichier de 5Mo.
  • Envoi : Bilan et répartitions des débits constatés pour l’envoi d’un fichier de 1Mo.
  • Navigation : Bilan et répartition des délais moyens de chargements complet pour 3 des principaux sites web (Google / Youtube / Wikipedia)

Score & évolutions

Cet indicateur présente l'évolution par opérateur des scores moyen obtenus à l'issus des Full Test sur les 12 dernières semaines.
Le Score du Full Test (détail du calcul ici) se veut le reflet de l'expérience utilisateur sur l'ensemble du parcours sur une échelle ouverte. Il est composé d'une partie performance (débits) et d'une partie accessibilité (navigation web), et est impacté par les échecs qui le pénalisent fortement.

SVOD : match au sommet entre CanalPlay et Jookvideo

A lire sur:  http://www.zdnet.fr/actualites/svod-match-au-sommet-entre-canalplay-et-jookvideo-39794207.htm

Sommaire : Le poids du marché français de la SVOD est encore marginal par rapport au chiffre d’affaires total du secteur, mais cela n’empêche pas les plateformes locales de se battre pour recruter des abonnés. Parmi elles, CanalPlay Infinity et Jookvideo.
 
Pendant que les professionnels parlent et reparlent de la chronologie des médias et de la place de la fenêtre SVOD, plusieurs plateformes n’ont pas attendu pour lancer leurs offres. Parmi les plus visibles du marché, il y a FilmoTV, VideoFutur, le Pass Séries de M6, le Pass Cinéma de SFR, la zone FreeHomeVOD chez Free, mais aussi Canalplay Infinity, Vodeo et le dernier venu JookVideo.
Selon les derniers chiffres publiés par GFK, la SVOD serait même le seul segment de l’offre en ligne à avoir progressé depuis le début de l’année : plus de 18% de croissance pour un CA d’environ 14 millions d’euros. Mais il est très difficile de savoir qui est le leader du marché puisqu’aucun des acteurs ne communique ses chiffres.  Sauf que cette année, le groupe Vivendi a rendu public le nombre d’abonnés à l’offre de CanalPlay Infinity tandis que le groupe AB divulguait le nombre d’abonnés de sa plateforme JookVideo. Ce qui nous permet de comparer les deux offres et de voir qui est en passe de remporter le match de la conquête de clients.

La mue de Canalplay
Canalplay Infinity disparaît sans faire de bruit. Nous avions évoqué la relative mise en retrait de la SVOD au profit de la nouvelle chaîne consacrée aux séries, nous n'étions pas loin de la vérité.  Désormais, le site de SVOD de Canal Plus s’appelle tout simplement CanalPlay alors que l’offre de VOD transactionnelle se dénomme CanalPlay VOD. Une évolution en douceur qui se traduit à l’écran par une subtile fusion de l’offre par abonnement et de l’offre à la demande. Sur Free par exemple, le logo de la mosaïque est CanalPlay alors que les pages intérieures sont restées logotisées Infinity. Sur le site PC, l’offre à la demande est accessible soit via le bouton CanalplayVOD mais aussi, au sein du menu Cinéma SVOD, sous la rubrique VOD à la carte.
Moins de deux ans après son lancement,  Canal + fait évoluer son offre vers une plateforme unique regroupant VOD et SVOD.  Une stratégie audacieuse qui doit répondre à une demande des clients de l’offre à la demande de la chaîne cryptée : pour plus de fluidité de navigation, pour plus de simplicité de l’offre, pour une meilleure efficacité dans l’acte de consommation.
La VOD transactionnelle, simple menu de l'offre SVOD de CanalPlay - D.R.

Comment Jook a fait pour doubler CanalPlay ?
Alors que Canalplay n’avait pas dépassé 173.000 abonnés à fin juin 2013 selon les chiffres publiés par Vivendi, Jook a fièrement  annoncé avoir franchi le cap des 300.000 abonnés. Au delà des opérations promotionnelles réalisées par les 2 sites : un mois gratuit pour CanalPlay et  une offre limitée dans le temps à 3 euros pour Jook sur Venteprivée, c’est en fait dans le mode de commercialisation que se situe l’astuce. En effet, Jook est proposé en bundle chez 2 opérateurs : Numéricable et Orange. Chez Orange, Jook est ainsi inclus en bundle dans l’offre « Pass Vidéo Livebox Play ».
Extrait des comptes semestriels de Orange - D.R.
Quand on sait, selon les chiffres publiés par Orange, que la LiveBox Play s’est écoulée à fin juin 2013 à plus de 500.000 exemplaires, on comprend d’où vient la majorité des abonnés de Jook. Ce ne sont pas de plus mauvais abonnés que ceux de Canalplay, ils ont simplement été recruté différemment et s’inscrivent dans un modèle économique différent que celui de CanalPlay qui lui recrute directement les abonnés sur les plateformes de ses partenaires distributeurs. Ajoutons que les abonnements bundlés de Jook proposent une sélection de 250 programmes répartis en 5 catégories.
L'offre de Jook chez Orange telle qu'elle est présentée aux abonnés - D.R.
Au delà des chiffres, c’est uniquement à la lecture du chiffre d’affaires réalisé qu’on pourrait savoir lequel des deux services est le plus performant et surtout lequel est le plus rentable, seul gage de pérennité d’une plateforme de SVOD. Gregg Bywalski, le DG de Jook le confirme : « notre objectif prioritaire est de déployer notre offre « full » à 6,99 € chez les FAI le plus rapidement possible afin de dégager de la rentabilité. Nous lançons Numéricable en  novembre et Orange et Bbox suivront début 2014. »

La course à la distribution
Les deux services ont le même objectif : maximiser le plus vite possible la distribution de leur service. Pour le moment, CanalPlay dispose d’une belle avance en étant présent chez SFR, Apple TV et Xbox. De son côté, Jook mise sur le multidevices et l’OTT avec le lancement de ses applications Android et iOS ainsi que son partenariat avec Samsung. Mais très rapidement, les deux services se neutraliseront car les opportunités de distribution ne sont pas infinies. C’est donc sur les programmes et les actions promotionnelles que le combat se jouera.
CanalPlay sur PC - D.R.
JookVideo sur iPad - D.R.

Le match des séries
Pour ce qui est de l’offre de programmes,  la différence entre les deux services est assez flagrante. Sur le cinéma, comme tous les films ont plus de 36 mois d’ancienneté, au delà du nombre de studios signés, la comparaison des offres n’est pas commercialement déterminante. En revanche, sur les séries, véritable produit d’appel de la SVOD, elle l’est nettement plus.
Canalplay offre 70 séries différentes, en provenance des plus grands studios alors que Jook n’en propose que 18 et pas toujours de la première fraicheur !  Pour un prix identique de 6 ,99€, le consommateur pourra aussi se déterminer sur l’offre jeunesse où Canalplay propose 80 séries alors que Jook en offre 37. Enfin, alors que Canalplay a constitué son offre autour de 4 grandes thématiques : Cinéma, Séries, Kids et Adulte Jook joue la carte d’une plus grande diversité en ajoutant des mangas, des documentaires, du sport, de la musique et des spectacles. Conscient de son retard sur son offre de séries, le groupe AB a signé un accord avec Starz afin de muscler son offre de séries dans les prochains mois. Mais pour Gregg Bywalski, pas question de modifier le positionnement « famille » de son offre en incluant une offre adulte.
La Home Séries sur Canalplay - D.R.

La Home Série sur JookVideo - D.R.

Les prochaines étapes
Pour le moment la bataille de la SVOD est franco-française. Tant que les leaders mondiaux n’ont pas mis le pied ici, les plateformes françaises peuvent continuer de se développer et de s’affronter à coup d’achat de catalogues et de campagnes promotionnelles. Mais la vie des éditeurs de SVOD n’est pas un long fleuve tranquille et il est fort probable que plusieurs acteurs soient amenés à revoir leur stratégie à court terme. D’une part parce qu’au delà de la chronologie des médias bloquée à 36 mois pour le cinéma, la distribution de ces services via les différents opérateurs du marché est un enjeu de première importance et  d’autre part parce que l’atteinte du point mort d’exploitation passe obligatoirement par un recrutement massif de nouveaux abonnés très coûteux en cash. Il semblerait en effet, qu’avec le principe des offres sans engagement, le taux de churn soit relativement élevé. Tout cela pour dire qu’il n’est pas étonnant de voir Canal + remettre sa stratégie VOD et SVOD à plat moins de deux ans après le lancement de son offre d’abonnement.
Pour ce qui est de Jook, on peut aisément imaginer que Claude Berda, en homme d’affaires avisé qu’il est, doit se réjouir d’avoir pris une place de choix sur ce marché aussi rapidement.  Il ne serait d’ailleurs pas surprenant qu’il rende visite à l’un de ses actionnaires de référence (TF1 détient 34% de AB) et à qui il a déjà vendu des chaînes (TMC et NT1) pour lui proposer de participer à l’aventure. En effet, AB a réussi en moins d’un an là où TF1 a échoué depuis des années. Pour une somme relativement modeste TF1 pourrait ainsi disposer d’un outil de conquête pour le marché SVOD qu’il suffit de renforcer éditorialement et d'appuyer en marketing. Car s’il est acquis que la perspective d’avoir 500.000 abonnés l’été prochain est réaliste, les 500.000 abonnés suivants seront nettement plus difficiles à recruter. Et dans ces conditions, seules des partenariats stratégiques pourront relever le défi. Et ce ne sera pas la première fois que AB aiderait TF1 à conquérir un nouveau marché !

La France fait pression sur l’Europe pour taxer les géants du Net

A lire sur:  http://www.silicon.fr/france-europe-taxe-geants-internet-89461.html

taxe mécanismes financiers (crédit photo © arahan - Fotolia.com)

Paris mobilise l’Europe contre l’optimisation fiscale « agressive » et tente d’obtenir de nouvelles règles ciblant les poids lourds du secteur. Google et Facebook sont dans le viseur.
.
Paris, qui entend mobiliser l’Europe contre l’optimisation fiscale « agressive », vise plus particulièrement les multinationales américaines (Google, Microsoft, Amazon…) qui usent de techniques leur permettant de ne payer dans le pays d’origine de leurs profits qu’un faible pourcentage de taxes.

L’Europe ne veut pas « réguler le Net »

D’après des documents consultés par le quotidien financier américain, la France demande à la Commission européenne de présenter d’ici le printemps 2014 une proposition visant à « établir un régime fiscal pour les entreprises du numérique garantissant que les profits réalisés dans l’UE soient soumis à l’impôt et les recettes partagées entre les États membres, reliant ainsi la base d’imposition à l’endroit où les profits sont générés ».
Paris chercherait également à instaurer de nouvelles règles à l’échelle européenne pour les principales plateformes Internet et applications numériques, Apple et Facebook incluses. L’objectif consiste à ouvrir davantage le marché à la concurrence en permettant, par exemple, l’utilisation d’un même profil utilisateur sur différents services. Fleur Pellerin, ministre en charge du numérique a confirmé cette option.
« Nous ne voulons pas réguler le Net », a déclaré la ministre française au Wall Street Journal. Avant d’ajouter : « Nous voulons réglementer un petit nombre de plateformes Internet qui aujourd’hui bloquent l’innovation de tous les autres acteurs. La situation actuelle empêche les champions européens d’émerger à l’échelle mondiale. »

Fiscalité, protection et flux de données

Le fait que les multinationales usent d’optimisation fiscale pour échapper à l’impôt n’est pas le seul sujet d’inquiétude des gouvernements européens. À l’heure des révélations sur les programmes de surveillance de l’Agence de sécurité nationale américaine (NSA) et sur l’implication de l’industrie IT, la protection des données et la sécurité des systèmes d’information européens est au coeur des préoccupations.
Il est aussi question de taxer les transferts de données vers l’extérieur de l’Europe au titre d’un rééquilibrage fiscal et d’une souveraineté numérique retrouvée. Cependant, l’idée est très contestée au sein même des États européens. En France, le Conseil national du numérique (CNN) s’oppose à l’adoption d’une taxe sectorielle nationale et appelle à la transparence fiscale au niveau international.
« Nous devons nous assurer qu’il existe une marge de manoeuvre pour tous, que l’on soit européen ou non », a commenté Fleur Pellerin. La ministre recevra certains de ses homologues européens à Paris la semaine prochaine. L’objectif consiste à éclairer la position de la France sur ce dossier et obtenir le soutien de ses partenaires en amont du Conseil européen des 24 et 25 octobre 2013.

Applications mobiles : le marché va progresser grâce aux achats « in-app »

A lire sur:  http://www.silicon.fr/application-mobile-avenir-prometteur-achat-inapp-89458.html
crédit photo © Digital Storm - shutterstock

Le marché des applications mobiles trouvera un nouveau souffle à travers l’essor du modèle des achats dans l’application (In-App Purchases), selon le cabinet Gartner.
En 2013, le marché des applications mobiles devrait générer 26 milliards de dollars de chiffre d’affaires à travers plus de 102 milliards de téléchargements, selon le cabinet Gartner. Une progression notable face aux 18 milliards de dollars générés en 2012, avec près de 64 milliards d’applications installées.
Pourtant, 60% et 80% des applications disponibles respectivement sur l’App Store et Google Play sont proposées gratuitement. Et les deux stores d’iOS et d’Android, chacun doté de plus ou moins 1 million de titres, composent l’essentiel de l’offre. Ils « devraient représenter 90 % des téléchargements mondiaux en 2017 », estime Brian Blau, directeur de recherche au Gartner.

91% des téléchargements gratuits

De fait, la part des applications gratuites devrait représenter 91% des téléchargements en 2013 (moins de 90% en 2012). Un taux qui devrait continuer à progresser dans les années à venir pour atteindre les 94,5% des 268,7 milliards de téléchargements attendus en 2017.
Comment, dans ces conditions, les revenus peuvent-ils augmenter ? Grâce aux « in-app purchases » (IAP ou achat intégré depuis l’application). Ce modèle invite l’utilisateur d’une application gratuite à l’enrichir de nouveaux contenus ou services payants. Un modèle qui a montré sa pertinence dans le jeu vidéo, notamment pour passer de la version d’essai au logiciel complet.

Une méthode de monétisation prometteuse

« Nous constatons que les utilisateurs ne sont pas rebutés lorsqu’ils ont déjà payé pour une application, et sont prêts à dépenser plus s’ils en sont contents, commente l’analyste. En conséquence, nous pensons que l’IAP est une méthode de monétisation prometteuse et durable parce qu’elle encourage l’achat basé sur la performance. »
Le modèle de l’IAP devrait s’imposer comme l’une des principales sources de revenus dans les années à venir. Selon le Gartner, le modèle devrait générer 17% du chiffre d’affaires en 2013, mais surtout 48% du total en 2017. Et bien que l’essentiel des revenus viendra de l’offre iOS, les analystes se disent convaincus que les autres plates-formes, Android en premier lieu, contribueront significativement au modèle de l’IAP.
Gartner, évolution du marché des applications mobiles
crédit photo © Digital Storm – shutterstock