mercredi 30 octobre 2013

Big Data ou Extreme Big Data ?

Le monde accélère. Dans de très nombreux domaines. Parmi ceux qui nous intéressent, se trouve celui de la production, du traitement et de l'exploitation des données.

Pré-historiquement, seuls quelques hominidés produisaient de la donnée au travers de belles peintures rupestres... Puis vint l'écriture puis enfin la révolution de l'imprimerie, suivie par l'invention de la radio, du télégraphe, de la télévision, du téléphone et de l'ordinateur. En quelques centaines d'années à peine les humains, tous les humains sont devenus des producteurs de données. Avec l'avènement de l'ère informatique, les entreprises sont elles aussi devenues de très grands producteurs de données. Quelles exercent en BtoB ou en BtoC. Et le mouvement s'est accéléré avec l'avènement des smartphones, équipements individuels par nature, démultipliant ainsi la tendance. Bref, le monde produit de plus en plus de données, de l'individu à la collectivité...

D’après une étude Digital Universe, réalisée par IDC, 1,8 zettaoctet de données devaient être produites et répliquées au cours de l’année 2011. Pour avoir un ordre d’idées, 1,8 Zo, c’est l’équivalent de 1,8 millier de milliards de gigaoctets. Environ le stockage de 113 milliards d’iPad de 16 Go réunis. Ou encore 200 milliards de films HD de 2 heures...

L'Humanité continue donc de produire chaque année toujours plus de données. En fait, le nombre double tous les deux ans et rien n'indique que cela va s'arrêter. Le nombre de transactions informatiques (bancaires, emails, sms...) et le nombre de fichiers numériques (audio, photos, vidéos, textes...) grossira de 75% durant la prochaine décennie à venir ! Ainsi, la quantité de données produites annuellement va exploser pour atteindre près de 8 Zo en 2015 et 35 à 40 Zo en 2020.
Nous sommes tous devenus des talkers, des photo-capteurs et des géo-capteurs et produisons en effet tous énormément de données, tous les jours, partout, tout le temps... 70% de ces données sont des données individuelles, produites par des citoyens lambdas tandis que les 30% restants sont des données produites par des entreprises.

Alors que cette masse fantastique de données s'accumule, il faut convenir d'un système d'unités et de noms correspondants à ces volumes. On parlait jusque-là de BigData, mais il est vraisemblable de penser que cette notion ne sera finalement plus tout à fait adaptée à la vague à venir et qu'il faudra parler d'"Extreme BigData" avant la fin de la décennie et au passage, inventer de nouveaux préfixes pour notre système international...




Mais revenons à ces très grandes quantités de données. D'après les études internationales sur les usages actuels de l'informatique en entreprise, on estime que moins de 25% des données des entreprises (publiques et privées) sont prêtes à être exploitées ! Ne se serait-ce pas là un gigantesque gâchis économique et financier ? En tous les cas, c'est très certainement là un enjeu majeur des organisations et des entreprises modernes du XXIème siècle.

Car ces entreprises, à la recherche de performance, d'efficacité, d'efficience même, ont comme défi majeur d'organiser, de traiter et finalement d'exploiter ces données pour les transformer en informations utiles et les valoriser. Qu'elles aient des clients ou des citoyens comme utilisateurs finaux !

Et la Géo n'échappant pas à cette tendance, ce sont les technologies du Géo Cloud qui sont d'ores et déjà les plus adaptées pour relever ces défis. Elles sont puissantes et conçues par nature pour gérer simplement, tous types de données, structurées ou non. Et ceci à moindre coût. Le Géo Cloud est devenu un axe majeur du Big Data. Surtout quand on sait que plus de 90% des données produites sont "géo-référencables" et donc "projetables" sur une carte !

mardi 29 octobre 2013

Le chiffre "Géo Cloud" de la semaine !

Le chiffre "Géo Cloud" de la semaine est :



+ 1,4 milliard
C'est le nombre de téléchargements de Google Earth depuis qu'il existe.



Ce qui en fait l'outil Géo le plus utilisé de tous les temps.
Google Earth est devenu le SIG pour tous, facile à utiliser et très complet.

C'est aussi cela le Géo Cloud !

dimanche 27 octobre 2013

La carte du dimanche - Les stéréotypes intolérables de Merci Alfred

Merci Alfred est une news letter qui propose des bons plans du Paris caché. Anti géolocalisation dans l'âme, cette équipe branchée propose régulièrement une sélection de lieux dans Paris où sortir différemment . Et c'est ça qu'on aime : débrancher pour un soir (si, si c'est faisable!) la fonction de localisation de son GPS et se laisser guider par Alfred.

Cette semaine Merci Alfred a sorti une infographie qui cartographie avec humour les stéréotypes entre les français et le reste du monde.



lundi 21 octobre 2013

Le chiffre "Géo Cloud" de la semaine !

Le chiffre "Géo Cloud" de la semaine est :



1 milliard
C'est le nombre de travailleurs dans le monde qui sont mobiles au quotidien.



Dans 5 ans, ils seront tous équipés d'un smartphone.
Ils travailleront et collaboreront grâce à des outils de Mobilité 2.0.
Ils seront géolocalisés pour optimiser leurs tâches quotidiennes...

C'est aussi cela le Géo Cloud !

dimanche 20 octobre 2013

La carte du dimanche - La carte du futur

En tant qu'entrepreneur cette carte résonne pour moi. Où se trouvent les tendances ? Découvrez les idées nouvelles qui fleurissent près de chez vous sur ce site. Vous serez étonnés, promis.
Alors c'est le moment de s'inspirer pour la prochaine innovation !



"Lu dans la presse"

Voici une petite sélection d'articles lus ça et là cette semaine dans la presse IT et qui ont retenu notre attention...


Un article de ZDNet sur les propos d'Eric Schmidt concernant Android...

Un article de ZDNet sur les fonctionnalités de la montre connectée Pebble...

Un reportage de 01net sur les fonctionnalités de la montre connectée de Samsung...

Un article de ZDNet qui dévoile quelques fonctionnalités attendues du Nexus 5 de Google...

Un article du site web Le Monde qui revient sur la faillite de Kodak...

La communiqué de Onavo, annonçant son rachat par Facebook...

Un reportage vidéo de Que Choisir  qui a évalué la nouvelle tablette Nexus 7 de Google...

Un reportage vidéo de USA Today sur un bel exemple de bêtise humaine...

Un article de 01net sur la sécurité de iMessage...

Un reportage de France Info sur le Big Data qui selon Anne Lauvergeon est une opportunité pour la France...

Un article de 01net sur l'action de Google...

mardi 15 octobre 2013

Liquid Galaxy : plongeon dans Google Earth

N'avez-vous jamais voulu voir la Terre comme la voit un oiseau, survoler les paysages comme en hélicoptère, voler, virer, plonger... vous élever, redescendre aussi vite ? N'avez-vous jamais voulu explorer le Grand Canyon, les volcans d'Hawaï, le Vésuve, le Piton de la Fournaise, la Montagne Pelée ou la Soufrière ? Découvrir le Sahara, la Sibérie, le Détroit de Béring, les Alpes, l'Australie, l'Amazonie... ? Arpenter les toits ou les rues de New-York, de Paris, de Moscou, de Tokyo, de Pékin, de Dubaï... ?  Possible, si vous avez de l'argent mais aussi beaucoup de temps.

Si ce n'est pas le cas, alors une autre solution existe. Celle que Google vous propose avec une expérience exceptionnelle grâce à son Liquid Galaxy, un simulateur de nouvelle génération. Il permet d'accéder rapidement à n'importe que point de la planète via Google Earth, et est mis en oeuvre sur 8 écrans de TV synchronisés tous ensemble. Chaque écran est piloté par un PC, le tout est relié à une ligne Internet classique. Un pupitre vous permet de choisir des lieux précis mémorisés ou de prendre les commandes du simulateur à l'aide d'une molette très bien adaptée pour naviguer et partir en exploration.

Le concept du Liquid Galaxy :
8 écrans accolés verticalement tous ensemble sur une armature métallique.

Vivez l'expérience du Liquid Galaxy et explorez la Terre comme jamais auparavant, l'arpentant à 360° et en 3D grâce aux fabuleuses bases de données d'images satellites de Google Earth et grâce à l'imagerie immersive Street View, sur la terre ferme ou sous la mer sur quelques spots de plongée exceptionnels.

Google Earth est le SIG le plus complet, le plus à jour et le plus rapide du monde.

Google Earth est d'ailleurs particulièrement adapté à ce genre d'expérience puisque le logiciel de Google contient des centaines de millions de km² de photographies satellites, dont plusieurs dizaines de millions de km² à 50 cm par pixel de résolution. Toute la planète est ainsi couverte et atteignable en quelques secondes. Et grâce à son puissant moteur de recherche et de géocodage, on peut parvenir à n'importe quelle adresse d'un simple clic.

 Le Liquid Galaxy est un simulateur de nouvelle génération.

Et comme c'est Google Earth le moteur du Liquid Galaxy, vous pouvez choisir d'ajouter des couches d'informations thématiques par-dessus les images satellites. Parmi celles disponibles en standard, on trouvera notamment les routes, les limites administratives, les villes, les Points d'Intérêts du monde entier, les bâtiments et lieux publics, les commerces, la végétation...

Le Liquid Galaxy est un simulateur offrant une vision à 360°.

Et ce qui est fantastique enfin, c'est que vous pouvez également y caler vos propres objets 3D, dessinés dans Sketchup par exemple au format kmz. Le rendu ainsi obtenu sera très réaliste...

Le Liquid Galaxy est un simulateur offrant une vision en 3D.

Bonne navigation sur la planète Terre et vive l'innovation !

dimanche 13 octobre 2013

La carte du dimanche - Le trafic mondial internet

Voici une visualisation qui date un peu mais qui illustre l'activité d'internet à l'échelle mondiale.



Cette carte dynamique a été publiée par Internet Census 2012. Dans son papier l'auteur présente aussi une application cartographique qui permet d'explorer les 460M d'adresses IP ayant au moins répondu pendant les quelques mois de l'expérimentation.

Ce travail est superbe et mérite d'être actualisé car en 1 an les choses ont du évoluer !

"Lu dans la presse"

Voici une petite sélection d'articles lus ça et là cette semaine dans la presse IT et qui ont retenu notre attention...


Un article de 01Business dans lequel GrDF explique pourquoi et dans quel contexte les solutions Géo de Google sont plus efficientes que les traditionnels SIG...
Un article de 01net qui dévoile les secrets du NEXUS 5...

Un article de Atlantico qui compare Amazon et Google...

Un article du Journal du Net qui annonce une belle levée de fonds pour MongoDB...

Un article de 01net où l'on apprend que les différentes versions d'Android font la course entre elles...

Un article de ZDNet sur le passage à l'IaaS...

Un article de ZDNet sur les entreprises de l'informatique qui innovent et celles qui n'innovent pas selon une analyse du Gartner...

Un article de Science Daily sur une nouvelle génération de micro-processeur à venir...

Un article de Boundless qui propose un Top100 des "géo influenceurs". Aucun ne se trouve en France ;-( 

Un article de InfoWorld sur l'analyse du Gartner concernant 10 technologies prometteuses de l'IT...

Le chiffre "Géo Cloud" de la semaine !

Le chiffre "Géo Cloud" de la semaine est :



30 milliards
C'est le nombre de tags RFID actuellement déployés dans le monde.



En 2020, il y aura au moins 150 milliards de tags RFID déployés.
Nous serons alors au début de la révolution du Web 3.0 ou de l'Internet des objets,
c'est-à-dire du "tout connecté". La plupart de ces objets seront géolocalisés pour une meilleure traçabilité...

C'est aussi cela le Géo Cloud !

samedi 12 octobre 2013

Street View s'approche du Zeptoespace !

FANTASTIQUE ! C'est absolument fantastique. Street View, votre imagerie immersive préférée, vous permet désormais de visiter quelques-uns des lieux magiques du CERN.
Le logo du CERN.
Le CERN, l’Organisation européenne pour la recherche nucléaire, est l’un des plus grands et des plus prestigieux laboratoires scientifiques du monde. Son siège est situé à Meyrin près de Genève. Il a pour vocation la physique fondamentale, la découverte des constituants et des lois de l’Univers. Il utilise les instruments scientifiques les plus grands et les plus complexes jamais conçus par l'Humanité, pour sonder les constituants ultimes de la matière : les particules fondamentales. En étudiant ce qui se passe lorsque ces particules entrent en collision, les physiciens appréhendent les lois de la Nature.
L'équation du Modèle standard.
L'équation du Modèle standard résume ce que nous savons des particules et des forces fondamentales.
C'est la représentation mathématique de ce que nous appelons le Modèle standard de la physique des particules.
La 1ère ligne décrit les forces : électricité, magnétisme, force nucléaire forte et force nucléaire faible.
La 2ème ligne montre comment ces forces agissent sur les particules fondamentales de la matière,
à savoir les quarks et les leptons.
La 3ème ligne décrit comment les particules reçoivent leur masse du boson de Higgs et
la 4ème ligne montre comment travaille le boson de Higgs.
Le CERN a permis de vérifier les deux lignes du haut.
Il se concentre aujourd'hui sur le boson de Higgs et son comportement prédit dans les deux dernières lignes...

Les instruments qu’utilise le CERN sont des accélérateurs et des détecteurs de particules. Les accélérateurs portent des faisceaux de particules à des énergies élevées pour les faire entrer en collision avec d'autres faisceaux ou avec des cibles fixes. Les détecteurs, eux, observent et enregistrent le résultat de ces collisions.
Fondé en 1954, le CERN est situé de part et d’autre de la frontière franco-suisse. Il a été l’une des premières organisations à l'échelle européenne de l'après-guerre et compte aujourd’hui vingt États membres. C'est aussi un très puissant instrument politique, oeuvrant pour la Paix dans le monde.
Le CERN est aujourd’hui l’Organisation européenne pour la Recherche nucléaire. » À l’origine, l’acronyme correspondait à « Conseil européen pour la Recherche nucléaire », un organe provisoire institué en 1952, qui avait pour mandat de créer en Europe une organisation de rang mondial pour la recherche en physique fondamentale. » Á l’époque, la recherche en physique fondamentale avait pour principal objectif la compréhension de l’intérieur de l’atome, c’est-à-dire du noyau, d’où l’emploi du qualificatif « nucléaire ». Lorsque le Laboratoire vit officiellement le jour, en 1954, le Conseil provisoire fut dissous et la nouvelle organisation fut baptisée Organisation européenne pour la Recherche nucléaire. L’acronyme CERN fut toutefois conservé.
Aujourd’hui, notre compréhension de la matière va au-delà du noyau, et le principal domaine de recherche du CERN est la physique des particules, à savoir l'étude des composants fondamentaux de la matière ainsi que des forces auxquelles ils sont soumis. C’est pourquoi le CERN est souvent appelé « Laboratoire européen pour la physique des particules ».
Parmi les exploits du CERN qui touchent tout le monde au quotidien, nous citerons l'invention du World Wide Web (l'Internet développé en 1989 par Tim Berners-Lee et Robert Cailliau) mais aussi les bases de la conception du "Grid computing", une nouvelle façon de traiter de grandes quantités de données via une informatique répartie (le CERN orchestre l'utilisation de plus de 40 000 processeurs répartis dans 45 pays).
Votre serviteur au LHC, à 100m sous terre.


Google nous propose donc des petites balades sur les plus incroyables détecteurs électroniques jamais conçus par l'Humanité, dans l'un des plus grands projets humain, scientifique, politique et sociétale jamais entrepris. Le tout à 100 mètres sous terre...

Commençons par le LHC, la merveille d'entre les merveilles. L'acronyme signifie Large Hadron Collider ou Grand Collisionneur de HadronsC'est le plus grand accélérateur de particules en service au monde. Vous pouvez maintenant parcourir le long tunnel, dont la circonférence fait près de 27 km ! C'est dans "cette canalisation" que les protons sont accélérés et approchés de la vitesse de la lumière avant les collisions. Le LHC est un endroit vraiment très beau.

 CMS en cours de maintenance.
photo G. Dawidowicz

Poursuivons avec l'incroyable expérience CMS. Il s'agit de l'une des expériences du LHC. Voire de "l'expérience" ! CMS signifie Compact Muon Solenoid, c'est le collisionneur, l'endroit où les protons accélérés rencontrent d'autres protons accélérés. C'est là aussi que l'on mesure les effets des collisions. Ce détecteur de forme cylindrique est une merveille : il mesure 21 m de long et 16 m de diamètre. Il pèse environ 12 500 tonnes, avec un élément entier de 2 000 tonnes à lui seul.
Des techniciens en cours d'intervention sur CMS.
photo G. Dawidowicz


Continuons avec ALICE. C'est un détecteur dédié à l'étude du plasma quark-gluon, obtenue par des collisions d'ions lourds. ALICE signifie A Large Ion Collider Experiment. Cet instrument mesure 16 m de long et 26 m de haut pour un poids de 10 000 tonnes.


Terminons par ATLAS, un détecteur qui utilise un électro-aimant toroïdal où le champ magnétique se referme sur lui-même dans l'air. Cet acronyme signifie A Toroidal LHC ApparatuS. Il a la forme d'un cylindre de 22 m de diamètre et environ 40 m de longueur pour un poids de 7 000 tonnes !
La salle de contrôle d'ATLAS.
photo G. Dawidowicz

Voilà, si vous vous êtes promenés grâce à Street View au LHC et dans ses énormes infrastructures souterraines, vous avez maintenant un aperçu de cette incroyable aventure. C'est probablement la plus grande entreprise de toute l'histoire humaine : découvrir l'origine de l'Univers !

Ah, si une chose encore : je vous laisse chercher sur Google tout ce qui a trait au Zeptoespace ;-)

jeudi 10 octobre 2013

Performance. Vous avez-dit, performance ?

Avec l'avènement du Grid computing, puis du Cloud computing et des architectures distribuées, la performance est devenue un maître-mot. Les nouveaux usages, dont la mobilité fait partie, accélèrent non plus une simple tendance mais une nécessité absolue !

Il faut de la performance à vos applications ! Toujours, où qu'elles se trouvent hébergées, où qu'elles soient accédées. Et bien entendu, pour tous ceux qui vont y accéder, qu'ils soient vos clients finaux, extérieurs à votre organisation, ou vos clients internes, partenaires et fournisseurs. Enfin, ceci est vrai que vous oeuvriez dans le secteur privé comme dans le secteur public !

Mais au fait, pourquoi acceptions-nous dans les années 80 des services Minitel dont les temps de latence étaient de plusieurs minutes, tandis que 30 ans plus tard, nous ne supportons plus 50 milli-secondes d'attente ? Pourquoi acceptions-nous des OS longs à démarrer et à s'éteindre, instables dans le temps et particulièrement peu optimaux ? Pourquoi enfin acceptions-nous des applications lourdes à installer et à maintenir, complexes à utiliser et souvent peu interopérables entre elles ?

De mon point de vue, simplement par ce que nous n'avions pas le choix ! Le service Minitel était innovant, certes, mais nous étions contraints à attendre car il n'y avait pas d'autre alternative. Et nous attendions... Les OS n'étaient pas légions, il fallait s'en satisfaire. Quant aux applications...

Depuis quelques temps, les choses ont changé. Toutes les choses même, puisque c'est l'ensemble de l'économie du logiciel qui a basculé. Les protocoles de communication, grâce notamment l'avènement de l'Internet et de l'IP ont transformé les usages en créant de nouveaux possibles. Et ce n'est que le début de cette nouvelle ère dans laquelle le monde, devenu pressé, est entré. Car l'accélération se poursuit. Et le monde de l'IT a basculé dans un nouveau paradigme entrainant tous les acteurs de l'écosystème à faire bouger les lignes... ou à disparaître !

D'ailleurs vous et moi, en tant qu'utilisateurs, ne pouvons prétendre être raisonnables. Nous sommes devenus de véritables impatients ! Ce qui n'est pas très éco-citoyens...

Alors, quelles conséquences ? La première, majeure, est le thème de cet article : la performance au profit de l'utilisateur final. Pourquoi faut-il donc qu'une application soit hautement disponible, en permanence et à haute vitesse ? Les chiffres suivants parlent d'eux-mêmes...

  • Selon Amazon, une augmentation de 100 ms de la latence signifie une baisse de 1% des ventes
  • Selon Google, plus de 500 ms au chargement signifie 20% de trafic perdu (en pages vues)
  • Selon Yahoo!, plus de 400 ms au chargement signifie +5 à 9% d’abandons
  • Selon Bing, plus d’1 seconde au chargement signifie une perte de 2,8% de revenu publicitaire
Quant on comprend les enjeux de ces poids lourds qui ne traitent pas uniquement de sujets de e-commerce ou de m-commerce dans des démarches BtoC, mais qui s'adressent aussi à des entreprises traditionnelles, de l'industrie, des services, du public... dans des démarches BtoB, nous pouvons être certains que les acteurs qui ne possèdent pas d'infrastructures complètes et suffisantes ne pourront pas prétendre atteindre les niveaux de performance et de qualité nécessaires aux exigences de leurs clients.

Dans quelques années, toutes les entreprises, quelque soit leur taille et leur domaine d'activités, auront basculé tout ou partie de leur SI dans le Cloud. La performance ne sera alors plus un sujet !

lundi 7 octobre 2013

Le chiffre "Géo Cloud" de la semaine !

Le chiffre "Géo Cloud" de la semaine est :



45 exaoctets
soit 45 000 000 000 000 000 000 octets.



C’est une estimation du trafic mensuel mondial sur internet fixe et mobile.
Les textes, les films, les sons, les photos, les cartes et positions géographiques, les transactions,
les appels téléphoniques et vidéos... tout notre univers est entraîné dans cet océan numérique.
Le Cloud alimente cette croissance à hauteur de 30 % l’an : 40 000 requêtes Google par seconde, 100 heures de vidéos YouTube téléchargées chaque minute, 500 millions de twitts ou 2 700 millions de likes par jour...

C'est aussi cela le Géo Cloud !

dimanche 6 octobre 2013

La carte du dimanche - World beer map

Ce week-end voit s'achever l'Oktoberfest de Munich, c'est donc l'occasion de confronter ma carte mentale des bières du monde à la réalité.

C'est une chose qui m'a toujours marqué lors de mes voyages : il y a toujours une bière locale pour vous désaltérer. Je suis sûr qu'il y a une corrélation entre marque de bière et identité locale.

Cette Dataviz vous permet d'explorer les 5 continents par les bières. Et si vous lisez la légende, c'est pour savoir dans quel verre déguster le breuvage...


"Lu dans la presse"

Voici une petite sélection d'articles lus ça et là dans la presse IT et qui ont retenu notre attention...


Un article de 01net sur le Big Data et les statistiques utilisables pour analyser les données générées par Internet dans le monde...

Un article de B2C, qui revient sur l'importance de la Géo dans le business...

Un article de THE VERGE, qui annonce l'acquisition par Google de Flutter...

Un article de ZD Net qui revient sur l'acquisition de la start-up Flutter...