The Doppler Quarterly (FRANÇAIS) Printemps 2016 | Page 42

Le fog computing se compose : d’« objets », c’est-à-dire de périphériques fonctionnant sous IP et pouvant détecter, stocker et analyser des données, et de la connectivité, qui se traduit par une grande variété de tech- nologies conçues pour connecter, communiquer, sécuriser et traduire des paquets de données en temps réel depuis la large gamme d’« objets » disponibles. Infrastructure globale Le deuxième ensemble des technologies qui composent l’Internet des objets constitue son infrastructure globale. Bon nombre d’applications IoT reposent sur différents datacenters répartis à travers le monde qui doivent être capables d’évoluer à la demande. Certaines entreprises uti- liseront vraisemblablement leurs datacenters internes pour développer des applications IoT, mais face à la quan- tité colossale d’exigences qui font surface en matière de données, de l’ordre du pétaoctet ou de l’exaoctet, il devient très vite impossible de consacrer des ressources humaines et de calcul à la mise à l’échelle en temps réel de ces appli- cations. L’Internet des objets constitue un cas d’utilisation classique pour le cloud computing et le modèle de paie- ment à l’utilisation. Les trois principaux prestataires de cloud public que sont AWS, Google et Microsoft lancent des capacités IoT robustes pour simplifi er et accélérer le processus de dével- oppement des applications IoT. Toutefois, au vu des règles en matière de données qui ont cours dans certains pays, les solutions cloud hybride et privé ne seront probablement pas en reste. Un nombre croissant de plateformes IoT auto- nomes capables de s’intégrer aux solutions cloud des prin- cipaux prestataires ont également vu le jour. Big Data Les données du Small Data qui sont traitées dans le « brouillard » au niveau des périphériques nous éclairent sur la situation en cours, en répondant à la question « Quoi ? ». Le Big Data désigne les données de ces mêmes périphériques qui sont collectées en temps réel, quasi réel ou par lots, et transférées vers le datacenter virtuel ou physique. Là, elles sont intégrées, nettoyées, agrégées et mises à disposition en vue de leur analyse, répondant ainsi à la question « Pourquoi ? ». Par exemple, le détaillant ayant envoyé un message à la personne arrivant à proximité de son magasin peut effectuer différentes analyses pour déterminer le potentiel d’achat de cette personne, sa fi délité, l’impact des offres précédentes sur son comporte- ment d’achat et bien d’autres cas d’utilisation encore. Les entreprises d’emballage et d’expédition peuvent quant à elles explorer les données pour comprendre comment la géographie, les conditions météorologiques, les conduc- teurs, le conditionnement, l’état des routes ou encore le type de véhicule peuvent infl uencer la possibilité qu’un événement se produise. Une telle analyse leur permet d’ap- 40 | THE DOPPLER | PRINTEMPS 2016