The Doppler Quarterly (FRANÇAIS) Printemps 2016 | Page 42
Le fog computing se compose : d’« objets », c’est-à-dire de
périphériques fonctionnant sous IP et pouvant détecter,
stocker et analyser des données, et de la
connectivité, qui se traduit par une grande variété de tech-
nologies conçues pour connecter, communiquer, sécuriser
et traduire des paquets de données en temps réel depuis la
large gamme d’« objets » disponibles.
Infrastructure globale
Le deuxième ensemble des technologies qui composent
l’Internet des objets constitue son infrastructure globale.
Bon nombre d’applications IoT reposent sur différents
datacenters répartis à travers le monde qui doivent être
capables d’évoluer à la demande. Certaines entreprises uti-
liseront vraisemblablement leurs datacenters internes
pour développer des applications IoT, mais face à la quan-
tité colossale d’exigences qui font surface en matière de
données, de l’ordre du pétaoctet ou de l’exaoctet, il devient
très vite impossible de consacrer des ressources humaines
et de calcul à la mise à l’échelle en temps réel de ces appli-
cations. L’Internet des objets constitue un cas d’utilisation
classique pour le cloud computing et le modèle de paie-
ment à l’utilisation.
Les trois principaux prestataires de cloud public que sont
AWS, Google et Microsoft lancent des capacités IoT
robustes pour simplifi er et accélérer le processus de dével-
oppement des applications IoT. Toutefois, au vu des règles
en matière de données qui ont cours dans certains pays, les
solutions cloud hybride et privé ne seront probablement
pas en reste. Un nombre croissant de plateformes IoT auto-
nomes capables de s’intégrer aux solutions cloud des prin-
cipaux prestataires ont également vu le jour.
Big Data
Les données du Small Data qui sont traitées dans le
« brouillard » au niveau des périphériques nous éclairent
sur la situation en cours, en répondant à la question
« Quoi ? ». Le Big Data désigne les données de ces mêmes
périphériques qui sont collectées en temps réel, quasi réel
ou par lots, et transférées vers le datacenter virtuel ou
physique. Là, elles sont intégrées, nettoyées, agrégées et
mises à disposition en vue de leur analyse, répondant ainsi
à la question « Pourquoi ? ». Par exemple, le détaillant ayant
envoyé un message à la personne arrivant à proximité de
son magasin peut effectuer différentes analyses pour
déterminer le potentiel d’achat de cette personne, sa
fi délité, l’impact des offres précédentes sur son comporte-
ment d’achat et bien d’autres cas d’utilisation encore.
Les entreprises d’emballage et d’expédition peuvent quant
à elles explorer les données pour comprendre comment la
géographie, les conditions météorologiques, les conduc-
teurs, le conditionnement, l’état des routes ou encore le
type de véhicule peuvent infl uencer la possibilité qu’un
événement se produise. Une telle analyse leur permet d’ap-
40 | THE DOPPLER | PRINTEMPS 2016