Histoire de « Data », Big, Smart, voire Quantique…

data-storyData ? Data… Dans la langue de Molière, on dit « une Donnée » !

Depuis quelques années, nombreux sont les champs médiatiques, les conversations, les conférences… où fleurissent les « Big Data » ! (c’est vrai, dire « big data », c’est plus sexy que « grosses données »…) !

D’où vient cette « Donnée » qui, en devenant chaque jour un peu plus mobile et intelligente, sera selon Gilles Babinet1, la 3ème révolution industrielle ? Qu’est-ce que cette Data, nouvel or noir du numérique, actuellement au cœur de la transition numérique des entreprises ?

Une donnée, tout le monde sait ce que c’est. On en manipule tellement chaque jour ! Une donnée est… « une information numérique ou alphanumérique, codée, lisible par la seule machine, en vue de son enregistrement, traitement, conservation et communication… ».  Mais en a-t-on vraiment conscience quand on pianote au clavier de notre ordinateur ou lorsqu’on connecte notre smartphone ?

Sait-on que ce sont des kilos de données que l’on soulève ? Kilos au sens propre. Si les objets matériels ont le gramme comme unité de poids, l’immatérialité des données se pèse aussi, avec l’octet comme unité de mesure, le kilooctet (pour mille, même si pour certains, le Ko est un peu plus lourd, il soulève 1024 octets…).

Data, un code, un langage binaire ! 300 ans pour écrire l’informatique…

L’octet est lui-même composé de 8 bits, le bit étant l’unité la plus simple du système de numération qui code les données élémentaires pour les rendre lisibles par la machine. Caractères ou valeurs numériques s’inscrivent de façon binaire, en base 2 : avec le 0 et le 1.

L’idée du langage binaire revient à John Atanasoff, physicien lassé de passer trop de temps sur des calculs interminables ! En 1939, il présente l’ABC (Atanasoff Berry Computer) premier calculateur électronique, qui pèse quelques 300 kilos pour être en mesure de réaliser une opération toutes les 15 secondes.

De son côté, le mathématicien américain Claude Elwood Shannon, étudiant au MIT, s’intéresse aux systèmes de commutation automatique. Il s’inspire des règles de l’algèbre de Boole selon lesquelles tout problème est « vrai » ou « faux ». Sur ce principe, il conçoit alors des relais électriques commutés ouverts par le chiffre 1 et fermés par le 0, ce qu’il nomme « binary digit ». En 1948, il publie « A Mathematical Theory of Communication ». Selon la « Théorie de l’Information » de Claude Shannon, développée avec Norbert Wiener : « toute information est une quantité mesurable, quel que soit son contenu ». Cette théorie s’inscrit dans l’histoire de l’informatique. Elle est à l’origine de la représentation de l’information sous forme de données quantifiables, en permettant de mesurer l’entropie de l’information, son degré d’organisation.

Mais comme dans toute histoire, on peut toujours remonter un arbre généalogique ! On trouve alors des origines plus anciennes à celui du langage binaire et des Data. On découvre en 1666 Gottfried Wilhelm Leibniz, un Allemand qui rêvait d’un langage universel. Pour cela, il imagine une représentation des mots fondée sur la logique mathématique, traduite à base de 0 et de 1. A l’époque, sa pensée ne retient pas l’attention. Il faut dire que de longues suites de 0 et de 1 ne sont pas faciles à manipuler ! Par contre, quelques 200 ans plus tard, le britannique George Boole s’inspire de ses travaux. En 1854, il publie un essai sur un système de logique symbolique, appelé algèbre booléenne, dont les éléments de base sont également binaires.

Pour la petite histoire, avant de servir l’informatique, le code binaire a été exploité par Joseph Marie Jacquard pour réaliser, en 1801, le premier métier à tisser automatique fonctionnant à base de cartes perforées. Les trous, ou l’absence de trous sur la carte, déterminent le passage des fils pour la réalisation du motif qui compose le tissu.

Petite Data devenue grande… c’est Big Data !

L’information, une fois lisible par une machine (comme celle de Turing), nourrie d’algorithmes toujours plus performants, éveille de plus en plus d’appétit, d’inventivité, fait naitre de plus en plus d’innovations. Les ordinateurs doivent très vite démultiplier leurs capacités d’accueil et de traitements de ces données numériques. Les disques durs, qu’ils soient internes ou externes, doivent prendre du volume.

Les disques durs, qu’ils soient internes ou externes, doivent prendre du volume, de plus en plus de volume ! Idem pour les serveurs destinés à stocker, donner accès, partager ces données.

Cette croissance exponentielle des volumes de data génère la multiplication des serveurs et oblige à penser des supercalculateurs capables stocker et de traiter ces volumes de données. C’est ainsi que s’impose également le Cloud, cette solution « d’informatique en nuage », cherchant à répondre aux problématiques croissantes de stockage et d’accessibilité des données. Parallèlement, un nouveau terme (anglo-saxon) prend place dans le langage informatique, celui de « Big Data ». Il qualifie indifféremment les méga, giga, téra, pétaoctets… (sans limite) que l’on produit et qui s’entassent en continu dans les systèmes d’information des organisations, les moteurs de recherche, les plateformes de réseaux sociaux…

Les problématiques liées à ce concept de Big Data enflamment les conversations, nourrissent les réflexions de l’écosystème informatique. Comment gérer ce Big Data aux contours sans limites, aux fonctionnalités évolutives, et les questions en tous genres qu’il soulève comme sa consommation d’énergie, la sécurité et la confidentialité des données, les notions d’éthique de legacy

Autre spécificité du Big Data, l’hétérogénéité des données qu’il recouvre. Ce ne sont plus seulement des données triées, classées, très structurées, ce sont des données qui déferlent de partout, issues des devices mobiles, des réseaux sociaux, des comportements clients… La gestion de ces briques de données protéiformes devient une préoccupation largement médiatisée.

Et maintenant, toujours plus numérique et mobile, Data doit se faire « Smart » !

Le concept du Big Data repose sur la meilleure exploitation possible des volumes exponentiels de données disponibles. Comment le partage de ces données, leur exploitation, deviennent-ils créateur de valeur pour l’entreprise ou l’institution…

Un nouveau défi s’impose désormais au Big Data. Il vient de la mobilité et de la nouvelle dimension prise par le client au cœur de la culture numérique. Comment, lorsque le téléphone est devenu intelligent : « smartphone », les données qu’il transmet, que ce soit au client-utilisateur lui-même ou à l’entreprise, comment ces données peuvent-elles à leur tour devenir « intelligentes » ? Comment vont-elles se rendre véritablement efficientes, sans transgresser les limites acceptables par le client, notamment dans le respect de sa vie privée… Autrement dit, quand nous utilisons nos « smartphones », comment ceux-ci serviront-ils des « smartdata », mesurées, filtrées, ciblées donc véritablement utiles ?

Et demain, en mode quantique, le « qubit » pour écrire et calculer la Data ?

Si l’usage de l’écriture binaire a dû trouver ses marques pour donner à l’information sa forme de données quantifiables et permettre ainsi à l’informatique de s’imposer, elle est maintenant victime de son succès !

La valeur Data, sa croissance, sa mobilité, sa présence dans de plus en plus d’objets connectés… essouffle les machines d’aujourd’hui pourtant fidèles à la Loi de Moore indiquant que la puissance des ordinateurs doublerait tous les 18 mois. Loi avérée jusqu’à présent, mais que Gordon Moore avait néanmoins limitée à 2017, celle-ci se heurtant à la limite physique des atomes.

L’informatique quantique2 va-t-elle prendre la relève en faisant évoluer le bit, unité de base de l’ordinateur, en quantum bit (qubit) « valeur qui permettrait non seulement de s’exprimer par le biais de 1 et 0, mais également par une superposition des deux » ?

Reste à construire de telles machines. Différents grands acteurs du numérique sont sur les rangs, Google, IBM… Chacun espérant apporter sa solution aux calculs gigantesques des données du Big Data. En France, c’est le CEA qui planche sur le problème. Un défi majeur où tous les espoirs sont permis !…


Film produit par La Cité des sciences et de l’industrie

__________________

1 Digital Champion, Responsable des enjeux du numérique pour la France auprès de la Commission européenne
2 L’ordinateur quantique

Ligne

Catégories
0 Comments
0 Pings & Trackbacks

Laisser un commentaire