Les Big Data n’ont de valeur que dans leur traitement. Elles ont un impact commercial limité tant qu’on ne déverrouille pas la valeur de ces données avec des techniques innovantes d’analyse. Ces techniques s’insèrent dans un écosystème complet dans lequel on trouve la collecte d’informations provenant de nombreuses sources, la préparation de cette information pour l’utilisation, le traitement des informations pour en tirer des idées, puis la communication de ces idées à toute l’entreprise.
La quantité de données stockées est telle qu’il est devenu impossible de les traiter avec des outils d’analyse habituels. Les Big Data créent une intelligence artificielle, supplémentaire, comme un disque dur externe de nos cerveaux. Et cela pourrait nous permettre de progresser et devenir plus performants dans de nombreux domaines comme l’analyse d’opinions politiques, la génomique, l’épidémiologie ou la lutte contre la criminalité ou la sécurité.
Face à l’ampleur du phénomène Big Data, les entreprises se tournent aujourd’hui vers de nouveaux acteurs spécialisés dans la gestion et l’analyse des données, par exemple les fournisseurs de stream computing, les entrepôts de données, l’analyse Hadoop. Les technologies utilisées permettent de gérer à la fois des volumes importants, provenant de sources variées : structurées ou non structurées (texte, données de capteurs, son, vidéo, données sur le parcours, fichiers journaux, etc.), et avec rapidité, pour être en mesure d’exploiter les données de manière immédiate.
Le nouvel Eldorado des entreprises c’est l’amélioration de leur relation-client et l’optimisation de leur politique marketing : toucher le bon consommateur, au bon endroit, au bon moment, avec le bon produit. Et tout ça, grâce au Big Data. On peut alors dire que le Big Data permet la création d’un nouveau modèle économique. La réussite de ce modèle dépendra de l’accès à l’information et de la confiance de la part des utilisateurs. La divulgation de renseignements personnels peut bénéficier aux consommateurs par le biais, par exemple, de services mieux adaptés. Mais alors la sphère privée de l’individu est pénétrée. Il faut protéger cette sphère et permettre d’avoir la maîtrise sur ses données.
La voie la plus sûre pour tirer le meilleur de ces données est de pouvoir accéder à des données de qualité, en grand nombre, qui permettront d’appliquer des algorithmes statistiques : la robustesse, la précision et la fiabilité des modèles conçus généreront des informations à grande valeur ajoutée.
Le concept de stockage de « grosses » données et pas seulement leur exploitation implique des évolutions technologiques majeures et c’est un sujet qui fait aussi partie des nouveaux défis des DSI. Le volume de données que les entreprises sont amenées à gérer devrait littéralement exploser dans les années à venir. On estime qu’à l’horizon 2020, il sera multiplié par 44 et atteindra près de 40 zettaoctets contre 1,2 zettaoctets géré dans la planète en 2011, un zettaoctet correspondant à 10 puissance 21 octets !
Comme beaucoup d’entreprises ne savent pas toujours pas quel bout prendre leurs projets Big Data, pour évaluer leur capacité à stocker, traiter, requêter ses données selon chacune des 3 dimensions Volume, Vélocité, Variété, Forrester propose une approche pragmatique « Calculer son « Big Data score », vous pouvez aussi visiter le portail dédié au Big Data par IBM qui présente des études de cas et analyses.