Big data

L’internet des objets a besoin de standards

L’internet des objets, le X internet, le tout internet … de nombreux termes pour annoncer l’avènement d’une nouvelle génération internet dominée par les objets connectés et les échanges de données Machine to Machine. Mais alors que les gens sont de plus en plus enthousiastes à propos des objets qui par exemple permettent de rester en forme (fitbit, runkeeper, withings etc.), une récente étude Forrester note que ces applications restent limitées car elles ne peuvent pas encore communiquer entre elles.
Certains systèmes peuvent mesurer l’activité physique, d’autres les techniques sportives, et beaucoup d’autres encore les données biométriques. Le résultat est un réservoir de données regroupées en silos, toutes reliées à leur application propre. Mais les entreprises qui les commercialisent pourront se rapprocher de leurs clients uniquement lorsqu’ils seront en capacité de regrouper toutes ces données dans un système unique. L’étude préconise d’intégrer les applications CRM, les systèmes d’inventaire, les parcours d’achats clients et leur expérience. A ce moment-là seulement on pourra parler de l’internet « intelligent » des objets.

Lire la suite

Les nouvelles perspectives liées aux objets connectés

Imaginons un monde avec des objets intelligents connectés qui seraient constamment en train d’interagir sur un réseau pour améliorer notre expérience utilisateur. Certains experts l’ont déjà imaginé et en salivent… L’internet des objets est LE buzz du secteur en ce moment, parce qu’il promet de créer un environnement fluide, futuriste, sans frictions, et lucratif. Un monde où nous pourrons tous vivre et consommer des produits. On annonce que c’est la prochaine grande innovation de l’électronique grand public. Les acteurs majeurs du marché parlent d’un marché de 15 trillions de dollars pour les 6 ans à venir.

Ces prévisions ne viennent pas de futuristes fous, mais bien des entreprises qui espèrent surfer sur la vague de l’hyperconnexion. Cisco et GE font toutes les deux la promotion de l’internet des choses et s’y préparent. Pour réussir il leur faut deux choses : un public demandeur, et trois trillions de capteurs.

Lire la suite

L’ADN : le futur de la médecine et du stockage

ADN et Big Data…

Alors que le phénomène Big Data s’amplifie, nous allons avoir besoin de méthodes plus élaborées que celles utilisées aujourd’hui pour stocker les données. Une des idées qui émerge est l’utilisation de l’ADN comme méthode de stockage des données, théorie qui commence à devenir réelle. Des scientifiques de l’université d’Harvard affirment que cette possibilité est réaliste, qu’il deviendra bientôt possible de stocker la totalité des données de la toile dans 75 grammes de matériau d’ADN.

Lire la suite

Histoire d’un datacenter vert en Islande

Aujourd’hui, où la masse d’information disponible est si importante que si on la répartissait entre tous les humains, chacun en recevrait trois cent vingt fois la collection de la bibliothèque d’Alexandrie, il est crucial de prévoir des datacenters qui puissent s’inscrire dans une démarche durable pour traiter les Big Data.

L’Islande possède une réserve très vaste d’énergie géo thermique et hydraulique qui assure un réseau électrique avec 100% d’énergie renouvelable.
Verne Global, est un centre de stockage de données critiques. Son site a été construit juste après la seconde guerre mondiale, l’OTAN y qui y avait élu domicile, et dans un contexte de guerre froide le bâtiment a été construit selon ses normes. Tout ce qui relève de la sûreté et sécurité mondiale a été prise en compte à l’époque, et Verne Global a intégré cet aspect sécurité à ses solutions.
Lire la suite

Quand on comprend les données on les appelle Data, quand on ne les comprend pas on les appelle Big Data…

Les Big Data n’ont de valeur que dans leur traitement. Elles ont un impact commercial limité tant qu’on ne déverrouille pas la valeur de ces données avec des techniques innovantes d’analyse. Ces techniques s’insèrent dans un écosystème complet dans lequel on trouve la collecte d’informations provenant de nombreuses sources, la préparation de cette information pour l’utilisation, le traitement des informations pour en tirer des idées, puis la communication de ces idées à toute l’entreprise.

La quantité de données stockées est telle qu’il est devenu impossible de les traiter avec des outils d’analyse habituels. Les Big Data créent une intelligence artificielle, supplémentaire, comme un disque dur externe de nos cerveaux. Et cela pourrait nous permettre de progresser et devenir plus performants dans de nombreux domaines comme l’analyse d’opinions politiques, la génomique, l’épidémiologie ou la lutte contre la criminalité ou la sécurité.

Lire la suite

Big Data, un exemple d’usage : la gestion de l’eau et la prévention des inondations

Avec 20% de terre sous le niveau de mer et la moitié du pays inondable, les Pays Bas possèdent un vaste réseau de digues et écluses pour retenir et détourner la mer, les rivières et l’eau de pluie. Son système évolue depuis plus de 500 ans et de manière très efficace, mais avec le réchauffement climatique, la menace de la montée du niveau de la mer, et de sécheresses, le pays ne peut pas se reposer sur ses lauriers. Le gouvernement lance donc une collaboration innovatrice qui utilise les big data pour améliorer la gestion du système d’eau.

Le projet réunit le Ministère Hollandais des eaux, l’autorité des eaux locale, l’institut scientifique Deltares, l’université de Delft, IBM, et d’autres organisations.

Lire la suite

Le Big Data au service du Green IT : deux problématiques d’avenir

Le traitement des big data peut-il s’inscrire dans une démarche durable ?
2% des émissions de gaz à effet de serre sont dues aux matériels et infrastructures informatiques. Un pourcentage qui égale d’ailleurs celui du transport aérien.
La consommation électrique des centres de données est devenue le principal problème, due à la croissance exponentielle des données big data.

Pour fonctionner, certains data centers consomment plus qu’une ville de 100 000 habitants. A l’échelle mondiale, ces infrastructures engloutissent 1,5% de la consommation électrique, l’équivalent de la production de 30 centrales nucléaires.

Lire la suite

Le Big Data, le nouveau pétrole ?

« Internet a changé le monde des années 1990, le Big Data va changer celui des années 2010, C’est un nouveau pétrole pour une nouvelle société de l’information » anticipe Chuck Hollis, directeur technique de EMC et gourou du Big Data. Il ajoute aussi  « Chaque nouvelle technologie s’accompagne d’une crainte. Le feu, l’électricité, internet, le Big Data… le bon s’accompagne toujours de mauvais, il faut veiller à ne pas basculer. »

Dans une récente étude, Gartner affirme que 64% des organisations dans le monde ont investi dans le big data ou ont prévu de le faire.

Lire la suite

Le marché des données, un Big Business ?

À bien des égards, le terme « Big data » pourrait être le plus grand euphémisme dans l’histoire des entreprises. La quantité d’informations désignée par ce terme est stupéfiante. IBM estime que les êtres humains produisent aujourd’hui plus de 2,5 trillions d’octets de données quotidiennement, et que 90 % des données mondiales ont été générées au cours des deux dernières années. Les archives de la Bibliothèque du Congrès représentent actuellement 285 téraoctets de données et s’accroissent au rythme de cinq téraoctets par mois (soit environ 60 téraoctets par an).

C’est donc un véritable marché, qui a émergé autour de l’exploitation de la masse de données informatiques disponibles. Il est estimé à 28 milliards de dollars (22 milliards d’euros) par le cabinet Gartner pour 2012, et 36 milliards pour 2013.

Lire la suite

L’infobésité : big business ou big piège ?

infoverload-thumb-450x409-47216Aujourd’hui la masse d’informations disponibles est si importante que si on la répartissait entre tous les humains, chacun en recevrait trois cent vingt fois la collection de la bibliothèque d’Alexandrie. C’est-à-dire mille deux cent exaoctets en tout (milliards de milliards d’octets). Ce gisement de données numériques vient de la capacité de mettre en données des aspects du monde et de la vie humaine qui n’avaient encore jamais été quantifiés.
La notion d’infobésité, c’est-à-dire la surcharge informationnelle, n’est pas nouvelle, elle a fait son apparition dès le début des années 1960 comme l’une des sources de dysfonctionnement des organisations, mais les notions qu’elle recouvre ont évolué…

Lire la suite

1 2 3  Scroll to top