Big Data

Si les algorithmes savent tout, à quoi servent les humains ?

07up-data-master675Les plus grands scientifiques et ingénieurs en nouvelles technologies se consacrent à l’optimisation du marketing et du commerce. L’ère d’internet, l’abondance des données, et les applications intelligentes ont ouverts la porte au marketing, à la publicité ciblée, et à la recommandation personnalisée de produits ou services.

La prise de décision automatisée est censée soulager les humains, mais il est aussi très humain de vouloir vérifier ces résultats générés par l’ordinateur. Certains voient le marketing comme un laboratoire d’essai pour faire émerger une science. Car dans le cas où un algorithme est faux, la conséquence n’est pas catastrophique : une audience voit juste une publicité non adaptée pour elle.

Lire la suite

Le Big Data et l’industrie automobile : beaucoup de buzz et peu d’action

big-data-automobile_une1-500x261Toute voiture génère aujourd’hui un nombre considérable de données. Avec des capteurs qui recueillent tout, de la pression des pneus, la rotation par minute du moteur, à la température de l’huile, elles produisent de 5 à 250 giga octets de données par heure. Les voitures plus avancées en produisent même plus, la voiture autonome de Google par exemple génère environ 1 giga octet toute les secondes. Cela équivaut à envoyer 200 000 emails (texte) ou télécharger 100 photos haute résolution toute les secondes. La grande majorité de ces données est utilisée en temps réel pour contrôler les fonctions du véhicule et n’a pas de de valeur ajoutée sur le long terme. Recevoir un millier de messages «  pression des pneus normale » n’apporte pas grand-chose à l’analyse des données donc les fabricants ne les stockent pas dans le Cloud.

Lire la suite

L’ADN : le futur de la médecine et du stockage

DNA StrandsADN et Big Data…

Alors que le phénomène Big Data s’amplifie, nous allons avoir besoin de méthodes plus élaborées que celles utilisées aujourd’hui pour stocker les données. Une des idées qui émerge est l’utilisation de l’ADN comme méthode de stockage des données, théorie qui commence à devenir réelle. Des scientifiques de l’université d’Harvard affirment que cette possibilité est réaliste, qu’il deviendra bientôt possible de stocker la totalité des données de la toile dans 75 grammes de matériau d’ADN.

Lire la suite

Quand on comprend les données on les appelle Data, quand on ne les comprend pas on les appelle Big Data…

big data papierLes Big Data n’ont de valeur que dans leur traitement. Elles ont un impact commercial limité tant qu’on ne déverrouille pas la valeur de ces données avec des techniques innovantes d’analyse. Ces techniques s’insèrent dans un écosystème complet dans lequel on trouve la collecte d’informations provenant de nombreuses sources, la préparation de cette information pour l’utilisation, le traitement des informations pour en tirer des idées, puis la communication de ces idées à toute l’entreprise.

La quantité de données stockées est telle qu’il est devenu impossible de les traiter avec des outils d’analyse habituels. Les Big Data créent une intelligence artificielle, supplémentaire, comme un disque dur externe de nos cerveaux. Et cela pourrait nous permettre de progresser et devenir plus performants dans de nombreux domaines comme l’analyse d’opinions politiques, la génomique, l’épidémiologie ou la lutte contre la criminalité ou la sécurité.

Lire la suite

Big Data, un exemple d’usage : la gestion de l’eau et la prévention des inondations

577059bigdataAvec 20% de terre sous le niveau de mer et la moitié du pays inondable, les Pays Bas possèdent un vaste réseau de digues et écluses pour retenir et détourner la mer, les rivières et l’eau de pluie. Son système évolue depuis plus de 500 ans et de manière très efficace, mais avec le réchauffement climatique, la menace de la montée du niveau de la mer, et de sécheresses, le pays ne peut pas se reposer sur ses lauriers. Le gouvernement lance donc une collaboration innovatrice qui utilise les big data pour améliorer la gestion du système d’eau.

Le projet réunit le Ministère Hollandais des eaux, l’autorité des eaux locale, l’institut scientifique Deltares, l’université de Delft, IBM, et d’autres organisations.

Lire la suite

Le Big Data au service du Green IT : deux problématiques d’avenir

green-data-center1-300x185Le traitement des big data peut-il s’inscrire dans une démarche durable ?
2% des émissions de gaz à effet de serre sont dues aux matériels et infrastructures informatiques. Un pourcentage qui égale d’ailleurs celui du transport aérien.
La consommation électrique des centres de données est devenue le principal problème, due à la croissance exponentielle des données big data.

Pour fonctionner, certains data centers consomment plus qu’une ville de 100 000 habitants. A l’échelle mondiale, ces infrastructures engloutissent 1,5% de la consommation électrique, l’équivalent de la production de 30 centrales nucléaires.

Lire la suite

Le Big Data, le nouveau pétrole ?

téléchargement« Internet a changé le monde des années 1990, le Big Data va changer celui des années 2010, C’est un nouveau pétrole pour une nouvelle société de l’information » anticipe Chuck Hollis, directeur technique de EMC et gourou du Big Data. Il ajoute aussi  « Chaque nouvelle technologie s’accompagne d’une crainte. Le feu, l’électricité, internet, le Big Data… le bon s’accompagne toujours de mauvais, il faut veiller à ne pas basculer. »

Dans une récente étude, Gartner affirme que 64% des organisations dans le monde ont investi dans le big data ou ont prévu de le faire.

Lire la suite

Le marché des données, un Big Business ?

3444_les-grosses-donnees-de-la-grosse-pommeÀ bien des égards, le terme « Big data » pourrait être le plus grand euphémisme dans l’histoire des entreprises. La quantité d’informations désignée par ce terme est stupéfiante. IBM estime que les êtres humains produisent aujourd’hui plus de 2,5 trillions d’octets de données quotidiennement, et que 90 % des données mondiales ont été générées au cours des deux dernières années. Les archives de la Bibliothèque du Congrès représentent actuellement 285 téraoctets de données et s’accroissent au rythme de cinq téraoctets par mois (soit environ 60 téraoctets par an).

C’est donc un véritable marché, qui a émergé autour de l’exploitation de la masse de données informatiques disponibles. Il est estimé à 28 milliards de dollars (22 milliards d’euros) par le cabinet Gartner pour 2012, et 36 milliards pour 2013.

Lire la suite

L’infobésité : big business ou big piège ?

infoverload-thumb-450x409-47216Aujourd’hui la masse d’informations disponibles est si importante que si on la répartissait entre tous les humains, chacun en recevrait trois cent vingt fois la collection de la bibliothèque d’Alexandrie. C’est-à-dire mille deux cent exaoctets en tout (milliards de milliards d’octets). Ce gisement de données numériques vient de la capacité de mettre en données des aspects du monde et de la vie humaine qui n’avaient encore jamais été quantifiés.
La notion d’infobésité, c’est-à-dire la surcharge informationnelle, n’est pas nouvelle, elle a fait son apparition dès le début des années 1960 comme l’une des sources de dysfonctionnement des organisations, mais les notions qu’elle recouvre ont évolué…

Lire la suite

Le Big data : va-t-il détrôner la Business Intelligence ?

big-dataLa BI traditionnelle est-elle morte et remplacée par le Big BI ?

Les entreprises attendent de la BI – la méthode qui permet de collecter, consolider, modéliser et restituer les données d’une entreprise pour offrir une aide à la décision  – qu’elle s’adapte aux innovations qu’offre le Big Data.
Aujourd’hui les entreprises produisent de plus en plus de données, provenant par exemple des avis clients, commentaires produits, remarques sur les réseaux sociaux, géolocalisation, études comportementales ou analyse des logs. Ces données sont immédiates et traitée à l’instant T. Elles ont toutes une potentielle valeur économique.

Lire la suite

1 2  Scroll to top