données

Le déluge de données dans le secteur de la santé

Les entreprises du secteur de la santé voient leur nombre de données médicales exploser. Récemment, une étude de l’institut Ponemon montrait que 30% des données stockées dans le monde proviennent du secteur médical. Elles sont alors extrêmement dépendantes du stockage et des technologies qui assurent une connectivité constante, l’accessibilité des informations et une préparation aux catastrophes.
Avec la pression liée à la multiplication du nombre de données, les entreprises recherchent constamment des manières d’améliorer l’efficacité via la numérisation. Cela inclut une transition de volumes basés sur les systèmes de guérison à des modèles basés sur la prévention, la continuité des suivis, le partage des connaissances, la confidentialité et l’optimisation des couts. En parallèle, ces entreprises font aussi face aux réglementations publiques, surtout concernant la gestion des données des patients et leur accessibilité à tout moment. Et plus que jamais, elles dépendent du réseau pour répondre à ces demandes croissantes de fournir un environnement médical connecté en permanence.

Lire la suite

Les entreprises sont-elles prêtes pour la déferlante de données ?

Les données sont en train de devenir la nouvelle devise du marché et les entreprises recherchent la meilleure manière de l’exploiter.

Une récente étude d’IDC révèle que le nombre de données générées est mutliplié par deux tous les ans. D’ici à 2020, il y aura 40 000 exa octets, ce qui équivaut à 40 trillions de giga octets. C’est plus de 5 200 giga octet par personne. Le problème reste de savoir quoi faire et comment avec ces données, et pour compliquer les choses la majorité de ces données proviennent de nouvelles sources telles que les appareils mobiles, réseaux sociaux et internet des objets.
L’impact seul des réseaux sociaux est important : twitter compte 400 million de tweets par jour, Facebook 4,75 milliards de contenus partagés. D’ailleurs ce dernier héberge actuellement 250 peta octets et en recoit 0,5 chaque jour.
Pour l’internet des objets, qui est une collection unique de différents objets, chacun d’entre eux génère ses propres données. Par exemple, les moteurs de nouvelle génération GEnx produits par General Electrics, que l’on trouve dans les avions Boeing 787 et 747-8, contiennent environ 5000 données analysées toutes les secondes. Selon une étude de Wipro research, un aller simple traversant les Etats Unis génère 240 tera octets de données et un moteur de Boeing 737 en génère 10 toutes les 30 minutes de vol.

Lire la suite

Le Big Data et l’industrie automobile : beaucoup de buzz et peu d’action

Toute voiture génère aujourd’hui un nombre considérable de données. Avec des capteurs qui recueillent tout, de la pression des pneus, la rotation par minute du moteur, à la température de l’huile, elles produisent de 5 à 250 giga octets de données par heure. Les voitures plus avancées en produisent même plus, la voiture autonome de Google par exemple génère environ 1 giga octet toute les secondes. Cela équivaut à envoyer 200 000 emails (texte) ou télécharger 100 photos haute résolution toute les secondes. La grande majorité de ces données est utilisée en temps réel pour contrôler les fonctions du véhicule et n’a pas de de valeur ajoutée sur le long terme. Recevoir un millier de messages «  pression des pneus normale » n’apporte pas grand-chose à l’analyse des données donc les fabricants ne les stockent pas dans le Cloud.

Lire la suite

La nouvelle loi française de surveillance passe inaperçue

Le scandale américain de la NSA a fait les gros titres de toute la presse internationale depuis sa révélation en Juillet dernier. Par contre, une grande partie du lancement de nouveau programme de surveillance français lui n’a pas eu beaucoup d’échos. Quelques jours après le scandale de la NSA le Monde révèle que la France a un programme similaire qui balaye régulièrement presque toutes les transmissions de données, c’est-à-dire conversations téléphoniques, emails et activités sur les réseaux sociaux. Selon un rapport divulgué par Edward Snowden et relayé par le Guardian, la France, Allemagne, Espagne, Suède ont la possibilité de puiser dans les câbles de fibre optique, ce qui signifie qu’il est relativement facile d’espionner les activités téléphoniques et sur internet. Ce rapport montre aussi que les services de renseignement français ont donné une quantité importante de données à leurs homologues aux Etats Unis et Angleterre.

Lire la suite

L’ADN : le futur de la médecine et du stockage

ADN et Big Data…

Alors que le phénomène Big Data s’amplifie, nous allons avoir besoin de méthodes plus élaborées que celles utilisées aujourd’hui pour stocker les données. Une des idées qui émerge est l’utilisation de l’ADN comme méthode de stockage des données, théorie qui commence à devenir réelle. Des scientifiques de l’université d’Harvard affirment que cette possibilité est réaliste, qu’il deviendra bientôt possible de stocker la totalité des données de la toile dans 75 grammes de matériau d’ADN.

Lire la suite

Big Data, un exemple d’usage : la gestion de l’eau et la prévention des inondations

Avec 20% de terre sous le niveau de mer et la moitié du pays inondable, les Pays Bas possèdent un vaste réseau de digues et écluses pour retenir et détourner la mer, les rivières et l’eau de pluie. Son système évolue depuis plus de 500 ans et de manière très efficace, mais avec le réchauffement climatique, la menace de la montée du niveau de la mer, et de sécheresses, le pays ne peut pas se reposer sur ses lauriers. Le gouvernement lance donc une collaboration innovatrice qui utilise les big data pour améliorer la gestion du système d’eau.

Le projet réunit le Ministère Hollandais des eaux, l’autorité des eaux locale, l’institut scientifique Deltares, l’université de Delft, IBM, et d’autres organisations.

Lire la suite

Le marché des données, un Big Business ?

À bien des égards, le terme « Big data » pourrait être le plus grand euphémisme dans l’histoire des entreprises. La quantité d’informations désignée par ce terme est stupéfiante. IBM estime que les êtres humains produisent aujourd’hui plus de 2,5 trillions d’octets de données quotidiennement, et que 90 % des données mondiales ont été générées au cours des deux dernières années. Les archives de la Bibliothèque du Congrès représentent actuellement 285 téraoctets de données et s’accroissent au rythme de cinq téraoctets par mois (soit environ 60 téraoctets par an).

C’est donc un véritable marché, qui a émergé autour de l’exploitation de la masse de données informatiques disponibles. Il est estimé à 28 milliards de dollars (22 milliards d’euros) par le cabinet Gartner pour 2012, et 36 milliards pour 2013.

Lire la suite

Le Big data : va-t-il détrôner la Business Intelligence ?

La BI traditionnelle est-elle morte et remplacée par le Big BI ?

Les entreprises attendent de la BI – la méthode qui permet de collecter, consolider, modéliser et restituer les données d’une entreprise pour offrir une aide à la décision  – qu’elle s’adapte aux innovations qu’offre le Big Data.
Aujourd’hui les entreprises produisent de plus en plus de données, provenant par exemple des avis clients, commentaires produits, remarques sur les réseaux sociaux, géolocalisation, études comportementales ou analyse des logs. Ces données sont immédiates et traitée à l’instant T. Elles ont toutes une potentielle valeur économique.

Lire la suite

Big Data: Est-ce que c’est de « la connerie » comme le pense le Directeur technologique de la campagne 2012 de Barack Obama, Harper Reed ?

Word Cloud "Big Data"« Le problème avec le Big Data c’est le ‘Big’, qui est une connerie. Cet aspect est déjà résolu » estime Harper Reed, « Nous avons traité le big et devrions nous préoccuper de la donnée. Alors pourquoi ne pas seulement dire data ». Ce n’est pas contre les aspects technologiques qu’Harper Reed est remonté, mais contre les vendeurs de solutions et leur discours marketing, qui selon lui négligent la question centrale de l’exploitation des données comme moyen de répondre à de grandes questions. Lire la suite

 Scroll to top