Par Claire Gerardin

Automatiser les soins médicaux

L’automatisation numérique de certains outils pourrait développer la personnalisation des soins médicaux. Depuis quelques années on voit un mouvement grandissant qui soutient l’idée que les soins personnalisés seraient plus efficaces que les soins conçus pour des masses de gens.
Dans la passé le processus de recherche sur les maladies se basait sur l’étude de groupe de gens qui ont des symptômes communs afin de trouver le dénominateur commun qui explique les causes de la maladie. Les recherches se basent aussi sur les essais cliniques : des patients sont divisés en groupes qui reçoivent chacun un traitement différent, et le groupe qui a les résultats les plus probants sert à définir le traitement officiel à adopter. Cette méthode fonctionne bien mais a ses limites. La psychologie humaine est complexe et contient un nombre important de variations qui ont une influence sur le processus de la maladie et sur la réponse au traitement des individus. Toutes les personnes d’un groupe ne sont pas forcément constituées de la même manière et leur cadre social, leur éducation, personnalité et moyens financiers peut avoir une incidence sur leur capacité à suivre un traitement prescrit.
Lire la suite

Virtualiser le poste de travail

Il y avait déjà l’IaaS, le SaaS, le PaaS, BPaaS, maintenant il y a le DaaS : desktop as a service. Est-ce encore un nouveau buzz?
Le DaaS est une infrastructure virtuelle de poste de travail “prêt à consommer”, hébergée et gérée par un fournisseur cloud et accessible de partout sur tout support. Il peut avoir des architectures variées est on y accède en s’abonnant. Avec ce modèle, c’est le fournisseur qui gère l’infrastructure back end : hyperviseurs, hébergement, réseaux, sécurité. Le client lui gère les données utilisateurs, le bureau et la licence des logiciels utilisés.

Lire la suite

Miser sur le green IT

L’informatique pollue, mais nous en avons de plus en plus besoin alors certaines entreprises qui ont pris conscience de cet impact montrent la voie et l’intègrent dans leur stratégie.

Selon une étude Digital Power Group (DPG), l’ensemble de l’écosystème numérique pèse maintenant près de 10% de toute l’électricité produite dans le monde, ce qui équivaut à 50% d’énergie de plus que l’aviation du monde entier. Regarder une heure de vidéo sur une tablette par semaine consomme plus d’électricité par an dans les réseaux que deux réfrigérateurs neufs selon l’étude. Dans cet exemple, sont pris en compte l’utilisation d’un réseau de télécoms, de l’infrastructure sans fil et de l’énergie pour fabriquer la tablette. Ces tendances vont rendre nécessaire l’usage de plus de charbon, estime l’étude. D’ailleurs Greenpeace a établi un classement de la dépendance au charbon des centres de données des grandes entreprises du cloud.

Lire la suite

Les entreprises sont-elles prêtes pour la déferlante de données ?

Les données sont en train de devenir la nouvelle devise du marché et les entreprises recherchent la meilleure manière de l’exploiter.

Une récente étude d’IDC révèle que le nombre de données générées est mutliplié par deux tous les ans. D’ici à 2020, il y aura 40 000 exa octets, ce qui équivaut à 40 trillions de giga octets. C’est plus de 5 200 giga octet par personne. Le problème reste de savoir quoi faire et comment avec ces données, et pour compliquer les choses la majorité de ces données proviennent de nouvelles sources telles que les appareils mobiles, réseaux sociaux et internet des objets.
L’impact seul des réseaux sociaux est important : twitter compte 400 million de tweets par jour, Facebook 4,75 milliards de contenus partagés. D’ailleurs ce dernier héberge actuellement 250 peta octets et en recoit 0,5 chaque jour.
Pour l’internet des objets, qui est une collection unique de différents objets, chacun d’entre eux génère ses propres données. Par exemple, les moteurs de nouvelle génération GEnx produits par General Electrics, que l’on trouve dans les avions Boeing 787 et 747-8, contiennent environ 5000 données analysées toutes les secondes. Selon une étude de Wipro research, un aller simple traversant les Etats Unis génère 240 tera octets de données et un moteur de Boeing 737 en génère 10 toutes les 30 minutes de vol.

Lire la suite

La technologie de géolocalisation pour les smart cities

Le concept de ville intelligente a pris de l’ampleur ces dernières années. Ce qui semble naturel puisque l’on prévoit que plus de 70% de la population vivra dans des villes d’ici une trentaine d’années. Le concept de smart city continue d’évoluer et l’impact des technologies géo spatiales de plus en plus attendues.
Aujourd’hui, on ne parle plus uniquement de couches cartographiques et de géo référencement, mais de l’utilisation des données géo spatiales et leur stockage pour les mettre au service des citoyens et de la gouvernance des villes et des sociétés à venir. Pour créer un cadre géo spatial, il faut un référencement complet des ressources distribuées sur les différentes cartes. On pourrait alors utiliser un réseau de capteurs pour collecter l’information dans un cloud public : les conditions des routes, du trafic, des places de parking disponibles, les médecins à proximité, les applications d’urgences etc. tout cela accessible via une appli smart city.

Lire la suite

Le Big Data et l’industrie automobile : beaucoup de buzz et peu d’action

Toute voiture génère aujourd’hui un nombre considérable de données. Avec des capteurs qui recueillent tout, de la pression des pneus, la rotation par minute du moteur, à la température de l’huile, elles produisent de 5 à 250 giga octets de données par heure. Les voitures plus avancées en produisent même plus, la voiture autonome de Google par exemple génère environ 1 giga octet toute les secondes. Cela équivaut à envoyer 200 000 emails (texte) ou télécharger 100 photos haute résolution toute les secondes. La grande majorité de ces données est utilisée en temps réel pour contrôler les fonctions du véhicule et n’a pas de de valeur ajoutée sur le long terme. Recevoir un millier de messages «  pression des pneus normale » n’apporte pas grand-chose à l’analyse des données donc les fabricants ne les stockent pas dans le Cloud.

Lire la suite

La nouvelle loi française de surveillance passe inaperçue

Le scandale américain de la NSA a fait les gros titres de toute la presse internationale depuis sa révélation en Juillet dernier. Par contre, une grande partie du lancement de nouveau programme de surveillance français lui n’a pas eu beaucoup d’échos. Quelques jours après le scandale de la NSA le Monde révèle que la France a un programme similaire qui balaye régulièrement presque toutes les transmissions de données, c’est-à-dire conversations téléphoniques, emails et activités sur les réseaux sociaux. Selon un rapport divulgué par Edward Snowden et relayé par le Guardian, la France, Allemagne, Espagne, Suède ont la possibilité de puiser dans les câbles de fibre optique, ce qui signifie qu’il est relativement facile d’espionner les activités téléphoniques et sur internet. Ce rapport montre aussi que les services de renseignement français ont donné une quantité importante de données à leurs homologues aux Etats Unis et Angleterre.

Lire la suite

Les prochains ordinateurs seront dans le cloud

On en rêve depuis des années : le PC virtuel. Pourquoi continuer de se trimballer avec un ordinateur qui doit avoir Windows, risquer de se faire voler ses données cruciales, alors qu’à la place on pourrait accéder à ces données depuis n’importe où et avec n’importe quel appareil ?

Jusqu’à encore récemment l’idée était à peine considérée, aujourd’hui elle l’est. Le groupe d’étude 451 estime que d’ici à 2015, le marché des bureaux virtuels sera de 5,6 milliards de dollars. Pour IDC, la part de ces bureaux hébergés dans le cloud sera de 600 million de dollars d’ici à 2016, avec une croissance 84% par an.

Lire la suite

L’internet des objets a besoin de standards

L’internet des objets, le X internet, le tout internet … de nombreux termes pour annoncer l’avènement d’une nouvelle génération internet dominée par les objets connectés et les échanges de données Machine to Machine. Mais alors que les gens sont de plus en plus enthousiastes à propos des objets qui par exemple permettent de rester en forme (fitbit, runkeeper, withings etc.), une récente étude Forrester note que ces applications restent limitées car elles ne peuvent pas encore communiquer entre elles.
Certains systèmes peuvent mesurer l’activité physique, d’autres les techniques sportives, et beaucoup d’autres encore les données biométriques. Le résultat est un réservoir de données regroupées en silos, toutes reliées à leur application propre. Mais les entreprises qui les commercialisent pourront se rapprocher de leurs clients uniquement lorsqu’ils seront en capacité de regrouper toutes ces données dans un système unique. L’étude préconise d’intégrer les applications CRM, les systèmes d’inventaire, les parcours d’achats clients et leur expérience. A ce moment-là seulement on pourra parler de l’internet « intelligent » des objets.

Lire la suite

Les nouvelles perspectives liées aux objets connectés

Imaginons un monde avec des objets intelligents connectés qui seraient constamment en train d’interagir sur un réseau pour améliorer notre expérience utilisateur. Certains experts l’ont déjà imaginé et en salivent… L’internet des objets est LE buzz du secteur en ce moment, parce qu’il promet de créer un environnement fluide, futuriste, sans frictions, et lucratif. Un monde où nous pourrons tous vivre et consommer des produits. On annonce que c’est la prochaine grande innovation de l’électronique grand public. Les acteurs majeurs du marché parlent d’un marché de 15 trillions de dollars pour les 6 ans à venir.

Ces prévisions ne viennent pas de futuristes fous, mais bien des entreprises qui espèrent surfer sur la vague de l’hyperconnexion. Cisco et GE font toutes les deux la promotion de l’internet des choses et s’y préparent. Pour réussir il leur faut deux choses : un public demandeur, et trois trillions de capteurs.

Lire la suite

1 8 9 10 11 12  Scroll to top