Big data

Le déluge de données dans le secteur de la santé

Les entreprises du secteur de la santé voient leur nombre de données médicales exploser. Récemment, une étude de l’institut Ponemon montrait que 30% des données stockées dans le monde proviennent du secteur médical. Elles sont alors extrêmement dépendantes du stockage et des technologies qui assurent une connectivité constante, l’accessibilité des informations et une préparation aux catastrophes.
Avec la pression liée à la multiplication du nombre de données, les entreprises recherchent constamment des manières d’améliorer l’efficacité via la numérisation. Cela inclut une transition de volumes basés sur les systèmes de guérison à des modèles basés sur la prévention, la continuité des suivis, le partage des connaissances, la confidentialité et l’optimisation des couts. En parallèle, ces entreprises font aussi face aux réglementations publiques, surtout concernant la gestion des données des patients et leur accessibilité à tout moment. Et plus que jamais, elles dépendent du réseau pour répondre à ces demandes croissantes de fournir un environnement médical connecté en permanence.

Lire la suite

Heartbleed, la remise en cause du logiciel libre ?

A travers l’affaire heartbleed on découvre qu’une grande partie du commerce mondial en ligne repose, notamment, sur un logiciel libre. Cependant, si ça n’avait pas été un logiciel libre on n’aurait pas trouvé la faille aussi facilement. Comme le code source est disponible, tous les développeurs peuvent le vérifier.
Un des contributeurs Open SSl s’est récemment défendu en rappelant qu’ils fournissent gratuitement un logiciel de sécurité qui est utilisé par des centaines de millier de personnes. C’est donc aussi à ces personnes de contribuer à améliorer le logiciel. Actuellement Open SSL est une fondation américaine, qui compte un employé à plein temps, quelques contributeurs, et ne dépasse pas le million de dollars de chiffre d’affaire annuel. Le logiciel prend en compte 70 % des trafics chiffrés sur internet. Beaucoup d’entreprises se servent du logiciel mais ne reversent rien à la fondation…
Lire la suite

La mauvaise image des développeurs informatiques

Dans un rapport récemment remis à l’ex ministre Fleur Pellerin, Tariq Krim, fondateur du portail Netvibes, pointe la mauvaise image des développeurs en France, et leur absence globale de la hiérarchie dans l’administration française. Il déplore que trop peu d’entre eux accèdent à des postes de décision, dans les entreprises du secteur privé comme dans le secteur public appelé à se moderniser.

Beaucoup de programmeurs français vont soit aux Etats Unis pour trouver des fonds, et quand ils restent en France et essaient de trouver de l’argent pour financier leurs projets, ils masquent les aspects transgressifs de leur projet parce qu’ils ont peur de ne pas plaire aux banquiers. L’image des développeurs n’est pas au plus haut. La majorité des développeurs est recruté par les sociétés de services (SSII), qui a été inventée pour répondre à la problématique de l’industrie. L’idée est d’avoir des informaticiens qui ne sont là que dans le seul but d’optimiser le processus industriel existant, il n’a donc pas une valeur métier. D’ailleurs, dans les grandes entreprises, beaucoup d’informaticiens font partie des services généraux, donc ils ne sont pas là pour inventer de la valeur mais pour prendre un processus dit industriel existant et l’optimiser. Pour les développeurs le poste idéal serait rattaché aux métiers, où ils pourraient inventer un nouveau métier avec des nouvelles technologies. Il faut développer le « computational thinking », ou les développeurs ont l’espace pour créer et innover.

Lire la suite

Les technologies facilitatrices (2/2)

Deloitte a publié son étude annuelle sur les tendances technologiques et a mis en avant celles qui aller impacter les entreprises pour les 12 à 24 mois à venir. Voici la suite du premier post « L’impact des changements technologiques » à propos des technologies facilitatrices sur lesquelles de nombreux DSI ont déjà investi du temps et de l’argent mais méritent un nouveau regard car elles sont porteuses de nouvelles opportunités.

Renverser les couts informatiques. Gérer les dépenses techniques en passant d’un système d’origine ou ancien est indispensable pour mener l’innovation d’entreprise. Cela englobe les problématiques de qualités et d’architecture pour Deloitte. Les systèmes d’origines peuvent freiner l’innovation parce qu’ils sont incapables d’évoluer ou d’être étendus aux nouveaux scénarios d’usage comme la mobilité. Les performances et la fiabilité en sont impactées et peuvent mettre en danger l’entreprise. Cependant le rapport note que la mise en place de nouveaux systèmes peut entrainer des couts, voire des dettes avant leur lancement, et donc les entreprises devraient renverser leurs dépenses et dettes pour accompagner l’innovation et la croissance. C’est le prix à payer pour un nouveau système.

Lire la suite

L’impact des changements technologiques (1/2)

Deloitte a publié son étude annuelle sur les tendances technologiques et a mis en avant celles qui aller impacter les entreprises pour les 12 à 24 mois à venir. Cette année l’étude s’intitule « Inspiring disruption » (les tendances de rupture inspirantes), elle divise la tendance en deux parties : celle de rupture, qui, pour Deloitte représente des opportunités de changements positifs pour l’informatique, et celle sur les technologies facilitatrices, sur lesquelles de nombreux DSI ont déjà investi du temps et de l’argent mais qui méritent un nouveau regard car elles sont porteuses de nouvelles opportunités.
Pour Deloitte, ces tendances sont de rupture car elles ont la capacité de remodeler les entreprises, leur business modèles et même le marché entier. Certaines de ces technologies ne sont pas encore à l’ordre du jour pour certains, mais la réalité est que le paysage concurrentiel évolue et elles peuvent fournir des avantages compétitifs significatifs.

Lire la suite

Automatiser les soins médicaux

L’automatisation numérique de certains outils pourrait développer la personnalisation des soins médicaux. Depuis quelques années on voit un mouvement grandissant qui soutient l’idée que les soins personnalisés seraient plus efficaces que les soins conçus pour des masses de gens.
Dans la passé le processus de recherche sur les maladies se basait sur l’étude de groupe de gens qui ont des symptômes communs afin de trouver le dénominateur commun qui explique les causes de la maladie. Les recherches se basent aussi sur les essais cliniques : des patients sont divisés en groupes qui reçoivent chacun un traitement différent, et le groupe qui a les résultats les plus probants sert à définir le traitement officiel à adopter. Cette méthode fonctionne bien mais a ses limites. La psychologie humaine est complexe et contient un nombre important de variations qui ont une influence sur le processus de la maladie et sur la réponse au traitement des individus. Toutes les personnes d’un groupe ne sont pas forcément constituées de la même manière et leur cadre social, leur éducation, personnalité et moyens financiers peut avoir une incidence sur leur capacité à suivre un traitement prescrit.
Lire la suite

Les entreprises sont-elles prêtes pour la déferlante de données ?

Les données sont en train de devenir la nouvelle devise du marché et les entreprises recherchent la meilleure manière de l’exploiter.

Une récente étude d’IDC révèle que le nombre de données générées est mutliplié par deux tous les ans. D’ici à 2020, il y aura 40 000 exa octets, ce qui équivaut à 40 trillions de giga octets. C’est plus de 5 200 giga octet par personne. Le problème reste de savoir quoi faire et comment avec ces données, et pour compliquer les choses la majorité de ces données proviennent de nouvelles sources telles que les appareils mobiles, réseaux sociaux et internet des objets.
L’impact seul des réseaux sociaux est important : twitter compte 400 million de tweets par jour, Facebook 4,75 milliards de contenus partagés. D’ailleurs ce dernier héberge actuellement 250 peta octets et en recoit 0,5 chaque jour.
Pour l’internet des objets, qui est une collection unique de différents objets, chacun d’entre eux génère ses propres données. Par exemple, les moteurs de nouvelle génération GEnx produits par General Electrics, que l’on trouve dans les avions Boeing 787 et 747-8, contiennent environ 5000 données analysées toutes les secondes. Selon une étude de Wipro research, un aller simple traversant les Etats Unis génère 240 tera octets de données et un moteur de Boeing 737 en génère 10 toutes les 30 minutes de vol.

Lire la suite

La technologie de géolocalisation pour les smart cities

Le concept de ville intelligente a pris de l’ampleur ces dernières années. Ce qui semble naturel puisque l’on prévoit que plus de 70% de la population vivra dans des villes d’ici une trentaine d’années. Le concept de smart city continue d’évoluer et l’impact des technologies géo spatiales de plus en plus attendues.
Aujourd’hui, on ne parle plus uniquement de couches cartographiques et de géo référencement, mais de l’utilisation des données géo spatiales et leur stockage pour les mettre au service des citoyens et de la gouvernance des villes et des sociétés à venir. Pour créer un cadre géo spatial, il faut un référencement complet des ressources distribuées sur les différentes cartes. On pourrait alors utiliser un réseau de capteurs pour collecter l’information dans un cloud public : les conditions des routes, du trafic, des places de parking disponibles, les médecins à proximité, les applications d’urgences etc. tout cela accessible via une appli smart city.

Lire la suite

Le Big Data et l’industrie automobile : beaucoup de buzz et peu d’action

Toute voiture génère aujourd’hui un nombre considérable de données. Avec des capteurs qui recueillent tout, de la pression des pneus, la rotation par minute du moteur, à la température de l’huile, elles produisent de 5 à 250 giga octets de données par heure. Les voitures plus avancées en produisent même plus, la voiture autonome de Google par exemple génère environ 1 giga octet toute les secondes. Cela équivaut à envoyer 200 000 emails (texte) ou télécharger 100 photos haute résolution toute les secondes. La grande majorité de ces données est utilisée en temps réel pour contrôler les fonctions du véhicule et n’a pas de de valeur ajoutée sur le long terme. Recevoir un millier de messages «  pression des pneus normale » n’apporte pas grand-chose à l’analyse des données donc les fabricants ne les stockent pas dans le Cloud.

Lire la suite

La nouvelle loi française de surveillance passe inaperçue

Le scandale américain de la NSA a fait les gros titres de toute la presse internationale depuis sa révélation en Juillet dernier. Par contre, une grande partie du lancement de nouveau programme de surveillance français lui n’a pas eu beaucoup d’échos. Quelques jours après le scandale de la NSA le Monde révèle que la France a un programme similaire qui balaye régulièrement presque toutes les transmissions de données, c’est-à-dire conversations téléphoniques, emails et activités sur les réseaux sociaux. Selon un rapport divulgué par Edward Snowden et relayé par le Guardian, la France, Allemagne, Espagne, Suède ont la possibilité de puiser dans les câbles de fibre optique, ce qui signifie qu’il est relativement facile d’espionner les activités téléphoniques et sur internet. Ce rapport montre aussi que les services de renseignement français ont donné une quantité importante de données à leurs homologues aux Etats Unis et Angleterre.

Lire la suite

1 2 3  Scroll to top