Les « Tech Trends 2017 » sont emblématiques de ces mutations profondes de l’entreprise: sophistication croissante de l’analytique et des traitements algorithmiques, recentrage sur l’utilisateur pour lui offrir l’expérience la plus fluide et riche possible, anticipation des ruptures technologiques à venir.

« Dans la plupart des entreprises, la technologie est considérée comme une priorité et mobilise fortement l’attention des dirigeants. Ces derniers l’examinent sous trois angles complémentaires. D’abord, l’angle stratégique : quelles innovations sont susceptibles de remettre en cause les modèles économiques existants ? Ensuite, l’angle opérationnel : comment peuvent-elles contribuer à améliorer la productivité ? Enfin, et c’est assez nouveau, l’angle organisationnel : le capital humain de l’entreprise, son mode de fonctionnement et sa culture, lui permettent-ils de tirer tout le parti des technologies émergentes ? Au cours des dernières années, la technologie a migré de la périphérie vers le centre des réflexions stratégiques, elle alimente aujourd’hui l’ensemble des directions métiers. En parallèle, le rôle des DSI est monté en puissance .», résume Sébastien Ropartz, Associé responsable Deloitte Digital.

Les quatre tendances majeures technologiques identifiées par l’étude Deloitte

1. Tendance #1 – Copier, apprendre, seconder : l’intelligence des machines

De plus en plus d’entreprises devraient associer, dans les deux ans à venir, l’intelligence collective de leurs collaborateurs avec des capacités d’analyse informatique poussées. Pour ce faire, elles pourront s’appuyer à la fois sur les progrès spectaculaires des algorithmes, le cloud, le Big Data, mais aussi, sur de nouveaux modes de coopération entre l’homme et la machine.

L’intelligence artificielle a réalisé des avancées considérables dans une multitude de directions différentes : apprentissage automatisé, réseaux de neurones, informatique cognitive, ou encore RPA (robotic process automation), qui permet à la machine d’assimiler un processus répétitif sans qu’il soit nécessaire de la programmer, mais en «observant » un humain le réaliser.

Dans certains cas, l’intelligence des machines permettra aux entreprises d’automatiser totalement des processus répétitifs, à faible valeur ajoutée, qui nécessitaient auparavant un travail humain.

Mais surtout, elle leur permettra d’améliorer la performance de leurs salariés et l’expérience de leurs clients. Les salariés pourront ainsi disposer de puissants outils d’analyse pour remplir leurs tâches plus efficacement. Les clients, quant à eux, bénéficieront de réponses personnalisées à leurs demandes, instantanément, grâce à des « chatbots ».

Pour la plupart des entreprises, les partenariats – que ce soit avec des laboratoires de recherche universitaires, des grandes entreprises d’Internet ou des start-ups – constitueront le point de passage recommandé pour défricher ce sujet.

Tendance #2 – Extension du domaine de l’analytique : les dark analytics

Si les entreprises sont encore loin d’avoir résolu toutes les questions liées au Big Data, elles perçoivent cependant mieux leur valeur latente et ont commencé à expérimenter des cas d’usage. De fait, 64 % des DSI projettent d’investir dans les capacités techniques et humaines pour exploiter les données de leur entreprise au cours des deux prochaines années.

Mais il reste une grande quantité de données non utilisées aujourd’hui. Cette « matière noire » informationnelle devrait commencer à livrer ses secrets, dans les 18 à 24 mois qui viennent pour les entreprises pionnières. La nouvelle frontière du Big Data, les « dark analytics », recouvre trois types de données aujourd’hui négligées : les informations « dormantes » de l’entreprise, les données non structurées (e-mails, photos ou vidéos) et le web invisible (« deep web ») qui, bien qu’accessible publiquement, n’est pas indexé par les moteurs de recherche classiques.

Ces données recèlent des indications à forte valeur ajoutée pour les entreprises qui sauront les faire parler. Au niveau mondial, les gains de productivité pourraient s’élever à 430 milliards de dollars d’ici 2020. Pour se donner toutes les chances de succès, les entreprises devront privilégier une perspective métier, sous peine de dissiper leurs efforts, et s’ouvrir sur leur environnement, qui détient probablement une partie des données dont elles ont besoin.

Tendance #3 – Fusion du monde physique et numérique : la réalité mixte  

La présence de la technologie dans les entreprises va tendre à s’estomper, au profit d’interactions plus naturelles avec l’utilisateur. C’est la troisième tendance des 18 à 24 prochains mois : la réalité mixte, autorisée par la convergence de la réalité virtuelle ou augmentée, et de l’Internet des objets.

La réalité mixte laisse l’utilisateur évoluer dans son environnement familier, sur lequel elle superpose une couche virtuelle d’informations, par le biais d’un casque de réalité augmentée ou d’un dispositif de projection. Elle lui permet d’interagir avec l’ordinateur par la voix ou les gestes, captés par des dispositifs portés sur lui (wearables) ou situés autour de lui. Le principal bénéfice de la réalité mixte est de reculer la technologie à l’arrière-plan : l’utilisateur dispose d’une totale liberté d’action, sans être gêné par un clavier ou un écran tactile. Il est donc plus engagé et plus efficace.

Les entreprises vont progressivement expérimenter les applications de la réalité mixte : support aux opérateurs de production ou de maintenance, formation, communication, marketing et service client, nouvelles expériences de shopping, etc. Néanmoins, elles vont devoir pour cela résoudre des questions complexes d’ergonomie, de technique et de cyber-sécurité.

Tendance #4 – Conserver une longueur d’avance : les technologies exponentielles

Les technologies numériques ont démontré à quel point l’innovation pouvait perturber les modèles économiques ou organisationnels établis, voire mettre en péril les entreprises insuffisamment vigilantes. Par conséquent, les dirigeants – notamment les DSI – prendront soin de garder un œil sur des domaines technologiques aujourd’hui très fertiles où, même si l’horizon de mise en application paraît plus distant, de l’ordre de 3 à 5 ans, des innovations de ruptures pourraient avoir des répercussions profondes sur leur activité.

Au rang de ces technologies « exponentielles » figurent les nanotechnologies, les biotechnologies, l’informatique quantique et le stockage de l’énergie.

« L’importance de la veille technologique et de la « culture technologique » des dirigeants n’a jamais été aussi grande. Les organisations gagnantes seront celles qui parviendront à anticiper non pas simplement l’innovation incrémentale, qui améliore à la marge leur productivité ou les fonctionnalités de leurs produits et services, mais bien l’innovation radicale – celle qui leur permet de redéfinir leur secteur d’activité ou de réinventer leur modèle de fonctionnement », conclut François-Xavier Leroux, Directeur Deloitte Digital.

L’entreprise cinétique adopte le mouvement permanent. Elle développe la dextérité nécessaire pour surmonter l’inertie opérationnelle et prospérer dans des environnements d’affaires en évolution constante. Dans ce bruit médiatique nourri par les Cassandre et les faux prophètes, écouter les signaux faibles est une gageure. Faire des choix dans cet environnement n’est pas aisé : seule une part des avancées technologiques sont créatrices de valeur et seule leur connaissance intime permet de les discriminer.

Rester spectateur n’est donc plus une option : les mentalités doivent évoluer pour accepter les changements de cap, ces derniers étant beaucoup plus durs à effectuer à l’arrêt. Se mettre en mouvement permet de capter l’énergie nécessaire à la maîtrise de son destin : expérimenter des excursions en dehors de sa zone de confort, former les employés à se former par eux-mêmes et entre eux, nouer des partenariats pour étendre les capacités de l’entreprise au-delà de ses frontières, revendiquer des droits sur de nouvelles sources de données, inventer la collaboration avec les machines…

Prendre de la vitesse pour prendre de la hauteur. L’entreprise cinétique doit être en mesure de se nourrir de ce mouvement qui l’entoure et l’anime, de cette évolution des technologies, des organisations, des services et des usages qui constitue aujourd’hui une force de traction et de transformation formidable.

Source: UP- magazine. Lire l’article dans son intégralité ici.
Publié dans Technologies, Ressources humaines, Professionnels de santé, Ingénierie du vivant, Evolutions numériques, Système de santé et gouvernance, Gouvernance, Nanotechnologies | Tagué , , , , , | Laisser un commentaire

L’exosquelette de Toyota offre de grands espoirs aux paraplégiques qui rêvent de remarcher

Publié le par
Au Japon, Toyota va lancer un exosquelette motorisé dans certains établissements médicaux pour aider les personnes souffrant d’une déficience motrice à remarcher correctement.

C’est un formidable espoir pour toutes les personnes atteintes de paraplégie. Grâce aux importants progrès techniques survenus ces dernières années, les insuffisances de la médecine pour soigner les lésions paralysant les membres inférieurs et le bas du tronc sont désormais en partie compensées artificiellement par des exosquelettes motorisés.

L’idée est la suivante : puisque les jambes ne sont plus en mesure d’assurer leur rôle, on passe par une orthèse — c’est-à-dire un dispositif chargé de compenser une fonction absente ou déficitaire chez le patient — pour lui permettre de retrouver sa pleine autonomie. Des firmes comme ReWalk, basée en Israël, ou Ekso Bionics, sise aux États-Unis, proposent déjà de tels produits.

À cette liste, il faut désormais ajouter Toyota. L’entreprise japonaise, surtout connue pour ses activités dans l’industrie automobile, est aussi présente sur le créneau de l’aide à la personne avec le lancement d’un robot d’assistance à la réadaptation, Welwalk WW-1000, qu’il compte louer pour aider les personnes à retrouver leur mobilité. Date de disponibilité ? Cet automne, uniquement au Japon pour le moment.

Welwalk
                                Le Welwalk.

Il « est conçu pour aider à la réadaptation des personnes atteintes de paralysie des membres inférieurs à la suite d’un accident vasculaire cérébral (AVC) ou d’une autre cause », explique l’entreprise , qui précise qu’il « est livré avec une gamme de fonctions de soutien de réadaptation basées sur la théorie de l’apprentissage moteur, ce qui inclut la capacité à ajuster le niveau de difficulté en fonction du patient et à fournir des retours d’expérience sur les caractéristiques des mouvements du patient ».

Prometteur, le dispositif n’est pas miraculeux pour autant. Il ne semble être pertinent que pour une personne ayant besoin d’une rééducation au niveau des membres inférieurs. En clair, celui ou celle souffrant de lésions définitives à la suite d’un grave accident ne pourra pas espérer retrouver sa mobilité, même en multipliant les séances.

En outre, le Welwalk ne peut être porté que sur une jambe à la fois du fait de l’encombrement de l’appareil et il ne peut servir à soutenir le poids d’une personne paralysée (ce qui n’est pas intéressant pour un paraplégique, qui a besoin d’un soutien au moins jusqu’aux hanches). Par ailleurs, le Welwalk fonctionne avec une installation fixe sur lesquelles se trouvent des harnais et des barres d’appui.

Vers un dispositif autonome ?

Mais à terme, des appareils plus commodes à porter pourraient voir le jour, de sorte qu’ils pourraient être utilisés sur les deux jambes en même temps. Nul doute que les fabricants de ces produits y pensent déjà, d’autant que le Japon doit faire face au vieillissement de sa population. Mais plus généralement, cela peut déjà servir aux accidentés de la route ou aux personnes ayant besoin de reconstruire leurs muscles, en leur proposant une rééducation que Toyota présente comme plus rapide.

Pour concevoir ce dispositif, dont le développement a pris une dizaine d’années, Toyota, qui s’était déjà illustré par le passé avec des projets du même genre, comme iBot, un fauteuil roulant qui permet aux personnes handicapées de monter des escaliers, s’est associé à l’université de médecine de Fujita. Il est prévu, selon Japan Times, de louer cet équipement à une centaine d’établissements médicaux dans tout le pays.

Combien cela coûtera-t-il ? Toyota évalue à un peu moins de 9 000 euros les frais initiaux et près de 3 000 euros la location mensuelle. Mais à l’image de l’évolution à la baisse du coût du séquençage ADN humain, qui est passé 3 milliards de dollars en 1990 à quelques centaines de dollars aujourd’hui malgré les 3 millions de paires de nucléotides à traiter, qui ne prend plus que quelques heures contre treize ans auparavant, on devine que le prix baissera au fil des ans.

En France aussi, ce type de technologie a de l’avenir. Outre la rééducation pour les blessés, elle pourrait venir en aide aux 2,3 millions de personnes souffrant d’une déficience motrice, soit 5,8 % de la population active, si les problématiques de coût, de confort, d’efficacité, de poids et d’autonomie qui entravent pour l’instant la démocratisation des exosquelettes sont résolues.

Source: Numérama. Lire l’article dans son intégralité ici.

Publié dans International, Pathologies liées au vieillissement et à la sédentarité, Pathologies majeures, Recherche, Services de santé étrangers, Techniques médicales, Technologies, Uncategorized | Tagué , , , | Laisser un commentaire

Livre vert pour une santé durable

Publié le par
L’agence Primum Non Nocere propose une vingtaine d’actions stratégiques pour mettre le développement durable au cœur du système de santé, visant ainsi à réduire les dépenses de santé, tout en garantissant un système sûr aujourd’hui et pour les générations futures. Le but de ces propositions est d’inviter à réfléchir à un système différent, meilleur, plus juste et durable. Inventer un monde de santé demande d’innover, d’oser, de créer des liens et de réfléchir autrement et à long terme.
Ces propositions s’organisent autour de 5 axes :

AXE 1. INVESTIR DANS LA PRÉVENTION–
AXE 2. FAIRE ÉVOLUER BIEN-ÊTRE, SANTÉ ET FORMATION INITIALE DES PROFESSIONNELS
AXE 3. SOUTENIR ET PROMOUVOIR LA R&DD EN SANTÉ
AXE 4. RÉINVENTER LA GOUVERNANCE
AXE 5. HORIZON 2050 : UNE POLITIQUE À LONG TERME AUX OBJECTIFS AMBITIEUX
Source: Agence Primum non nocere. Lire le Livre vert ici.
Publié dans Ethique, Evolutions sociétales, Gouvernance, Interministériel, Politique de santé, Santé publique, Uncategorized | Tagué , , , , , | Laisser un commentaire

F.D.A. will allow 23andMe to sell genetic tests for disease risk to consumers

Publié le par

Until now, the only way for people to get such genetic tests was to see a medical professional who would order a test and later deliver the results to patients. Often, patients were required to see a genetic counselor before getting a test.

The process for customers is simple. A customer spits into a tube and then mails it to 23andMe. The company’s lab extracts DNA from the saliva cells and tests it with probes that find genetic markers using a special chip for genotyping. In about six to eight weeks the company sends the customer an email saying the results are in. By logging onto an online account, the customer can see the report and its interpretation. It will include not just the genes for disease risk, but also reports of ancestry and results on things like how much the person is likely to weigh and whether alcohol will elicit flushing of the face, shoulders and neck, or even the entire body.

While some applaud the F.D.A.’s move, saying people do not always need the intervention of medical professionals and genetic counselors to learn their risk for certain diseases, others worry that it sets a dangerous precedent.

People often need genetic counseling before deciding they want to know if they are at risk for Parkinson’s disease, said James Beck, chief scientific officer of the Parkinson’s Foundation. “Once you get the test and read the results, there is no going back,” Dr. Beck said.

But Dr. Robert Green, a genetics professor at Harvard Medical School, said that most people who want to get such information on their own are able to handle it just fine. He has studied tests for Alzheimer’s risk in rigorous studies, asking if patients who simply got their results, without counseling, understood what they were doing and were able to handle the information. The vast majority were, he said. “I do not want to be cavalier,” Dr. Green added. “In some cases people did not realize what they were saying yes to and others did not realize the psychological impact it would have on them. There is some potential for distress, but it is much, much smaller than was anticipated.”

The test’s results do not by any means guarantee that a person will get the disease. Instead, they mean the disease is only more likely. With Alzheimer’s, for example, the test looks for a gene variant called ApoE4. Those with one copy of that gene have a threefold increased risk of Alzheimer’s. Those with two ApoE4 genes have a 15-fold increased risk. The actual risk depends on age, but even having two copies of ApoE4 does not foreordain the disease, Dr. Green emphasized.

From : The New-York times. Read full article here.

Publié dans Ethique, Evolutions sociétales, Gouvernance, Industrie de santé, International, Pathologies majeures, Politique de santé, Prise en charge médicale, Professionnels de santé, Santé publique, Techniques médicales, Technologies, Uncategorized, USA | Tagué , , | Laisser un commentaire

Vers une chirurgie sans sutures ?

Publié le par

La montée en puissance de la chirurgie non-invasive et de nano-polymères collant efficacement des tissus biologiques va-t-elle sonner le glas des sutures chirurgicales? Pas si sûr, répondent les acteurs du secteur, selon lesquels les technologies devraient plutôt se compléter.

– Le synthétique est roi –

Les sutures d’origine naturelle sont en perte de vitesse: le catgut, fabriqué à partir de boyaux d’animaux, a longtemps été courant mais a été banni en chirurgie en Europe après la crise de la vache folle. Quant à l’usage de certains textiles, essentiellement la soie, il tend à se limiter à quelques niches comme l’ophtalmologie ou le dentaire.

Les matériaux synthétiques dominent aujourd’hui le marché mondial. « Ils sont beaucoup plus faciles à produire et moins traumatisants pour les patients, dans le sens où il y a moins de risque d’allergies » grâce à leur meilleure biocompatibilité, explique à l’AFP Cloé Péchon, responsable des produits sutures chez B. Braun France.

Dans la vaste panoplie des sutures, on distingue notamment les résorbables, par hydrolyse avec les fluides du corps, et les non-résorbables, selon que les fils sont destinés à des zones à cicatrisation rapide ou lente.

Malgré tout, « la suture reste un corps étranger », admet Mme Péchon. D’où les efforts des industriels d’aller « vers des colles et des gels », y compris en chirurgie interne.

« Avant on disait: Aux grands chirurgiens les grandes incisions, mais ce n’est plus du tout vrai aujourd’hui », déclare Michel Therin, directeur général du pôle mondial de chirurgie générale chez Medtronic.

Les nouvelles technologies de chirurgie mini-invasive permettent désormais « d’économiser les incisions » en utilisant des micro-caméras, ou en passant par des voies naturelles comme les artères pour la chirurgie vasculaire, explique-t-il à l’AFP. « Pour suturer deux vaisseaux sanguins afin de les rendre étanches, il faut faire de tout petits points de suture. Une colle pourrait avoir un intérêt important, en badigeonnant la surface », reconnaît-il.

– Alchimie de polymères –

De telles colles chirurgicales existent déjà. « Mais elles ne sont pas toujours très simples à utiliser » et peuvent manquer de résistance ou d’adhérence en milieu humide, relève-t-il.

« Le fil et l’aiguille, ça paraît très basique mais c’est redoutable d’efficacité », insiste M. Therin.

Il voit plutôt les colles « compléter l’offre existante » des sutures dans certaines applications, à mesure qu’elles deviendront plus performantes et plus économiques.

Les grands acteurs des sutures ont tous des projets confidentiels sur le sujet. Et suivent de près les efforts de start-up en quête de la meilleure alchimie de nano-polymères.

Les adhésifs « sont clairement l’axe de croissance » du marché du traitement des plaies, selon Christophe Bancel, directeur général de la jeune « medtech » parisienne Gecko Biomedical, qui développe un gel censé cocher toutes les cases: biocompatible, biodégradable, hydrophobe, adhésif et souple.

Ce polymère s’applique à l’état visqueux, puis se polymérise « en quelques secondes » par un stimulus lumineux activé à distance par le chirurgien, explique M. Bancel.

En cas de succès d’un essai clinique en cours, Gecko espère décrocher dès cette année une autorisation de commercialisation en Europe sur une première indication, la reconstruction vasculaire.

Cependant, « il y aura toujours des sutures » dans les prochaines décennies, prédit M. Bancel, qui essaie « d’apporter des solutions seulement là où la suture est délétère » pour le patient.

Source: Science et avenir. Lire l’article dans son intégralité ici.

Publié dans Prise en charge médicale, Techniques médicales, Technologies, Uncategorized | Tagué , , , , | Laisser un commentaire

Les labos accélèrent dans le numérique pour développer la médecine personnalisée

Publié le par
La médecine de précision (ou personnalisée) est devenue un véritable mantra pour les laboratoires pharmaceutiques. Elle permet de diagnostiquer précisément les pathologies dont souffrent les patients et leurs nuances, afin de fournir les traitements les plus adaptés. Pour développer cette forme de médecine, les laboratoires s’intéressent notamment à la génomique. Cette discipline vise à identifier de nouveaux gènes, leurs altérations potentielles, et à séquencer les molécules d’ADN. Ces données sont collectées, analysées et comparées grâce à des algorithmes.Une solution pour diagnostiquer ou connaître les détails des pathologies de façon précoce.

L’industrie pharmaceutique investit ainsi dans les techniques de séquençages, des plateformes d’analyses ou encore la bioinformatique (association de la biologie moléculaire, de l’informatique, les mathématiques et la physique). La médecine de précision intéresse tout particulièrement les laboratoires pharmaceutiques développant des traitements en oncologie, secteur le plus investi par les industriels du médicament. On recense 200 types de cancer, sans compter les sous-types, ce qui pousse les laboratoires à développer des traitements adaptés à des petits groupes de patients.

Partenariats à foison

Pour accélérer dans la médecine personnalisée, certains laboratoires pharmaceutiques développent des infrastructures dédiées à la santé numérique. C’est le cas de Merck & Co. Fin mars, le géant pharmaceutique américain a annoncé son projet de créer une nouvelle infrastructure dédiée aux technologies d’information, avec l’embauche de 600 personnes à la clé, rapporte le site spécialisé Fierce Pharma. La big pharma en possède déjà trois dans le New Jersey (Etats-Unis), la République Tchèque et Singapour. L’objectif de ces centres est de collecter des métadonnées et construire des plateformes dédiées à la médecine personnalisée, explique Merck & Co. La big pharma américaine espère obtenir une « porte d’entrée vers le futur de la santé numérique et de la science ».

Les laboratoires pharmaceutiques multiplient également les partenariats :

  • En décembre, Pfizer a signé un partenariat avec IBM Watson pour avancer dans la découverte de traitements en immuno-oncologie. Le géant pharmaceutique va analyser rapidement des hypothèses de développement grâce à des « données massives et disparates ». Grâce à cet accord, il jouit de 30 millions de sources (laboratoires, documentation médicales).
  • En mars, Novartis a passé un accord avec la startup Cota Healthcare pour utiliser sa plateforme cloud offrant des outils d’analyse de données. L’industriel suisse espère améliorer les effets de ses médicaments sur les cancers du sein, en peaufinant ses connaissances sur les facteurs cliniques variables des patients.
  • Roche a passé le plus important partenariat de ces derniers mois dans la médecine de précision. Il a investi un milliard de dollars pour accéder à la plateforme de Blueprint. Cette dernière compare des profils génomiques de patients pour déterminer quel inhibiteurs de kinase (un enzyme dont le développement peut être responsable de cancers) est le mieux adapté à leur cas.
  • Début mars, la startup Grail, dédiée à la détection de types de cancers précis (du sang notamment), a levé près d’un milliard de dollars auprès de gros investisseurs dont Johnson and Jonhson,  Merck and Co, Celgene et le laboratoire BMS. Ils espèrent bénéficier du savoir-faire et les donnés cliniques de la startup pour développer des médicaments ciblant des types spécifiques de cancers. La startup américaine utilise le séquençage à haute intensité, des données scientifiques, et prépare un essai clinique sur la médecin génomique avec le recrutement de dizaines de milliers de personnes pour mieux identifier les sous-types de la pathologie et les diagnostiquer tôt.
  • Regeneron, une biotech particulièrement rentable (elle a « multiplié par 12 chaque dollar investi sur la période 2011-2015″, selon le BCG), s’est associée à Geisinger Health System, une société américaine apportant des solutions en santé numérique. Dans une publication, ils expliquent avoir étudié les variants génétiques de plus de 50.000 patients pour détecter des mutations génétiques risquant d’entraîner des cancer ou des maladies cardiovasculaires ; de telles mutations ont été repérées chez 3,5% des patients. Ces recherches pourraient donner lieu à de nouveaux traitements, précise Regeneron.

Un marché à 100 milliards de dollars dans quelques années

La médecine de précision devrait représenter un marché de 100 milliards de dollars en 2022 dans le monde, selon MarketsandMarket, boostée par les outils de test génomique et les partenariats avec les industriels pour les logiciels et services de santé numérique, précise le cabinet américain. Cela représenterait autour de 10 % du marché pharmaceutique, attendu à plus de 1.000 milliards de dollars à cette année-là.

Il faut dire que cette stratégie, en cas de succès, confère plusieurs avantages aux laboratoires, d’où leur enthousiasme pour la médecine de précision. Dans une interview accordée à La Tribune, une dirigeante de Roche expliquait qu’elle offre la possibilité de raccourcir la durée des essais cliniques, et potentiellement de lancer ses traitements plus rapidement sur le marché. Également, avec la médecine de précision, une efficacité plus importante pour un nombre de patients réduit pourrait faire grimper les prix, dit-elle.

Car les autorités de santé, si elles cherchent à réaliser des économies, sont prêtes à mettre le prix pour un traitement s’il s’avère suffisamment efficace. En témoigne l’intérêt prononcé ces dernières pour le paiement selon le bénéfice apporté par le médicament. Le dernier accord cadre signé entre le Comité économique des produits de santé et l’industrie pharmaceutique en janvier 2016 intègre ainsi des « contrats de performance ».

Source : La Tribune. Lire l’article dans son intégralité ici.

Publié dans Evolutions numériques, Industrie de santé, Ingénierie du vivant, Médicaments, Prise en charge médicale, Recherche, Systèmes d'information, Techniques médicales, Technologies, Uncategorized | Tagué , , , | Laisser un commentaire

3 points pour réussir sa migration vers le cloud

Publié le par

En passant de 900 millions en 2007 à quasiment 6 milliards d’euros en 2016, le marché français du cloud computing a connu une progression de plus 500% en 10 ans. Et ce n’est que le début ! À en croire les prévisions de Markess International, d’ici à la fin 2018, deux entreprises de plus de 10 salariés sur trois feront appel à un service cloud.

Services financiers et bancaires, e-commerce, tourisme, santé, éducation… De la PME au grand compte en passant par les décideurs de l’Etat et des collectivités, pas un secteur ne résiste à la multiplicité de ses applications qui sont autant d’atouts en termes de flexibilité, de rapidité de déploiements, d’évolutivité ou – bien sûr – de réduction des coûts.

Cependant, passer d’une infrastructure « classique » à un modèle virtualisé est un changement majeur pour toute organisation. Parallèlement à l’attractivité qu’exerce le cloud, des sujets d’appréhension tendent encore à freiner son adoption massive : sécurité et souveraineté des données, complexité des infrastructures, manque de transparence des fournisseurs voire même absence totale de visibilité sur la réalité des performances promises. Là, comme pour tout autre contrat de prestation de services, prudence et bon sens sont de rigueur car bien évidemment tous les clouds ne se valent pas et chaque déploiement doit être adapté aux enjeux spécifiques d’une organisation.

Le passage au cloud ne doit pas être une décision unilatérale

Loin d’être un effet de mode, le cloud est une vraie révolution. Particulièrement stratégique, il induit de nouvelles formes d’organisation et de gestion qu’il est essentiel de prendre en compte pour faire de ses projets d’implémentation une réussite. Et pour 62% des décideurs informatiques dans le monde, cette dernière repose essentiellement sur la collaboration entre métiers et DSI (Étude Oracle – IaaS : building a business that innovates). Si un état des lieux de l’existant est un préalable nécessaire pour confronter la réalité des besoins et contraintes aux différentes formules d’externalisation disponibles (infogérance, offshoring, hébergement), la conduite d’un projet de migration vers le cloud représente l’opportunité rêvée de repenser son système d’information en plaçant l’utilisateur au cœur de sa réflexion globale. À la fois initiateur et récepteur du projet, il n’hésite plus en cas de frustration à court-circuiter l’IT interne avec des solutions self-service au paiement à la demande (ce qui explique la progression fulgurante du phénomène Shadow IT) et finalement, quel que soit le modèle retenu (IaaS, PaaS, SaaS) ou les prestataires choisis, c’est bel et bien la qualité du service rendu et la capacité de la DSI à réussir sa mutation vers la DSI Broker qui fera toute la différence.

Le passage au cloud a une incidence et un impact direct sur le niveau de service, la gouvernance et la sécurité aussi il est prioritaire de commencer par identifier précisément les données, traitements ou services concernés par la migration. Faire un audit préalable avec l’assistance d’un expert indépendant qui connaît les processus, les besoins de ressources informatiques, le budget et les exigences sur la gestion de données propres à l’entreprise peut contribuer à réaliser un cahier des charges en phase avec les besoins réels et de définir des KPI clairs.

La performance n’est rien sans le contrôle et la vérification du respect des engagements contractuels

La confiance est la base de toute relation et la confiance n’exclut pas le contrôle. Bien au contraire, elle se mérite, à l’épreuve des faits tangibles. Une étude réalisée par Compuware en 2014 révélait que ¾ des entreprises ne faisaient pas confiance à leur fournisseur de Cloud. En cause, le manque de visibilité sur les performances réelles des prestations fournies. Cette opacité a contribué à instaurer un climat de défiance, 73% des entreprises soupçonnant leurs prestataires de cacher des problèmes d’infrastructure susceptibles d’impacter les performances des applications.

Aujourd’hui, il n’y a plus aucune raison valable de rester dans le brouillard, des outils indépendants permettent de suivre et contrôler, au quotidien et en toute impartialité la qualité de services de sa plateforme cloud. Leur utilisation permet par ailleurs mieux dialoguer avec son fournisseur sur la base d’une information fiable et un retour d’expérience argumenté.

Gérer la flexibilité, libérer la productivité : Le meilleur du cloud au juste prix

Pourquoi mettre tous ces œufs dans le même panier ? Faire appel à plusieurs fournisseurs de services cloud permet de profiter des avantages propres à chacun pour élaborer une solution en totale adéquation avec les besoins de l’entreprise et de limiter les risques de pannes et d’indisponibilité. Selon une étude menée par IDC en 2015, 86% des entreprises prévoyaient d’utiliser le multi-cloud dans d’ici à 2017. Objectifs : bénéficier de la meilleure infrastructure possible, des meilleurs services et des meilleures plateformes.

Pour les y aider, des moteurs d’aide à la décision commencent à se développer pour une gestion à la carte du cloud. Ils permettent de naviguer à ciel ouvert entre les offres des différents fournisseurs et les facteurs de différenciation des prix. Intelligents, ils prennent en compte les spécificités de l’entreprise, son contexte, les orientations de son architecture ou encore sa réglementation interne pour identifier les ressources IaaS les plus pertinentes, au meilleur prix.

Source: Le monde informatique. Lire l’article dans son intégralité ici.

Publié dans Evolutions numériques, Gouvernance, Management, Système de santé et gouvernance, Technologies, Uncategorized | Tagué , | Laisser un commentaire

Santé : créer un continuum des soins grâce à l’innovation mobile

Publié le par

Il en est de la responsabilité des professionnels de santé d’assurer une prise en charge efficace de leurs patients, du diagnostic au suivi. Cependant, de nombreux organismes peinent à relever ce défi en l’absence d’une chaîne logistique suffisamment performante pour proposer un parcours plus global aux malades.

Les pratiques innovantes en matière de soins de santé évoluent rapidement. Selon un nouveau rapport publié par le cabinet Deloitte, le marché mondial de la santé numérique, estimé à 27 milliards d’euros en 2014, devrait presque voir sa valeur doubler pour atteindre jusqu’à 50 milliards d’euros d’ici 2018. De fait, des progrès technologiques tels que l’accès rapide (« tap and go ») à des stations de travail statiques, le développement de pilules connectées et les systèmes de diagnostics par le biais de dispositifs portables font progressivement leur apparition. Pour autant, l’amélioration des soins dépendra surtout de la capacité des technologies mobiles à révolutionner l’écosystème de la santé dans son ensemble. En effet, la tendance reste actuellement à la réduction des budgets, le secteur subissant une pression constante sur les coûts.

Les acteurs mettant en oeuvre de nouvelles technologies pour les patients doivent garder en tête que le vieillissement de la population et les taux variables d’adoption des services de mobilité seront autant de défis à relever. La question est de savoir comment déployer ces nouvelles technologies mobiles pour au final, contribuer au bien-être des patients.

Un secteur avide de données

Associée à la mobilité, l’analyse de données médicales offre de nouvelles opportunités aux organismes de santé. Grâce à l’intelligence artificielle par exemple, ils peuvent détecter des comportements en matière de santé publique et anticiper des épidémies, le tout en optimisant l’efficacité clinique et opérationnelle.

L’émergence des objets connectés constitue une autre tendance à suivre par les prestataires de santé. Les patients adoptent de plus en plus souvent de tels dispositifs d’eux-mêmes, notamment pour surveiller leur fréquence cardiaque, mesurer leurs nombres de pas (et donc les distances parcourues) et analyser leur sommeil. Dans le cadre du parcours de soin du patient, ces données peuvent avoir un intérêt fort pour le personnel soignant qui peut également les utiliser pour assurer un suivi à distance et en continu. Les prestataires de soins de santé du domaine privé devraient d’ailleurs eux aussi en tirer profit : les données qu’ils utilisent et analysent les aident à adapter leurs coûts d’assurances et les politiques afférentes et proposer à leurs patients une offre plus personnalisée.

En récupérant des données depuis des appareils mobiles, les médecins et autres praticiens bénéficient d’une vue à 360° et en temps réel des malades. En outre, l’accès rapide à n’importe quel terminal sécurisé leur permet d’obtenir plus rapidement des données et de déterminer le protocole de soin approprié. Enfin, les applications de santé peuvent désormais capturer bien plus de données qu’auparavant (résultats de tests, informations sur les médicaments, taux de glycémie, images médicales) et proposer une meilleure qualité de soin que ce soit avant, pendant ou après le traitement des patients. Les meilleures solutions mobiles sont celles qui fournissent le plus de données sur l’état d’un patient et offrent aux organisations une plus grande efficacité de réponse et d’adaptation des traitements.

Les terminaux mobiles rendent aussi possibles les consultations par vidéo, limitant par conséquent les visites à l’hôpital seulement en cas de nécessité. Nous verrons également dans les hôpitaux, en particulier les CHU, des innovations autour de la réalité augmentée et mixte, par exemple pour de la Télémédecine qui pourrait permettre de pallier le manque de couverture géographique de certaines spécialités.

Tout cela semble très prometteur, mais dans les faits, qu’est-ce que cela donne ? Ces innovations impliquent le transfert de données entre les patients, les organismes de santé et l’ensemble du secteur, tous concernés par des enjeux majeurs de sécurité.

Surmonter le défi de la sécurité

En dépit des opportunités qu’elle génère, le principal frein à une adoption massive de ces technologies est la sécurité. Plus les données prennent de la valeur, plus elles sont vulnérables. Les terminaux mobiles offrent aux pirates une véritable passerelle pour s’immiscer dans les dossiers des patients, dans les environnements cliniques et dans les réseaux de praticiens. L’acteur hollywoodien Charlie Sheen annonçait l’année dernière avoir été victime de chantage suite à la découverte d’éléments confidentiels sur son état de santé .

Les organismes de santé doivent faire en sorte que la sécurité ne les empêche pas de révolutionner les soins à travers le monde et voici quelques recommandations pour y parvenir :

1. Donner l’exemple

Les cadres supérieurs sont généralement conscients de la valeur de la mobilité. Cependant, ils doivent également s’assurer de la sécurité des environnements, en particulier dans un secteur aussi réglementé, où les informations sur les patients sont si sensibles et précieuses qu’une gouvernance stricte est nécessaire.

2. Former les professionnels de santé en matière de sécurité mobile

La DSI doit mettre en place les formations et processus adéquats pour aboutir à une meilleure compréhension des contraintes réglementaires. En effet, alors que les dossiers médicaux sur papier peuvent être enfermés dans un hôpital, les données électroniques, elles, font souvent l’objet de transferts d’un établissement à un autre. Le personnel doit donc être formé suffisamment et de façon régulière, et prendre conscience des conséquences d’une fuite.

3. Investir pour réduire les risques

Les organismes de santé ont depuis longtemps commencé à investir dans des outils informatiques. Cependant, pour ne pas se trouver dépassés par tous les changements actuels, il leur faudra surtout investir dans les nouvelles technologies comme la micro-segmentation et les nouvelles méthodes de managements de postes de travail. Ils devront abandonner les outils traditionnels obsolètes et intégrer des solutions de sécurité au cœur de leurs infrastructures pour assurer la protection de l’ensemble des postes de travail au Datacenter. En clair, face à la recrudescence des cyberattaques, il leur faudra faire des choix innovants et structurants pour ces nouveaux usages et pour en limiter les risques.

Le champ des possibles est énorme en matière d’innovations mobiles dans les domaines de santé. L’important sera de créer un centre d’excellence sécurisé afin de soutenir la nouveauté en matière de développement d’applications, et de proposer une expérience sûre et de premier plan pour les patients.

Une fois les technologies de gestion des risques mises en œuvre, les organismes de santé pourront combiner consultations par vidéo, collaboration, contenu et accessoires connectés en mobilité, il sera alors possible d’améliorer les soins administrés aux patients avec un effort budgétaire maitrisé.

Source: Les Echos. Lire l’article dans son intégralité ici.

Publié dans Uncategorized, Santé publique, Politique de santé, Télésanté, Technologies, Systèmes d'information, Techniques médicales, Evolutions numériques, Système de santé et gouvernance, Prise en charge médicale | Tagué , , , , | Laisser un commentaire

Les vêtements du futur mesurent votre rythme cardiaque

Publié le par

Une équipe de physiciens du Laboratoire fédéral d’essai des matériaux et de recherche, situé à Dübendorf, en Suisse, a conçu des fibres optiques plastiques intégrables dans du tissu. Présentées dans le Journal of the Royal Society Interface, elles visent à être utilisées comme des capteurs de fréquence cardiaque, directement intégrés dans différents types de vêtements.

Ainsi, les scientifiques ont par exemple donné forme à un bonnet blanc qui fonctionne comme un appareil de mesure de fréquence cardiaque habituellement appliqué au bout du doigt. Le couvre-chef mesure le pouls depuis le front de son porteur tandis que la fibre optique diffuse une lumière qui se reflète sur la peau du patient, en contact avec un capteur intégré dans les fibres du vêtement. Ce dernier envoie ensuite les données recueillies à un médecin.

La fibre optique polymère a été réalisée à travers un processus de fusion qui l’a rendue plus souple et adaptable aux tissus. Il ne s’agit pas d’un produit facile à réaliser, comme l’explique Maike Quandt, l’auteure de l’étude : « Normalement, ces fibres, que l’on connaît grâce aux technologies de communication, ne sont pas suffisamment souples. »

La fibre développée par le Laboratoire fédéral d’essai des matériaux et de recherche, elle,  « peut être tricotée et nouée » et résiste surtout à un passage en machine à laver, une caractéristique essentielle dans le milieu médical pour éviter la transmission de bactéries. Cette technologie doit aussi permettre de réaliser des examens médicaux sur des patients paraplégiques sans risquer de provoquer des bleus alors que le frottement des capteurs traditionnels a tendance à les blesser.

Les scientifiques envisagent d’utiliser cette nouvelle technologie pour mesurer le métabolisme ou la saturation du sang en oxygène, ce qui contribuera à développer des vêtements sportifs destinés à analyser notre performance physique, comme le fait déjà le maillot sportif intelligent de Polar.

Source: Numérama. Lire l’article dans son intégralité ici.

Publié dans Défense, Evolutions numériques, Industrie de santé, Nanotechnologies, Opérations, Prise en charge médicale, Techniques médicales, Technologies, Uncategorized | Tagué , | 1 commentaire

Attentats, tentatives et projets d’attentats en relation avec le contexte syro – irakien dans les pays occidentaux (2013 – 2016)

Publié le par
Sur la période 2013 -2016, 38 attentats, 9 tentatives et 92 projets d’attentats visant l’Europe occidentale, l’Amérique du Nord et l’Australie ont pu être reliés au contexte syro-irakien, soit 139 événements.
La France est le pays le plus visé par le terrorisme islamiste, devant les Etats-Unis, l’Allemagne, l’Australie et le Royaume-Uni.
Les individus impliqués sont en général de jeunes hommes dans la tranche d’âge des 18- 24 ans. Dans les cas où les individus ont pu être identifiés, 89,4% étaient des hommes et 10,6% étaient des femmes.
Dans environ 67% des cas, la menace était le fait de nationaux du pays visé. Sur la période 2013-2016, un djihadiste occidental sur 142 a commis des attentats en Occident. Entre 2013 et 2016, 3 revenants sur 100 ont participé à des actes terroristes en Occident.
Les djihadistes francophones sont les plus impliqués avec 13,5% des revenants chez les belges et 10,6% chez les français.
Les attentats, tentatives et projets d’attentats menés par des assaillants exécutant leurs opérations seuls représentaient 59% des événements recensés sur la période 2013-2016. 39 opérations terroristes ont été téléguidées à distance par l’État Islamique (EI). En effet, de nombreuses opérations menées par des individus supposément seuls sont en réalité supervisées par des membres de l’EI basés en Syrie ou en Irak.
Dans la majorité des cas (52,6%) les événements recensés visaient des cibles déterminées.
Environ 53% de ces événements ciblaient les forces de l’ordre et les militaires.
Les Engins Explosifs Improvisés (EEI) figurent toujours parmi les armes privilégiées des djihadistes. En 2016, les EEI ont été utilisés dans 29 infractions terroristes contre 2 cas recensés
en 2013. Le recours aux armes simples d’utilisation est en constante augmentation. L’usage de l’arme à feu représente plus d’un tiers des cas recensés contre 23,6% pour les armes blanches. L’une des évolutions marquantes de la période 2014-2016 tient à l’utilisation de véhicules pour mener des tueries de masse.
Les attentats sont de plus en plus meurtriers. Sur la période 2015-2016 le terrorisme islamiste en lien avec le contexte syro-irakien a fait 336 morts en Occident, contre 8 morts sur la période 2013-2014.
Source: Centre d’analyse du terrorisme. Lire l’étude dans son intégralité  ici.
Publié dans Défense, Divers prospective, Opérations, Risques et menaces, Uncategorized | Tagué , , , | Laisser un commentaire