Neutraliser un médicament dans l’organisme pour stopper ses effets secondaires

Une étape essentielle au cours de la mise au point d’un médicament est l’optimisation de son comportement dans l’organisme après qu’il ait été absorbé par le patient. En effet, ce médicament doit atteindre sa cible biologique en quantité suffisante et pendant suffisamment longtemps. Ainsi, les médicaments sont souvent des molécules dites à longue durée d’action, c’est à dire qu’ils persistent plusieurs jours voire plusieurs semaines ou mois dans l’organisme après leur administration. Cependant, tout médicament peut induire des effets indésirables sans que ceux-ci soient prévisibles ou qu’il y ait erreur médicale.

Pour améliorer l’efficacité des médicaments et réduire leurs effets secondaires, les chercheurs ont depuis longtemps développé des stratégies duales mettant en jeu un principe actif et son antidote. Une approche consiste, lorsque cela est possible, à suppléer l’organisme avec une molécule réactivant ses fonctions biologiques. Cependant le médicament responsable des effets indésirables reste présent longtemps dans l’organisme et continue à produire un effet néfaste.

Pour neutraliser et éliminer les médicaments après la fin du traitement, les chercheurs du Laboratoire de conception et application de molécules bioactives et de l’Institut de génétique et de biologie moléculaire et cellulaire ont imaginé un médicament capable d’être modifié dans l’organisme en réaction à une seconde fonction présente sur un agent de neutralisation « antidote ». Ces deux fonctions doivent bien entendu être non toxique, inertes vis-à-vis de l’organisme, et réagir spécifiquement entre elles. La nouvelle entité formée par cette réaction chimique in vivo doit-être dépourvue de toute activité biologique et rapidement éliminée de la circulation sanguine par excrétion rénale.

Pour valider cette preuve de concept, les chercheurs ont synthétisé un analogue de la Warfarine, un agent anticoagulant, portant une fonction dite « azoture », et un agent de neutralisation portant une fonction susceptible de se greffer à l’anticoagulant via l’azoture. Ce système a réactivé sur demande une coagulation normale sur une souris préalablement soumise à un traitement anticoagulant et cela directement par neutralisation dans la circulation sanguine du principe actif. La nouvelle molécule résultant de la réaction de la Warfarine et de l’antidote est dépourvue de toute activité biologique et rapidement éliminée de l’organisme.

Ce résultat illustre la capacité du chimiste à agir directement dans la circulation sanguine dans un organisme vivant. Elle ouvre une voie originale pour de nombreux traitements et concilie le paradoxe d’un besoin simultané de biodistribution appropriée avec des propriétés d’excrétion rapide. N’oublions pas que l’on estime à 3% les admissions dans les hôpitaux publics  en rapport avec un effet indésirable médicamenteux c’est-à-dire130 000/an patients concernés.

Source: CNRS. Lire l’article dans son intégralité ici.

Publié dans Industrie de santé, Ingénierie du vivant, Médicaments, Pathologies majeures, Prise en charge médicale, Recherche, Risques et menaces, Techniques médicales, Uncategorized | Tagué , | Laisser un commentaire

Nantes et Paris ouvrent le chantier de l’hôpital numérique du futur

Ce sont les trois plus gros projets hospitaliers du pays à horizon 2025-2026. Le futur centre hospitalier universitaire de Nantes ; le nouveau Lariboisière dans la capitale ; et le campus hospitalo-universitaire du Grand Paris Nord à Saint-Ouen. Alors qu’un vent d’innovations technologiques débarque dans le monde de la santé, objets connectés, robots de nouvelle génération, intelligence artificielle, entre autres, les trois établissements comptent bien être à l’avant-garde. Ils viennent de lancer un appel à manifestation d’intérêt sur le thème de « l’hôpital numérique de demain ».

Avis aux innovateurs, ils ont jusqu’au 13 octobre pour soumettre leurs projets aux futurs établissements, via un formulaire Internet commun. Au lieu de chercher des solutions numériques sur étagère, l’idée est de découvrir les innovations encore en préparation. Et d’ouvrir le jeu aux start-up, notamment celles qui naissent au sein de l’hôpital.Aucune dotation financière n’est prévue. L’appel à manifestation d’intérêt permet ainsi d’éviter le lancement d’un appel d’offres. « Les entreprises sélectionnées pourront dialoguer avec nos équipes et affiner avec elles leurs solutions de marché », vante Etienne Grass. Elles pourront, par exemple, mouliner de précieuses données hospitalières. Ces entreprises seront également référencées pour passer des marchés dans le cadre de procédures allégées. L’idée a été piochée auprès de la Société du Grand Paris, dont l’appel à manifestation d’intérêt pour construire le métro numérique de demain a été couronné de succès, avec 170 contributions.

Premier chantier numérique, celui des infrastructures, de la fibre optique au stockage. L’accent sera mis sur la sécurité, car, aux Etats-Unis, les hôpitaux sont fréquemment « rançonnés » : des pirates entrent dans le système d’information, confisquent les données, et réclament de l’argent. Pour sécuriser les données de santé anonymisées, l’hôpital du futur pourrait avoir besoin des technologies blockchain, mais il n’existe pas encore de solution de marché.

Deuxième chantier, les outils à disposition des patients, hors de l’hôpital. Des agents conversationnels (intelligence artificielle), en orientant le malade vers le bon hôpital, pourraient éviter certains appels au Samu. L’AP-HP, qui vient de signer un partenariat avec la start-up Doctolib pour que les patients puissent réserver en ligne les consultations externes, mais aussi les annuler quand ils ont un empêchement, sait pouvoir réaliser d’importantes économies avec ce genre d’application. « Un patient sur sept prend désormais rendez-vous sur Doctolib, et ce partenariat a été mutuellement avantageux dès le premier jour », se félicite Etienne Grass. La consultation coûte 53 euros, avec un taux d’annulation imprévue dans 17 % des cas avant le partenariat.Les agents conversationnels pourraient aussi servir à garder le contact avec les malades chroniques, afin d’éviter crises aiguës et hospitalisations. On peut ainsi imaginer suivre des diabétiques à domicile, pour 2 ou 3 euros par mois. Couplé à des objets connectés équipés de capteurs – spiromètre, tensiomètre -, ce service serait encore plus efficace. L’hôpital Bichat à Paris a ouvert une plate-forme de validation des objets respectant les normes médicales, qui sont encore peu nombreux.

Enfin, troisième chantier, l’organisation des flux de patients dans l’hôpital. En équipant la personne qui vient d’être admise d’un bracelet doté d’une puce, ou bien en connectant son smartphone, on pourrait suivre son parcours depuis un poste central. Un jeu de piste d’autant plus stratégique que l’hôpital moderne fonctionnera encore plus en flux tendu.

Source : Les Echos. Lire l’article dans son intégralité ici.

Publié dans Evolutions numériques, Gestion hospitalière, Management, Prise en charge médicale, Recherche, Techniques médicales, Technologies, Uncategorized | Tagué , , | Laisser un commentaire

Ce nouvel antibiotique est efficace contre des bactéries résistantes

Lors d’expériences en laboratoire, cet antibiotique a détruit un large éventail de bactéries, dont nombre sont résistantes et également pu guérir la scarlatine chez des souris.

Le pseudouridimycine neutralise une enzyme essentielle à quasiment toutes les fonctions de chaque organisme, le polymérase. Mais son mécanisme diffère de celui de la rifampicine, une classe d’antibiotiques qui cible également cette même enzyme.

Ce nouvel anti-microbien est ainsi dix fois moins susceptible de déclencher une résistance aux antibiotiques que ceux actuellement sur le marché. Le PUM a tué vingt espèces de bactéries en laboratoire et a surtout été efficace contre des streptocoques et des staphylocoques, dont plusieurs sont résistants à de multiples antibiotiques.

Des essais cliniques avec ce nouvel antibiotique pourraient démarrer dans les trois ans et être mis sur le marché d’ici dix ans, ont indiqué les chercheurs de l’université Rutgers-New Brunswick et de la firme italienne de biotechnologies Naicons. Cette découverte montre une fois de plus que les bactéries se trouvant dans le sol sont la meilleure source de nouveaux antibiotiques, ont souligné les scientifiques.

Source: Huffington post. Lire l’article dans son intégralité ici.

Publié dans Epidémiologie, Industrie de santé, Médicaments, Pathologies majeures, Prise en charge médicale, Recherche, Risques et menaces, Système de santé et gouvernance, Techniques médicales, Uncategorized | Tagué , | Laisser un commentaire

Bull Sequana, le nouveau supercalculateur français

Dans la course aux supercalculateurs, ce sont les États-Unis et la Chine qui mènent la danse — et de loin ! L’immense majorité des places du top 500 des machines les plus puissantes au monde est accaparée par le duopole sino-américain, qui dépense sans compter dans ce domaine, ne laissant qu’un tout petit espace pour les autres pays, comme la France. Mais l’Hexagone est sur le point de revenir dans le haut du tableau.

En effet, l’infrastructure du très grand centre de calcul (TGCC) du commissariat à l’énergie atomique (CEA) va accueillir fin 2017 le superordinateur Bull Sequana qui sera capable, dans sa configuration initiale, de proposer « une puissance de calcul crête de 8,9 pétaflops  et d’une capacité mémoire distribuée de presque 400 téraoctets », puis, lorsque ses capacités seront étendues, au-delà de 20 pétaflops.

En clair, cela veut dire, pour un calculateur atteignant 20 pétaflops, qu’il est capable de réaliser 20 millions de milliards d’opérations chaque seconde. Vertigineux. Sa puissance est 4,5 fois plus importante que le système Bull Curie actuellement en service au TGCC.

La machine « sera mise à disposition des chercheurs français et européens pour les accompagner dans des domaines académiques et industriels nécessitant une très grande puissance de calcul et de traitement de données », explique Atos, maison-mère de Bull.

La climatologie, l’astrophysique, les sciences de la vie, l’énergie, la science des matériaux, l’intelligence artificielle et la médecine sont autant de secteurs qui ont un grand besoin d’effectuer des calculs intensifs pour effectuer des simulations toujours plus complexes, qu’il s’agisse d’évaluer la physique des plasmas ou de progresser dans l’apprentissage automatique.

Source : Numérama. Lire l’article dans son intégralité ici.

Publié dans Divers prospective, Evolutions numériques, Recherche, Statistiques sanitaires, Techniques médicales, Technologies, Uncategorized, Veille sanitaire | Tagué , , | Laisser un commentaire

12e édition du Prix de l’inventeur européen: le monde médical à l’honneur

Comme chaque année, l’Office européen des brevets (OEB) a récompensé des inventeurs, dans six catégories différentes.
C’est l’équipe composée du néerlandais Jan van den Boogaart et de l’autrichien Oliver Hayden qui a été primée dans la catégorie « Industrie ». Ensemble, ils ont développé le premier test sanguin automatisé pour le paludisme – ou malaria -, qui fait plus de 600.000 victimes par an. Leur procédé ne consiste pas à détecter la présence de pathogènes de la malaria dans le sang via un microscope mais à analyser une combinaison de 30 paramètres sanguins du patient. Grâce à un algorithme, l’analyse de cette « empreinte digitale » de la personne permet d’identifier la malaria avec une précision quasi parfaite.

Une équipe regroupant des chercheurs américains et allemands a été primée pour ses travaux sur l’imagerie médicale de nouvelle génération (OCT). En quelques mots, James G. Fujimoto, Eric A. Swanson et Robert Huber ont développé la tomographie en cohérence optique (OCT) qui permet aux médecins d’obtenir une image précise des tissus mous et des vaisseaux sanguins de leurs patients sans intervention chirurgicale, ni biopsie. « Devenu un standard en ophtalmologie, la OCT offre aux professionnels un instrument décisif pour diagnostiquer à un stade précoce – et donc encore soignable – certaines maladies graves de l’œil. Elle permet ainsi d’éviter certaines complications, y compris les pertes totales ou partielles de la vue. L’utilisation de l’OCT s’est d’ailleurs étendue à d’autres domaines, comme les examens cardiovasculaires, dermatologiques et gastro-intestinaux« , précise l’OEB

Dans la catégorie « Œuvre d’une vie », le jury a récompensé l’italien Rino Rappuoli , l’un des pionniers des « vaccins conjugué  » et du lancement, au début des années 1990, de traitements immunologiques de nouvelle génération particulièrement efficaces contre des maladies comme la diphtérie, la méningite bactérienne ou encore la coqueluche. Egalement père de la « vaccinologie inversée », Rino Rappuoli a révolutionné le monde des vaccins modernes en lançant, en 1999, le premier vaccin dérivé du génome humain. Rino Rappuoli était en compétition avec la française Sylviane Muller, chercheuse du CNRS, qui, avec son équipe, a mis au point un traitement révolutionnaire contre le lupus, une maladie auto-immune chronique. « Avec ce médicament, administré par injection peu dosée, ce qui évite les effets secondaires, les patients voient les symptômes disparaître très rapidement, tout en préservant leur système immunitaire« , explique-t-elle à La Tribune. On estime a environ 5 millions de personnes le nombre de personnes qui souffre de cette pathologie dans le monde.

Quant au « Prix du public », élu par les internautes sur le site de l’OEB, il a été décerné à Adnane Remmal (Maroc). Le biologiste marocain a mis au point une méthode révolutionnaire permettant de renforcer les antibiotiques contre des bactéries de plus en plus résistantes. Utilisant les propriétés de certaines plantes, son procédé consiste à « booster » les antibiotiques grâce à des huiles essentielles. Commercialisée au Maroc, cette innovation doit obtenir les autorisations légales pour pouvoir se développer hors du royaume chérifien.

Source: La Tribune. Lire l’article dans son intégralité ici.

 

Publié dans Divers prospective, Ingénierie du vivant, International, Maladies transmissibles, Pathologies majeures, Recherche, Techniques médicales, Technologies, Uncategorized | Tagué , , , | Laisser un commentaire

Comment associer innovation participative et innovation de rupture grâce à un réseau social

Certains collaborateurs ont de bonnes idées mais pas le bon outil pour les partager. D’autres possèdent l’outil mais pas la culture pour faire émerger des innovations de rupture pourtant essentielles au développement d’une entreprise. Benjamin Duban, cofondateur de Stim, une startup spécialiste dans le management de l’innovation et de la rupture, dévoile comment engager ses collaborateurs dans un process d’innovation grâce à des outils adaptés.

L’innovation participative, pourquoi pas ? Elle se pratique déjà dans bon nombre d’entreprises aujourd’hui et fait émerger de beaux projets qui améliorent le quotidien des employés. De temps en temps, elle permet même de développer des idées originales. Mais, pour la plupart, ces améliorations et idées nouvelles ne font qu’effleurer ce que représente l’innovation. Pendant des années, la vraie innovation, celle de rupture, qui remet en question le business model historique de l’entreprise, semblait ainsi hermétique aux démarches participatives. C’était sans compter sur les avancées de 2016.

L’année 2016 a marqué un tournant pour l’innovation de rupture et l’innovation participative dans les entreprises. Trois phénomènes clé ont permis de faire converger ces deux courants de l’innovation et de leur donner, ensemble, une dimension radicalement nouvelle : la montée en puissance des réseaux sociaux d’entreprise, l’avancée dans les théories de la conception et les travaux dans le web sémantique et l’intelligence artificielle.

La montée en puissance des réseaux sociaux d’entreprise

Ce que l’on sait des RSE :

  • Ils permettent une circulation rapide et à grande échelle de l’information, beaucoup plus qu’auparavant ;
  • Ils soutiennent une circulation transversale au sein de l’entreprise, en rompant radicalement avec les structures traditionnelles de diffusion (par métier, par département…) ;
  • Ils sont construits autour de mécanismes de socialisation fondamentaux : on like, on commente, on s’approprie le contenu des autres… ce qui permet de créer un engouement et un enthousiasme collectifs rares, structurant et motivant des équipes entières, parfois au-delà de tout contrôle hiérarchique ;
  • Ils représentent un gain en performance semblable à l’arrivée des ordinateurs dans les entreprises dans les années 1990 ;
  • Ils sont désormais largement présents dans les entreprises : plus de 65% d’entre elles en ont adopté au moins un.

La recherche en management de l’innovation nous dit que cet apport est fondamental pour le développement d’innovations de rupture. Mais, elle nous dit aussi qu’un RSE, seul, ne fait pas tout…

L’avancée dans les théories de la conception

Récemment, les théories de la conception, et notamment la théorie C-K, nous apprennent plusieurs choses :

  • Contrairement à ce que l’on tendait à croire avec les RSE, il ne suffit pas de rassembler un grand nombre de personnes et laisser libre cours à leurs idées pour générer des innovations de rupture, en particulier sur des sujets complexes et techniques ;
  • La recherche peut modéliser le raisonnement d’innovation et identifie les zones de blocage et de rupture ainsi que les connaissances à acquérir pour dépasser les limites et obstacles de l’innovation participative, de manière efficace.

Ces travaux changent la manière dont les stratégies d’innovation participative seront développées à l’avenir : tout groupe au sein d’un RSE et cherchant à innover commencera par analyser les pièges tendus par ses propres systématismes pour mieux les éviter, puis récoltera et partagera méthodiquement des connaissances nouvelles, afin d’aboutir à une qualité (originalité des idées, valeur et robustesse des pistes) et une quantité d’innovations encore inenvisageables hier.

Mais une telle stratégie d’innovation sur RSE, pour qu’elle soit robuste et réellement en rupture, implique du temps et une logistique à grande échelle, deux fondamentaux qui ne sont pas forcément à disposition de toutes les entreprises. C’est ici qu’interviennent les progrès de l’intelligence artificielle.

Les travaux dans le web sémantique et l’intelligence artificielle

La structuration d’une innovation de rupture sur RSE et l’analyse moderne type C-K requièrent une certaine puissance de raisonnement qui n’est pas nécessairement à la portée de tous, en termes d’organisation et de temps. Elle nécessite notamment un travail de collecte de connaissances et de gestion des contributions en amont, particulièrement chronophage.

C’est pourquoi des chercheurs en conception se sont alliés à la recherche en web sémantique et machine learning pour développer des algorithmes intelligents, capables de transformer l’incommensurable masse de connaissances disponibles en des données structurées, adaptées à la méthode C-K.

C’est un apport essentiel en ce qui concerne l’innovation sur RSE : là où il était difficile de traiter et gérer des contributions collectives et à grande échelle, nous disposons aujourd’hui d’algorithmes pour alimenter les connaissances nouvelles, animer les échanges et discussions entre collaborateurs dispersés et nombreux et, in fine, pour accélérer le processus de préparation en amont de la conception.

Les RSE : catalyseurs de l’innovation participative de rupture

On l’a vu, un RSE seul n’est pas synonyme d’innovation. Mais combinée aux apports de la recherche en conception et en web sémantique, l’innovation sur RSE ouvre un nouveau champ de possibles.

Hier, une entreprise avait le choix entre deux options :

  1. Soit un grand nombre d’employés étaient impliqués sur un RSE mais, sans gestion des contributions, la qualité des innovations restait limitée ;
  2. Soit la conception était réservée à une certaine hiérarchie qui contrôlait les enjeux et le raisonnement, mais perdait en pouvoir de socialisation et en robustesse des idées, notamment par manque de connaissances.

Désormais, ce compromis bancal n’a plus lieu d’être. On peut aujourd’hui impliquer tous les collaborateurs clé de l’entreprise (qu’ils soient 100, 1000, ou 100 000) et piloter précisément leurs raisonnements de conception. Grâce à la puissance des RSE, combinée à la méthode C-K et aux algorithmes développés en web sémantique, une entreprise a désormais accès collectivement à des degrés de rupture inaccessibles auparavant.

Source : Maddyness. Lire l’article dans son intégralité ici.

Publié dans Divers prospective, Gouvernance, Management, Recherche, Systèmes d'information, Technologies, Uncategorized | Tagué , , , , | Laisser un commentaire

Hôpitaux : la cible idéale des hackers

Peu sécurisés et disposant d’équipements critiques, les établissements de santé sont particulièrement sensibles aux attaques informatiques. Des failles qui pourraient remettre en cause la sécurité des patients.

Les cyber maîtres-chanteurs semblent ces derniers temps avoir trouvé une nouvelle proie particulièrement intéressante : les hôpitaux. En mai dernier, le système de santé britannique NHS a été une des principales victimes du ransomware WannaCry. Des milliers de consultations, examens et interventions chirurgicales ont ainsi du être annulées dans plus de 40 établissements en raison du blocage des terminaux. En mars 2016, un hôpital de Boulogne a été visé par trois cyberattaques via le virus Locky, bloquant l’accès à environ 10 000 fichiers. En février, c’était un hôpital californien qui avait du débourser l’équivalent de 17 000 dollars en bitcoin pour retrouver l’accès à son système informatique. Puis MedStar Health, un système informatique qui gère une dizaine d’hôpitaux dans le Maryland aux États-Unis, était lui aussi contraint à désactiver son réseau à la suite d’une attaque informatique.

100 000 dollars la rançon

Au total, 22 hôpitaux ont subi une attaque informatique réussie au cours du premier trimestre 2016, d’après McAfee. Au 2e trimestre 2016, les hôpitaux représentaient 88% des attaques par ransomware, rapporte une étude de l’éditeur de solutions de sécurité NTTSecurity. Assurer la continuité des soins étant souvent une nécessité absolue, les établissements n’ont souvent d’autre choix que de payer rapidement.

Et les hackers le savent bien : selon une étude d’IBM, 62% des entreprises sont prêtes à payer la rançon pour récupérer les données de leurs clients ou de leurs patients. Parmi elles, les informations  détenues par les hôpitaux (dossiers médicaux, numéros de sécurité sociale…) ont une grosse valeur. Sur le marché noir, elles se revendent autour de 50 dollars, 50 fois plus qu’un numéro de carte de crédit, rapporte Symantec. Du coup, les hackers n’hésitent pas à gonfler le montant de la rançon : la moyenne constatée au cours du premier trimestre 2016 par les hôpitaux victimes du ransomware Samsam s’élevait en moyenne à 100 000 dollars, rapporte McAfee.

L’hôpital, bonnet d’âne en matière de sécurité

Le directeur de l’hôpital de Boulogne, piraté en mars 2016, le reconnaît volontiers : «Les personnes mal intentionnées ont souvent un temps d’avance sur nos moyens de défense». Un euphémisme, tant la cybersécurité était jusqu’ici au fin fond des priorités des établissements de santé. Il y consacrent à peine 6% de leur budget, contre 16% en moyenne pour l’industrie, détaille Symantec.

«De nombreux établissements fonctionnent encore sous un environnement informatique obsolète», confirment les spécialistes de McAfee. Le NHS, par exemple, n’avait pas téléchargé la mise à jour Windows évitant l’installation de WannaCry et plusieurs centaines de milliers de ses ordinateurs utilisent encore Windows XP, une véritable passoire en matière de sécurité. D’autre part, les employés, porte d’entrée favorite des emails malicieux, sont peu formés à ces problématiques et cliquent facilement des pièces jointes douteuses, infectant ce faisant l’ensemble du réseau informatique. Pour autant, pas facile de blâmer uniquement un manque de professionnalisme. «Certains anciens dispositifs médicaux ne fonctionnent tout simplement pas avec les nouveaux logiciels», argue Marco Cove, un chercheur en sécurité.

Des robots chirurgiens piratés à distance

L’autre particularité des hôpitaux qui les rend vulnérables, c’est que le système informatique comprend non seulement les ordinateurs traditionnels mais aussi tous les appareils connectés comme les IRM, les pompes à insuline ou les moniteurs des patients. En 2016, des chercheurs de l’université de l’université de Washington ont ainsi réussi à pirater un robot qui guide les gestes du chirurgien par téléassistance. Ils sont parvenus à prendre le contrôle total  de la machine et à pirater le système vidéo, permettant ainsi à n’importe quel internaute de regarder l’opération. Pourtant, un simple cryptage des communications entre la commande de contrôle et les bras du robot permettrait d’éviter la plupart des cyberattaques, avancent les chercheurs. Plus généralement, une attaque par déni de service (saturation du réseau) anéantirait en quelques minutes l’ensemble des équipements connectés.

Heureusement, ce type d’attaques risque de rester rare. D’abord, car à part un terroriste ou un dictateur fou, on voit mal l’intérêt pour un hacker de mettre en danger délibérément la vie de milliers de personnes. Pirater une grande banque est bien plus lucratif. Ensuite, les établissements de santé commencent à prendre conscience des dangers et mettent en place des mesures. «160 serveurs virtuels contiennent l’ensemble des données médicales de l’hôpital», témoigne Olivier Boussekey, le directeur des systèmes d’information du Groupe hospitalier Saint-Joseph, à Paris. «La sécurité informatique est aussi importante pour nous que de donner le bon médicament au bon patient».

Source : Maddyness. Lire l’article dans son intégralité ici.

Publié dans Défense, Evolutions numériques, Gouvernance, Management, Politique de santé, Risques et menaces, Santé publique, Système de santé et gouvernance, Systèmes d'information, Technologies, Uncategorized | Tagué , , , , , | Laisser un commentaire

Quel avenir pour l’UE ? Pour une différenciation assumée

L’Union européenne (UE) se trouve dans une situation que Jean-Claude Juncker, le président de la Commission européenne, a décrite comme étant celle d’une « polycrise », les différentes crises – crise de la zone euro, crise des réfugiés, Brexit et crise de légitimité – ayant tendance à se renforcer mutuellement. Au regard de cette situation inédite, le maintien du statu quo, même avec quelques adaptations à la marge, ne peut plus être une option crédible.

Avec son Livre blanc sur l’avenir de l’Europe, la Commission européenne vient de lancer un débat, afin d’explorer les voies permettant de faire face à cette « polycrise ». Elle a mis en avant deux options qui pourraient infléchir la trajectoire de l’UE :

  • Une différenciation accrue entre le niveau d’intégration des différents États membres qui pourrait prendre la forme d’une Europe à plusieurs vitesses, voire à géométrie variable, inscrite dans la durée.
  • Une concentration de l’UE sur un nombre réduit de champs d’intervention, tout en renforçant sa capacité d’agir dans certains domaines clés.

Le double débat sur une différenciation accrue et une concentration des domaines d’intervention est crucial pour l’avenir de la construction européenne, le maintien de sa cohésion et sa capacité à faire face à des défis nouveaux, notamment les incertitudes géopolitiques en provenance de Moscou et de Washington, les problèmes de terrorisme et de radicalisation, la mise en cause d’un ordre international basé sur le droit, les mutations et ruptures technologiques, ou encore la transition énergétique.

Le positionnement de la France et de l’Allemagne dans ce débat sera d’une importance primordiale pour son cours et ses résultats.

Faire des choix dans le processus d’intégration

Le groupe de réflexion franco-allemand, composé de spécialistes des relations franco-allemandes et se réunissant sous l’égide du Cerfa (Ifri) et de la fondation Genshagen part d’un constat clair. Poursuivre en même temps les trois objectifs d’élargissement de l’UE, d’approfondissement du niveau d’intégration et de sauvegarde de l’homogénéité d’intégration pour tous les États membres n’est plus tenable à 27. Les trois objectifs forment un triangle impossible. Seuls deux de ces trois objectifs peuvent être poursuivis en même temps. Donc, il faut faire des choix. Les élargissements majeurs sont derrière nous, bien que demeure la question des pays des Balkans occidentaux (Serbie, Macédoine, Monténégro) auxquels l’UE a fait des promesses et qui sont tentés de regarder parfois vers d’autres solidarités par défaut, en particulier la Russie et la Turquie.

L’UE se trouve confrontée à un choix clair entre homogénéité et approfondissement. Dans cette UE à 27 devenue de plus en plus hétérogène à chaque étape d’élargissement, les deux objectifs sont devenus incompatibles.

Les deux obstacles politiques majeurs à surmonter sont récurrents :

  • Le refus d’un certain nombre de gouvernements de différents États membres d’aller de l’avant dans des domaines qu’ils considèrent au cœur de leur souveraineté nationale.
  • Le manque d’appétit et d’enthousiasme (c’est le moins que l’on puisse dire) des populations des États membres pour une nouvelle étape de centralisation des compétences au profit de l’UE.

Assumer les coopérations à quelques-uns

Le premier obstacle peut être surmonté en regroupant les États qui veulent et peuvent renforcer leur degré de coopération, voire d’intégration. La France et l’Allemagne ont un rôle clé à jouer en tant que force de proposition. Si le processus de consultation reste ouvert à tous ceux qui veulent activement participer, le leadership franco-allemand paraît tout à fait légitime. Il faut envisager la différenciation en priorité à l’intérieur des traités, en utilisant au maximum les procédures existantes, notamment celles de coopérations renforcées ou de coopération permanente structurée dans le domaine de la Politique étrangère de sécurité commune (PESC) et de la Politique européenne de sécurité et de défense (PESD). Tous les instruments existent pour qu’on utilise les traités sans une nouvelle réforme, qui ferait prendre le risque d’un rejet lors des procédures nationales de ratification.

Toutefois, si un certain nombre d’États veut bloquer une telle démarche de coopération renforcée ou structurée d’un sous-ensemble de l’UE, il ne faut pas hésiter alors à recourir à des accords ou des traités ad hoc à l’extérieur du cadre de l’UE qui devraient être reconnus comme conformes à l’esprit de l’Union. La voie à poursuivre est celle qui vise à définir le contenu de projets de coopération ou d’intégration dans des domaines d’action précis, et d’aller de l’avant avec les États qui y sont prêts. La forme institutionnelle et juridique que ces entreprises prennent doit être choisie en fonction du cercle de pays qui veulent y participer. Autrement dit : la forme doit suivre la politique publique.

Légiférer moins, mais mieux

Afin de surmonter le deuxième obstacle politique majeur – la méfiance d’une part croissante des populations de l’UE à un processus de transfert de compétences au niveau européen – il faut une disposition visant à réduire le niveau des intégrations dans des domaines d’action où la plus-value est faible, voire inexistante. C’est l’utilisation enfin réelle du principe de subsidiarité introduit par le traité de Maastricht qui a du mal à trouver son fonctionnement en pratique, malgré tous les efforts de la Commission Juncker pour réduire les domaines d’intervention de l’UE. À traités constants, le degré d’intervention de l’UE dans telle ou telle politique publique pourrait encore être réduit, le nombre de propositions nouvelles limitées, et un nombre de directives et de règlements encore abrogés à la suite du travail engagé par le vice-président néerlandais de la Commission, Frans Timmermans.

Le groupe de réflexion est conscient que l’accroissement de la différenciation fonctionnelle et géographique n’est pas sans danger : celui de libérer des forces centrifuges, de complexifier les groupes d’États et les cadres institutionnels de gouvernance rendus encore plus illisibles aux yeux des citoyens, et enfin de renforcer une perception de domination des grands États membres par les petits États membres.

Trois domaines d’action fonctionnels

Pour garantir la cohésion du nouvel ensemble différencié, il paraît essentiel que la France et l’Allemagne assument pleinement le rôle d’une « force de cohésion » en étant présent dans trois domaines d’action fonctionnels :

  • l’eurozone ;
  • la sécurité et la défense militaire ;
  • la libre circulation des personnes (y compris les mesures de gestion commune des réfugiés et de surveillance des frontières).

L’Allemagne et la France au cœur d’un changement de paradigme

Le groupe de réflexion propose donc un double changement de paradigme.

  • Abandonner l’illusion de moins en moins crédible que les États membres pourraient, même à terme, retrouver un niveau d’intégration homogène.
  • Abandonner le paradigme d’une UE poursuivant le chemin d’intégration dans des domaines d’action toujours plus nombreux.

Source: IFRI – Groupe de réflexion franco-allemand, composé de spécialistes des relations franco-allemandes et se réunissant sous l’égide du Cerfa (Ifri) et de la fondation Genshagen. Lire l’article dans son intégralité ici.

Publié dans Coopération internationale, Coopérations, Défense, Diplomatie et santé, Europe de la défense, Evolutions sociétales, GE, International, Uncategorized | Tagué | Laisser un commentaire

D’ici 3 ans Microsoft promet de stocker des données dans l’ADN

L’ADN contient les instructions génétiques qui organisent le développement des organismes vivants. Celles-ci sont encodées dans la fameuse double hélice découverte par James Watson et Francis Crick. Les ingénieurs de Microsoft affirment dans la MIT Technology Review être en passe d’utiliser un système de stockage opérationnel inscrit dans l’ADN et fonctionnant dans des datacenters d’ici trois ans
Le stockage des données n’est pas une mince affaire quand on songe qu’un plus grand nombre de données ont été générées au cours des deux dernières années que dans toute l’histoire de l’humanité. Les données s’accumulent de façon exponentielle et s’inscrivent sur des supports magnétiques dont la durée de vie au-delà de trente ans semble problématique. Alors chercher un autre type de support a été depuis des décennies un enjeu majeur. Dans les années 1940, le physicien Erwin, celui que l’on connaît pour son chat dans la boîte de Schrödinger, a proposé un «code-script» héréditaire qui pourrait être embarqué dans une structure non récurrente qu’il a décrite comme un cristal apériodique.
Sa suggestion a inspiré James Watson et Francis Crick pour déterminer la structure hélicoïdale de l’ADN basée sur la recherche de Rosalind Franklin, déclenchant une révolution dans la compréhension de la mécanique de la vie.
Bien que des séquences d’acide nucléique aient été utilisées pour recueillir des informations sur les cellules vivantes pendant des milliards d’années, leur rôle dans le stockage des données informatiques a été démontré pour la première fois il y a seulement cinq ans, lorsqu’un généticien de l’Université de Harvard a encodé son livre –y compris les données jpg pour les illustrations– dans un peu moins de 55000 mille brins d’ADN. Depuis lors, la technologie a progressé à tel point que les scientifiques ont pu enregistrer 215 petabytes (215 millions de gigaoctets) d’informations sur un seul gramme d’ADN.
Selon le magazine ZDNet, l’ADN peut stocker des données avec des densités record. « L’ADN est le support de stockage connu le plus dense de l’univers » explique Victor Zhirnov, de Semiconductor Research Corporation. L’ADN est bien plus résistant que le silicium. Sa durée de vie est estimée entre cent et mille fois plus longue qu’un dispositif réalisé avec du silicium. La molécule est si stable qu’elle est fréquemment retrouvée dans les ossements de mammouths par exemple. Mais sa caractéristique la plus importante est sa densité. L’ADN peut contenir 1.000.000.000.000.000.000 (c’est à dire un quintillion de bits de données dans un millimètre cube. À cette échelle, stocker toute l’information produite depuis que l’humanité existe pourrait tenir dans un espace de quelques mètres carrés seulement.
Le problème avec le stockage de données sur de l’ADN c’est que c’est lent et que c’est cher. Des obstacles qui seraient en passe d’être surmontés selon Microsoft.
L’année dernière la firme informatique avait démontré sa technologie de stockage de données d’ADN en codant environ 200 mégaoctets de données sous la forme de 100 classiques littéraires dans les quatre bases de l’ADN dans un processus unique. Selon la revue du MIT, ce processus aurait coûté environ 800000 $ US à l’aide de matériaux sur le marché libre, ce qui signifie qu’il faudrait qu’il soit un millier de fois moins cher pour en faire une option concurrentielle. Circonstance aggravante, le processus d’encodage est aussi incroyablement lent, avec des données stockées à un débit d’environ 400 octets par seconde. Microsoft dit qu’il faut atteindre environ 100 mégaoctets par seconde pour être viable commercialement. Il est vrai que la conversion de bits numériques en code ADN (constitué de chaînes de nucléotides étiquetés A, G, C et T) reste compliquée et coûteuse en raison du processus chimique utilisé pour fabriquer des brins d’ADN. Pour sa démonstration Microsoft a utilisé 13.448.372 morceaux d’ADN uniques.
Microsoft travaille sur cette recherche avec un écosystème d’entreprises et de startups : Twist Bioscience, un fabricant d’ADN situé à San Francisco, DNAScript, Nuclera Nucleics, Evonetix, Molecular Assemblies, Catalog DNA, Helixworks et Genome Foundry.
Jean Bolot, directeur scientifique de Technicolor Research, à Los Altos, affirme à MIT Technological Review qu’il finance ce travail à l’Université de Harvard, dans le laboratoire de George Church, l’expert en génomique. « Je suis convaincu que nous aurons des résultats dont nous pourrons parler dès cette année », dit-il. Il ajoute que sa société a discuté avec des studios de cinéma sur la façon dont ils pourraient utiliser le stockage de l’ADN. Il affirme que la moitié de tous les films réalisés avant 1951 sont déjà perdus parce qu’ils étaient stockés sur du celluloïd. Maintenant les nouveaux formats comme la vidéo haute définition et la réalité virtuelle exigent plus de la capacité des studios à préserver leur travail.
Un porte-parole de Microsoft Research a déclaré à MIT Technology Review que la société ne pouvait pas confirmer « des précisions sur un plan de produit » pour l’instant. À l’intérieur de l’entreprise, l’idée de stockage d’ADN est largement défendue mais n’est pas encore universellement acceptée. L’objectif est pour l’heure de mettre sur pied un « système proto-commercial d’ici trois ans stockant une quantité de données sur l’ADN dans l’un de nos centres de données » explique Doug Carmean, architecte chez Microsoft Research.
Microsoft garde encore le mystère que sa capacité à baisser les coûts du processus et l’accélérer, mais les progrès dans les biotechnologies montrent chaque jour une baisse du coût du séquençage des gènes, de sorte que l’objectif de la fin de la décennie paraît réaliste.
Quand bien même cet objectif serait atteint, il est probable qu’il ne serait utilisé que dans certaines circonstances pour les clients disposés à payer une solution de stockage spécialisée –comme les archives critiques des données médicales ou juridiques– plutôt que de remplacer les méthodes de stockage à grande échelle courantes.
Dans ce domaine, la science-fiction rejoint la réalité à toute vitesse et rien n’interdit de penser que, finalement, le stockage de données fondé sur l’ADN pourrait un jour impliquer des ordinateurs vivants.
En effet, alors que la solution de stockage d’ADN de Microsoft est basée sur des puces, il est possible que les futures versions de stockage impliquent des enzymes ou des bactéries conçues pour effectuer des calculs.
Même à l’extérieur des cellules, l’ADN offre potentiellement de nouvelles façons de calculer les données, ouvrant des moyens de réduire rapidement les nombres de certains problèmes, tout comme les ordinateurs quantiques le font pour d’autres domaines des mathématiques. Pour l’instant, il semble que l’ADN ait un rôle solide à jouer pour résoudre un problème très réel de gestion de masses considérables de données, problème qui ne fera que s’aggraver dans le temps.
Source: UP magazine. Lire l’article dans son intégralité ici.
Publié dans Ethique, Evolutions numériques, Evolutions sociétales, Politique de santé, Santé publique, Technologies, Uncategorized | Tagué , , | Laisser un commentaire

Une plateforme de visioconsultation en psychiatrie sera lancée en septembre

LA MÉDECINE PSYCHIATRIQUE À L’HEURE DU NUMÉRIQUE

Spécialisée dans les domaines de la psychiatrie, pédopsychiatrie, addictologie et nutrition, la start-up Doctoconsult ambitionne de devenir leader dans la médecine du bien-être psychologique et de la santé mentale sur internet.  Elle est pour cela accompagnée par Paris Biotech Santé, l’incubateur de l’hôpital Cochin et l’accélérateur Santé de Scientipôle. Elle est supervisée par un comité médical dédié, dont fait notamment partie le Docteur Christophe André.

Doctoconsult est convaincue que la e-santé constitue un puissant levier d’efficience pour le système de santé français  en proposant une solution complémentaire à la consultation traditionnelle pour répondre à un double besoin : la simplification de l’accès aux soins pour les patients et le souhait de mieux les accompagner pour les médecins.

Doctoconsult détient tous les agréments : à l’instar de la consultation traditionnelle, pour le patient, les honoraires sont (en partie) pris en charge par la sécurité sociale et les mutuelles.

Doctoconsult protège les données personnelles : l’architecture de la plateforme a été établie selon les normes de sécurisation les plus strictes imposées par la réglementation française. Le flux vidéo est crypté, le site est hébergé par Coreye (certifié e-santé) et une déclaration de conformité a été émise par la CNIL.
Doctoconsult contribue au développement de la médecine du futur : le domaine de la psychiatrie est une spécialité pour laquelle assurer un suivi quotidien auprès du patient est essentiel, augmente de façon exponentielle la réussite des prises en charge et participe à l’amélioration de l’efficacité des soins.

Dans cette optique, Doctoconsult entend faire évoluer sa plateforme vers la télémédecine de deuxième génération en proposant une consultation enrichie d’outils et de services permettant un meilleur suivi du parcours de soins :
– thérapie par réalité virtuelle,
– Serious games,
– utilisation d’objets connectés,
– applications de suivi thérapeutique,
– amélioration de l’accompagnement par intelligence artificielle.

DOCTOCONSULT, RÉVOLUTIONNE LA PRATIQUE

Doctoconsult est accessible partout et favorise la souplesse : jouant la carte de la complémentarité en apportant une nouvelle brique de services aux médecins, disponible à distance via une interface accessible depuis un ordinateur, une tablette ou un mobile, Doctoconsult permet au médecin d’aménager librement ses horaires et d’éviter la location d’un cabinet.

Doctoconsult facilite l’accès aux soins : d’une part en luttant contre les déserts médicaux en donnant accès à des spécialités souvent indisponibles à proximité du domicile des patients (trouble du sommeil, pédopsychiatrie, anorexie…), d’autre part en permettant aux personnes ayant des difficultés pour se déplacer de consulter plus facilement (femmes enceintes, personnes âgées ou souffrant de handicap…).

Doctoconsult améliore la relation avec le patient : le médecin est en mesure de proposer à sa patientèle un suivi plus régulier et des outils innovants pour un accompagnement plus efficace.

Doctoconsult valorise l’expertise et constitue un tremplin : en s’adressant à une audience plus large, le médecin valorise son expérience thérapeutique et diversifie sa pratique. Pour les jeunes médecins qui s’installent, la plateforme constitue un formidable levier pour créer leur patientèle.

Doctoconsult propose un système de rémunération transparent : pour les médecins, la demande d’inscription est gratuite et se fait directement en ligne. Chaque adhésion est validée par le Comité Médical de Doctoconsult. Le médecin fixe librement le montant des honoraires, sur lesquels le site perçoit une commission de 15%. Une fois la consultation terminée, les honoraires sont débités et intégralement reversés au médecin. Une facture – imputable aux frais de fonctionnement de cabinet – est éditée mensuellement sur le compte bancaire du professionnel.

Source: caducée.net. Lire l’article dans son intégralité ici.

Publié dans Evolutions numériques, Facteurs démographiques médicaux, Gouvernance, Pathologies majeures, Politique de santé, Prise en charge médicale, Santé publique, Techniques médicales, Technologies, Uncategorized | Tagué , , | Laisser un commentaire