Cyberdéfense, une guerre clandestine permanente ?

La cyberdéfense s’impose comme une nouvelle arme stratégique. La montée en puissance de ce nouveau milieu a déjà contraint le ministère de la Défense à revoir sa doctrine. Ce sera l’un des débats du Paris Air Forum qui se tiendra le 16 juin à la Maison de la Chimie en présence de Guillaume Poupard, directeur général de l’ANSSI (Agence nationale de la sécurité des systèmes d’information), et du général Denis Mercier, commandant allié en charge de la transformation de l’OTAN.

Les questions de surveillance, de défense et de sécurité dans le cyberespace génèrent de nombreux défis pour le ministère de la Défense. Ainsi, les atteintes aux systèmes d’informations peuvent poser une question de souveraineté majeure en cas de prise de contrôle ou de paralysie de secteurs vitaux pour l’État. D’autant que la dépendance au numérique, y compris des systèmes d’armes, s’accroit tous azimuts alors qu’il y a quinze ans le numérique n’existait que de façon embryonnaire. Très clairement, la guerre s’est métamorphosée et va continuer à l’être. Car le cyberespace en expansion continue est toujours en construction (permanente?).

La nouvelle ministre des Armées Sylvie Goulard est d’ailleurs ce mardi en présence du délégué général pour l’armement, Laurent Collet-Billon, au centre de la direction générale de l’armement (DGA) de Bruz en charge de la maîtrise de l’information. Un centre de très haute technologie quasiment unique en Europe qui permet à la France d’être parmi les nations leader dans le domaine de la cyberdéfense. Ce qui n’est pas rien dans un secteur où la rupture technologique est primordiale. Car le cyberespace ne génère que très peu de situation coopérative.

Une priorité nationale

C’est pour cela que les questions de cyberdéfense sont devenues en France « une priorité nationale » d’ailleurs gravée dans le marbre du dernier Livre blanc sur la sécurité et la défense nationale de 2013. L’ancien ministre de la Défense Jean-Yves Le Drian a d’ailleurs très vite senti qu’une « adaptation » de l’outil de défense était « indispensable ». Au regard de cette nouvelle donne stratégique, il a lancé fin 2016 une révision de la doctrine militaire afin d’y intégrer « au mieux l’impact de cette nouvelle capacité ».

« En matière de cyber, je considère que nous avons pris le bon train en 2008, a estimé en février dernier le chef d’état-major des armées, le général Pierre de Villiers. Nous sommes dans le bon wagon, qu’il s’agisse des personnels, mais aussi de la technologie puisque nous sommes capables non seulement de nous protéger, mais aussi de riposter ». La montée en puissance se poursuit à travers la loi de programmation militaire 2014-2019 avec le recrutement d’au moins 1.000 civils et militaires supplémentaires et près de 440 millions d’euros. La LPM prévoit ainsi de multiplier par trois les crédits dédiés au développement et à l’acquisition de nouvelles solutions de cybersécurité.

Une quatrième armée ?

Le commandement des opérations cyber (COMCYBER) aura autorité à partir de 2019 sur toutes les unités opérationnelles de cyberdéfense du ministère, qui mèneront des missions offensives. Soit 2.600 combattants numériques auxquels s’ajouteront 600 experts de la direction générale de l’armement (DGA). Ces forces seront également complétées par 4.400 réservistes de cyberdéfense.

Ce commandement assiste le ministre en matière de cyberdéfense et est placé sous la responsabilité directe du chef d’état-major des armées. Est-ce alors une quatrième armée ? Cela en a tout l’air. Pour autant, le général de Villiers semble opposé à ce concept. « Nous avons trois armées et ce serait une erreur de vouloir créer une quatrième armée du soutien, une quatrième armée des forces spéciales, une quatrième armée de la cyberdéfense… », avait-il expliqué alors même que le cyber est véritablement « un milieu » de combat (au même titre que la terre, l’air et la mer), « mais un milieu totalement transverse », avait-il précisé. Il avait estimé que « nous ne serons efficaces dans cet espace qu’à condition de mener des actions collectives de manière transverse« .

Le COMCYBER ne semble pourtant être qu’un point de départ. Le développement de l’Internet des objets et les avancées continues en matière d’intelligence artificielle vont à termes bouleverser les systèmes de défense en les rendant à la fois plus performants mais aussi en augmentant leur exposition face à la menace cyber. La montée en puissance du cyberespace au niveau mondial va mettre la cyberdéfense de plus en plus au cœur de la stratégie militaire. D’autant que le monde de la cyber favorise l’attaquant… et la clandestinité à l’image d’un marché des failles informatiques, qui s’est développé de façon illégale.

Source: La tribune. Lire l’article dans son intégralité ici.

Publié dans Défense, Evolutions numériques, Opérations, Risques et menaces, Uncategorized | Tagué , | Laisser un commentaire

Face aux neurotechnologies, de nouveaux droits de l’homme s’avèrent nécessaires

De nouveaux droits de l’homme pour se préparer aux progrès de la neurotechnologie qui mettent en danger la liberté de l’esprit ont été proposés dans la revue Life Sciences, Society and Policy. Les auteurs de l’article suggèrent que quatre nouvelles lois pourraient apparaître dans un proche avenir :  le droit à la liberté cognitive, le droit à la vie privée mentale, le droit à l’intégrité mentale et le droit à la continuité psychologique.

Marcello Lenca, auteur principal et doctorant à l’Institut d’éthique biomédicale de l’Université de Bâle, précise : « L’esprit est considéré comme le dernier refuge de la liberté personnelle et de l’autodétermination, mais des progrès dans l’ingénierie neurale, l’imagerie cérébrale et la neurotechnologie mettent en danger la liberté de l’esprit. Nos propositions de loi permettraient aux gens de refuser la neurotechnologie coercitive et invasive, de protéger la vie privée des données recueillies par la neurotechnique et de protéger les aspects physiques et psychologiques de l’esprit contre les dommages provoqués par l’utilisation abusive de la neurotechnologie ».
Les progrès de la neurotechnologie tels que l’imagerie cérébrale et le développement des interfaces cerveau-ordinateur ont provoqué un éloignement de ces technologies du monde médical pour se rapprocher de plus en plus du domaine de la consommation et du marketing. Bien que ces progrès soient bénéfiques pour les individus et la société, il y a un risque que la technologie puisse être mal utilisée et créer des menaces sans précédent pour la liberté personnelle.
Déjà, en 2014, le président Obama s’en était inquiété et avait attiré l’attention sur l’impact potentiel des neurosciences sur les droits de l’homme, soulignant la nécessité d’aborder des questions telles que celles : « concernant la vie privée, la responsabilité morale des actions ; celles sur la stigmatisation et la discrimination basées sur des mesures neurologiques de l’intelligence ou d’autres traits ; et des questions sur l’utilisation appropriée des neurosciences dans le système de justice pénale ».
Bien que la neurotechnologie ait le potentiel d’influer sur les droits de l’homme tels que la vie privée, la liberté de pensée, le droit à l’intégrité mentale, l’absence de discrimination, le droit à un procès équitable ou le principe de l’auto-incrimination, le droit international des droits de l’homme ne fait aucune référence explicite aux neurosciences. Contrairement à d’autres développements biomédicaux, qui ont déjà fait l’objet d’efforts normatifs au niveau national et international, la neurotechnique demeure en grande partie une terra incognita pour les droits de l’homme. Néanmoins, les implications soulevées par la neuroscience et la neurotechnique pour les caractéristiques inhérentes des êtres humains, exigent une réponse rapide et adaptative des droits de l’homme.
Dans leur article, les auteurs affirment que, à l’instar de la trajectoire historique de la «révolution génétique», la «neuro-révolution» en cours remodelera certaines de nos notions éthiques et juridiques. En particulier, ils soutiennent que la sensibilité croissante et la disponibilité des neuroprotections nécessiteront, dans les années à venir, l’émergence de nouveaux droits ou au moins le développement des droits traditionnels pour relever spécifiquement les défis posés par les neurosciences et les neurotechniques.
Les auteurs de l’article s’efforcent de démontrer que « la volonté individuelle d’exercer un contrôle sur sa propre dimension neuro-cognitive ainsi que l’émergence de menaces potentielles pour les biens humains de base ou les intérêts posés par une mauvaise utilisation ou une application inadéquate des dispositifs neurotechniques peuvent nécessiter une reconceptualisation de certains droits de l’homme traditionnels ou même la création de nouveaux droits spécifiques aux neuro-spécifiques ».
Les nouveaux droits préconisés dans cet article – le droit à la liberté cognitive, le droit à la vie privée mentale, le droit à l’intégrité mentale et le droit à la continuité psychologique – répondent à ces exigences.
Les auteurs s’inscrivent dans la démarche du sociologue et bioéthicien américain Paul Root Wolpe qui a suggéré d’établir une ligne rouge autour de l’utilisation des technologies de lecture mentale : « Le crâne devrait être désigné comme un domaine d’intimité absolue. Personne ne devrait pouvoir saper l’esprit d’un individu contre sa volonté. Nous ne devrions pas l’autoriser même avec une ordonnance du tribunal. Nous ne devrions pas le permettre pour la sécurité militaire ou nationale. Nous devrions renoncer à l’utilisation de la technologie dans des circonstances coercitives, même si l’utilisation peut servir le bien public ».
Le volume et la variété des applications neurotechniques augmentent rapidement à l’intérieur et à l’extérieur du cadre clinique et de celui de la recherche. La répartition omniprésente des applications neurologiques moins chères, évolutives et faciles à utiliser a le potentiel d’ouvrir des opportunités sans précédent à l’interface cerveau-machine et de faire que la neurotechnologie soit intrinsèquement intégrée dans notre vie quotidienne. Le terrain normatif devrait donc être préparé de manière urgente pour empêcher une mauvaise utilisation ou des conséquences négatives involontaires. En outre, compte- tenu du caractère fondamental de la dimension neurocognitive, les auteurs appellent à ce que cette réponse normative ne soit pas concentrée exclusivement sur le droit de la responsabilité délictuelle mais aussi sur les problèmes fondamentaux au niveau des droits de l’homme. Cela nécessitera soit une reconceptualisation des droits de l’homme existants, soit même la création de nouveaux droits spécifiques aux neurosciences.
A cet égard, il faut insister sur les risques collatéraux émergents comme le piratage malveillant du cerveau. Marcello Lenca alerte : « La science-fiction peut nous apprendre beaucoup sur la menace potentielle de cette technologie. La neurologie présentée dans certains romans célèbres est déjà une réalité tandis que d’autres technologies sont plus proches ou existent en tant que prototypes militaires et commerciaux ».
Source: UP magazine. Lire l’article dans son intégralité ici.
Publié dans Divers prospective, Droit international humanitaire, Ethique, Evolutions sociétales, Juridique, Uncategorized | Tagué , , , , | Laisser un commentaire

REBS : un laboratoire automatique d’identification des menaces biologiques et chimiques…pour 1$ par jour

L’acronyme signifie « Resource Effective Bio-Identification System » – il s’agit d’un laboratoire mobile autonome, capable de collecter les particules dans l’air ambiant et d’en réaliser l’analyse. Pas besoin d’épiloguer sur les applications, l’actualité montre cruellement la prégnance de telles menaces. Le système fournit une analyse des menaces de type bactéries, virus, aérosols chimiques, et toxines, sans avoir besoin de recourir à un laboratoire ou un service extérieur. Le constructeur annonce une capacité de reconnaissance de 100 menaces différentes en moins de 15mn.

Le système est particulièrement compact (il mesure 46x30x30 cm et ne pèse que 16kg). Il est muni de batteries capables lui assurer une autonomie complète de 18h. Son fonctionnement repose sur la spectroscopie de type Raman. Pour faire simple, la spectroscopie Raman (du nom de son inventeur), est une technique d’analyse non destructive, fondée sur la détection des photons diffusés suite à l’interaction d’un échantillon avec un faisceau de lumière monochromatique. En gros, on éclaire un échantillon au laser, et sa diffraction caractérise sa nature – cela permet d’analyser tous les matériaux (même gazeux) par la signature de diffusion d’un laser optique.

Dans le cas de REBS, les concepteurs ont à la fois travaillé sur l’automatisation du processus de spectroscopie, et l’optimisation de la collecte des échantillons dans l’air ambiant. L’identification des éléments biologiques (bactéries ou virus) se fait par l’analyse spectrale de la membrane cellulaire, de l’ADN ou de l’ARN présent, du contenu intracellulaire ou encore des capsides ou enveloppes virales. Pour les molécules, les liaisons, ou la conformation moléculaires participent également à l’identification. Celle-ci repose sur une approche en trois phases : discrimination « composant organique ou inorganique « (en 0.1s), discrimination « composant biologique ou non » (en 10 s) et identification de la nature de la menace (50 s). On obtient à la fin un signal caractéristique de la menace (ci-dessous, signature spectrale d’une bactérie de type Bacillus Subtilis).

Le système conserve chaque échantillon (il fonctionne comme un ruban, enchâssé dans une cartouche, qui collecte des échantillons et les soumet à l’analyse spectrographique). En cas de détection positive, l’échantillon concerné peut être soumis à un autre laboratoire pour une confirmation en utilisant d’autres techniques (comme une analyse d’ADN par exemple). Et Battelle annonce un taux de fausses alarmes presque nul. En outre, le système est particulièrement économique puisque son coût d’exploitation est annoncé à 1 dollar par jour (sans coûter le coût d’acquisition, aux alentours de 100k$ par système)!

Il s’agit donc d’un outil nouveau et performant, qui peut également fonctionner de manière connectée, en tant que noeud d’un réseau de stations de surveillance.

Source: Blog VMF 214. Lire l’article dans son intégralité ici.

Publié dans Défense, International, Opérations, Risques et menaces, Technologies, Uncategorized, USA | Tagué | Laisser un commentaire

L’état de santé de la population en France – RAPPORT 2017

Cette édition 2017 du rapport relatif à l’état de santé de la population en France conjugue des approches transversales, par population, par déterminants et par pathologies, pour illustrer l’état de santé globalement bon des Français. Il met également en lumière les principaux problèmes de santé auxquels est confronté notre pays et auxquels les politiques publiques doivent répondre.

Pilotée par la DREES, en coordination pour la première fois avec la nouvelle agence nationale de santé publique, cette édition 2017 accorde une place plus large aux données régionales et infrarégionales avec l’introduction de cartes et données supplémentaires et l’ajout de 18 profils régionaux synthétisant les principales caractéristiques démographiques, socioéconomiques et sanitaires des nouvelles régions administratives. Une typologie socio-sanitaire des territoires a été également réalisée : elle permet de mettre en évidence des zones particulièrement vulnérables.

Une attention particulière a été portée à la description des inégalités sociales et territoriales de santé grâce à la déclinaison d’un certain nombre d’indicateurs de mortalité et de morbidité en fonction de l’indice de désavantage social de la commune de résidence. Cette nouvelle édition est aussi l’occasion d’aborder de nouvelles dimensions de la santé comme les cancers de l’enfant et la pénibilité au travail, tandis que certaines fiches thématiques ont été enrichies avec l’introduction de nouveaux indicateurs comme la prévalence des personnes traitées par médicaments antihypertenseurs ou la prévalence du diabète gestationnel.

Ce rapport 2017 a été réalisé dans un contexte fortement évolutif, marqué à la fois par une réforme territoriale d’envergure et un besoin accru d’indicateurs de santé pour la conception, le pilotage et l’évaluation des actions de santé publique.

Source : DREES – Lire le rapport ici.

Publié dans Démographie et Flux, Facteurs démographiques médicaux, Pathologies majeures, Politique de santé, Santé publique, Statistiques sanitaires, Uncategorized, Veille sanitaire | Laisser un commentaire

Une entreprise équipe ses salariés d’exosquelettes pour faciliter la manutention

Une entreprise américaine spécialisée dans le matériel de construction et de jardinage vient d’équiper ses employés d’exosquelettes. Ces harnais accompagnent les mouvements du corps des travailleurs, les aidant à soulever de lourdes charges.

Tandis que Panasonic ambitionne de démultiplier nos capacités physiques avec ses exosquelettes, une chaîne de distribution américaine spécialisée dans le matériel de construction et de jardinage pour particuliers, Lowe, a décidé d’en équiper ses propres employés. Pour les aider à manipuler des objets lourds, l’enseigne s’est associée à Virginia Tech afin de mettre à leur disposition ces étranges accoutrements.

Le harnais s’adapte aux positions du corps

Non motorisés, il se portent comme des harnais, leurs tiges en fibre de carbone remplissant la fonction de tendons artificiels. Autrement dit, ils évoluent au gré des mouvements du porteur, quand celui-ci se penche ou se redresse, par exemple. « C’est une sensation très naturelle, note Kyle Nel, le directeur du laboratoire d’innovations du groupe. Lorsque la personne marche et se penche pour ramasser quelque chose, les tiges collectent de l’énergie potentielle. Et quand elle se redresse, cette énergie est remise dans les jambes et le dos. C’est très doux, et cela donne la sensation que cette chose lourde qu’ils doivent soulever l’est beaucoup moins. »

Quatre exosquelettes sont ainsi en fonctionnement dans un magasin de l’entreprise, à Christiansburg, dans l’État de Virginie. Personnalisés en fonction des employés qui les portent, ces équipements y sont utilisés depuis quatre mois.

En France, la société RB3D s’est spécialisée dans l’assistance aux efforts. Depuis 2009, elle s’est lancée dans le projet Hercule, un exosquelette civil de port et de manutention de charges de travail. Il se destine aussi bien aux laboratoires de recherche et développement qu’aux entreprises qui, comme Lowe, veulent choyer un peu leurs employés.

Source : Numérama. Lire l’article dans son intégralité ici.

Publié dans Pathologies liées au vieillissement et à la sédentarité, Pathologies majeures, RH/Réserves, Uncategorized | Tagué , , | Laisser un commentaire

La médecine est-elle la prochaine conquête de l’intelligence artificielle ?


L’intelligence artificielle a beaucoup fait parler d’elle ces derniers temps. Oui, mais voilà, la plupart des exemples présentant ses avantages supposés ne sont bien souvent que des démonstrations ésotériques allant de la parfaite maîtrise des échecs à la recherche de vidéos de chats sur Internet. Si ces développements participent incontestablement à ouvrir la voie à d’autres avancées significatives, ils suscitent l’interrogation des observateurs tant sur leurs avantages concrets que sur ce que peut bien nous réserver l’ère de l’intelligence de la machine.

Nous nous approchons pourtant du moment charnière où les progrès de l’intelligence de la machine ne se limiteront plus à ces quelques exemples et deviendront de véritables percées capables de changer la donne et de résoudre des problèmes jusqu’alors sans solution. Il n’y a pas de secteur où cela sera plus concret que dans le monde médical.

La machine qui s’occupait de la santé des humains

De toutes les industries où la data est reine, la santé est assurément celle qui en est le plus riche. La conservation des résultats est une pratique à part entière, et ce standard est devenu infiniment plus accessible depuis que les systèmes de santé du monde entier ont basculé vers des dossiers électroniques. Les différentes techniques d’imagerie médicale, comme la radiographie, les scanners et les IRM, profitent toutes d’un stockage numérique.

Et si ces efforts ont initialement été entrepris pour réduire les coûts, améliorer l’efficacité ou encore faciliter les soins prodigués aux patients, ils se révèlent, à l’heure de l’intelligence de la machine, être une fabuleuse source de données pouvant être analysée. De cette source découleront de nouvelles recherches, avec de nouvelles trames, qui dépasseront de loin les capacités de l’être humain.

Cela étant, les données médicales seules ne suffisent pas à créer des avancées majeures. En fait, elles résident déjà pour bonne partie sous une forme numérique depuis des années. Cependant, les algorithmes utilisés jusqu’alors pour les analyser ne s’exécutaient pas assez rapidement pour proposer des informations décisives en temps voulu. Cette situation évolue actuellement grâce à l’utilisation inattendue des technologies graphiques.

Les GPU (Graphics Processing Units) ont traditionnellement été utilisés pour des tâches de rendu graphique ou vidéo. Ils sont au cœur de nombreux affichages, des écrans TV aux expériences de jeux immersives. L’industrie médicale s’attelle maintenant à exploiter leur puissance dans des applications d’intelligence de la machine.

Les récentes avancées en termes de technologie GPU ont contribué à rendre le traitement parallèle de données rapide, peu cher, et puissant. Associée à des plates-formes logicielles open source en constante progression, la performance de calcul peut enfin soutenir la demande des très exigeants algorithmes d’intelligence machine. La capacité à déchiffrer d’incroyables quantités de données aura un impact profond sur notre santé, sur les systèmes de santé, mais aussi sur la prévention et le traitement des maladies.

Prévoir plutôt que guérir

Les plates-formes d’intelligence de la machine commencent tout juste à prouver leur valeur en matière d’amélioration de la médecine préventive et ainsi contribuent à stopper les maladies avant qu’elles ne se déclarentun élément primordial pour toute stratégie de santé. Aux États-Unis, 7 décès sur 10 sont causés, chaque année, par des maladies chroniques (comme le cancer ou les maladies cardiaques), et pratiquement un adulte sur deux souffre d’au moins une maladie chronique, la plupart pouvant être prévenues.

Les chercheurs ont récemment créé un algorithme de diagnostic par intelligence artificielle en programmant un GPU pour fonctionner comme un réseau de neurones. En appliquant de l’apprentissage profond ou « Deep Learning » sur le GPU, l’équipe a appris au réseau de neurones à identifier et différencier deux types de lésions de la peau : bénigne et maligne. Les résultats de l’étude ont démontré que l’algorithme est aussi fiable qu’un dermatologue pour détecter un cancer de la peau.

À ceci près que l’algorithme a le potentiel de proposer des diagnostics très rapidement pour un coût réduit. Avec près de 5,4 millions de nouveaux cas de cancer de la peau déclarés chaque année aux États-Unis, une détection la plus précoce peut avoir des impacts considérables sur le pronostic des patients atteints.

L’intelligence de la machine commence également à être utilisée pour prédire la santé future des individus et des populations par l’analyse des données cliniques et non cliniques afin d’identifier des patients à haut risque avant qu’un désastre ne se déclare. Une adoption plus rapide de ces technologies pourrait conduire à des issues plus favorables pour les patients tout en réduisant le gaspillage dans le système de santé et en répondant aux problématiques de surmédication et de multiples consultations.

Avec une généralisation de ces services, il faut s’attendre à l’avenir à ce que l’apprentissage profond (« Deep Learning ») propose une précision accrue, des analyses plus rapides tout en faisant baisser le coût des soins médicaux.

Mais l’intelligence de la machine façonne également de nouvelles méthodes là où les approches traditionnelles de la recherche n’ont pas été couronnées de succès. Historiquement, le coût de développement des traitements de maladies rares est gargantuesque et souvent prohibitif.

Le nombre de patients vivant avec une maladie orpheline est faible : cela complexifie la recherche de participants pour des essais cliniques coûteux tandis que les compagnies pharmaceutiques rencontrent des difficultés pour rentrer dans leurs frais une fois qu’un nouveau médicament est mis sur le marché. L’intelligence de la machine peut réduire le temps nécessaire à la mise sur le marché d’un nouveau médicament et répondre aux problématiques de coût de la recherche médicale. Cela ne pourra que favoriser les progrès dans les cas où les compagnies pharmaceutiques doivent se contenter de perspectives financières limitées.

Les sociétés les plus novatrices envisagent déjà tout le potentiel de cette technologie, combinant la science biologique et l’apprentissage profond (« Deep Learning »), pour découvrir de nouveaux traitements pour les maladies génétiques rares en s’affranchissant de longues et coûteuses recherches en vue d’élaborer de nouvelles médications. Au fil du temps, les données générées par ces applications pourront aussi devenir une ressource pour des logiciels additionnels ; lesquels pourront aider à expliquer pourquoi certains médicaments fonctionnent et suggérer les pistes les plus prometteuses à explorer.

L’internationalisation de la recherche sur la santé

Ce n’est pas un hasard si les chercheurs se sont largement tournés vers des initiatives open source pour soutenir leurs découvertes tandis que la tendance actuelle conduit à des écosystèmes ouverts. En utilisant des plates-formes de données et d’imagerie gratuites et ouvertes largement disponibles sur Internet, les chercheurs peuvent collaborer à un niveau sans précédent pour le pronostic des patients via l’intelligence artificielle.

Pourquoi l’open source ? Ces plates-formes proposent un riche ensemble de fonctionnalités créé par une communauté de développeurs animés par un seul but. La portabilité logicielle entre les différents écosystèmes matériels évite un verrouillage sur un type de matériel précis tout en bénéficiant des meilleures performances. Les entreprises tout comme les organisations académiques ou gouvernementales ne devraient pas être liées à une solution reposant sur un seul fournisseur.

Les plates-formes ouvertes comme la Radeon Open Compute Platform (ROCm) sont la clé pour améliorer l’accès à des bibliothèques mathématiques. Elles proposent une riche base de langages de programmation modernes qui peuvent accélérer le développement de systèmes de calcul hétérogènes, des systèmes haute performance efficaces sur le plan énergétique. Quant aux solutions matérielles GPU orientées vers le calcul comme les accélérateurs flexibles Radeon Instinct, elles contribuent à offrir davantage de choix dans un marché qui fut un temps verrouillé par un petit nombre de fournisseurs.

Alors que notre cheminement vers l’ère de l’intelligence de la machine se poursuit, de nouveaux accélérateurs basés sur des puces graphiques combinés à des structures open source d’apprentissage profond, nous aiderons à solutionner certains des défis de santé les plus pressants. Nous ne sommes qu’au début de ce fantastique voyage, mais déjà l’intelligence de la machine nous prend à témoin de ses capacités prometteuses pour un monde en meilleure santé.

Source: Numérama. Lire l’article dans son intégralité ici.

Publié dans Dépenses de santé, Evolutions numériques, Gouvernance, Pathologies liées au vieillissement et à la sédentarité, Pathologies majeures, Politique de santé, Prise en charge médicale, Recherche, Santé publique, Système de santé et gouvernance, Systèmes d'information, Techniques médicales, Technologies, Uncategorized | Tagué , , , , | Laisser un commentaire

Pour un nouveau Livre blanc sur le terrorisme

Le Livre blanc du Gouvernement sur la sécurité intérieure face au terrorisme a plus de dix ans. Publié en 2006, ce document avait un triple objectif. Le premier était de mieux comprendre la menace, c’est-à-dire d’analyser le fonctionnement des réseaux d’Al-Qaïda. Le deuxième était d’élaborer une « stratégie de riposte », une « véritable doctrine » pour faire face au djihadisme. Le troisième consistait à informer et responsabiliser la population pour accroître sa résilience. En une décennie, la situation a considérablement évolué : Daech n’existait pas en 2006, les révolutions arabes n’avaient pas eu lieu et la France n’avait pas encore subi la vague d’attentats de 2015-2016. Aujourd’hui, un nouveau Livre blanc sur le terrorisme s’impose.

Des menaces évolutives

Daech en bien sûr un acteur central et son émergence a créé un schisme au sein de la mouvance djihadiste. Cette organisation se caractérise par sa plasticité stratégique : elle est à la fois un proto-État, un mouvement de guérilla et une organisation terroriste. Quand bien même ce proto-État viendrait à être détruit, Daech pourrait poursuivre la lutte en mode dégradé et tenter de frapper les pays occidentaux en utilisant ses combattants étrangers.

Al-Qaïda, quant à elle, n’a pas dit son dernier mot et sa stratégie évolue comme en témoignent ses alliances récentes avec des groupes locaux en Syrie et dans la bande sahélienne. Aucune de ses filiales – du Maghreb à la Péninsule arabique – n’a été mise hors d’état de nuire. À l’heure actuelle, nul ne sait comment les mouvements se revendiquant de l’idéologie salafiste-djihadiste pourraient évoluer. La seule certitude est que la menace va durer. Des scénarii doivent donc être élaborés pour anticiper les reconfigurations de la mouvance djihadiste et la manière dont la France pourrait être impactée.

La transformation de l’antiterrorisme

Depuis l’intervention militaire au Mali (2013) et plus encore depuis l’engagement des armées françaises en Irak (2014) puis en Syrie (2015), le concept de « guerre contre le terrorisme ». est assumé par les plus hautes autorités de l’État. La militarisation de la lutte contre le terrorisme s’observe aussi sur le territoire français depuis le déclenchement de l’opération Sentinelle. Évidemment, cette lutte ne se limite pas au volet militaire. Les services de renseignement, la police, la gendarmerie ou encore la justice ont vu leurs moyens renforcés. Différentes lois antiterroristes – qui permettent d’intervenir toujours plus en amont du processus de radicalisation – ont été adoptées et l’état d’urgence a été prorogé à plusieurs reprises. Des programmes de prévention de la radicalisation ont été expérimentés et le premier centre de réinsertion a connu des débuts difficiles. Trois ans après le lancement du plan de lutte contre la radicalisation, une évaluation de la stratégie et des politiques publiques mises en œuvre serait des plus utiles.

Renforcer la résilience de la société

Enfin, plus encore qu’en 2006, la résilience apparaît comme un enjeu essentiel. Le terrorisme a longtemps été un outil de négociation. Les groupes djihadistes en ont fait un outil de négation de nos valeurs. Face à ces groupes qui veulent faire imploser notre société, nous devons faire corps. La capacité du corps social à encaisser les coups et à faire preuve de cohésion ne se décrète pas. Elle se construit patiemment et les responsables politiques doivent donner l’exemple. Les tentations du repli identitaire et de l’exception sont bien présentes, aujourd’hui, dans notre société. Les considérer comme dangereuses ne relève pas d’une posture morale mais stratégique : les groupes djihadistes misent sur ces dynamiques pour parvenir au délitement de notre nation.

Source: IFRI. Lire l’article dans son intégralité ici.

Publié dans Défense, Gouvernement, Interaction civilo-militaire, Interministériel, Opérations, Risques et menaces, Uncategorized | Tagué , | Laisser un commentaire

Les limites du « technologisme »

Publié dans Budget/Finances, Défense, Opérations, Risques et menaces, Stratégie, Technologies, Uncategorized | Tagué , , , , , | Laisser un commentaire

Quand les innovations de rupture s’imposent au cœur de l’entreprise

Les « Tech Trends 2017 » sont emblématiques de ces mutations profondes de l’entreprise: sophistication croissante de l’analytique et des traitements algorithmiques, recentrage sur l’utilisateur pour lui offrir l’expérience la plus fluide et riche possible, anticipation des ruptures technologiques à venir.

« Dans la plupart des entreprises, la technologie est considérée comme une priorité et mobilise fortement l’attention des dirigeants. Ces derniers l’examinent sous trois angles complémentaires. D’abord, l’angle stratégique : quelles innovations sont susceptibles de remettre en cause les modèles économiques existants ? Ensuite, l’angle opérationnel : comment peuvent-elles contribuer à améliorer la productivité ? Enfin, et c’est assez nouveau, l’angle organisationnel : le capital humain de l’entreprise, son mode de fonctionnement et sa culture, lui permettent-ils de tirer tout le parti des technologies émergentes ? Au cours des dernières années, la technologie a migré de la périphérie vers le centre des réflexions stratégiques, elle alimente aujourd’hui l’ensemble des directions métiers. En parallèle, le rôle des DSI est monté en puissance .», résume Sébastien Ropartz, Associé responsable Deloitte Digital.

Les quatre tendances majeures technologiques identifiées par l’étude Deloitte

1. Tendance #1 – Copier, apprendre, seconder : l’intelligence des machines

De plus en plus d’entreprises devraient associer, dans les deux ans à venir, l’intelligence collective de leurs collaborateurs avec des capacités d’analyse informatique poussées. Pour ce faire, elles pourront s’appuyer à la fois sur les progrès spectaculaires des algorithmes, le cloud, le Big Data, mais aussi, sur de nouveaux modes de coopération entre l’homme et la machine.

L’intelligence artificielle a réalisé des avancées considérables dans une multitude de directions différentes : apprentissage automatisé, réseaux de neurones, informatique cognitive, ou encore RPA (robotic process automation), qui permet à la machine d’assimiler un processus répétitif sans qu’il soit nécessaire de la programmer, mais en «observant » un humain le réaliser.

Dans certains cas, l’intelligence des machines permettra aux entreprises d’automatiser totalement des processus répétitifs, à faible valeur ajoutée, qui nécessitaient auparavant un travail humain.

Mais surtout, elle leur permettra d’améliorer la performance de leurs salariés et l’expérience de leurs clients. Les salariés pourront ainsi disposer de puissants outils d’analyse pour remplir leurs tâches plus efficacement. Les clients, quant à eux, bénéficieront de réponses personnalisées à leurs demandes, instantanément, grâce à des « chatbots ».

Pour la plupart des entreprises, les partenariats – que ce soit avec des laboratoires de recherche universitaires, des grandes entreprises d’Internet ou des start-ups – constitueront le point de passage recommandé pour défricher ce sujet.

Tendance #2 – Extension du domaine de l’analytique : les dark analytics

Si les entreprises sont encore loin d’avoir résolu toutes les questions liées au Big Data, elles perçoivent cependant mieux leur valeur latente et ont commencé à expérimenter des cas d’usage. De fait, 64 % des DSI projettent d’investir dans les capacités techniques et humaines pour exploiter les données de leur entreprise au cours des deux prochaines années.

Mais il reste une grande quantité de données non utilisées aujourd’hui. Cette « matière noire » informationnelle devrait commencer à livrer ses secrets, dans les 18 à 24 mois qui viennent pour les entreprises pionnières. La nouvelle frontière du Big Data, les « dark analytics », recouvre trois types de données aujourd’hui négligées : les informations « dormantes » de l’entreprise, les données non structurées (e-mails, photos ou vidéos) et le web invisible (« deep web ») qui, bien qu’accessible publiquement, n’est pas indexé par les moteurs de recherche classiques.

Ces données recèlent des indications à forte valeur ajoutée pour les entreprises qui sauront les faire parler. Au niveau mondial, les gains de productivité pourraient s’élever à 430 milliards de dollars d’ici 2020. Pour se donner toutes les chances de succès, les entreprises devront privilégier une perspective métier, sous peine de dissiper leurs efforts, et s’ouvrir sur leur environnement, qui détient probablement une partie des données dont elles ont besoin.

Tendance #3 – Fusion du monde physique et numérique : la réalité mixte  

La présence de la technologie dans les entreprises va tendre à s’estomper, au profit d’interactions plus naturelles avec l’utilisateur. C’est la troisième tendance des 18 à 24 prochains mois : la réalité mixte, autorisée par la convergence de la réalité virtuelle ou augmentée, et de l’Internet des objets.

La réalité mixte laisse l’utilisateur évoluer dans son environnement familier, sur lequel elle superpose une couche virtuelle d’informations, par le biais d’un casque de réalité augmentée ou d’un dispositif de projection. Elle lui permet d’interagir avec l’ordinateur par la voix ou les gestes, captés par des dispositifs portés sur lui (wearables) ou situés autour de lui. Le principal bénéfice de la réalité mixte est de reculer la technologie à l’arrière-plan : l’utilisateur dispose d’une totale liberté d’action, sans être gêné par un clavier ou un écran tactile. Il est donc plus engagé et plus efficace.

Les entreprises vont progressivement expérimenter les applications de la réalité mixte : support aux opérateurs de production ou de maintenance, formation, communication, marketing et service client, nouvelles expériences de shopping, etc. Néanmoins, elles vont devoir pour cela résoudre des questions complexes d’ergonomie, de technique et de cyber-sécurité.

Tendance #4 – Conserver une longueur d’avance : les technologies exponentielles

Les technologies numériques ont démontré à quel point l’innovation pouvait perturber les modèles économiques ou organisationnels établis, voire mettre en péril les entreprises insuffisamment vigilantes. Par conséquent, les dirigeants – notamment les DSI – prendront soin de garder un œil sur des domaines technologiques aujourd’hui très fertiles où, même si l’horizon de mise en application paraît plus distant, de l’ordre de 3 à 5 ans, des innovations de ruptures pourraient avoir des répercussions profondes sur leur activité.

Au rang de ces technologies « exponentielles » figurent les nanotechnologies, les biotechnologies, l’informatique quantique et le stockage de l’énergie.

« L’importance de la veille technologique et de la « culture technologique » des dirigeants n’a jamais été aussi grande. Les organisations gagnantes seront celles qui parviendront à anticiper non pas simplement l’innovation incrémentale, qui améliore à la marge leur productivité ou les fonctionnalités de leurs produits et services, mais bien l’innovation radicale – celle qui leur permet de redéfinir leur secteur d’activité ou de réinventer leur modèle de fonctionnement », conclut François-Xavier Leroux, Directeur Deloitte Digital.

L’entreprise cinétique adopte le mouvement permanent. Elle développe la dextérité nécessaire pour surmonter l’inertie opérationnelle et prospérer dans des environnements d’affaires en évolution constante. Dans ce bruit médiatique nourri par les Cassandre et les faux prophètes, écouter les signaux faibles est une gageure. Faire des choix dans cet environnement n’est pas aisé : seule une part des avancées technologiques sont créatrices de valeur et seule leur connaissance intime permet de les discriminer.

Rester spectateur n’est donc plus une option : les mentalités doivent évoluer pour accepter les changements de cap, ces derniers étant beaucoup plus durs à effectuer à l’arrêt. Se mettre en mouvement permet de capter l’énergie nécessaire à la maîtrise de son destin : expérimenter des excursions en dehors de sa zone de confort, former les employés à se former par eux-mêmes et entre eux, nouer des partenariats pour étendre les capacités de l’entreprise au-delà de ses frontières, revendiquer des droits sur de nouvelles sources de données, inventer la collaboration avec les machines…

Prendre de la vitesse pour prendre de la hauteur. L’entreprise cinétique doit être en mesure de se nourrir de ce mouvement qui l’entoure et l’anime, de cette évolution des technologies, des organisations, des services et des usages qui constitue aujourd’hui une force de traction et de transformation formidable.

Source: UP- magazine. Lire l’article dans son intégralité ici.
Publié dans Evolutions numériques, Gouvernance, Ingénierie du vivant, Nanotechnologies, Professionnels de santé, Ressources humaines, Système de santé et gouvernance, Technologies | Tagué , , , , , | Laisser un commentaire

L’exosquelette de Toyota offre de grands espoirs aux paraplégiques qui rêvent de remarcher

Publié le par
Au Japon, Toyota va lancer un exosquelette motorisé dans certains établissements médicaux pour aider les personnes souffrant d’une déficience motrice à remarcher correctement.

C’est un formidable espoir pour toutes les personnes atteintes de paraplégie. Grâce aux importants progrès techniques survenus ces dernières années, les insuffisances de la médecine pour soigner les lésions paralysant les membres inférieurs et le bas du tronc sont désormais en partie compensées artificiellement par des exosquelettes motorisés.

L’idée est la suivante : puisque les jambes ne sont plus en mesure d’assurer leur rôle, on passe par une orthèse — c’est-à-dire un dispositif chargé de compenser une fonction absente ou déficitaire chez le patient — pour lui permettre de retrouver sa pleine autonomie. Des firmes comme ReWalk, basée en Israël, ou Ekso Bionics, sise aux États-Unis, proposent déjà de tels produits.

À cette liste, il faut désormais ajouter Toyota. L’entreprise japonaise, surtout connue pour ses activités dans l’industrie automobile, est aussi présente sur le créneau de l’aide à la personne avec le lancement d’un robot d’assistance à la réadaptation, Welwalk WW-1000, qu’il compte louer pour aider les personnes à retrouver leur mobilité. Date de disponibilité ? Cet automne, uniquement au Japon pour le moment.

Il « est conçu pour aider à la réadaptation des personnes atteintes de paralysie des membres inférieurs à la suite d’un accident vasculaire cérébral (AVC) ou d’une autre cause », explique l’entreprise , qui précise qu’il « est livré avec une gamme de fonctions de soutien de réadaptation basées sur la théorie de l’apprentissage moteur, ce qui inclut la capacité à ajuster le niveau de difficulté en fonction du patient et à fournir des retours d’expérience sur les caractéristiques des mouvements du patient ».

Prometteur, le dispositif n’est pas miraculeux pour autant. Il ne semble être pertinent que pour une personne ayant besoin d’une rééducation au niveau des membres inférieurs. En clair, celui ou celle souffrant de lésions définitives à la suite d’un grave accident ne pourra pas espérer retrouver sa mobilité, même en multipliant les séances.

En outre, le Welwalk ne peut être porté que sur une jambe à la fois du fait de l’encombrement de l’appareil et il ne peut servir à soutenir le poids d’une personne paralysée (ce qui n’est pas intéressant pour un paraplégique, qui a besoin d’un soutien au moins jusqu’aux hanches). Par ailleurs, le Welwalk fonctionne avec une installation fixe sur lesquelles se trouvent des harnais et des barres d’appui.

Vers un dispositif autonome ?

Mais à terme, des appareils plus commodes à porter pourraient voir le jour, de sorte qu’ils pourraient être utilisés sur les deux jambes en même temps. Nul doute que les fabricants de ces produits y pensent déjà, d’autant que le Japon doit faire face au vieillissement de sa population. Mais plus généralement, cela peut déjà servir aux accidentés de la route ou aux personnes ayant besoin de reconstruire leurs muscles, en leur proposant une rééducation que Toyota présente comme plus rapide.

Pour concevoir ce dispositif, dont le développement a pris une dizaine d’années, Toyota, qui s’était déjà illustré par le passé avec des projets du même genre, comme iBot, un fauteuil roulant qui permet aux personnes handicapées de monter des escaliers, s’est associé à l’université de médecine de Fujita. Il est prévu, selon Japan Times, de louer cet équipement à une centaine d’établissements médicaux dans tout le pays.

Combien cela coûtera-t-il ? Toyota évalue à un peu moins de 9 000 euros les frais initiaux et près de 3 000 euros la location mensuelle. Mais à l’image de l’évolution à la baisse du coût du séquençage ADN humain, qui est passé 3 milliards de dollars en 1990 à quelques centaines de dollars aujourd’hui malgré les 3 millions de paires de nucléotides à traiter, qui ne prend plus que quelques heures contre treize ans auparavant, on devine que le prix baissera au fil des ans.

En France aussi, ce type de technologie a de l’avenir. Outre la rééducation pour les blessés, elle pourrait venir en aide aux 2,3 millions de personnes souffrant d’une déficience motrice, soit 5,8 % de la population active, si les problématiques de coût, de confort, d’efficacité, de poids et d’autonomie qui entravent pour l’instant la démocratisation des exosquelettes sont résolues.

Source: Numérama. Lire l’article dans son intégralité ici.

Publié dans International, Pathologies liées au vieillissement et à la sédentarité, Pathologies majeures, Recherche, Services de santé étrangers, Techniques médicales, Technologies, Uncategorized | Tagué , , , | Laisser un commentaire