Résoudre les problèmes de latence, de sécurité et d'évolutivité

26th June 2019
Posted By : Victoria Chercasova
Résoudre les problèmes de latence, de sécurité et d'évolutivité

Les rencontres des Hardware Pioneers s’imposent comme d’incontournables sources de connaissances  pour tous les acteurs des innovations liées à l’Internet des objets (IdO). La dernière en date, qui s’est déroulée dans le centre de Londres, était intitulée « Building Smarter IoT Products at the Edge » (Créer des produits IdO plus intelligents en bordure). 

Elle a donné lieu à un événement stimulant et éclairant, offrant une tribune à divers experts du secteur, qui ont présenté leur vision des avancées que l’intelligence artificielle (IA) pourrait produire d’ici quelques années et des implications pour les technologies des semi-conducteurs, des cartes de circuits intégrés et des logiciels. 

C’est Matthieu Chevrier de Texas Instruments, qui a pris la parole en premier. Comme il l’a expliqué, dans les années 50 et 60, c’était l’accumulation d’une multitude de capteurs (et l’accès aux données contextuelles qu’ils récupéraient) qui permettait de transformer des machines « stupides » en robots plus « conscients ». Aujourd’hui, la robotique aborde une phase qu’il qualifie, empruntant au vocabulaire de la paléontologie, d’« explosion cambrienne ». Dans le domaine des applications, de multiples opportunités commencent à éclore et on voit apparaître de nouveaux modèles de robots et de plateformes de développement de robots.

La diversité des capteurs existants et leur niveau de sophistication sont beaucoup plus élevés que ceux que les précédentes générations de robots ont connu. Cela étant, il reste encore à affiner les stratégies liées à l’exploitation des données qui en découlent. Si l’on veut réaliser le plein potentiel des robots, ils devront être capables d’interagir étroitement avec nous, humains. Dans le contexte de la production, au lieu de les isoler des opérateurs humains , ils devront donc être capables de travailler juste à côté d’eux, et de collaborer directement aux tâches leur étant attribuées. 

L’élément déterminant dans l’utilisation de ces « cobots » sera leur capacité à détecter précisément la présence de collègues de travail humains autour d’eux. Matthieu a donné des explications détaillées sur les nombreux capteurs susceptibles de remplir ces fonctions : capteurs temps de vol (ToF), LiDAR, mmWave, etc. De même, les drones de livraison devront peut-être embarquer ce genre de technologies pour détecter la présence des lignes électriques afin de les éviter durant le vol, ce que des capteurs d’images conventionnels n’arriveraient sans doute pas à faire. 

Une fois les données acquises, c’est au moment de les digérer et d’y réagir de manière appropriée que l’IA entre en jeu. Si jusqu’ici cette mission a été largement dévolue aux serveurs dans le cloud, les choses sont appelées à évoluer. À l’avenir, une grande part des activités de traitement de l’IA devront être réalisées in situ (que ce soit par des cobots, des drones ou des nœuds de capteurs IdO). C’est à ce même thème que se consacreront les trois intervenants durant la soirée, chacun mettant l’accent sur un aspect différent. 

Que ce soit dans un scénario de surveillance industrielle, de voiture autonome ou de robotique, renvoyer une grande quantité de données captées vers le cloud est un processus bien trop long pour être praticable. Il faudra plutôt miser sur un traitement à faible latence pour assurer une réactivité en temps réel. Pour prendre en compte les frais généraux du traitement en bordure, il sera nécessaire d’utiliser des systèmes optimisés. Le système sur une puce (SoC) AM5749 de Texas Instruments en est un exemple. Il prend en charge des modèles de réseaux de neurones entraînés créés via une infrastructure dans le cloud et les exécute dans des paramètres d’application à ressources limitées – en bordure.

Reprenant l’analogie de l’explosion cambrienne utilisée par Matthieu, le porte-parole d’ARM, Chris Shore, a expliqué que depuis la création de l’entreprise, il y a 26 ans, il a supervisé (en collaboration avec ses partenaires de semi-conducteurs) l’expédition de quelque 100 milliards de cartes à puce aux quatre coins du globe – un chiffre à donner le tournis. Or, selon les prévisions d’ARM, compte-tenu de la prolifération soutenue de l’IA, il devrait en fournir 100 milliards de plus, mais cette fois sur une période de quatre ans seulement.

Comme Matthieu, il s’est interrogé sur la validité du procédé actuel, consistant à renvoyer l’intelligence du système vers le cloud. Bien qu’il ait l’avantage de concentrer toutes les données, il soulève des problèmes évidents. Outre la question de la latence déjà évoquée, il a mis en avant les aspects sécurité et consommation. 

L’approche qu’il préconise est celle du calcul de la taille adaptée, au bon endroit du réseau, en précisant que s’en remettre au cloud ne pouvait être une solution pérenne. Il estime en effet qu’il serait plus pertinent de « penser local » – en favorisant la prise de décision en bordure lorsque c’est possible, et de réinjecter une quantité de données nettement réduite dans le cloud en fonction des besoins (en l’occurrence de la possibilité d’en tirer une valeur). Selon lui, une grande partie de l’intelligence implémentée dépendra de l’accès à des bibliothèques logicielles optimisées capables de prendre en charge des fonctions telles que le traitement numérique des signaux (TNS) et l’accélération des réseaux de neurones.

Chris a expliqué au public en quoi les membres de la dernière génération de cœurs ARM (tel que le Cortex-M4, avec fonctionnalité DSP intégrée) étaient particulièrement adaptés aux opérations de calcul sur appareil et pouvaient respecter les contraintes de consommation, d’espace et de budget, tout en garantissant les fonctions de sécurité avancées requises. L’architecture de sécurité pour la plateforme de l’entreprise permet de réaliser une analyse approfondie pour détecter les vulnérabilités potentielles et gérer les menaces de sécurité que représentent les programmes malveillants, les interruptions des communications et les dégâts matériels. Par ailleurs, elle intervient aussi dans la conception et le déploiement de systèmes nettement plus sécurisés. 

Parmi les sociétés dans lesquelles ARM a récemment décidé 'investir financièrement, figure Swim.ai et c’est Greg Holland qui a été désigné pour mettre les choses en place. Cette jeune pousse basée à San José a mis au point une plateforme en open source dédiée aux applications de streaming en bordure (par exemple visionner du contenu vidéo depuis des caméras à distance) et a d’ores et déjà conquis les secteurs de la ville intelligente (gestion du trafic routier, etc.) et des techniques d’automatisation industrielles. Compte-tenu de la multitude d’appareils que les réseaux IdO sont appelés à couvrir, le critère de l’évolutivité jouera un rôle crucial dans un contexte d’augmentation phénoménale du volume global des données en circulation. Jusqu’à présent, le domaine du logiciel en bordure est effectivement resté statique (n’employant qu’un ensemble limité de réponses face aux événements), mais le secteur cherche désormais à le rendre nettement plus adaptatif (en le dotant de capacités de réponse dynamiques). Les ensembles de données compilés par les nœuds de capteurs IdO sont souvent extrêmement volumineux (par exemple les séquences vidéo générées par une seule intersection routière approcheraient les 40 Gb par jour), mais les densités d’informations réelles seraient largement inférieures en comparaison (car seule une toute petite partie peut s’avérer pertinente). Étant donné que dans la plupart des cas, la réponse doit être immédiate, il est indispensable d’adopter une méthode plus rationalisée, capable de normaliser des centaines de milliers (voire de millions) d’appareils et de prévenir les retards opérationnels.

L’approche de Swim.ai est la suivante : plutôt que d’utiliser des services sans état en bordure soutenus par une vaste base de données centralisée, elle s’appuie sur des agents à état basés sur la périphérie (chacun décrivant un état utile spécifique). Ces agents sont collectés dans un réseau pair à pair. En utilisant le système de l’agrégation hiérarchique, il est possible de recueillir des informations capables de fournir une meilleure compréhension des nuances d’une situation donnée, aussi complexe soit-elle. De plus, cette opération peut s’exécuter parallèlement à l’utilisation de l’infrastructure (capacité de traitement sous-utilisée) déjà déployée.

En résumé, en positionnant l’intelligence localement (et non dans le cloud), il sera possible d’obtenir des périodes de latence nettement plus courtes et des systèmes dotés d’une réactivité accélérée, indispensable aux prises de décisions urgentes. Compte-tenu des ressources limitées en termes de puissance et d’espace inhérentes aux déploiements en bordure, les activités de traitement devront être exécutées avec un maximum d’efficacité tout en maintenant la durée de calcul au strict minimum. Ce procédé continuera de générer de nouvelles innovations, aussi bien dans le domaine matériel que logiciel. 


Connectez-vous afin de laisser un commentaire

Laissez un commentaire

Aucun commentaire




Sign up to view our publications

Sign up

Sign up to view our downloads

Sign up

Vietnam International Defense & Security Exhibition 2020
4th March 2020
Vietnam National Convention Center, Hanoi