Q&R : Pourquoi Intel DevCloud ramène-t-il l'edge computing dans le cloud ?

Q&R : Pourquoi Intel DevCloud ramène-t-il l’edge computing dans le cloud ?

L’informatique de périphérie n’a rien de nouveau. Mais cCréer des applications et des solutions à la périphérie qui exploitent le cloud pour l’analyse, ainsi que l’utilisation d’un réseau aussi efficacement que possible, peut être difficile.

Mais développer une solution qui fonctionne n’est pas le seul défi. Comment les développeurs peuvent-ils réellement garantir le post-déploiement et la maintenance ? Le déploiement d’une application cloud native en périphérie peut déverrouiller une boîte de Pandore avec des problèmes d’interopérabilité, d’évolutivité et de maintenance inconnus.

“Le plus gros problème est que les développeurs ne savent toujours pas, à la périphérie, comment apporter une application héritée et la rendre native du cloud”, a déclaré Ajay Mungara (photo), directeur principal de Edge SW et AI, des solutions de développement et de l’ingénierie. chez Intel. “Alors ils emballent tout cela dans un Docker et ils disent, ‘OK, maintenant je suis conteneurisé.’ Alors on [Intel Dev Cloud] dites-leur comment le faire correctement. Nous formons donc ces développeurs. Nous leur donnons l’opportunité d’expérimenter tous ces cas d’utilisation afin qu’ils se rapprochent de plus en plus de ce que les solutions client doivent être.

Mungara s’est entretenu avec les analystes de l’industrie theCUBE Dave Vellante et Paul Gillin au cours de la récente Événement Sommet Red Hat, une diffusion exclusive sur theCUBE, le studio de diffusion en direct de SiliconANGLE Media. Ils ont discuté DevCloud, edge computing, cas d’utilisation et solutions. [The following content has been condensed for clarity.] (* Divulgation ci-dessous.)

Vellante : DevCloud, de quoi s’agit-il ?

Mungara : Souvent, les gens pensent aux solutions de périphérie comme à de simples ordinateurs à la périphérie, mais vous devez également avoir une composante du cloud et du réseau. Et la périphérie est compliquée en raison de la variété d’appareils de périphérie dont vous avez besoin. Et lorsque vous créez une solution, vous devez déterminer où vais-je pousser le calcul ? Quelle part du calcul vais-je exécuter dans le cloud ? Quelle quantité de calcul je vais pousser sur le réseau, et combien ai-je besoin pour l’exécuter à la périphérie. Souvent, ce qui se passe pour les développeurs, c’est qu’ils n’ont pas un environnement où les trois se rejoignent.

Donc, ce que nous avons fait, c’est que nous avons pris tous ces appareils périphériques qui seront théoriquement déployés à la périphérie et les avons placés dans un environnement cloud. Tous ces appareils sont à votre disposition. Vous pouvez rassembler tout cela, et nous vous donnons un endroit où vous pouvez créer, tester et exécuter des tests de performance. Ainsi, vous pouvez savoir quand vous allez réellement sur le terrain pour le déployer et de quel type de dimensionnement vous avez besoin.

Vélante : TPrenez cet exemple d’inférence d’IA à la périphérie. J’ai donc un appareil de pointe, j’ai développé une application et je veux que vous fassiez l’inférence de l’IA en temps réel. Vous avez une sorte de flux de données qui arrive. Je veux que vous conserviez ces données, que vous les renvoyiez dans le cloud, et que vous puissiez les développer, les tester et les comparer.

Mungara : Ce que nous avons est un produit, qui est Intel OpenVINO, qui est un produit open source qui effectue toutes les optimisations dont vous avez besoin pour l’inférence de bord. Vous développez donc… le modèle de formation quelque part dans le cloud. je développé avec tout ça, j’ai annoté les différents flux vidéo, etc., et vous ne voulez pas envoyer tous vos flux vidéo vers le cloud, c’est trop cher — la bande passante, ça coûte cher. Vous voulez donc calculer cette inférence au bord. Pour faire cette inférence à la périphérie, vous avez besoin d’un environnement. De quel type d’appareil périphérique avez-vous vraiment besoin ? De quel type d’ordinateur avez-vous besoin ? Combien de caméras calculez-vous ?

Et le plus grand défi à la périphérie (et le développement d’une solution est bien) est lorsque vous passez au déploiement réel et à la maintenance de la surveillance post-déploiement. S’assurer que vous le gérez, c’est très compliqué. Ce que nous avons vu, c’est que plus de 50 % des développeurs développent récemment une sorte d’application cloud native. Donc, nous pensons que si vous apportez ce type de modèle de développement cloud natif à la périphérie, alors votre problème de mise à l’échelle, votre problème de maintenance, vous vous demandez comment le déployer réellement ?

Vellante : À quoi ressemble le bord ? C’est quoi cette architecture ?

Mungara : Je ne parle pas de la périphérie éloignée, où il y a de minuscules microcontrôleurs et ces appareils. Je parle de ces appareils qui se connectent à ces appareils distants, collectent les données, effectuent des analyses, des calculs, etc. Vous avez des appareils distants, cela peut être une caméra, un capteur de température, une balance , ça pourrait être n’importe quoi, non ? Cela pourrait être ce bord éloigné. Et puis, au lieu de pousser toutes les données vers le cloud, pour que vous fassiez l’analyse, vous allez avoir une sorte d’ensemble d’appareils périphériques, où il collecte toutes ces données, prenant des décisions proches de les données – vous faites une analyse là-bas.

Donc, vous avez un tas d’appareils assis là. Et ces appareils peuvent tous être gérés et regroupés dans un environnement. La question est donc de savoir comment déployer des applications à cette périphérie ? Comment collectez-vous toutes les données qui transitent par la caméra et d’autres capteurs, et les traitez-vous près de l’endroit où les données sont générées, prenez des décisions immédiates ? Donc, l’architecture ressemblerait à, vous avez un cloud, qui gère une partie de ces appareils périphériques, une gestion de ces applications, un certain type de contrôle. Vous avez un réseau, parce que vous devez vous y connecter. Ensuite, vous avez toute la pléthore de périphérie, à partir d’un environnement hybride où vous avez un mini centre de données entier assis à la périphérie, ou il peut s’agir d’un ou deux de ces appareils qui ne font que collecter des données à partir de ces capteurs et les traiter.

Voici l’interview vidéo complète, une partie de la couverture de SiliconANGLE et theCUBE de la Événement Sommet Red Hat:

(* Divulgation ci-dessous : TheCUBE est un partenaire média payant du Red Hat Summit. Ni Red Hat Inc., le sponsor de la couverture de l’événement theCUBE, ni les autres sponsors n’ont le contrôle éditorial du contenu sur theCUBE ou SiliconANGLE.)

Photo: SiliconANGLE

Montrez votre soutien à notre mission en rejoignant notre Cube Club et notre communauté d’experts Cube Event. Rejoignez la communauté qui comprend Amazon Web Services et le PDG d’Amazon.com Andy Jassy, ​​le fondateur et PDG de Dell Technologies Michael Dell, le PDG d’Intel Pat Gelsinger et bien d’autres sommités et experts.

.
#Pourquoi #Intel #DevCloud #ramènetil #ledge #computing #dans #cloud

Leave a Comment

Your email address will not be published.