Edge AI : définition
L'Edge AI, ou intelligence artificielle (IA) en périphérie du réseau, désigne la mise en œuvre de l'intelligence artificielle dans un environnement d'edge computing. Cette technologie permet de réaliser les calculs à proximité de l'endroit où sont collectées les données, plutôt que dans une installation de cloud computing centralisée ou un datacenter hors site. Les appareils peuvent ainsi prendre des décisions plus intelligentes plus rapidement, sans se connecter au cloud ou à des datacenters hors site.
Puisque l'edge computing place le stockage des données plus près de l'appareil, les algorithmes d'IA traitent les données créées sur cet appareil avec ou sans connexion à Internet. Les données sont ainsi traitées en quelques millisecondes et offrent un retour d'informations en temps réel. L'Edge AI permet donc de fournir des réponses presque instantanément. Cette approche s'avère plus sûre dans le cas où les données sensibles ne quittent jamais la périphérie du réseau.
Puisqu'ils sont capables de déplacer les données en dehors des datacenters surchargés du cloud, les appareils d'edge computing comme les capteurs et les objets connectés sont en passe de devenir des technologies clés.
Différence avec l'IA traditionnelle
Avec l'IA traditionnelle, les données générées par les technologies connectées sont transmises à un système cloud back-end. Avec l'Edge AI, les modèles d'IA ne sont pas exécutés au niveau du back-end, mais ils sont configurés dans des processeurs à l'intérieur des appareils connectés qui s'exécutent en périphérie du réseau. Cette approche ajoute une couche d'intelligence en périphérie. En plus de collecter des indicateurs de mesure et des résultats d'analyse, les appareils les exploitent pour agir grâce à un modèle d'apprentissage automatique (AA) intégré. Ils deviennent ainsi de véritables intelligences artificielles en périphérie du réseau.
L'objectif de l'IA reste le même : construire des machines intelligentes qui fonctionnent et remplacent le personnel pour certaines tâches, sans surveillance humaine. Toutefois, l'Edge AI exécute les tâches et prend des décisions localement, à l'intérieur ou à proximité de l'appareil utilisé.
Avantages de l'Edge AI
La combinaison de l'edge computing et de l'intelligence artificielle offre de grands avantages. Avec l'Edge AI, les capacités de calcul haute performance sont étendues aux sites d'edge computing, là où se trouvent les capteurs et les objets connectés. Les utilisateurs peuvent traiter des données en temps réel sur leurs appareils, car aucune connectivité ni intégration entre les systèmes n'est nécessaire. Ils peuvent également gagner du temps en agrégeant les données et en servant d'autres utilisateurs, sans communiquer avec d'autres emplacements physiques.
Voici les principaux avantages de l'Edge AI :
- Réduction de la consommation d'énergie : diminution des coûts énergétiques grâce à la conservation des processus de données en local, car les besoins en énergie pour l'exécution de l'Edge AI sont beaucoup plus faibles que dans les datacenters cloud.
- Réduction de la bande passante : diminution de l'utilisation de la bande passante dans le flux de données et minimisation des coûts grâce au traitement, à l'analyse et au stockage des données localement au lieu de les envoyer dans le cloud.
- Confidentialité : diminution du risque de détournement ou de mauvaise manipulation des données grâce au traitement des données localement sur les appareils d'edge computing.
- Sécurité : priorité accordée au transfert de données importantes grâce au traitement et au stockage en périphérie du réseau ou à un filtre de données redondantes, superflues et inutiles.
- Évolutivité : mise à l'échelle facilitée des systèmes grâce à des plateformes basées dans le cloud et à des capacités d'edge computing natives sur les équipements embarqués.
- Réduction de la latence : réduction de la charge de la plateforme cloud et analyse des données en local, permettant de libérer la plateforme pour d'autres tâches.
Pourquoi choisir Red Hat ?
Chez Red Hat, nous collaborons étroitement avec la vaste communauté Open Source sur les technologies de conteneurs et Kubernetes. La solution Red Hat® OpenShift® rassemble des services fiables et testés pour faciliter le développement, la modernisation, le déploiement, l'exécution et la gestion des applications.
Red Hat OpenShift inclut des capacités clés qui permettent d'appliquer les pratiques MLOps de manière cohérente dans les datacenters, dans le cloud hybride et en périphérie du réseau. Avec l'IA/AA sur Red Hat OpenShift, vous pouvez accélérer les workflows d'IA/AA et la distribution des applications intelligentes basées sur l'IA.
Gamme de produits basée sur l'IA, Red Hat OpenShift AI fournit des outils pour le cycle de vie complet des expériences et modèles d'IA/AA, notamment la solution Red Hat OpenShift AI. Il s'agit d'une base cohérente et évolutive qui repose sur des technologies Open Source pour les responsables de l'exploitation. Elle donne aux data scientists et équipes de développement un accès à un écosystème de partenaires spécialisés pour stimuler l'innovation dans le domaine de l'IA.