L’IA, en plus de son utilisation grand public (donc très médiatisée) avec les assistants vocaux, la traduction ou la reconnaissance d’images etc., est aussi utilisée par certains acteurs de l’industrie pour résoudre des problèmes complexes afin d’optimiser leurs couts d’exploitation ou les performances de leurs produits, en exploitant des masses importantes de données fournies par de nombreux capteurs.
Concernant la réduction des coûts d’exploitation Google à annoncé dans un billet de blog des résultats assez intéressants concernant la réduction de la consommation énergétique de ses datacenters en s’appuyant sur une Intelligence Artificielle basée dans le Cloud :
- Toutes les cinq minutes, l’IA de Google réalise une capture de l’état du système de refroidissement de ses datacenters, enregistrant par la même occasion les données fournies par les milliers de capteurs qui y sont disséminés. Ces informations alimentent par la suite des réseaux neuronaux profonds qui aident à prédire l’impact de différents scénarios de régulation envisageables sur la consommation énergétique future et à choisir la meilleure option.
- Pour chaque action potentielle, l’IA doit calculer sa confiance dans le fait qu’il s’agit d’une bonne action et éliminer les actions jugées peu fiables. Les actions potentielles calculées par l’IA sont comparées à une liste interne de contraintes de sécurité et des opérateurs locaux peuvent reprendre le contrôle en cas de besoin.
Cette initiative qui a débuté lors de l’été 2017 et a dès sa mise en œuvre permis 12% d’économies d’énergie, a durant un an évolué, avec au fur et à mesure de la collecte d’informations et l’apprentissage de l’IA une économie d’énergie maintenant de 30% avec plus de 98 millions d’exemples de situations d’entrainement collectées.