AI over RPA : l’automatisation intelligente pour des processus plus complexes

L’automatisation des processus métier a longtemps reposé sur le Robotic Process Automation (RPA), une technologie qui a fait ses preuves pour les tâches répétitives et structurées. Cependant, le RPA traditionnel atteint rapidement ses limites dès que les processus impliquent des données non structurées ou nécessitent une prise de décision plus avancée. C’est là que l’IA entre en jeu, transformant le RPA en une solution d’automatisation intelligente, ou « AI over RPA ».

Pourquoi AI over RPA ?

L’intérêt de combiner l’IA avec le RPA n’est plus à prouver dans l’écosystème de l’automatisation. Une étude de Gartner prédit que d’ici 2024, 60 % des organisations qui ont mis en place des initiatives de RPA auront intégré des technologies d’IA pour les rendre plus performantes. En effet, alors que le RPA classique ne peut automatiser que des tâches basées sur des règles strictes, l’ajout de l’IA permet de traiter des processus complexes et de gérer des données non structurées. Selon une autre enquête menée par Deloitte, l’automatisation intelligente, combinant RPA et IA, pourrait permettre aux entreprises de réduire leurs coûts d’exploitation de 20 à 25 % dans les trois prochaines années.

Une flexibilité accrue pour des données complexes

Là où le RPA seul se limite à exécuter des tâches prédéfinies basées sur des règles, l’IA permet d’interpréter et d’analyser des données non structurées, comme des images, du texte ou même des vidéos. Par exemple, avec des technologies d’IA telles que le traitement du langage naturel (NLP) et la vision par ordinateur, le RPA devient capable de traiter des documents, d’extraire des informations utiles et de répondre à des requêtes avec une compréhension contextuelle. Cela représente un gain de temps considérable dans des secteurs comme la banque et l’assurance, où les documents complexes, tels que les formulaires et les réclamations, sont courants.

Des décisions en temps réel et un apprentissage continu

En intégrant des modèles d’apprentissage automatique, AI over RPA permet aux entreprises de prendre des décisions basées sur des analyses en temps réel. Par exemple, dans un contexte de service client, un chatbot piloté par AI over RPA peut analyser le profil d’un client et adapter ses réponses en fonction de l’historique des interactions. Cette capacité de personnalisation permet de fournir un service plus précis et de mieux satisfaire les attentes des clients.

AI over RPA ne se contente pas d’exécuter les tâches, mais il apprend et s’améliore au fil du temps. Grâce aux données recueillies, les algorithmes de machine learning affinent leurs analyses et deviennent de plus en plus performants, offrant une automatisation de plus en plus intelligente. Selon une étude d’IDC, les entreprises ayant adopté AI over RPA ont pu augmenter leur productivité de 32 % en moyenne grâce à l’automatisation adaptative et intelligente.

Les bénéfices pour les entreprises

Pour les entreprises, cette approche hybride apporte plusieurs avantages stratégiques :

  • Flexibilité accrue : Là où le RPA classique nécessitait une reconfiguration manuelle pour chaque changement de processus, AI over RPA s’adapte automatiquement aux nouveaux types de données et aux exigences en évolution.
  • Réduction des coûts et des erreurs : L’automatisation intelligente réduit non seulement les coûts en optimisant les ressources, mais elle diminue aussi les risques d’erreurs humaines dans les processus critiques.
  • Amélioration de l’expérience client : Avec l’IA, le RPA peut fournir des réponses plus pertinentes et personnalisées, améliorant ainsi l’engagement et la satisfaction client. Selon Forrester, les entreprises qui investissent dans AI over RPA constatent une amélioration de 15 à 25 % de la satisfaction client en moyenne.

Quels outils choisir pour l’implémentation d’AI over RPA ?

Lorsqu’il s’agit de choisir des solutions d’AI over RPA, plusieurs acteurs dominent le marché avec des offres intégrant à la fois RPA et IA. Parmi les leaders, UiPath propose une plateforme robuste et évolutive avec des fonctionnalités d’automatisation intelligentes, notamment le traitement du langage naturel et l’analyse de documents. Elle permet aux entreprises de combiner facilement les robots RPA et les algorithmes d’IA, offrant une excellente flexibilité pour automatiser des processus complexes.

Automation Anywhere est une autre solution de premier plan, particulièrement appréciée pour son architecture cloud-native et ses fonctionnalités d’apprentissage automatique intégrées. Cette plateforme fournit des outils spécifiques pour traiter les données non structurées, tout en simplifiant l’analyse des workflows et la prise de décision en temps réel.

SS&C Blue Prism, initialement positionnée sur le RPA classique, a évolué pour intégrer l’intelligence artificielle et le machine learning dans son offre. Sa plateforme « Connected-RPA » permet de créer des chaînes de travail intelligentes et est particulièrement appréciée des grandes entreprises pour sa sécurité et sa scalabilité.

En dehors ces solutions, d’autres acteurs ont également des outils intéressants. Microsoft Power Automate, par exemple, offre une intégration fluide avec l’écosystème Microsoft et se distingue par sa capacité à traiter des tâches d’automatisation intelligentes via Azure AI et ses modèles de machine learning. Pour les entreprises déjà engagées dans l’environnement Microsoft, Power Automate peut être une option intéressante en termes de coûts et de synergies.

Enfin, IBM Watson Orchestrate est une solution qui gagne en popularité, notamment pour les projets nécessitant une IA avancée pour l’analyse de données non structurées. En s’appuyant sur l’écosystème IBM Watson, cette plateforme permet aux entreprises d’automatiser des processus complexes nécessitant des capacités analytiques poussées.

L’avenir de l’automatisation passe par AI over RPA !

AI over RPA représente l’avenir de l’automatisation intelligente en entreprise. Il permet non seulement de surmonter les limites du RPA traditionnel, mais aussi de fournir une solution agile, évolutive et capable de répondre aux besoins des organisations modernes. Dans un monde où la gestion des données et l’efficacité opérationnelle sont des priorités, AI over RPA s’impose comme un levier de compétitivité majeur pour les entreprises qui souhaitent rester à la pointe de l’innovation.

Sources :

  1. Gartner – « 60% of Organizations Will Supplement RPA with AI Capabilities by 2024 »
  2. Deloitte – « Global RPA Survey: Unlocking the potential of automation »
  3. IDC – « The Impact of AI and Machine Learning on Business Productivity »
  4. Forrester – « How AI-Driven RPA Enhances Customer Experience »

Testing automatisé augmenté par l’IA, notre top 5 outils 2024

L’intégration de l’intelligence artificielle (IA) dans les processus de testing représente une avancée majeure dans le domaine de la qualité logicielle (QA). En 2024, l’IA continue de transformer les pratiques de testing en offrant des gains jusqu’alors inégalés en termes de productivité, de qualité, et de réduction des coûts.

Voici un aperçu des principaux bénéfices pour nos clients et le top 5 des outils de testing augmentés à l’IA recommandés par nos experts Smartpoint de la practice « Test automation & AI » accompagné de quelques exemples concrets d’utilisation de l’IA dans les tests.

Les bénéfices du testing augmenté à l’IA pour nos clients

1/ Amélioration de la Qualité Logicielle

L’IA permet d’identifier les défauts plus tôt et bien plus précisément que les tests manuels, réduisant ainsi le nombre de bugs et améliorant la qualité globale du logiciel. Les capacités d’apprentissage automatique de l’IA permettent également de générer des cas de tests exploratoires, couvrant ainsi des scénarios que les tests traditionnels auraient du mal à identifier.

2/ Réduction des coûts :

L’automatisation des tests permet de réduire drastiquement les coûts de main-d’œuvre et d’optimiser l’utilisation des ressources. 66 % des entreprises ont réussi à réduire leurs coûts de 21 à 50 % grâce à l’automatisation des tests. (Source enquête Qualitest). Moins de bugs en production signifie également moins de coûts associés à la correction des erreurs post-livraison.

3/ Accélération du Time-to-Market

L’IA permet d’exécuter des tests en continu et en parallèle, ce qui accélère le processus de validation et permet une mise sur le marché plus rapide des produits. C’est également plus d’adaptabilité car l’IA s’adapte rapidement aux changements dans le code. Les délais liés aux ajustements des tests sont également réduits. 56% des entreprises ont réduit le temps de test de 35 à 65% grâce à l’IA (Source Xray)

4/ Amélioration de l’efficacité

L’IA surveille et analyse les performances des applications en temps réel, permettant une identification rapide des problèmes et une optimisation continue. 73 % des entreprises affirment que l’IA a amélioré l’efficacité de leurs tests. (Source : Xray)

cas usages ia dans le stests

Cas d’usages de l’IA dans les tests

Tests unitaires automatisés : Si le code est bien géré avec des pratiques appropriées de gestion de la configuration logicielle, les algorithmes d’analyse du code peuvent être utilisés pour automatiser les tests unitaires, assurant une couverture complète et réduisant les erreurs humaines.

Tests d’API Automatisés : Dans le cas d’une architecture microservices, les algorithmes peuvent générer automatiquement des tests d’API, assurant que chaque service communique correctement avec les autres, ce qui améliore l’intégrité du système.

Génération automatisée de données de test : En surveillant les données de production, des algorithmes de régression peuvent générer automatiquement des données de test synthétiques, assurant que les tests sont représentatifs des conditions réelles.

Prédiction des goulets d’étranglement : En utilisant les journaux opérationnels, des algorithmes de régression peuvent prédire les goulets d’étranglement et les points de référence en matière de performance, permettant une optimisation proactive.

Automatisation des scripts de développement axés sur le comportement : Les algorithmes de traitement du langage naturel peuvent convertir des récits d’utilisateurs rédigés en langage simple en formats Gherkin, créant ainsi des tests automatisés basés sur le comportement utilisateur.

Optimisation basée sur l’Analyse des Défauts : En se focalisant sur les zones à risque en utilisant des données historiques propres aux défauts, des algorithmes de corrélation peuvent identifier les fonctionnalités les plus sujettes aux défauts, permettant aux équipes de se concentrer sur ces zones lors des tests.

Détermination des scénarios critiques : En analysant les comportements des utilisateurs en production, des algorithmes d’apprentissage non supervisés peuvent identifier les scénarios les plus importants à tester, optimisant ainsi la couverture des tests.

Notre Top 5 des outils de testing augmentés à l’IA à adopter en 2024

1. Selenium

Selenium est un outil de testing open source largement utilisé pour l’automatisation des tests web. Avec l’intégration de frameworks IA, Selenium améliore la capacité à détecter et à corriger les erreurs plus efficacement.

Avantages ? Flexibilité, large adoption, compatibilité avec de nombreux langages de programmation.

2. Applitools

Spécialisé dans les tests visuels, Applitools utilise l’IA pour valider les interfaces utilisateur en comparant automatiquement les captures d’écran à des versions de référence.

Avantages ? Amélioration de la qualité UI/UX, réduction des erreurs visuelles.

3. Testim

Testim utilise l’IA pour créer, exécuter et maintenir des tests automatisés avec une grande précision. Il améliore continuellement les scripts de test en apprenant des modifications de l’application.

Avantages ? Réduction des temps de maintenance des tests, meilleure détection des changements dans l’application.

4. Katalon Studio

Une plateforme de tests unifiée qui utilise l’IA pour automatiser les tests web, API, mobiles et desktop. Katalon Studio offre des fonctionnalités avancées d’analyse des tests et d’optimisation.

Avantages ? Facilité d’utilisation, large couverture de tests.

5. Functionize

Functionize combine l’apprentissage automatique et le traitement du langage naturel pour créer des tests adaptatifs. Il offre une reconnaissance visuelle et des tests automatisés basés sur des scénarios utilisateurs réels.

Avantages ? Tests adaptatifs, réduction des efforts de scriptage.

Le testing augmenté à l’IA est un domaine en pleine évolution qui offre de nombreux avantages aux entreprises et aux clients. En 2024, l’adoption de cette technologie devrait s’accélérer, avec des outils et des solutions encore plus puissants disponibles sur le marché. Les entreprises qui investissent dans le testing augmenté à l’IA seront en mesure d’améliorer la qualité de leurs logiciels, d’offrir une meilleure expérience utilisateur, de réduire leurs coûts et de mettre leurs produits sur le marché plus rapidement. L’implémentation de l’IA dans les processus de testing est un levier puissant pour améliorer la qualité, la productivité et l’efficacité tout en réduisant les coûts. En 2024, les outils de testing augmentés à l’IA continuent d’évoluer, offrant des fonctionnalités toujours plus sophistiquées et une intégration plus étroite avec les processus de développement logiciel.

Vous souhaitez intégrer l’automatisation et l’IA dans vos processus de test ? Challengez-nous !


LAISSEZ-NOUS UN MESSAGE

Les champs obligatoires sont indiqués avec *.

    Prénom*

    Nom*

    Société*

    E-mail*

    Téléphone*

    Objet*

    Message

    Testing et l’Intelligence Artificielle pour Smartpoint

    Le développement des technologies d’intelligence artificielle (IA) transforme profondément le domaine du testing logiciel. Les DSI voient en l’IA une opportunité pour améliorer l’efficacité, la précision et la couverture des tests. Voici comment l’IA révolutionne les pratiques de testing et offre des stratégies pour intégrer ces avancées dans les processus de développement logiciel.

    On estime que l’IA peut augmenter la couverture de test jusqu’à 30% et réduire les coûts de 20%

    Forrester

    1. L’Impact de l’IA sur le Testing Logiciel

    L’IA permet une automatisation intelligente des tests. Elle génère automatiquement des cas de test en analysant les exigences logicielles, ce qui couvre un plus grand nombre de scénarios avec une précision accrue. De plus, les algorithmes de machine learning peuvent détecter et s’adapter aux changements dans le code, réduisant ainsi l’effort manuel nécessaire pour mettre à jour les scripts de test. Par exemple, l’IA peut automatiser les tests unitaires, les tests d’intégration, les tests de bout en bout et les tests de performance.

    En matière de détection des anomalies, l’IA analyse les logs d’exécution et les comportements des applications pour identifier des anomalies subtiles. Grâce à l’apprentissage continu, elle optimise les processus de test et améliore la détection des défauts.

    L’IA joue également un rôle crucial dans les pratiques de DevOps. Elle facilite l’intégration continue en permettant des tests automatisés qui s’exécutent parallèlement aux déploiements, assurant une validation rapide et efficace du code. Les algorithmes d’IA peuvent aussi prédire les impacts des modifications et déterminer les meilleures stratégies de déploiement pour minimiser les risques et les interruptions.

    2. Stratégies pour Intégrer l’IA dans les Processus de Testing

    Pour intégrer l’IA dans les processus de testing, il est essentiel de bien évaluer et sélectionner les outils d’IA. Une analyse des besoins spécifiques en matière de testing et des Proof of Concept (PoC) permettent de tester les capacités des outils d’IA avant leur déploiement à grande échelle. Chez Smartpoint, nous utilisons notamment Applitools, Selenium, Testim, Katalon Studio, Eggplant, Functionize, Umicore, UFT, BrowserStack, Test.AI, AutonomIQ ou encore Sealights.

    La formation des équipes est également cruciale. Il est important de former les équipes de développement et de test aux nouvelles technologies et outils d’IA, et d’encourager une culture de l’innovation.

    Ensuite, il est nécessaire de s’assurer que les nouveaux outils d’IA s’intègrent avec les processus existants. Commencer par automatiser les tâches répétitives et chronophages, puis étendre progressivement l’utilisation de l’IA à des domaines plus complexes du testing, garantit une adoption fluide.

    3. Avantages et Défis de l’IA dans le Testing

    L’intégration de l’IA dans le testing logiciel offre plusieurs avantages. Elle améliore l’efficacité des tests, permet de couvrir un plus grand nombre de scénarios et de configurations, et améliore la détection des défauts. Cependant, elle pose également des défis, tels que la complexité de mise en œuvre, la dépendance à la qualité des données de formation, et la résistance au changement des équipes.

    Voici quelques exemples d’applications concrètes de l’IA dans le testing :

    • L’IA peut être utilisée pour générer des données de test réalistes à partir de données historiques ou de simulations. Cela peut être particulièrement utile pour tester des applications qui traitent de grandes quantités de données.
    • L’IA peut être utilisée pour identifier des cas de test critiques en analysant le code source et les exigences d’une application. Cela permet de s’assurer que les tests les plus importants sont exécutés en premier.
    • L’IA peut être utilisée pour prédire les échecs de test en analysant les résultats des tests précédents. Cela permet d’anticiper les problèmes et de prendre des mesures préventives.

    L’intégration de l’intelligence artificielle dans le testing logiciel représente une avancée majeure pour les DSI et les grandes entreprises. En adoptant des stratégies bien planifiées et en surmontant les défis inhérents, les organisations peuvent tirer parti des capacités de l’IA pour améliorer la qualité, l’efficacité et la rapidité de leurs processus de développement logiciel. Smartpoint, en tant qu’ESN spécialisée en ingénierie de la data, est idéalement positionnée pour guider les entreprises dans cette transformation et leur permettre de tirer pleinement parti des innovations en matière de testing et d’IA.

    LAISSEZ-NOUS UN MESSAGE

    Les champs obligatoires sont indiqués avec *.

      Prénom*

      Nom*

      Société*

      E-mail*

      Téléphone*

      Objet*

      Message

      Data, les top tendances 2024.

      2023 a été très dense et rythmée notamment par les avancées technologiques spectaculaires de l’IA générative … mais pas que ! Exercice de début d’année oblige, Smartpoint, pure player data depuis 2006, vous dévoile ses prédictions pour 2024.

      01

      Une alternative pour outiller votre pipeline en open source ? C’est à lire ici avec notre top 5 outils.

      04

      L’adoption des grands modèles de langages (LLM) transforme l’interprétation des données sur de larges volumes et les rend compréhensibles pour le plus grand nombre. Ils ont d’ailleurs contribué à améliorer considérablement les performances du NLP.

      Ils permettront de toujours mieux identifier des tendances, de mener des analyses plus fines et surtout plus pertinentes.

      La conception et de le déploiement de modèles avancés de ML sont d’ailleurs devenus beaucoup plus accessibles (et rapides !) pour les ingénieurs data alors qu’ils étaient, jusqu’alors, réservés à des professionnels très expérimentés et spécialisés.

      02

      La Data Fabric fournit une vue unifiée avec un accès centralisé aux données et leur intégration dans un écosystème data distribué. Elle peut se connecter à des sources qui sont dans le cloud ou dans des environnements on-premise.

      Le Data Mesh est une architecture décentralisée axée Domaine où les données sont traitées et gouvernées par des équipes qui en ont la responsabilité – comme un produit – permettant ainsi une infrastructure en libre service.

      Leur adoption va permettre aux entreprises de gérer plus efficacement des écosystèmes toujours plus denses, et complexes ; de manière plus fluide, plus flexible et surtout plus évolutive dans la durée.

      05

      La Data a elle aussi sa part de responsabilité à assumer et c’est possible (à lire ici).

      Ainsi, on devrait voir enfin des considérations liées à l’empreinte carbone influer sur les choix des entreprises. La futur est dans des solutions plus sobres et vertueuses dès la phase de conception, au plus juste des usages attendus, moins gourmandes en termes d’échanges de données ou encore en consommation de ressources (traitement, calculs, stockage).

      L’impact environnemental des systèmes data va progressivement s’appréhender sur l’ensemble de leur cycle des vie, de leur développement à leur décommisionnement.

      Les critères ESG vont venir réguler les pratiques et c’est une bonne nouvelle pour l’ensemble de la profession.

      03

      Ainsi, les tâches répétitives, chronophages et souvent sources d’erreurs sont prises en charge par des outils toujours plus intelligents notamment en nettoyage et intégration des données.

      Il en est de même, grâce aux avancées en IA et en apprentissage automatique, pour le processus de data discovery et celui d’amélioration de la qualité des données (data quality) qui jusqu’alors demandaient beaucoup d’opérations manuelles.

      06

      écrivons ensemble le futur de la data et inventons les usages de demain.

      Comparaison des plateformes pour moderniser votre système Data Legacy.

      Vous souhaitez moderniser votre système Data legacy (ou système hérité) et vous vous demandez quelle plateforme choisir ? Et vous avez en effet le choix !

      1. AMAZON WEB SERVICES (AWS)

      Evolutive et flexible, elle permet de traiter une grand variété de données et propose de nombreux services tels que Amazon S3, Amazon EMR, Amazon Redshift, Amazon Athena, et Amazon QuickSight.

      2. MICROSOFT AZURE CLOUD

      Autre alternative très populaire parmi nos clients ! Elle offre aussi de nombreuse solutions telles que Azure Blob Storage, Azure HDInsight, Azure Data Factory et Azure Machine Learning.

      3. SNOWFLAKE

      C’est une vraie alternative aux SCP (services cloud providers) proposés par Microsoft, Amazon ou Google avec son architecture de données unique et évolutive. Elle offre aussi de nombreux outils tels que Snowflake Cloud Data Warehouse, Snowflake Data Exchange, et Snowflake Data Marketplace

      Et entre Databricks et Snowflake ? Quelle solutions data choisir ?

      La force principale de Databricks est sa puissance de traitement. Les fonctionnalités Core de Spark sont intégrées et sont idéales pour tous chargements ETL. Le stockage se fait dans un data lakehouse, comme un datalake mais avec la fonctionnalité d’une base de données relationnelle en plus. Il s’agit donc essentiellement d’un datalake, mais vous pouvez exécuter SQL dessus, ce qui est un sacré avantage !

      Nous vous invitons à considérer Databricks si vous n’avez pas d’outil ETL existant ou si vos données nécessitent un nettoyage intensif avec des sources de données et des schémas imprévisibles. La technologie d’ingestion “schema on read” ou “schemaless” est un vrai plus pour la passage à l’échelle de vos données.

      Snowflake est un cloud-based datawarehouse as a service. Il fournit un service ELT principalement par le biais de la commande « COPY », des schémas dédiés et des fichiers de données (colonnes de métadonnées). Il vous permet de lancer plusieurs clusters de calcul indépendants qui peuvent opérer sur les données simultanément à partir d’une seule copie des données. En termes d’ingénierie des données, ils suivent la méthode ELT. Néanmoins, ils offrent une bonne prise en charge des outils ETL tiers tels que Talend ou Fivetran. Vous pouvez même installer DBT.

      Vous n’avez plus à vous préoccuper du chargement de vos données dans Snowflake que si vous disposez d’un outil ETL existant tel que Tibco, Fivetran, Talend, etc. Toute l’infrastructure de votre base de données (partitionnement, scalabilité, index, etc.) est gérée à votre place.

      ET LES ALTERNATIVES EN OPEN SOURCE ?


      SPARK bien-sûr 🤩 Mais chez Smartpoint, nous sommes aussi particulièrement fans de la suite Elastic Stack pour la recherche et l’analyse de données. Vous y retrouvez des outils comme le désormais très populaire Elastic Search, Beast pour la collecte de données, Logstash pour le traitement et Kibana pour la dataviz.

      DATA CLOUD PAFORMSTARIFSFONCTIONNALITÉS
      AWSAWS propose une tarification « pay-as-you-go », C’est à dire vous payez uniquement pour les services que vous utilisez. AWS, c’est un ensemble de fonctionnalités pour le stockage, le calcul, les BDD, le ML l’analyse et la mise en sécurité. C’est également des outils de développement comme CodeCommit, CodeBuild et CodeDeploy.
      AzureAzure propose aussi des tarifs pay-as-you-go, dégressifs dans le temps comme AWS.Azure offre des fonctionnalités de stockage, de calcul, de BDD, de machine learning, d’analyse et la mise en sécurité. C’est également des outils de développement comme Visual Studio et Visual Studio Code.
      SnowflakeSnowflake propose une tarification basée sur l’utilisation. Vous payez en fonction de la quantité de données stockées et de la quantité de traitement que vous consommez. Les tarifs sont variables en fonction du niveau de service utilisé.Snowflake offre des services de stockage, de traitement et de requête de données, d’analyse de données en temps réel et de mise en conformité règlementaire des données. Snowflake permet également de s’intégrer avec des outils de business intelligence comme Power BI et Tableau.
      Comparaison entre plateformes cloud

      Evidemment, votre choix de plateforme dépend de vos spécificités, de la volumétrie, des use cases… et des compétences techniques que vous avez !
      N’hésitez pas à nous interroger ici : nous contacter.

      Pour aller plus loin sur comment choisir la bonne solution data pour votre entreprise et moderniser votre SID vieillissant ?

      Architectures Data Cloud, les 5 chantiers prioritaires.

      1. La gouvernance des données

      Nous en sommes convaincus chez Smartpoint, ce sujet n’a jamais été d’autant d’actualité. Pourtant, il est tout sauf nouveau ! D’ailleurs, nous avons des années d’expérience en ce domaine lorsque les données étaient dans des entrepôts …. Mais ces chantiers se sont beaucoup complexifiés avec les nouveaux modèles d’architectures puisqu’il s’agit de gérer aujourd’hui des données dans des data lakes ou des lakehouses (stockage dans le cloud donc), non structurées, de plus en plus volumétriques et partagées largement (data mesh).

      Les chantiers sont nombreux et le choix d’outils vaste ! Audit, data lineage de bout en bout, qualité des données, gestion des données de références, data catalogs, règles de accès aux des données et de partage des données de manière sécurisées, mise en conformité règlementaire (…).

      La Gouvernance des données est devenu un sujet très complexe et critique pour nos clients car la solution réside dans la spécificité de chaque écosystème IT et les utilisations qui sont faites des données.

      Parmi les solutions, citons celles des incontournables Informatica, Talend, Collibra ou encore Experian.

      2. Le Lakehouse

      Toutes les plateformes proposent désormais des fonctionnalités pour implémenter un lakehouse plutôt qu’un data warehouse ou un data lake (quelle est la différence entre data warehouse, un data lake et un lakehouse ? C’est à lire ici)

      Le créateur de Spark, Databricks, a clairement une longueur d’avance en termes de solution mais cela ne va pas peut-être pas durer. En format de tables open-source, sachez que Apache Iceberg est de plus en plus adopté par les services AWS (Glue notamment). Snowflake permet aussi désormais d’implémenter un lakehouse en utilisant Iceberg. 

      3. L’architecture Data Mesh

      Nous avons beaucoup travaillé en 2022 sur ce concept architectural qui se rapproche d’une architecture microservices avec des composants qui peuvent être modifiés ou mis à jour individuellement, et être utilisés par plusieurs équipes (Les quatre principes fondamentaux d’un data mesh sont à lire ici)

      Les premiers retours d’expériences nous ont montré, qu’au-delà du concept, cela a un impact fort au niveau de l’organisation de la team Data qui doit être responsabilisées sur leur domaine Data (Le Product Thinking ou Data as product).

      4. Le streaming et le traitement temps réel

      Historiquement, les data warehouses étaient alimentés en fin ou en début de journée par traitements batch (et cela prenait des heures !) pour que les utilisateurs BI puissent disposer d’états ou de tableaux de bords un fois par jour. Ils attendent aujourd’hui d’être alertés en temps réel pour prendre des décisions ou réagir immédiatement. C’est devenu indispensable en gestion des risques (attrition client, risques de crédit ou fraude, etc.) ou pour alimenter les moteurs de recommandations de produits par exemple.

      Cet enjeu de vitesse des données est de plus en prégnant chez nos clients. Mais avec l’augmentation des volumes, il devient de plus en plus important de ne pas uniquement les charger, mais aussi de les transformer et de les analyser en temps réel. Cela impacte fortement votre architecture data. Là, encore la plateforme lakehouse de Databricks est intéressante pour le streaming des données et pour fournir de l’analytique en temps réel. Autre solution, utiliser par exemple Apache Flick et Amazon Kinesis Data Analytics pour de l’ETL sur vos flux de données temps réel (à lire ici).

      5. La modélisation de données

      C’est le grand retour ! Avec Hadoop et son datalake, toutes les données étaient déversées sans aucune notion de modélisation. On sait aujourd’hui, que cela été une aberration. En termes de stockage bien sûr mais aussi sur le plan architectural car cela a rendu très compliqué l’exploitation des données et la data discovery.

      Le data modeling permet de stocker les données de manière cohérente et organisée, les data scientists y ont accès plus facilement et peuvent mieux les exploiter. Les résultats sont d’autant améliorés et beaucoup plus fiables.

      En rationalisant le pipeline de données et en permettant aux ingénieurs data de se concentrer sur des tâches plus complexes, la modélisation des données peut aider les organisations à mieux utiliser leurs données et à libérer tout le potentiel de la data science et de l’apprentissage automatique. En savoir plus sur les type de modélisation ? C’est ici.

      Et vous, quelles sont vos priorités Data dans les mois qui viennent ?

      Confiez-vos chantiers au pure player de la data 😉

      Source : https://medium.com/@gauravthalpati/5-data-trends-for-y2023-da9af83cca34

      Data virtualisation vs. Data Fabric, comment choisir ?

      Déjà, ces deux approches permettent de gagner en agilité et de pouvoir mieux exploiter des données plus rapidement même si elles sont en silos organisationnels. Elles répondent toutes deux à la volonté des entreprises de moderniser leurs architectures de données alors qu’elles subissent un legacy (ou des systèmes data hérités) qui font de la collecte et du traitement des données un processus fastidieux qui consomme beaucoup de ressources, humaines comme temporelles !

      Évidemment, vous avez toujours la solution d’acquérir de nouveaux outils et de remettre à plat tout votre écosystème data dans une nouvelle architecture … mais en attendant, la virtualisation des données est un bon début pour moderniser votre architecture data !

      • Elle permet d’accéder aux données en mode Data as a service grâce à ces connecteurs multi-sources.
      • Elle organise également les données pour que vous puissiez les visualiser ou réaliser des tableaux de bords.
      • C’est une solution satisfaisante pour vos besoins en business Intelligence (BI) et autres requêtes ad hoc car aujourd’hui toutes les entreprises ont des données dans le cloud et des systèmes distribuées.

      Une data fabric, elle, est une solution de data management qui vous fournit une plateforme unique capable de prendre en charge toutes les technologies qui fonctionnent sur tous vos systèmes existants.

      • Les solutions de data management sont beaucoup plus poussées et complètes ; et permettent de prendre en charge des applications et des usages plus complexes.
      • C’est un framework d’architecture avec un accès centralisé aux données qui permet de les rendre interopérables entre elles.
      • Un data fabric est le must-have pour les analytics avancés qui ont besoin de larges volumes de données : analyses prédictives, IoT, apprentissage automatique (ML), temps réel, etc.

      Pour conclure, pour exploiter aux mieux vos données et étendre leurs capacités, il vous faut les deux 😊

      Les avantages de la mise place d’une Data Governance

      La Data Governance reste malheureusement trop souvent pensée à postériori dans les projets Data alors que c’est une problématique centrale et fondamentale.

      Concrètement, au-delà de tous les projets data et autres initiatives que vous avez mené dans le temps, c’est la manière dont les données sont collectées, crées, classifiée, formatées et utilisées au-delà des silos organisationnels qui les utilisent. Cela permet justement de les briser et de permettre aux métiers de se connecter aux bonnes données pour prendre des décisions qui se basent sur des données fiables.

      La gouvernance des données aborde toute la notion de gestion des données, de la création au stockage jusqu’aux exploitations qui en sont faites. Cela permet aux équipes de comprendre comment les données circulent, l’impact qu’ont les différents usages, les analyses, les tableaux de bords et autres canaux de diffusions utilisés sur leur intégrité.

      L’équipe en charge de la Data Governance contribue également fortement aux politiques de sécurité, de protection et de confidentialité des données ainsi que la bonne conformité règlementaire.

      Voici les 4 principaux avantages :

      1. La qualité des données ! C’est le principal écueil des projets data. Cela permet de s’assurer qu’on base ses décisions sur des informations pertinentes ou qu’on alimentent d’autres applicatifs avec les bonnes données. Cela semble une évidence mais encore aujourd’hui, c’est un problème majeur. Une fois les données de piètre qualité, incomplètes ou obsolètes ont été identifiées, cela permet de les redresser, de les corriger pour les rendre exploitables ou tout simplement de les supprimer. Autant ne pas stocker des données inutiles, c’est plus éthique et plus responsable pour la planète !
      2. Plus de performance business. Déjà, vous êtes en capacité de prendre de meilleures décisions plus rapidement car vous êtes certains de la qualité de vos données. Cela permet aussi d’enrichir les expériences clients et rendre plus pertinents les parcours d’achat. Plus vos équipes sont sensibilisées à la qualité des données, plus la culture de la data se diffusera dans votre organisation, plus elles exploiteront les data de manière pertinente et cela aura un impact concret sur vos activités (stratégies, innovations).
      3. Une meilleure efficacité. Avoir une lecture claire de la manière dont la data est collectée puis consommée dans l’organisation permet d’identifier des leviers d’optimisation ou d’innovation. Cela met également en lumière certains processus pour pourraient être automatisés, d’autres moyens de diffusion ou de partage des données qui seraient plus pertinents ou beaucoup plus rapides. On perd encore beaucoup de temps à aller chercher des informations dans des énormes Data Warehouse ou de temps tout court à ne pas savoir où chercher !
      4. La sécurisation des données et leur conformité en terme de confidentialité. Beaucoup de vos données sont de nature personnelles ou sensibles. La Data Governance permet de s’assurer que les processus qui les traitent sont suffisamment fiables et robustes pour les protéger de toute utilisation abusive. Selon le RGPB, vous en êtes en effet responsables.  
      Data Governance

      Data visualisation, Tableau ou Qlik Sense ?

      Comment départager ces deux leaders de la data alors que tous deux partagent la même note 4,3/5 avec des avis favorables de GARTNER ?

      QLIK est reconnu pour la Data Visualisation et le mapping de données. Il est également efficient en analyse (avec Qlik Analytics Engine) et en data discovery. Vous pouvez ainsi créer des pipelines à partir de plusieurs sources de données et profiter du machine learning pour mieux les trier.
      Son point fort ? La contextualisation. Il se concentre surtout sur l’association de données, c’est à dire la découverte de relations entre elles.
      En terme de sécurité, Qlik offre une forte granularité et des capacités de contrôles d’accès avancées.

      TABLEAU est quant à lui reconnu pour l’interactivité de sa data visualisation et ne nécessite pas de scripts avancés ni de macros compliquées pour pourvoir commencer à l’utiliser, c’est un outil très intuitif.
      Il capte également de nombreuses sources de données : bases de données, services clouds, Google analytics, etc.
      Son point fort ? Il va très loin notamment en analyses #statistiques, multidimensionnelles, prédictives et comportementales. Tableau met l’accent sur l’exploration des données et incite les utilisateurs à créer leurs propres modèles de recherche. Ainsi, pour concevoir des rapports pertinents, Tableau peut donc nécessiter davantage d’expertises technique …

      Leurs points communs ?

      • Tous les deux utilisent l’apprentissage automatique (ML) pour identifier les tendances et construire des modèles robustes, mais Tableau nécessite beaucoup moins d’expertise technique.
      • Tous deux prennent en charge un large éventail d’appareils, de systèmes d’exploitation et de plateformes web et mobiles. Les données et les rapports sont accessibles depuis pratiquement tous les appareils. Les deux sociétés offrent des communautés solides et offrent un excellent support.
      • Les deux outils offrent un bon niveau de sécurité. Ils s’appuient sur des sources de données fiables et d’autres aspects essentiels de la sécurité de l’entreprise, mais Qlik propose un système plus robuste en ce domaine.
      techrepublic.com

      Source : https://www.techrepublic.com/article/qlik-vs-tableau/

      Zoom sur les éditeurs incontournables en plateformes analytiques et Business Intelligence.

      D’après Gartner, il est désormais essentiel que les plateformes s’intègrent davantage dans un écosystème analytique plus global qui comprend les outils métiers mais aussi la data science qui restait jusqu’à présent encore à part. La plupart comprennent déjà des fonctionnalités d’Intelligence Artificielle comme la langage naturel et la génération de rapport / KPI automatisés qui permettent aux utilisateurs métiers de mieux d’approprier les outils.

      Les leaders de cette année ? (et pour la 2ème année !)

      Microsoft avec PowerBI toujours au-dessus de la mêlée (déjà pour son bon rapport qualité / prix et ses fonctionnalités enrichies avec Azure notamment en Machine Learning), Salesforce avec Tableau et Qlik.

      A noter aussi l’intérêt croissant des outils comme Looker et QuickSight qui ont l’intérêt de se plugger sur plusieurs environnements technologiques. Ce qui permet de rester indépendant face aux poids croissants des géants technologiques…

      Microstrategy reste aussi un incontournable ❤

      « Au lieu d’un environnement de BI distinct situé au-dessus d’une base de données, dans lequel les informations doivent être déplacées dans les deux sens, une forme de symbiose s’instaure. Dans ce cadre, une telle plateforme embarque des fonctionnalités d’interrogation des données et d’analytique et ne nécessite pas des flux ETL incessants en direction d’un SGBD. L’autre pendant de ce phénomène est reflété par les solutions de BI embarquées dans les environnements de travail des métiers. Il existe donc plusieurs écosystèmes analytiques.
      Enfin, la BI doit faire partie d’une plateforme analytique de bout en bout. Celle-ci doit inclure la capture des données, les capacités d’analyse, jusqu’à la prise de décision. »

      Austin Kronz, l’un des auteurs de ce rapport (propos repris par Le Mag IT)