Connect with us

Technologie

Obtenez réel: Live streaming analytics important pour la croissance post-Covid, mais non sans de bonnes données

Published

on


Il existe de nombreuses raisons pour lesquelles le streaming de données, ou l’analyse de données en temps réel, devient important pour l’avenir de l’entreprise, mais l’une des plus évidentes est la vitesse.

Ce serait de la musique aux oreilles de quelqu’un comme l’entrepreneur en série et auteur Gary Vaynerchuk, qui parle beaucoup de l’importance de la vitesse dans les affaires, affirmant qu’il est « quatre milliards de fois plus important que la perfection ».

Comme rita Sallam, analyste chez Gartner, l’a également déclaré lors d’une présentation au Gartner IT Symposium/Xpo plus tôt cette année, « face à des changements de marché sans précédent, les leaders des données et de l’analyse ont besoin d’une vitesse et d’une échelle d’analyse sans cesse croissantes, en termes de traitement et d’accès, pour accélérer l’innovation et forger de nouvelles voies vers un monde post-Covid-19 ».

Mais qu’est-ce que cela signifie vraiment? En tant qu’entreprise, vous voulez toujours en savoir plus sur vos clients et trouver des moyens d’être plus efficace. Entre de bonnes mains, l’analyse en temps réel vous offre cette chance – et il ne semble pas y avoir de limite à l’endroit où elle peut avoir un impact révélateur.

Il n’est donc pas surprenant que d’ici 2022, la plupart des systèmes d’entreprise disposent, selon Gartner, de capacités de données en temps réel. L’intelligence d’affaires l’exige, et alors que nous nous réjouissons de 2021 et de la perspective d’un monde post-pandémique, nous verrons un appétit pour des technologies qui peuvent se combiner pour permettre des décisions vraiment personnalisées, vivantes et éclairées.

L’analyse des données en action

D’une certaine manière, nous en voyons déjà des éléments, notamment dans l’un des aéroports les plus avancés d’Europe, le Fiumicino de Rome ou l’aéroport Leonardo da Vinci. Client de Tibco, aeroporti di Roma, propriétaire de l’aéroport, n’a cessé de revoir son infrastructure numérique pour permettre le flux et la gestion des données de tous les aspects du site – réservations, parking, enregistrement, sécurité, shopping, embarquement, transports publics, location de voiture, et ainsi de suite.

« Nous nous concentrons sur l’analyse du flux de passagers pour comprendre les besoins des clients et comment améliorer le temps qu’ils passent dans divers domaines », explique Floriana Chiarello, responsable de la gestion de la demande chez Aeroporti di Roma. « Nous avons utilisé Tibco pour développer le service de flux de passagers. Les cartes thermiques et les cartes à bulles montrent le volume et la densité des passagers, ainsi que les trajectoires typiques des passagers.

« Les portes sont les derniers points où nous capturons les données Wi-Fi, afin que nous puissions corréler le flux passagers et les données de vol avec les informations de carte d’embarquement utilisées dans nos magasins. En analysant les données corrélées, nous pouvons activer l’analyse prédictive et étudier les tendances et les habitudes d’achat historiques afin d’identifier les améliorations futures pour les commerces et les entreprises alimentaires de l’aéroport.

C’est un exemple de la façon dont les flux de données en temps réel peuvent révolutionner la façon dont les organisations apprennent et interagissent avec les clients. Lorsque nous sortirons de Covid-19, le diable dans ce genre de détails sera essentiel pour les entreprises de naviguer dans certaines eaux turbulentes à venir.

En tant que rapport SAS, Expérience 2030 : L’avenir de l’expérience client est maintenant trouve, les clients, plus que jamais, vont être un peu pointilleux quand il s’agit de se séparer de leur argent. Un tiers des clients britanniques abandonneraient les entreprises après une seule mauvaise expérience, selon le rapport, tandis que 90% abandonneraient les entreprises après seulement deux à cinq mauvais exemples de service à la clientèle, avant de passer à des marques concurrentes.

Cela peut sembler un peu dur, mais c’est la réalité. Mais il ne s’agit pas seulement d’expérience client. L’analyse des données en temps réel a déjà un impact sur la prise de décision entre les industries, réduisant le temps de prise de décision et rendant ces décisions plus précises et plus durables.

Zurich, l’une des villes les plus intelligentes du monde, en est un bon exemple. Grâce à l’analyse en direct des données en streaming via la plate-forme de données de mobilité Vianova, la ville a réussi à augmenter les temps de réponse à la politique des transports. Le résultat a été la création de deux nouvelles pistes cyclables dédiées et d’une infrastructure de stationnement dédiée à la mobilité électronique, à l’amélioration des trajets multimodaux, à la qualité des services de transport et à la réduction des temps d’attente.

« Dans le secteur des transports, l’évolution des flux de personnes causée par les tendances post-pandémiques, y compris le travail à domicile et l’éviter les modes de transport en commun, et l’augmentation des volumes de livraison de colis mettent en évidence la nécessité d’une analyse en temps réel au niveau des autorités locales », explique Thibault Castagne, cofondateur et PDG de Vianova.

« Si nous voulons que les villes intelligentes soient autre chose que de la rhétorique, elles devront être construites sur les bases du partage de données et de l’analyse en temps réel »

Thibault Castagne, Vianova

« Ceci est particulièrement vital pour répondre à la croissance d’alternatives de micromobilité telles que l’e-scooter et lesservices de partage. Dans de nombreux cas, plusieurs opérateurs privés sont impliqués, de sorte que le partage de données en direct les aide à travailler avec les autorités locales pour assurer le déploiement sûr et efficace de leurs services. Si nous voulons que les villes intelligentes soient autre chose que de la rhétorique, elles devront être construites sur les bases du partage de données et de l’analyse en temps réel.

Ce qui est clair, c’est que l’analyse en temps réel touchera presque toutes les entreprises à un moment donné au cours des prochaines années. Selon Russell Gammon, directeur de l’innovation chez Tax Systems, cela inclut la volonté du gouvernement britannique de rendre le système fiscal numérique d’ici 2022.

« L’analyse des données fiscales donne un aperçu des données fiscales existantes et en direct à l’aide du traitement du langage naturel (NLP) qui interroge les données à la source, par exemple directement à partir de l’ERP. [enterprise resource planning] ou un logiciel comptable », dit Gammon.

« Cela offre de réels avantages. Par exemple, en ce qui concerne la conformité, il vous permet de prouver les évaluations des réclamations afin de fournir une preuve de droit afin que vous puissiez répondre rapidement à tous les défis de HMRC [HM Revenue and Customs]. Vous pouvez également vous assurer de maximiser les allégements fiscaux, de suivre les taux d’imposition appropriés entre les différentes entités et de respecter les délais.

En plus des services financiers, il existe d’innombrables exemples de solutions pionnières de streaming de données à partir d’appareils internet des objets (IoT) dans l’énergie jusqu’à la cybersécurité, la fabrication et, bien sûr, les soins de santé.

Comme le dit Jon Payne, directeur de l’ingénierie commerciale chez InterSystems UK : « Les données intelligentes signifient des décisions intelligentes. De nombreuses entreprises ont compris qu’elles doivent saisir des données, de plus en plus en temps réel, pour mieux comprendre le fonctionnement de leur entreprise et faciliter leur adaptation.

« Toutefois, il est difficile de mieux comprendre quelles sont les bonnes données à conserver et à tirer parti. Capturer et conserver « tout » et le mettre dans des magasins d’objets bon marché crée juste des marais qui deviennent de plus en plus difficiles à tirer de la valeur, et encore moins tirer parti d’une manière adaptative. Il est donc crucial d’être intelligent sur ce qu’il faut recueillir et comment il est entretenu et utilisé.

Défis – si c’est si bon, pourquoi tout le monde ne diffuse-t-il pas ?

Le problème auquel sont confrontées de nombreuses organisations est de savoir comment créer l’infrastructure et la culture nécessaires pour fournir les données requises.

Comme l’a récemment révélé une enquête menée auprès des décideurs en matière d’IT par la société d’intégration de données SnapLogic, certaines entreprises sont en difficulté. Selon la recherche, il y a une méfiance à l’égard des données qui mine les progrès, 84 % des décideurs en matière de CE acceptant des projets d’analyse étant retardés parce que les données ne sont pas disponibles dans le format requis. 77% des organisations ne faisant pas entièrement confiance à leurs données, il est inquiétant que 54% admettent s’appuyer sur ces données de mauvaise qualité pour conduire la prise de décision stratégique.

Selon Simon Cole, PDG d’Automated Intelligence, ce n’est pas tout à fait surprenant. « Les logiciels hérités, combinés à de grandes quantités de données non structurées, représentent le plus grand défi pour les organisations qui utilisent les données pour prendre des décisions en temps réel », dit-il. « La plupart des entreprises ne connaissent même pas les téraoctets (et souvent des pétaoctets) de données non structurées flottant dans leurs systèmes.

« L’analyse des données doit faire partie de la stratégie opérationnelle, de sorte que vous trouverez les bonnes données historiques dont vous avez besoin pour aider à prendre de meilleures décisions. C’est la gestion et l’automatisation des données axées sur l’analytique qui rendent cela possible »

Krishna Subramanian, Komprise

C’est inquiétant si les dirigeants, peut-être sous pression pour fournir des tendances et des analyses axées sur les données, vont de l’avant en utilisant des outils et des plates-formes qui ne sont pas entièrement conçus pour le travail. C’est un problème courant parce que tout le monde n’a pas le budget pour déchirer et remplacer les systèmes. Il est presque inévitable qu’à un moment donné, les silos existants de l’IT et des données vous entront dans la voie du progrès.

Krishna Subramanian, directrice de l’exploitation chez Komprise, explique que la plupart des outils de visualisation de données se concentrent aujourd’hui sur des bases de données structurées et que « puisque 90 % des données mondiales ne sont plus structurées, nous avons besoin de plus de progrès dans l’analyse et la visualisation de données non structurées ».

C’est logique. Comme Gartner le prévoit dans son Top 10 des tendances en matière de données et d’analyse en 2020 le tableau de bord traditionnel des données diminuera d’utilisation, car « les histoires de données dynamiques avec des expériences plus automatisées et consumérisées remplaceront la paternité et l’exploration visuelles, point-and-click ».

Le passage à des histoires de données dans le contexte signifie que les informations les plus pertinentes seront diffusées sur chaque utilisateur en fonction de leur contexte, de leur rôle ou de leur utilisation, ajoute Gartner, en tirant parti de technologies telles que l’analyse augmentée, la NLP, la détection et la collaboration des anomalies en continu.

Subramanian est d’accord avec le sentiment. Il ajoute que les entreprises examinent souvent l’analyse des données comme une activité de reporting et de business intelligence pour une gestion cloisonnée et séparée des opérations quotidiennes. « Il en résulte une analyse qui n’entraîne pas de résultats réalisables », dit-il. « L’analyse des données doit faire partie de la stratégie opérationnelle, de sorte que vous trouverez les bonnes données historiques dont vous avez besoin pour aider à prendre de meilleures décisions. C’est la gestion et l’automatisation des données axées sur l’analytique qui rendent cela possible.

Certes, des techniques d’intelligence artificielle (IA) telles que l’apprentissage automatique (ML), l’optimisation et la NLP sont nécessaires pour gérer les infrastructures de données et fournir des informations et même des prédictions. Comme gartner le prédit, les investissements dans les plates-formes de données automatisées ne feront qu’augmenter, ce qui entraînera d’autres changements dans la façon dont les données sont diffusées et gérées à l’avenir. Le défi est maintenant de mieux utiliser les données que les entreprises ont et d’essayer d’améliorer les vitesses pour permettre une meilleure diffusion en continu.

Comme Payne d’InterSystems l’a récemment constaté au cours de certaines recherches sur les entreprises, « seulement 11 % des entreprises de vente au détail, de biens de consommation emballés et de fabrication ont accès à des données vieilles de moins d’une heure, ce qui signifie qu’il y a un retard important dans leur capacité d’utiliser ces données pour prendre des décisions opportunes et éclairées ».

De toute évidence, il y a d’énormes avantages à diffuser des données en direct, mais pour l’instant, au moins, cela reste une industrie fragmentée et complexe, mais qui est à la fine pointe du changement. Toute entreprise qui l’obtient en ce moment sera en mesure de faire face à l’avenir post-pandémique avec un certain degré d’optimisme bien informé.

Click to comment

Leave a Reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Trending