Connect with us

Technologie

BI pas BS : comment les entreprises construisent des contrats à terme avec l’analyse des données

Published

on


Il n’y a rien de tel qu’un peu d’optimisme. Il peut être infectieux, au moins dans les mains des bonnes personnes. Il était intéressant de voir quelques statistiques récentes de McKinsey, montrant comment les dirigeants mondiaux ont actuellement une vision assez optimiste de leurs économies locales, en dépit de la lutte en cours avec Covide-19.

Plus de la moitié des cadres interrogés ont déclaré que la situation économique dans leur propre pays sera meilleure dans six mois, et ils étaient également optimistes sur la rentabilité de leurs propres entreprises. Il est clair qu’ils doivent savoir quelque chose, ou peut-être qu’ils sont juste haussier, en parler et en espérant le meilleur.

Pour toute entreprise, la construction de prévisions exige quelque chose d’un peu plus qu’une intuition. Qu’il s’agisse d’une compréhension des tendances du marché et de l’analyse de la performance des produits, ou d’une connaissance approfondie de la performance interne, les entreprises ont besoin de faits et non de subjectivité. C’est là que l’intelligence d’affaires (BI) entre en jeu, et c’est aussi là que cela peut devenir un peu compliqué. Non pas que cela ait empêché les directeurs informatiques d’investir dans de nouveaux outils. Selon le Sondage Harvey Nash/KPMG CIO 2020, business intelligence (BI) est toujours un investissement stratégique de premier plan pour les entreprises, avec un quart des directeurs de l’administration interrogés affirmant qu’il se trouve dans leurs trois principaux investissements technologiques.

Toute organisation qui veut se lancer dans une stratégie bi, mais aussi celles qui ont déjà une stratégie et qui veulent suivre le rythme du changement, est confrontée à de multiples défis. Le fait est que le marché a changé de façon spectaculaire depuis 2014, et cela peut avoir un impact sur toute entreprise qui a soutenu l’un des principaux acteurs il ya six ans.

Selon Gartner Quadrant magique pour les plates-formes d’analyse et d’intelligence d’affaires, les quatre premiers noms d’aujourd’hui – Microsoft, Tableau, Qlik et ThoughtSpot – sont seuls. En 2014, le « quadrant des leaders » était un espace beaucoup plus encombré, IBM, SAS, Oracle et Tibco poussant également à obtenir des parts de marché.

Aujourd’hui, ibm et Oracle sont devenus plus niche, bien que Tibco est toujours considéré comme un challenger, tandis que Tableau, par son acquisition par Salesforce en 2019, a maintenant plus de poids. C’est un espace moins encombré à l’extrémité supérieure, mais cela ne signifie pas nécessairement que le choix est plus facile. En parlant aux directeurs informatiques, il est clair qu’il n’existe pas de marque universelle et que, malgré d’énormes progrès ces dernières années, il existe encore des lacunes notables dans les capacités, en particulier en ce qui a matière à l’automatisation et à l’IA/ML.

Les attentes sont également en train de changer. Le directeur principal de l’intelligence de marché de Qlik, Dan Sommer, le compare à 2008-2009, lorsque l’entreprise a vu « un passage générationnel d’un BI centré sur le reporting à un BI centré sur l’analyse, avec de nouvelles exigences pour un BI agile et rapide qui se rapprochait de l’entreprise ». Aujourd’hui, Covide-19 crée un changement similaire, de plus en plus loin de l’analyse passive vers des analyses plus actives, où il est nécessaire d’avoir un pipeline de données en temps réel. Sommer estime que les organisations seront désormais à la recherche d’analyses qui peuvent intégrer des actions tactiques dans les flux de travail, les processus et les moments.

Il est logique compte tenu de ce que la plupart des entreprises ont traversé récemment avec Covide-19. Le besoin d’une agilité et d’une résilience accrues forcera quelque peu la main, poussant les organisations à réfléchir stratégiquement et à identifier comment et où elles peuvent apporter des améliorations pour permettre la prise de décisions préventives. Il s’agit aussi de rapidité et de précision, et de s’appuyer sur une base solide, en termes d’outils bi, mais aussi de qualité des données et d’alphabétisation des employés.

Pour Rob Parker, client de Tableau, responsable des données et de l’analyse chez Guy’s and St Thomas’ Charity, la rapidité de la perspicacité des données était un grand défi, et une des principales raisons de son passage de l’utilisation de feuilles de calcul Excel, quelque chose qui réchauffera le cœur de tout analyste de données.

« Jusqu’à il y a deux ans, mon équipe comptait sur des moyens traditionnels, comme la construction de points de dispersion dans Excel, pour identifier les zones de Lambeth et de Southwark qui ont le plus besoin d’attention », explique Parker. « Cependant, les inconvénients de cette dépendance à l’égard d’Excel sont rapidement apparus. Par exemple, le manque d’interactivité a introduit un décalage entre les demandes des décideurs concernant les données et une réponse de mon équipe.

« Il était également difficile de comprendre ce que les données signifiaient dans la pratique. Le manque de capacités de cartographie et d’autres outils de visualisation de données nous a permis de ne pas voir les modèles spatiaux.

Le passage à Tableau a clairement résolu ce problème. Parker affirme que la mise en construire d’un système stratégique qui a permis d’accéder en temps opportun à des données fiables a joué un « rôle essentiel » en permettant à l’organisation de prendre des décisions plus concrètes et plus intelligentes avec des données. Il a également changé la façon dont l’organisation fonctionne. La capacité de collaborer plus rapidement et plus efficacement a été un le facteur clé, y compris avec d’autres individus et organisations en dehors de l’organisme de bienfaisance et l’objectif, ajoute Parker, est d’améliorer continuellement l’alignement et la collaboration stratégique à travers la fiducie.

« Nous nous appuyons fortement sur l’analyse géospatiale de Tableau et les fonctionnalités de création pour travailler avec des données de localisation plus détaillées et effectuer des analyses avec des couches d’arrière-plan plus contextuelles », explique M. Parker. « À l’aide des cartes intégrées et des nouveaux fichiers hyper, Tableau nous donne des réponses à nos questions en 20 minutes, ce qui prendait des jours, voire des semaines, à l’aide de logiciels plus traditionnels, comme Excel. »

Automatisation

L’un des domaines où cela pourrait s’améliorer de façon plus spectaculaire est l’utilisation des technologies AI/ML. Fait intéressant, Parker croit que la science des données et les capacités d’apprentissage automatique « sont encore très limitées dans la plupart des outils bi ». À l’heure actuelle, du moins, la détermination de Parker à s’attaquer à des problèmes plus complexes qui nécessitent une certaine forme d’approche d’apprentissage automatique, comme le regroupement, la classification ou la régression, signifie qu’il doit sortir de Tableau.

C’est cette idée qu’aucun outil n’est la solution globale qui fait avancer l’industrie rapidement. Le nouveau venu, ThoughtSpot, a eu le luxe d’aborder le marché en se concentrant sur les nouvelles technologies, sans avoir à composer avec les utilisateurs traditionnels. Cela a conduit à une approche mondiale plus libre, par opposition à l’approche guidée d’autres outils. C’est à la fois un avantage et un désavantage. Il exige la connaissance des données, mais, comme paul Français, directeur de l’intelligence d’affaires, de la visualisation et du reporting à Nationwide estime, il remet également en question les connaissances et la compréhension, en repérant les modèles et les tendances dans les données qui révèlent des choses que l’entreprise ne sait pas déjà.

C’est intéressant parce que Nationwide a une stratégie d’outil bi multi-fournisseurs, correspondant à la technologie aux cas d’utilisation pertinents. C’est bien sûr un défi pour la plupart des grandes organisations avec de multiples produits et une clientèle très diversifiée.

« Si nous voulons permettre aux utilisateurs professionnels d’interagir avec les données en utilisant un langage quasi naturel, ThoughtSpot serait notre « aller à », dit Français. « S’il y a un besoin d’un tableau de bord très structuré et parfait en pixels, nous utiliserions une alternative dans notre pile. »

Nationwide utilise trois outils stratégiques bi, mais Français prétend que l’accent pour le moment est sur ThoughtSpot. « Un cas particulier d’utilisation où nous avons appliqué cette technologie d’IA est d’améliorer l’efficacité de flux dans l’ensemble de notre changement d’entreprise et de la succession informatique , » dit Français. « Essentiellement, l’amélioration du temps qu’il faut du concept initial à sa mise en œuvre dans un changement de système, et où sont les obstacles et les problèmes en cours de route. Nous appelons cela la prestation de better value sooner safer plus heureux.

Bien qu’il n’y ait rien de tel qu’un acronyme d’entreprise pour obtenir le jus de données qui coule, vous pouvez voir le sens en elle, au moins en termes d’améliorer le flux et de donner aux équipes de données l’accès à ce dont ils ont besoin, quand et où ils en ont besoin. Bien que ThoughtSpot ne soit pas la destination finale (c’est presque certainement ce qui va être Tableau), il est clair de trouver un foyer précieux au sein de la famille des outils BI Nationwide, à un moment où le travail à distance et les pressions financières dictent les modèles de travail.

« En consolidant les données de notre registre d’applications informatiques d’entreprise, ServiceNow et JIRA, nous avons pu commencer à mesurer Flow et à identifier les zones du processus de livraison où il y a des temps d’attente et des répétitions », ajoute Français. « Nous avons été en mesure de faire apparaître ces informations aux équipes de livraison et de TI de la Société, qui adoptent ces données consolidées et créent des expériences au cours de leurs propres équipes pour s’attaquer aux obstacles identifiés par la solution d’IA. »

Connaissance des données

Français indique que l’organisation cherche en fin de compte à permettre une amélioration continue, mais à maximiser ces améliorations, le plus grand nombre possible de personnes ont besoin d’accéder aux données pertinentes. Bien sûr, cela soulève l’idée de la connaissance des données. Tout cela est très bien de donner aux gens l’accès aux données, mais il ya un danger que sans connaissance, ces données peuvent être mal interprétées. Personne ne veut des yeux non formés voir des modèles et des corrélations qui n’existent pas vraiment.

C’est un défi auquel sont confrontées la plupart des entreprises. L’amélioration de la littératie en données est essentielle à l’augmentation de la BI et à la nécessité d’améliorer la narration régulière pour chaque besoin ministériel. L’analyse augmentée en fait partie. Selon le rapport Magic Quadrant de Gartner, d’ici 2025, les données seront le moyen le plus répandu de consommer l’analyse, et 75 % des histoires seront générées automatiquement à l’aide de techniques d’analyse augmentée.

Selon Français à Nationwide, l’entreprise a une formation continue pour améliorer la connaissance des données en interne, tout en pointant du point sur le système en libre-service de ThoughtSpot, permettant aux utilisateurs d’« xpéter et s’y plonger dans des données en direct pour les aider à répondre aux questions au fur et à mesure qu’elles se posent. Pour Parker à Guy’s and St Thomas’ Charity, c’est une histoire similaire, même s’il dit que c’est maintenant une priorité cette année pour améliorer la littératie en données et la connaissance de Tableau.

C’est compréhensible et nous verrons un changement, car les capacités en libre-service commencent à permettre aux utilisateurs professionnels, aidés par une intelligence augmentée, de poser des questions en utilisant le langage naturel et d’obtenir des réponses conversationnelles en retour. Mais cela semble encore loin, bien que les fondations soient mises en place dans un certain nombre d’organisations.

Chez SAP et Tibco, les clients Vestas, par exemple, ont désigné des « espaces de données » isolés pour travailler, permettant aux utilisateurs professionnels d’explorer les données sans perturber le système source. Chaque département peut donc disposer de connexions de données pertinentes à son entreprise, qu’il s’agisse de sources SQL, sur site ou dans le cloud. Les employés de ce ministère ne voient que les données dont ils ont besoin.

Et c’est là un autre problème : la qualité des données et la confiance en données. Plus les entreprises développeront leurs futures décisions en ce qui a autour des données, plus elles devront faire confiance à ces données. Il s’agit d’un défi permanent à mesure que les sources de données varient et continuent de croître, et à mesure que les données augmentent, la compréhension de ces données augmente également.

Comme les entreprises continuent à travailler à partir de la maison et essayer de deviner les marchés en évolution rapide, de sorte que le besoin de renseignements plus nuancés augmente. Les outils BI ne font qu’une partie de cette solution et aucun outil ne semble s’adapter à tous les emplois. Pour l’instant du moins, une stratégie bi nécessite un mélange, mais l’analyse de rentabilisation n’est plus en question.

Click to comment

Leave a Reply

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Trending