En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies pour vous proposer des contenus et services adaptés à vos centres d'intérêts. En savoir plus et gérer ces paramètres. OK X
 
 

 

 

Dossiers

L’analytique, pilier du virage numérique de 2021

Par Nicolas Hirsch, country leader France, Qlik

Publication: Janvier 2021

Partagez sur
 
L’année 2020 a connu l’un des bouleversements les plus importants de ces dernières années, individus et entreprises ont dû opérer des changements forcés dans leur manière de prendre des décisions et de faire des choix au quotidien pour s’adapter...
 

Dans le domaine de l’IT, c’est au niveau des données que les changements ont été les plus radicaux. Ces dernières ont particulièrement été scrutées et analysées afin de permettre aux entreprises de prendre les meilleures décisions possibles dans le cadre de leur reprise économique.

Cette année a démontré qu’il est désormais essentiel de se préparer pour pouvoir réagir rapidement et prendre des mesures préemptives afin d’anticiper de futures perturbations car, des solutions SaaS aux nouveaux modes de collaboration en entreprise, le virage technologique peut aider à surmonter ces crises. Il s’agit de définir de nouvelles priorités pour évoluer dans ce contexte inédit. Voici les 5 tendances majeures qui devraient s’imposer au cours de l’année à venir.

1. Données partagées, visualisations et storytelling sont désormais des produits de consommation de masse

En 2020, la visualisation des données est devenue omniprésente sur les chaînes d’information grand public. Plus que jamais, la nécessité de faire progresser le storytelling se précise et cela met des millions de personnes sur la voie de la data literacy. Toutefois, les questions concernant l’interprétation des données restent d’actualités. Comment accéder à ce qui se cache derrière l’image présentée ? À l’argumentaire qui sous-tend l’indicateur présenté ? Comment mettre en évidence la traçabilité et facilement intégrer de nouveaux ensembles d’informations ?

Techniquement, l’élargissement du contexte sera de plus en plus facile grâce à des modèles de données communs plus nombreux et une logique métier renforcée, avec notamment des informations accessibles sur des catalogues et des marketplaces de données. Cela permettra de les synthétiser plus facilement et d’engendrer des discussions plus productives. Mais il faudra également commencer à poser des bases communes et mettre au point des protocoles afin de garantir une certaine honnêteté intellectuelle lorsque des informations font l’objet de discussions.

2. Disposer de données à jour et prêtes à l’emploi devient critique

Depuis l’avènement de la pandémie, le besoin de disposer de données mises à jour en temps réel s’est fait ressentir de plus en plus intensément. Des informations traditionnellement assez répétitives comme les prévisions trimestrielles par exemple sont désormais fluctuantes et variables. Il est nécessaire de mettre en place un système plus complet d’alertes, de rafraîchissements et de prévisions concernant les données, établis à l’aide des variables les plus récentes.

À mesure que la vélocité des données augmente, l’activité des entreprises doit également accélérer. Est-il possible de rendre accessibles les données « prêtes à l’emploi » plus tôt ? Est-ce possible de parvenir automatiquement aux résultats escomptés, via des processus automatisés ou une action humaine ? L’infrastructure et les applications existent et permettent une transition progressive vers l’intelligence active. Ce sera l’un des principaux facteurs qui permettra aux entreprises d’agir de manière pro-active.

3. La collaboration doit intervenir plus tôt dans la chaîne analytique

En 2020, une nouvelle étape a été franchie en matière de collaboration, marquée par le digital et la rapidité. Le secteur de l’analytique s’est adapté en intégrant l’ensemble des composantes du pipeline de données. Il combine ainsi synthèse et analyse, tout en utilisant les métadonnées actives, la logique métier et les catalogues comme tissus connecteurs. Tout cela va permettre d’encourager la collaboration, l’innovation et les débats sur les données elles-mêmes.

Les tâches consistant à transformer les données brutes en informations prêtes à être analysées vont donc devenir plus engageantes, plus rapides et plus fréquentes. Le rapprochement de deux mondes est en cours : celui des spécialistes des données et celui des consommateurs d’informations, et la logique métier persistera, permettant aux données prêtes pour l’analyse d’être transformées bien plus rapidement en informations prêtes pour les décisions business.

4. Les solutions SaaS seront le nouveau Graal

Au cours de l’année 2020, pour de nombreuses entreprises, l’essor des fournisseurs de services dans le cloud et en ligne a joué un rôle essentiel pour préserver l’activité sur des environnements virtuels. Cela a permis à nombre d’entre elles de surmonter l’inertie qui entourait les solutions SaaS, PaaS et autres produits « as-a-Service », et les obstacles inhérents. Appliquées au domaine des données et de l’analytique, les solutions SaaS donnent accès à de nouvelles technologies, telles que l’analytique augmentée, facilitant ainsi ces transformations.

Le passage immédiat aux solutions SaaS a déclenché davantage de migration de bases de données et d’applications. C’est pourquoi les technologies permettant d’accéder aux données, de les transférer et de les harmoniser depuis des lieux différents serviront de points d’ancrage aux prochaines innovations. Les conteneurs et les infrastructures sans serveurs présentent également un vaste potentiel pour la gestion des données dans le cloud, mais leur utilisation à l’échelle exige une certaine maturité organisationnelle et un savoir-faire conséquent. Un déploiement hybride à travers plusieurs cloud demeure la clé pour éviter la dépendance à certains fournisseurs.

5. Il est essentiel de collecter et de synthétiser les données dites « alternatives »

La présence de la COVID-19 aurait-elle pu être détectée plus tôt ? Des études réalisées à partir de données dites « alternatives » indiquent que le virus pourrait circuler depuis la fin de l’année 2019.[2] Exploitées par les investisseurs pour recueillir des données issues de divers documents, les données alternatives sont désormais communément utilisées dans le but de détecter les anomalies beaucoup plus tôt.

Il est ainsi possible de dériver des données par combinaison, par association ou par synthèse avec des informations issues de systèmes d’enregistrement. Comme IDC le constate : « Alors que de plus en plus de données sont collectées et disponibles depuis des sources externes, la capacité à les exploiter davantage devient un facteur différenciateur. Cela permet de tirer des enseignements provenant de secteurs qui ne sont pas les nôtres ».

Cette tendance semblable à celle que Gartner appelle « l’analytique X » n’a rien de nouveau, mais elle joue enfin un rôle prépondérant dans la data science et l’analytique, grâce à la réduction des coûts de traitement et à la maturité des techniques d’IA. Cette tendance dépend entièrement du ML et de l’IA, étant donné qu’il est impossible de tout saisir avec un œil humain.

https://www.qlik.com/

Suivez Industrie Mag sur le Web

 

Newsletter

Inscrivez-vous a la newsletter d'Industrie Mag pour recevoir, régulièrement, des nouvelles du site par courrier électronique.

Email: