Un voyage depuis les origines de l'informatique et de l'analyse de données jusqu'à ce que nous appelons aujourd'hui la « pile de données moderne ». Que ce passe t-il après?
Un voyage depuis les origines de l'informatique et de l'analyse de données jusqu'à ce que nous appelons aujourd'hui la « pile de données moderne ». Que ce passe t-il après?
Les origines de l'informatique et de l'analyse des données
Les origines de l’informatique et de l’analyse de données ont commencé au milieu des années 1950 et ont commencé à prendre forme avec l’introduction de SQL en 1970 :
1954 : Traitement du langage naturel (NLP) - « Expérience Georgetown-IBM », traduction automatique du russe vers l'anglais.
1960 : Cartes perforées
1970 : langage de requête structuré (SQL)
Années 1970 : Systèmes de planification financière interactifs – Créer un langage pour « permettre aux dirigeants de construire des modèles sans intermédiaires »
1972 : C, LUNAR - L'une des premières applications de l'informatique moderne, un système de recherche d'informations en langage naturel, a aidé les géologues à accéder, à comparer et à évaluer les données d'analyse chimique sur les roches lunaires et la composition du sol.
1975 : Express - Le premier système de traitement analytique en ligne (OLAP), destiné à analyser les données commerciales sous différents points de vue
1979 : VisiCalc - Le premier tableur informatique
Années 1980 : Systèmes d'aide à la décision de groupe - « Système de travail collaboratif informatisé »
La « pile de données moderne »
La « Modern Data Stack » est un ensemble de technologies et d'outils utilisés pour collecter, stocker, traiter, analyser et visualiser des données dans une plate-forme cloud bien intégrée. Même si QlikView était pré-cloud, il s'agit du premier exemple de ce que la plupart reconnaissent comme un tableau de bord analytique utilisé par des plateformes modernes comme Tableau et PowerBI :
1994 : QlikView - « Analyses basées sur un tableau de bord »
2017 : ThoughtSpot - « Analyse basée sur la recherche »
Papier, langages de requête, feuilles de calcul, tableaux de bord, recherche, et ensuite ?
Certaines des applications d'analyse les plus innovantes, du moins en termes d'expérience utilisateur, convertissent le langage humain en résultats informatiques :
Text-to-SQL : une histoire vieille comme le monde, LUNAR a été développé pour la première fois dans les années 70 pour aider les géologues à accéder, comparer et évaluer les données d'analyse chimique en utilisant le langage naturel. Salesforce WikiSQL a introduit le premier recueil complet de données conçu pour le cas d'utilisation texte vers SQL, mais ne contenait que de simples requêtes SQL. L'ensemble de données Yale Spider a introduit une référence pour les requêtes plus complexes et, plus récemment, BIRD a introduit des requêtes « sales » et des scores d'efficacité du monde réel pour créer une référence appropriée pour les applications texte-vers-SQL.
Texte en langage informatique : Wolfram Alpha, ThoughtSpot
Text-to-Code : analyse avancée des données ChatGPT
Le « Conversation-Driven Data Analytics » est-il une évolution naturelle ?
L'UX des interfaces d'analyse modernes telles que la recherche et le chat évolue et devient plus intuitive, rendue possible par le NLP et les LLM.
Les interfaces d'analyse ont pour origine d'aider les décideurs, mais ces derniers dépendent encore largement des analystes de données.
De nombreuses requêtes des décideurs sont ponctuelles , mieux adaptées aux « analyses jetables »
La génération d'informations est un processus créatif dans lequel de nombreuses informations sont obtenues lors de conversations sur les données, éventuellement avec des pairs.
Le flux de travail d'analyse des données est décousu , de l'imagination de l'analyse à la présentation des résultats.