Votre navigateur ne supporte pas JavaScript ! Scrum & Big Data - Scrum Inc.
  • LinkedIn
  • YouTube
  • RSS
J'ai lu le nouveau livre stimulant de Viktor Mayer-Schoenberger et Kenneth Cukier Big Data : Une révolution qui va transformer notre façon de vivre, de travailler et de penser. Le livre part du principe que, maintenant que la civilisation dispose des outils nécessaires à la collecte et à l'analyse d'énormes quantités de données, la corrélation est bien plus parlante que la causalité. En d'autres termes, lorsqu'il s'agit de milliards de points de données plutôt que de centaines, la connaissance de la corrélation est beaucoup plus révélatrice que celle de la causalité. ce queplutôt que pourquoi est suffisante.
L'un des exemples fréquemment cités par les auteurs est la manière dont Google a été en mesure d'exploiter son énorme réservoir de requêtes de recherche sur les symptômes courants de la grippe pour découvrir où l'épidémie de grippe H1N1 de 2009 se propageait.
Le CDC faisait la même chose en utilisant des techniques d'échantillonnage traditionnelles. La méthode de Google était plus précise et en temps réel (deux semaines avant l'enquête du CDC), ce qui a constitué un avantage considérable pour le contrôle de l'épidémie. Grâce à Google, le CDC a appris lece que (ironiquement le où dans ce cas) mais pas le pourquoi (dont le porteur H1N1 était le vecteur). Et cela a suffi à endiguer la propagation du virus.
Malgré le désordre des données de Google, elles étaient beaucoup plus efficaces en raison de leur taille. L'analyse des big data a été rendue possible par l'accès facile au moteur de recherche de Google (3 milliards de recherches par jour), par de grands serveurs pour stocker les informations et par des algorithmes intelligents pour trier les données de façon à obtenir quelque chose de significatif.
L'une des pierres angulaires de Scrum est sa capacité à mesurer le rendement du travail, c'est-à-dire la vélocité. Comme l'ont souligné les auteurs deBig Data souligne qu'une grande partie des connaissances humaines repose sur la capacité à mesurer un phénomène donné. Une fois que nous pouvons le mesurer, nous pouvons commencer à manipuler les données d'entrée et déterminer si nous avons amélioré quelque chose en fonction des résultats obtenus. (Faire cela encore et encore est une amélioration continue, l'élan de Scrum).
Parce que le Scrum a permis de mesurer le travail de manière plus précise que jamais, nous pourrions numériser les mesures et créer un énorme ensemble de données consultables. Par exemple, Microsoft compte plus de 3 000 membres de l'équipe Scrum depuis plusieurs années. Imaginez les informations possibles si toutes ces données étaient mises en commun et soumises à des algorithmes intelligents. Ou si les entreprises qui construisent et entretiennent des tableaux virtuels Scrum commençaient à stocker toutes les données Sprint de chaque client utilisant leurs outils.
Peut-être pourrions-nous constater que l'arrivée d'un nouveau membre dans une équipe entraîne une baisse temporaire de la productivité, mais un gain global à long terme. Les responsables pourraient attendre avant d'ajouter un nouveau membre à l'équipe avant la sortie d'un produit clé. Ou encore, les données pourraient montrer que les équipes sont plus productives lorsqu'elles ne travaillent que six heures par jour au lieu de huit. Les possibilités sont vraiment passionnantes.
Grâce à l'utilisation des techniques de big data, les leaders d'opinion de la communauté Scrum n'auraient plus à mener des études de cas ou à théoriser sur ce qui pourrait créer une amélioration du processus. De même, Scrum Masters n'aurait plus besoin de modifier son processus et d'attendre la fin du sprint pour voir quels sont les résultats. Il leur suffirait d'interroger l'ensemble des données pour obtenir une réponse immédiate.
Les données massives (Big Data), c'est du lourd.
 -- Joel Riddle
fr_FRFrench
Actions