He estado leyendo el nuevo y estimulante libro de Viktor Mayer-Schoenberger y Kenneth Cukier Big Data: Una revolución que transformará nuestra forma de vivir, trabajar y pensar. La premisa del libro es que, ahora que la civilización dispone de herramientas para recopilar y analizar enormes cantidades de datos, la correlación es mucho más reveladora que la causalidad. Es decir, que cuando se trata de miles de millones de puntos de datos en lugar de cientos, conocer la quéen lugar de por qué es suficiente.
Un ejemplo que los autores utilizan con frecuencia es cómo Google fue capaz de peinar su enorme tesoro de consultas de búsqueda sobre síntomas comunes de la gripe para descubrir por dónde se propagaba la epidemia de gripe H1N1 de 2009.
El CDC estaba haciendo lo mismo utilizando técnicas de muestreo tradicionales. El método de Google era más preciso y en tiempo real (dos semanas antes que la encuesta de los CDC), una gran ventaja para controlar el brote. Gracias a Google, el CDC se enteró de laqué (irónicamente el dónde en este caso) pero no el por qué (cuyo portador del virus H1N1 era el vector.) Y eso fue suficiente para ayudar a frenar la propagación del virus.
A pesar del desorden de los datos de Google, su tamaño los hacía mucho más eficaces. El análisis de big data fue posible gracias al fácil acceso al motor de búsqueda de Google (3.000 millones de búsquedas al día), grandes servidores para almacenar la información y algoritmos inteligentes para clasificar los datos en algo significativo.
Una de las piedras angulares del Scrum es su capacidad para medir la producción de trabajo, es decir, la velocidad. Los autores deGrandes datos gran parte del conocimiento humano se basa en la capacidad de medir un fenómeno determinado. Una vez que podemos medirlo, podemos empezar a manipular la entrada y determinar si hemos mejorado algo por la salida resultante. (Hacer esto una y otra vez es la mejora continua, el impulso de Scrum).
Como Scrum ha hecho que el trabajo se pueda medir de forma más precisa que nunca, podríamos digitalizar las métricas y crear un enorme conjunto de datos en el que se puedan hacer búsquedas. Por ejemplo, Microsoft ha tenido más de 3.000 miembros del equipo Scrum durante varios años. Imaginemos las posibles perspectivas si todos esos datos se pusieran en común y se sometieran a algoritmos inteligentes. O si las empresas que construyen y mantienen tableros virtuales Scrum empezaran a almacenar todos los datos Sprint de cada cliente que utiliza sus herramientas.
Tal vez veamos que la incorporación de un nuevo miembro al equipo supone un descenso temporal de la productividad, pero una ganancia global a largo plazo. Los directivos podrían aplazar la incorporación de un miembro del equipo antes del lanzamiento de un producto clave. O quizá los datos muestren que los equipos son más productivos cuando trabajan sólo 6 horas al día en lugar de ocho. Las posibilidades son realmente apasionantes.
Gracias al uso de técnicas de big data, los líderes de opinión de la comunidad Scrum ya no tendrían que realizar estudios de casos ni teorizar sobre lo que podría generar una mejora del proceso. Tampoco Scrum Masters tendría que ajustar su proceso y esperar hasta el final del Sprint para ver los resultados. En su lugar, podrían simplemente consultar el conjunto de datos y obtener una respuesta inmediatamente.
Big Data es un gran negocio.
-- Joel Riddle