Le Big Data aura été l’un des termes les plus évoqués durant ces derniers mois. Pour les professionnels de l’IT, ce mot tourne à l’obsession. Peut-être est-ce dû au manque de main d’œuvre dans ce domaine ?

Le Big Data et l’analytique arrivent en deuxième position parmi les 10 tendances stratégiques de 2012 selon le Gartner. En 2015, 3 milliards de personnes disposeront d’Internet et pourront partager leurs données. La quantité de données non structurées va augmenter de 80% d’ici 2017. Le 20 Février 2012, plus de deux milliards de vidéos ont été visionnées sur Youtube.

De plus, d’ici 2015, le trafic international IP va quadrupler. Par conséquent, les entreprises doivent poser les fondations d’un bon traitement du Big Data et ceci sans plus attendre. À commencer par les cinq étapes décrites par lemondedel’informatique.fr :

  • Faire l’inventaire des données : collecter les données produites par chaque service et les sectoriser
  • Donner la priorité aux métiers : coordonner l’IT avec le besoin des directions métier
  • Réévaluer l’infrastructure : établir des infrastructures serveurs et stockages adaptés. Par exemple, une pour la relation client, une pour le marketing, etc.
  • Etudier les technologies associées : analytique in-database, stockage en colonne, appliances datawharehouse, etc.
  • Préparer ses équipes : choisir le personnel adapté à son approche du Big Data

C’est sur la dernière étape que les choses se compliquent. Selon Alan Mitchell, directeur de la stratégie du cabinet britannique Ctrl-Shift, repris par lesEchos.fr, le traitement du Big Data doit avant tout permettre aux entreprises de proposer un service adapté aux clients. Les données statistiques doivent être transmises aux bonnes personnes, au bon moment et au format adapté. C’est selon lui le défi paradoxal des Very Small Data et de la logistique d’information. Pour ce genre de tâche, les entreprises ont besoin de data scientists (experts Hadoop…).

Pénurie de talents analytiques, quelles solutions ?

Or, selon le rapport mondial de l’institut McKinsey, un déficit de 140 000 à 190 000 profils analytiques est à prévoir pour les seuls Etats-Unis, alors que le flux de données ne cesse de grimper.

Pourtant, selon Alan Mitchell, les entreprises devraient plutôt faire comme tout le monde et « chercher midi à leur porte ». En effet, sans même le savoir, elles disposent de suffisamment de talents parmi leurs employés. Une solution potentielle serait alors de rechercher la perle rare en interne. L’objectif serait ici de conjuguer à terme compétences de data scientist et une forte expérience métier.

De cette manière, l’entreprise formerait un personnel adapté au principe du « Very Small Data ». Les données ne seraient plus vues comme une masse à assainir, mais plutôt comme une richesse à redistribuer aux services intéressés. Bref un point de vue vraiment métier.

Cette approche pourrait renforcer une culture d’entreprise appropriée (notamment utile pour des sociétés toujours à la recherche de customer-centricity) et correspondrait à la vision d’Alan Mitchell sur « l’empowerment des individus » : une logistique de l’information basée sur une analyse fine des données du client et non sur leur masse.