hypercube

Marc Hispa

Product owner

 

 

www.hcube.io

Analytique

API

Applications

Dataviz

Infrastructure

Institutionnels

Consultants/SSII

Intégrateurs

Depuis la précédente édition du guide, quel constat faites-vous de l’évolution du Big Data ?

La terminologie même de « Big Data » commence à prendre quelques rides tant elle a été galvaudée, interprétée selon les enjeux et le référentiel de chacun. Et pourtant, nous observons une énergie toujours plus forte autour de la data, des initiatives et des projets permettant d’en tirer la valeur tant attendue. L’émergence des architectures Server Less et l’acceptation du cloud permettent notamment à de plus en plus de clients de gérer de grandes quantités de donnés à des coûts raisonnables. Il n’existe peu ou plus de secteurs d’activité n’ayant pas engagé des ressources sur ces sujets et l’envie de ne pas passer à côté des opportunités promises surpasse les premières déceptions ou difficultés rencontrées. Nous évoquions l’an dernier « l’âge de raison » du Big Data pour célébrer les 7 ans d’apparition du terme. C’est aujourd’hui encore plus vrai, les décideurs restent engagés mais plus exigeants et en même temps raisonnables sur le retour de leurs investissements.

 

Quels sont, selon vous, les nouveaux challenges techniques, technologiques et/ou stratégiques du Big Data ?

C’est une trivialité de le rappeler, mais les sujets ‘Big Data’ ne peuvent rester des initiatives de R&D cantonnées dans des laboratoires affranchis des enjeux et contraintes opérationnelles. Au-delà de mobiliser efficacement les ressources rares en data science sur les sujets à plus forte valeur ajoutée, la capacité d’industrialiser les projets est certainement le principal challenge aujourd’hui entre les mains des DSI. La réalité des systèmes d’informations et de leur dette technique est trop souvent négligée en amont des travaux. Combien d’applications métiers sont APIsées ou capables de s’affranchir des dépendances python/scala pour opérer des moteurs prédictifs ? Par ailleurs, la question de la volumétrie devient progressivement un enjeu pour les non pure players du web grâce notamment à l’Internet des objets et la capacité nouvelle de collecter à l’infini les mesures relevées par un ensemble de capteurs. Enfin, le nouvel eldorado de la donnée non structurée reste à conquérir. La plupart des expérimentations restent déceptives, principalement en raison des difficultés d’ordre ontologique, linguistique ou de mise en œuvre opérationnelles des techniques d’apprentissage profond.

 

Les end-users sont-ils plus matures en la matière ? Quels secteurs sont vraiment moteurs pour vous ?

Les décideurs sont définitivement de plus en matures. Les expérimentations ont permis de faire la part des choses entre promesses et réalité. Les efforts d’évangélisation des vendeurs du secteur ont également aidé les décideurs à y voir plus clair dans la jungle technologique actuelle. Il n’est pas évident de discerner un secteur plus moteur qu’un autre. Nous observons que les secteurs de l’industrie ou des services publics sont désormais prêts à rattrapper leur retard même si les Telecoms ou la Finance gardent une longueur d’avance.

 

L’Intelligence Artificielle : en voie de démocratisation chez vos clients ?

L’IA se démocratise jour après jour et devient une réalité opérationnelle chez nos clients. De la mise en œuvre de Chatbots pour un premier niveau de support informatique, à l’optimisation de l’allocation de ressources de contrôle, en passant par la traduction automatique de contenus, les champs d’application quotidienne sont infinis et d’ailleurs pas toujours explicitement mis en avant comme issus de l’IA. Le plus difficile reste néanmoins de faire garder les pieds sur terre aux non-initiés, car malgré les progrès considérables en la matière, et quitte à bousculer le discours des vendeurs de solutions, il n’y a rien de magique ou miraculeux, même avec l’apprentissage profond !

 

Quelles sont les évolutions de vos offres Data ?

Nous poursuivons la mise en œuvre de notre stratégie data via notamment notre plateforme HyperCube. Celle-ci s’enrichit continuellement pour offrir tous les outils utiles aux data scientists et autres analystes pour conduire leurs travaux quotidiens d’analyse ou de modélisation de la donnée. Nous avons notamment récemment intégré une offre plateforme massive et élastique capable d’optimiser dynamiquement les ressources serveurs. Nous déclinons également cette plateforme en «verticaux» à même d’adresser les enjeux spécifiques de certains secteurs/fonctions (outils de demand planing, de pricing, industrie 4.0…). Nous développons enfin notre savoir-faire et nos expériences dans l’accompagnement de nos clients dans leurs réflexions autour des enjeux d’organisation, de gouvernance ou d’architecture data.

 

Enfin, quelle est la plus-value apportée aux clients vous choisissant ?

Nos clients trouvent en nous un interlocuteur rare capable de mobiliser un large spectre d’expertise depuis le developpement, le design, l’architecture ou encore la data science que nous mêlons étroitement avec le savoir-faire reconnu des consultants en management BearingPoint ! Notre engagement est de mettre en œuvre opérationnellement la data science. Grâce à nos solutions et nos savoir-faire, la mise en production des modèles HyperCube se fait en quelques secondes !

 

 

Marc Hispa

HyperCube