Connexion
/ Inscription
Mon espace
Etudes & Enquêtes
ABONNÉS
Partager par Linked-In
Partager par Xing
Partager par Facebook
Partager par email
Suivez-nous sur feedly

[Etude] Comment les entreprises peuvent gérer la montée en flèche des coûts et de la complexité liés aux données

Une nouvelle étude de marché menée par le cabinet de conseil indépendant Boston Consulting Group (BCG) et sponsorisée par Red Hat et Starburst, explore les défis organisationnels liés à la croissance exponentielle des volumes de données et à l'innovation rapide à travers le data stack. Les résultats de l’étude indiquent que les organisations sont confrontées à un contexte défavorable en matière de coûts, de complexité et de talents pour soutenir les initiatives critiques d'analyse de données et d'IA.

Intitulée A New Architecture to Manage Data Costs and Complexity, l’étude fait ressortir trois principales tendances qui remodèlent le paysage des données :
- le volume et la vitesse des données augmentent,
- les cas d’utilisation des données se démocratisent ce qui contribue au développement de citizen data scientists, - les progrès technologiques ont modifié le modèle de tarification.

Selon le rapport, ces tendances engendrent des challenges qui créent une pression immense sur l'architecture des données :

  • Plus de 50% des data leaders déclarent que les architectures de données d'aujourd'hui ont atteint un point critique de complexité.

  • Le nombre total de fournisseurs de données uniques a presque triplé au cours de la dernière décennie, passant d'environ 50 à plus de 150 aujourd'hui pour les grandes entreprises disposant d'un data stack plus mature.

  • 56% des dirigeants ont déclaré que la gestion des coûts d'exploitation des données est un point sensible, mais continuent d’augmenter leurs investissements dans la modernisation et la construction de nouvelles architectures de données.

« La démocratisation des données continue alors que les capacités de lecture des données et les compétences basiques en langages de programmation, tels que SQL, deviennent plus répandues auprès des audiences non techniques. Selon l’étude, près des trois quarts (73%) des personnes interrogées s'attendent à ce que le nombre de consommateurs de données non techniques augmente au cours des trois prochaines années. L'étude détaille la croissance des "citoyens scientifiques des données" et juxtapose cette croissance à la sophistication accrue des cas d'utilisation liés à l'IA. L'écart entre les cas d'utilisation et les technologies d'analyse plus avancés et les compétences analytiques requises limite actuellement les résultats commerciaux que l'IA peut générer. Seuls 54% des dirigeants pensent que les initiatives de leur entreprise en matière d'IA créent une valeur commerciale tangible », déclare Pranay Ahlawat, partenaire et directeur associé au Boston Consulting Group.

« Les résultats de l'enquête confirment que de nombreuses entreprises peinent à s'adapter à l'augmentation des volumes de données dans le multicloud et en périphérie, tout en maintenant des architectures de données héritées. Cette situation est aggravée par le renforcement des réglementations sur la confidentialité des données, la pression sur les dépenses informatiques et relatives aux données, et la pénurie de talents hautement qualifiés. Red Hat pense que la solution pour gérer ces défis sera de mettre en œuvre des architectures de données agiles, construites selon les exigences d'aujourd'hui avec la flexibilité nécessaire pour évoluer rapidement à l'avenir », poursuit Steven Huels Senior Director, Cloud Services for AI and Machine Learning chez Red Hat.

Le rapport livre également quelques enseignements clés

  • Les architectures de données évoluent pour devenir plus fédérées et orientées services : 68% des entreprises aspirent à mettre en œuvre un paradigme architectural plus fédéré et distribué (c'est-à-dire un data mesh ou des data products) dans les trois prochaines années.

  • Le coût total de possession des données est à surveiller : les organisations peuvent établir une base de référence et une moyenne des dépenses pour comprendre les facteurs clés, tels que les personnes, le transfert et le mouvement des données, le stockage des données et les logiciels, de façon à améliorer les coûts tactiques à court terme en explorant plusieurs approches.
  • L'économie déterminera les choix d'architecture : le cloud, l'open source et les hyperscalers continueront d’influencer les choix technologiques et la capacité à gérer l’envolée des coûts sera une priorité pour les entreprises lors du choix des architectures. Pour certaines organisations, le recours à des projets open source permet de réduire les coûts totaux du data stack de 15 à 40%.

Justin Borgman, CEO et cofondateur de Starburst, conclut : « L'un des points les plus importants à retenir de cette étude est la nécessité pour les entreprises d'investir dans une architecture de données découplée et fédérée. Cette approche répond à la réalité d'aujourd'hui, à savoir que les données sont partout et que les entreprises ne peuvent pas investir dans le temps, les dépenses et la complexité architecturale nécessaires pour les centraliser. Elle permet de mettre l'analytique au service des données, les rendant ainsi accessibles pour la prise de décision sans la complexité et les coûts liés aux déplacements de données. C'est la seule approche viable qui permettra aux entreprises de répondre à la demande croissante de stockage de données et de charges de travail analytiques, tout en maîtrisant les coûts. »

Accéder ICI au rapport complet du Boston Consulting Group.

Lire la suite...


Articles en relation