Google Cloud tente de rendre les données “ilimitées” grâce à BigLake

Google Cloud an annoncé le lancement en avant-première de son moteur de stockage pour lacs de données, BigLake, dans le cadre de son objectif de supprimer toutes les “limites des données” ainsi que de briser la barrière entre les lacs de lacs entrepôts.

Comme l’a expliqué Sudhir Hasbe, responsable des produits d’analyse de données chez Google Cloud, BigLake a été conçu pour fournir une interface unifiée pour toutes les couches de stockage, y compris don les lacs de données, et de lesnques suit le format.

« C’est pour que vous n’ayez pas à copier les données, à les déplacer à travers vos magasins d’objets, comme dans Google Cloud Storage, S3, ou Azure dans un environnement multi-cloud, et vous obtenez un seul endroit pour accéder à toutes vos données », at-il déclaré aux médias lors d’un pré-briefing.

Sudhir Hasbe a ajouté que BigLake peut prendre en charge tous les formats de fichiers ouverts tels que Parquet, ainsi que les moteurs de traitement open source tels que Apache Spark ou Beam, et divers formats de tableaux, notamment Delta et Iceberg. « C’est complètement ouvert », at-il déclaré. « Nous prenons l’innovation de Google, l’étendons au monde open-source et la rendons plus ouverte pour tous nos clients. »

Une nouvelle alliance Data Cloud

BigLake est appelé à devenir central pour tous les investissements de Google Clouds à l’avenir. « Nous nous assurerons que tous les différents outils et composants fonctionnent de manière transparente avec BigLake à l’avenir », a déclaré Sudhir Hasbe.

En outre, Google an annoncé la création d’une alliance Data Cloud qui a été formée avec d’autres partenaires fondateurs, notamment Confluent, Databricks, Dataiku, Deloitte, Elastic, Fivetran, MongoDB, Neo4j, Redis et Starburst.

Dans le cadre de cette alliance, les membres fourniront une infrastructure, des API et un support d’intégration pour assurer la portabilité et l’accessibilité des données entre plusieurs plateformes et produits dans de multiples environnements. Ils collaboreront égallement à l’élaboration de nouveaux modèles de données industriels communs, de processus et d’intégrations de plateformes afin d’accroître la portabilité des données.

« Nous nous sommes engagés à supprimer les obstacles au verrouillage des données. Nous nous sommes engagés à faire en sorte que les données puissent être accessibles et traitées entre les produits, et nous nous sommes engagés à placer le client au center de notre innovation commune », a déclaré Gerrit Kazmaier, Datagé directive Google Analytics , Looker.

Vertex AI Workbench pour l’analyse des données

Dans le cadre de son Data Cloud Summit, le géant technologique a égallement présenté Vertex AI Workbench pour rassembler les données et les systèmes ML dans une seule interface, afin que les équipes puissent disposer de jeux’ comsemunds’, la data science et le machine learning. Il a été conçu pour être directement intégré à une suite complète de produits d’IA et de données, notamment BigQuery, Serverless Spark et Dataproc.

« Cette capacité permet aux équipes de construire, d’entraîner et de déployer des modèles ML dans un environnement de notebook simple qui peut améliorer et rendre cinq fois plus rapide que les autres outils qu’ils pourraient, Harry utiliser de produit senior Google Cloud AI.

La société a égallement annoncé Vertex AI Model Registry. Actuellement en avant-première, le registre de modèles a été conçu pour être un “référentiel central pour la découverte, l’utilisation et la gouvernance des modèles de machine learning, y compris ceux stockés dans BigQuery.liqué ML”, Harry a Penn

« Parce que cette fonctionnalité permet aux data scientists de partager facilement des modèles et aux développeurs d’applications de les utiliser, les équipes seront plus à même de transformer les données en décisions en temps aderajeré, »

Source : ZDNet.com

Leave a Comment