AICon 深圳站 Keynote 嘉宾官宣!共探AI价值转化的实践路径 了解详情
写点什么

开源基金会:使用 Apache Iceberg 和 SparkSQL 构建可复制的 ML 系统

作者:Anant Kumar

  • 2025-08-04
    北京
  • 本文字数:7313 字

    阅读完需:约 24 分钟

大小:2.59M时长:15:03
开源基金会:使用Apache Iceberg和SparkSQL构建可复制的ML系统

如果你曾花时间在生产环境中构建机器学习(ML)系统,你肯定深有体会。你的模型在开发阶段中表现优异,通过了所有的离线测试,但在生产环境中却莫名其妙地表现糟糕。这听起来熟悉吗?

 

十有八九,这是数据问题。而且不是一般的数据问题:这是一个让数据工程师夜不能寐的可重复性的噩梦。我们谈论的是几个月后重新创建训练数据集,追踪特征为何突然看起来不同了,或者弄清楚到底哪个版本的数据生成了那个神奇的模型,而大家又都要求你“赶紧快速重建”。

 

传统的数据湖?它们在存储海量数据方面表现出色,但在机器学习工作负载迫切需要的事务保证和版本控制方面却表现糟糕。这就好比试图用大锤做精细的外科手术。

 

这时,Apache Iceberg 就派上用场了。与 SparkSQL 结合使用,它为你的数据湖带来了真正的数据库般的可靠性。时间旅行、模式演变和 ACID 事务这些本应从一开始就显而易见的需求,但不知怎的在追求“大规模大数据”的过程中被忽略了。

机器学习数据的可重复性问题

非常嫌疑人

让我们坦诚面对大多数机器学习团队中真正发生的情况。数据漂移悄然出现:随着时间的推移,你的特征分布会发生变化,但直到模型开始做出毫无意义的预测时,才会有人注意到。特征管道本应是确定性的,但实际上并非如此;运行相同的管道两次,由于时间戳逻辑或仅仅是普通的竞争条件,你会得到略有不同的输出。

 

然后是版本控制的情况。我们在代码版本控制方面做得相当不错(尽管我们不谈三个月前的那个“临时修复”至今仍在生产环境中)。但数据版本控制呢?它仍然主要是手动流程、电子表格和祈祷。

 

下面这个场景听起来是不是很熟悉:你的队友在周一运行特征工程,你在周二运行,突然你从本应相同的源数据中得到了不同的结果。为什么?因为在周一和周二之间,底层的表发生了变化,而你所谓的“时间点”逻辑并没有你想象的那么精准。

 

真正棘手的问题出现在模型训练期间。多人访问相同的数据库,模式变更会在毫无预警的情况下破坏数据管道,同时写入操作会产生竞争条件,破坏你精心设计的特征。这就好比在有人不断改变地基的情况下建造房屋。

为何传统数据湖表现不佳

数据湖的设计初衷是为了应对这样一个世界:分析工作只需运行批处理报告,或许再做些 ETL 任务。重点在于存储的可扩展性,而非事务完整性。在你最大的担忧只是生成季度报告时,这倒也无妨。

 

但机器学习则不同。它是迭代的、实验性的,并且对数据一致性有着传统分析从未有过的严格要求。当你的模型训练任务读取了部分写入的数据(因为其他人正在更新同一张表),你得到的不只是错误的报告,而是从垃圾数据中学习并会做出垃圾预测的模型。

 

模式灵活性在理论上听起来不错,但在实践中往往会导致模式混乱。如果没有适当的演进控制,善意的数据科学家在向现有表添加“仅此一项新特征”时,会意外破坏下游系统。祝你好运去弄清楚是什么时候出了问题。

 

元数据的情况更糟。传统的数据湖追踪文件,而非逻辑数据集。所以当你需要了解特征的血缘关系或实施数据质量检查时,基本上就是在盲目摸索。

隐性成本

糟糕的数据基础会带来一些预算中没有体现的成本。你的数据科学家们把大部分时间都花在处理数据上,而不是改进模型。我曾看到有研究指出,他们 60%到 80%的时间都花在了数据处理上。这……显然不是最佳状态。

 

当生产环节出现问题时——这是必然的——调试工作就会变成一场考古探险。模型是基于哪个版本的数据训练的?从那时到现在发生了什么变化?有没有没人记录的模式修改?这些问题可能要花数周时间才能回答,而且还不一定能回答得出来。

 

让我们来谈一谈合规性问题。试着向审计员解释为什么你无法重现用于训练做出贷款决策的模型的精确数据集。这可不是什么愉快的对话。

Iceberg 机器学习的基础知识

真正可行的时间旅行

Iceberg 的时间旅行是一种基于快照的架构,它为每次写入操作都维护完整的表元数据。每个快照都代表了你的表在特定时间点的一致视图,包括模式、分区以及所有内容。

 

对于机器学习人员来说,这具有变革性意义。你可以查询历史表状态,从而实现对过去数据的分析和利用。

 

对于 ML 爱好者来说,这是改变游戏规则的。你可以使用简单的 SQL 查询历史表的状态:

 

-- 这就是你实际上解决可复现性问题的方法SELECT * FROM ml_features FOR SYSTEM_TIME AS OF '2024-01-15 10:30:00'

-- 或者如果你知道特定的快照IDSELECT * FROM ml_features FOR SYSTEM_VERSION AS OF 1234567890
复制代码

 

无需再猜测是哪个版本的数据产生了良好的结果。不再有“上周还行得通”的讨论。你可以跨时间段比较特征分布,通过检查历史数据状态来分析模型性能下降情况,并构建真正能给你带来一致结果的 A/B 测试框架。

 

元数据包含文件级统计信息,因此查询优化器能够就扫描效率做出明智决策。这不仅仅是关乎正确性的,也是关乎性能的。

轻松应对模式演变

以下是一些应该是基础操作但却并非如此的情况:向你的特征表添加一个新列不应该需要团队会议和迁移计划。Iceberg 的模式演进功能让你能够根据不断变化的需求调整表,同时不会破坏现有的读取器或写入器。

 

你可以添加列、重命名列、重新排列列以及提升数据类型,同时保持向后和向前的兼容性。对于 ML 管道,数据科学家可以安全地添加新特征,而无需在多个团队之间协调复杂的迁移流程。

 

系统通过唯一的字段 ID 跟踪列的标识,因此重命名列不会破坏现有的查询。类型提升遵循 SQL 标准(整数到长整数,浮点数到双精度浮点数),因此你无需担心数据丢失。

 

-- 添加一个特征实际上就是这么简单ALTER TABLE customer_features ADD COLUMN lifetime_value DOUBLE

-- 重命名不会破坏下游任何东西ALTER TABLE customer_features RENAME COLUMN purchase_frequency TO avg_purchase_frequency
复制代码

ACID 事务(终于!)

ACID 支持使 ML 工作负载能够安全地在共享数据集上运行,而不会损坏数据或造成不一致的读取。Iceberg 使用乐观并发控制:多个写入者可以同时工作,但冲突会自动检测和解决。

 

隔离级别可防止读取者看到不完整的写入。因此,当你的训练任务启动时,它保证能看到数据的一致快照,即使有人正在实时更新特征。

 

事务边界与逻辑操作对齐,而非单个文件写入。你可以实现跨越多个表和分区的复杂特征工程工作流,同时保持一致性保证。再也不用担心“哎呀,我的更新只成功了一半”的情况。

构建可重现的特征管道

真正有意义的分区

让我们来谈谈分区策略,因为这是很多团队自找麻烦的地方。秘诀其实并不复杂:按照与实际查询数据方式一致的维度进行分区。

 

大多数 ML 工作负载都遵循时间模式,即基于历史数据进行训练,并对近期数据进行预测。因此,使用日期或日期时间列进行时间分区通常是最佳选择。分区的粒度取决于数据量。对于高数据量的系统,使用每日分区;对于较小的数据集,使用每周或每月分区。

 

CREATE TABLE customer_features (    customer_id BIGINT,    feature_timestamp TIMESTAMP,    demographic_features MAP<STRING, DOUBLE>,    behavioral_features MAP<STRING, DOUBLE>,    target_label DOUBLE) USING ICEBERGPARTITIONED BY (days(feature_timestamp))
复制代码

 

如果存在自然的业务分组,多维分区也能发挥良好效果。客户细分、产品类别、地理区域等都能反映模型实际对数据的切分方式。

 

Iceberg 的隐式分区特别好用,因为它能自动维护分区结构,无需在查询中显式指定分区列。编写更简单的 SQL 语句,却能获得同样的性能优势。

 

但分区也不能过度。我见过一些团队创建了数千个极小的分区,以为这样能提升性能,结果却发现元数据开销严重影响了查询规划。保持分区大小适中(考虑几百兆字节到几吉字节),并监控分区统计信息。

实验的数据版本控制

可重复的实验需要数据版本与模型工件之间的紧密耦合。这正是 Iceberg 快照大放异彩之处。它们为实现强大的实验跟踪奠定了基础,这种跟踪实际上将模型性能与特定的数据状态关联起来。

 

与 MLflow 或类似的跟踪系统的集成创建了模型运行与数据版本之间的可审计连接。每个训练任务都会记录输入数据集的快照 ID,从而精确重现实验条件。


import mlflowfrom pyspark.sql import SparkSession
def train_model_with_versioning(spark, snapshot_id): # 从特定快照加载数据 df = spark.read \ .option("snapshot-id", snapshot_id) \ .table("ml_features.customer_features") # 在MLflow中记录数据版本 mlflow.log_param("data_snapshot_id", snapshot_id) mlflow.log_param("data_row_count", df.count()) # 继续模型训练...
复制代码


分支和标记功能支持更复杂的工作流。为生产模型训练创建稳定的数据分支,同时在实验分支上继续开发。使用标签标记重要的里程碑,例如季度功能发布、监管检查点等。

特征存储集成

现代机器学习平台需要数据基础设施与实验管理之间实现无缝集成。Iceberg 表与特征存储配合良好,利用时间旅行功能为训练提供历史特征,为推理提供特定时间点的特征。

 

这种组合提供了训练和服务之间一致的特征定义,同时保持了实时推理所需的性能特征。由于批处理和流处理的特征逻辑不再出现分歧,因此不会再有训练与服务之间的偏差。


from feast import FeatureStoreimport pandas as pd
def get_training_features(entity_df, feature_refs, timestamp_col): try: fs = FeatureStore(repo_path=".") # Point-in-time join using Iceberg backing store training_df = fs.get_historical_features( entity_df=entity_df, features=feature_refs, full_feature_names=True ).to_df() return training_df except Exception as e: print(f"Error accessing feature store: {e}") raise
复制代码

生产实施

真实案例:客户流失预测

让我为你介绍一个在实际生产中切实可行的客户流失预测系统。该系统每天处理数百万次客户交互,同时保持完全可重复性。

 

其数据架构使用多个按新鲜度和访问模式组织的 Iceberg 表。原始事件流入暂存表,经过验证和清理,然后聚合到针对机器学习访问模式进行优化的特征表中。


-- 原始事件的暂存表CREATE TABLE customer_events_staging (    event_id STRING,    customer_id BIGINT,    event_type STRING,    event_timestamp TIMESTAMP,    event_properties MAP<STRING, STRING>,    ingestion_timestamp TIMESTAMP) USING ICEBERGPARTITIONED BY (days(event_timestamp))TBLPROPERTIES (    'write.format.default' = 'parquet',    'write.parquet.compression-codec' = 'snappy')
-- 具有优化布局的特征表CREATE TABLE customer_features ( customer_id BIGINT, feature_date DATE, recency_days INT, frequency_30d INT, monetary_value_30d DOUBLE, support_tickets_30d INT, churn_probability DOUBLE, feature_version STRING) USING ICEBERGPARTITIONED BY (feature_date)CLUSTERED BY (customer_id) INTO 16 BUCKETS
复制代码


特征工程管道利用 Iceberg 的合并功能实现增量处理。这种增量方法在保持不同处理计划间数据一致性的同时,最大限度地减少了重新计算。


def incremental_feature_engineering(spark, processing_date):    # 读取上次处理以来的新事件    new_events = spark.read.table("customer_events_staging") \        .filter(f"event_timestamp >= '{processing_date}'")        # 计算增量特征(实现取决于业务逻辑)    new_features = compute_customer_features(new_events, processing_date)        # 合并到特征表,使用upsert语义    new_features.writeTo("customer_features") \        .option("merge-schema", "true") \        .overwritePartitions()
def compute_customer_features(events_df, processing_date): """ 用户定义的函数,根据事件计算客户特征。实现将包括业务特定的特征工程逻辑。 """ # 示例特征工程逻辑将在这里 return events_df.groupBy("customer_id") \ .agg( count("event_id").alias("event_count"), max("event_timestamp").alias("last_activity") ) \ .withColumn("feature_date", lit(processing_date))
复制代码

性能优化

Iceberg 中的查询性能得益于多种互补技术。文件大小很重要。根据你的访问模式,目标文件大小为 128MB 至 1GB,对于高度选择性查询使用较小文件,对于全表扫描使用较大文件。

 

Parquet 对 ML 工作负载具有天然优势,因为你通常选择列子集。压缩选择取决于你的优先事项。对于频繁访问的数据使用 Snappy(更快的解压缩),对于存档数据使用 Gzip(更好的压缩比)。

 

使用聚类或 Z 序排列进行数据布局优化能够显著提升多维访问模式下的性能。这些技术将相关数据放置在文件内,从而减少典型 ML 查询的扫描开销。


-- 为典型访问模式优化表ALTER TABLE customer_features SET TBLPROPERTIES (    'write.target-file-size-bytes' = '134217728',  -- 128MB    'write.parquet.bloom-filter-enabled.customer_id' = 'true',    'write.parquet.bloom-filter-enabled.feature_date' = 'true')
复制代码

 

元数据缓存极大地提高了查询规划性能,特别是对于具有众多分区的表。Iceberg 的元数据层支持分布式缓存(Redis)或在 Spark 执行器内的内存缓存。

监控与运维

生产环境中的机器学习系统需要超越传统基础设施指标的监控。Iceberg 丰富的元数据支持复杂的监控方法,真正帮助您了解数据的情况。

 

数据质量监控利用元数据检测数据量、模式变更和统计分布方面的异常情况。与 Great Expectations 等框架集成,可提供自动化验证工作流,当质量阈值被违反时可停止处理。


import great_expectations as gefrom great_expectations.dataset import SparkDFDataset
def validate_feature_quality(spark, table_name): df = spark.read.table(table_name) ge_df = SparkDFDataset(df) # 定义期望 ge_df.expect_table_row_count_to_be_between(min_value=1000) ge_df.expect_column_values_to_not_be_null("customer_id") ge_df.expect_column_values_to_be_between("recency_days", 0, 365) # 验证并返回结果 validation_result = ge_df.validate() return validation_result.success
复制代码


性能监控跟踪查询执行指标、文件扫描效率和资源利用模式。Iceberg 的查询规划指标可提供分区剪枝效果和文件级扫描统计信息的洞察。

 

别忘了操作维护(例如文件压缩、过期快照清理和元数据优化)。这些操作可保持查询性能并控制长期存储成本。为这些操作设置自动化任务——相信我,你不会想手动做这些的。

最佳实践和经验教训

选择你的表格格式

究竟在什么情况下应该使用 Iceberg 而不是其他选项呢?这并非总是显而易见的,而且营销材料也不会给你提供直接的答案。

 

当你需要强大的一致性保证、复杂的模式演变和时间旅行能力时,Iceberg 表现出色。由于其实验性质和可复制性要求,因此机器学习工作负载能特别从这些特性中受益。

 

Delta Lake 提供了类似的功能,并且与 Databricks 生态系统有更紧密的集成。如果你主要在 Databricks 环境中操作,或者需要诸如液态集群之类的高级功能,那么 Delta 可能是更好的选择。

 

Apache Hudi 针对具有复杂索引的流处理用例进行了优化。对于具有大量流处理需求或复杂更新插入模式的机器学习系统,可以考虑使用它。

 

还有呢?有时候普通的 Parquet 表就足够了。如果你有简单的追加操作工作负载且模式稳定,那么使用这些表格式所带来的操作开销可能并不值得。不要为实际上不存在的问题过度设计解决方案。

常见陷阱

过度分区可能是我见到的最常见的错误。创建分区时,如果分区数据量少于 100MB 或每个分区包含超过一万份文件,都会损害查询规划性能。监控分区统计信息,并根据实际使用模式调整策略,而非依据理论上的理想状态。

 

即使有 Iceberg 的安全特性,模式演进错误仍可能破坏下游消费者。在 CI/CD 管道中实现模式验证,以便在部署前捕获不兼容的更改。使用列映射功能将逻辑列名与物理存储解耦。这会为你日后省去不少麻烦。

 

当团队未充分利用 Iceberg 的优化功能时,查询反模式往往就会出现。在 WHERE 子句中包含分区谓词以避免不必要的扫描。通过仅选择所需的列来使用列裁剪,而非使用 SELECT *(我知道这很方便,但你的查询性能会感谢您你)。

迁移策略

从遗留数据湖迁移需要精心规划。你不能指望一蹴而就,所有事情都能顺利进行。在过渡期间实施并行系统,这样你就可以将基于 Iceberg 的管道与现有系统进行验证。

 

首先优先迁移关键的机器学习数据集,重点关注能从 Iceberg 功能中获益最大的表。使用导入功能迁移现有的 Parquet 数据集,而无需重写数据文件。

 

-- 将现有表迁移到Iceberg格式CALL system.migrate('legacy_db.customer_features_parquet')
复制代码

 

查询迁移意味着更新 SQL 以利用 Iceberg 的功能,同时保持向后兼容性。功能标志或配置驱动的表选择可实现逐步推出。

 

管道迁移应分阶段进行。先从批处理开始,然后再转向流处理工作流。Iceberg 与现有 Spark API 的兼容性可将迁移期间的代码更改降至最低。

总结

Apache Iceberg 和 SparkSQL 为构建在生产环境中真正可靠运行的机器学习系统奠定了坚实的基础。时间旅行、模式演进和 ACID 事务的结合解决了多年来一直困扰机器学习基础设施的基本数据管理难题。

 

通过提高开发速度、减少调试时间以及增强对系统可靠性的信心,投资得以回报。团队一致报告称实验的可重复性更好,新模型的投产速度更快。

 

但要取得成功,需要围绕分区、模式设计和操作流程做出深思熟虑的设计决策。这项技术提供了强大的功能,但你需要了解其底层架构以及机器学习工作负载的特定要求,才能实现其优势。

 

随着机器学习系统的复杂性和业务关键性不断提高,可靠的数据基础变得愈发重要。Iceberg 代表了一种成熟且可投入生产的解决方案,有助于组织构建与传统企业应用程序具有相同可靠性预期的机器学习系统。

 

老实说?是时候拥有那些真正符合我们需求的工具了。

 

原文链接:

https://www.infoq.com/articles/reproducible-ml-iceberg/

2025-08-04 15:301

评论

发布
暂无评论

DataBuff 如何结合 Opentelemetry 监控 golang 应用

乘云数字DataBuff

云原生 APM 可观测性 应用性能监控 智能运维AIOps

Kubernetes云原生实战:分布式GeaFlow实现图研发,构建第一个商业智能应用

TuGraphAnalytics

Kubernetes 云原生 k8s BI 商业智能

华为云GaussDB亮相2023可信数据库发展大会,荣获三项评测证书!

华为云开发者联盟

数据库 后端 华为云 华为云开发者联盟 企业号 7 月 PK 榜

云拨测全面升级丨单次拨测低至 0.001 元

阿里巴巴云原生

阿里云 云原生 可观测 云拨测

2023开放原子全球开源峰会,蚂蚁图计算平台开源业内首个工业级流图计算引擎

TuGraphAnalytics

GitHub 开源 图计算 蚂蚁 GeaFlow

数智化底座正在成为当前竞争的焦点

用友BIP

数智底座

我感兴趣的技术四剑客 | 社区征文

法医

前端 年中技术盘点

Mybatis-SQL分析组件 | 京东云技术团队

京东科技开发者

mybatis sql mybatis入门 企业号 7 月 PK 榜

全新技术驱动预算管理全面升级

用友BIP

全面预算

构建学生数据库

猫九

数据库·

一文搞懂Git,掌握日常命令和基本操作

互联网工科生

git 知识

网易三个S级项目制作人,为什么选择在这个渠道“爆料”?

最新动态

如果我是一个小白,怎么开发网页

猫九

前端

从大数据到图计算-Graph On BigData

TuGraphAnalytics

GitHub 大数据 开源 图计算 GeaFlow

使用第一性原理思维思考如何打造提高生产力的平台 | 京东云技术团队

京东科技开发者

数字化转型 平台工程 企业号 7 月 PK 榜

实例讲解看nsenter带你“上帝视角”看网络

华为云开发者联盟

开发 华为云 华为云开发者联盟 企业号 7 月 PK 榜

基于STM32的300W无刷直流电机驱动方案

元器件秋姐

驱动 无刷电机 直流电机 SMT32 FOC

掌握 Dubbo:入门教程

Apifox

程序员 gRPC dubbo RPC 开发

持续推进平台化、生态化用友助力数智化安全有效落地

用友BIP

信创 国产替代

科兴未来|2023“直通乌镇” 全球互联网大赛

科兴未来News

SpringIoc容器之Aware | 京东云技术团队

京东科技开发者

spring aware springloc Aware 接口 企业号 7 月 PK 榜

APP流水线测试领域探索与最佳实践 | 京东物流技术团队

京东科技开发者

测试 app测试 app自动化测试 企业号 7 月 PK 榜

CST电磁仿真软件配置的CPU、内存、显卡显存越大越好吗?

思茂信息

cst cst使用教程 cst操作 cst电磁仿真 cst仿真软件

Pytorch: autograd与逻辑回归的实现

timerring

人工智能

从混沌到秩序的蜕变,SRE解码云计算运维奥秘

鲸品堂

云计算 SRE SRE实践 企业号 7 月 PK 榜

一辆没有“刹车”的跑车,你敢开多快?

原点安全

数据资产价值 数据安全管理 贴源保护

论文解读|TuGraph Analytics 流式图计算论文入选国际顶会 SIGMOD

TuGraphAnalytics

大数据 论文 图计算 SIGMOD GeaFlow

谁在以太坊区块链上循环交易?GeaFlow+Kafka的0元流图解决方案

TuGraphAnalytics

区块链 以太坊 kafka 图计算 GeaFlow

体系完整的数智化底座支撑企业创新发展,实现国产替代

用友BIP

国产替代

开源基金会:使用Apache Iceberg和SparkSQL构建可复制的ML系统_数据湖仓_InfoQ精选文章