当数据规模从TB走向PB级,大规模或高维度的复杂计算、模型训练、开云kaiyun预测与推理等复杂计算场景下,仅仅“算得动”已经不够,企业更关心:算得快、算得稳、算得值。
UHadoop是优刻得基于Hadoop框架的大数据综合处理平台,提供开箱即用的大数据生态常见组件。基于多年的产品积累,UHadoop全新推出GPU计算节点,在不改变用户作业逻辑的前提下,引入GPU计算能力,为Spark/SQL/ETL/特征工程等核心场景,带来数量级的性能提升与成本下降。
UHadoop给出了第四种答案:通过提升单位算力效率,在相同甚至更低成本下,完成更复杂、更高并发的数据分析任务。
来自基准测试结果显示,在Spark数据分析场景中,GPU加速方案可实现最高5.7倍性能提升、最高78%成本节省。
GPU计算节点的价值,并不是纸面性能,而是在真实业务场景中,已经被反复验证并规模化使用。
在部分生产级工作负载中实现20倍加速,单张A30GPU可支撑相当于约200个CPU核心的生产级计算负载
算力升级,不等于架构推倒重来。UHadoop GPU计算节点并不是引入一套全新的系统架构,而是在保持现有使用方式不变的前提下,实现底层算力升级:
在复杂分析和特征工程等计算密集型Spark场景中,GPU可为复杂分析、特征工程等场景带来2×–20×的加速效果。
GPU加速显著缩短特征工程、数据预处理等环节的执行时间,为后续模型训练与迭代争取更多窗口期。
在原有结构化分析基础上,支持更大规模、更复杂的数据分析需求,为多模态与AI场景提供算力基础。开云kaiyun
当AI正在持续放大数据的价值,Hadoop也必须进化它的算力底座。UHadoop不只是“要不要用GPU”,而是谁能更早,用更高的效率、更可控的成本,把数据算清楚、用明白。