3亿体育-平台下载
您的位置:主页 > 荣誉资质 >

An akin开源、智慧存储助阵 百度AI开发者大会人气

日期:2021/09/13 14:16

  7月5日上午,2018百度AI开发者大会的AI Computing System论坛正式开启。AI Computing System论坛开启后就放出多个重磅消息。百度正式宣布开源Inference engine(推理引擎)——Anakin,此举将弥补AI计算训练框架中开源、跨平台、高性能的Inference环节引擎稀缺的现状。而除此之外,合作伙伴希捷更是携全线智慧存储解决方案亮相,其中包括明星级产品银河系列企业级氦气盘Exos™ X14。

  超大福利!AI推理加速引擎Anakin开源

  众所周知AI包含Training(训练)和Inference(推理)两个基本环节。通过语音唤醒一部音箱,通过人脸识别打开一台闸机,亦或是一台行驶在公路上的无人驾驶汽车,这些都是典型的Inference场景,可以说Inference是AI面向终端用户的技术,Inference环节的性能好坏关系到用户的体验,关系到企业的成本,甚至在一些极端应用上(比如无人驾驶技术)直接关系到用户的安全。

  目前AI落地面临的挑战主要来源于两方面。其一,AI算法的日新月异,带来了计算量的猛增,从AlexNet到AlphaGo,5年多的时间里计算量提升了30w倍;其二,底层硬件异构化的趋势愈发明显,涌现出非常多优秀的架构,用来解决AI算力的问题。如何将性能优异但计算量庞大的模型快速部署到不同的硬件架构之上,并且保持性能卓越是一个推理引擎的首要任务。然而纵观开源社区或闭源解决方案,没有任何一款推理引擎可以同时满足开源、跨平台、高性能三个指标。这正是我们设计研发Anakin的初衷,Anakin结合了百度实际业务的需求、百度在AI领域的技术积累以及芯片友商的支持,旨在弥补业内不足,为广大开发者应用AI技术提供良好的基石。

  Anakin不仅同时支持intel-cpu、nvidia-gpu、amd-gpu、移动端ARM等主流芯片,还将支持两款优秀的国产芯片,寒武纪MLU100以及比特大陆BM1682。在数据中心领域性能肩比业内最领先的NV-TensorRT。在移动端ARM芯片上,性能超越TensorFlow-lite并同时提供极简模式,发包大小

  据Anakin项目负责人介绍,Anakin做为一个性能优异的AI Inference engine,有着诸多成功案例和应用场景,在搜索page-rank、Apollo无人车、人脸识别、OCR等多个产品线得到了实际业务的锤炼。可以说Anakin项目的开源是百度给全球AI开发者的一份超大规格的福利。

  顶级阵容!全线智慧存储解决方案亮相

  作为AI、数据中心、云计算的领导者,百度对存储解决方案有着最为苛刻的需求,大容量、高性能、高可靠性成为百度存储解决方案的基础需求。目前,在自有数据中心、对外公有云平台都陆续部署了希捷的企业级硬盘。并通过合理平衡容量、性能、可用性、成本等相关因素,设计开发了一套针对数据分级分层存储的冰山冷存储解决方案。现场,百度展示了通过与希捷合作,有效降低了数据存储的TCO成果,以及率先引入基于叠瓦式磁记录(SMR)技术的8TB归档硬盘,有效降低了每GB存储的成本与功耗的成功案例。

  论坛上,希捷还进一步解读了最新的《数据时代2025》预测。根据这个由希捷科技赞助、国际数据公司(IDC)发布的白皮书预测,到2025年,全球数据圈将扩展至163ZB,相当于2016年所产生16.1ZB数据的十倍;属于数据分析的全球数据总量将增长至原来的50倍,达到5.2ZB;而认知系统“触及”的分析数据总量将增长至原来的100倍,达到1.4ZB。

  性能、容量的背后,是对更高效、更经济的管理数据刚性需求,希捷更是展示了自身最顶级的阵容,全线智慧存储解决方案悉数在开发者面前亮相,其中为超大规模数据中心提供高性能和更大容量的14TB银河系列企业级氦气盘Exos™ X14更是深入的进行了深度的技术解读。据悉14TB银河系列企业级氦气盘Exos™ X14已经通过百度的评估,未来配置后,也将全面为百度以及合作伙伴带来强进的助力。

  百度作为国内人工智能技术领域发展的领军企业,去年首届AI百度开发者大会召开后,在科技圈掀起巨大波澜。今年百度AI开发者大会的AI Computing System论坛发布的Anakin开源、智慧存储等AI前沿革命性产品,必将推动人工智能科技发展迈上新台阶。

下一篇:没有了