Presented By O’Reilly and Intel AI
Put AI to work
April 10-11, 2018: Training
April 11-13, 2018: Tutorials & Conference
Beijing, CN

低精度计算用于深度学习推断和训练

此演讲使用中文 (This will be presented in Chinese)

Brian Liu (Intel)
11:1511:55 Friday, April 13, 2018
实施人工智能 (Implementing AI)
Location: 报告厅(Auditorium)

您将学到什么 (What you'll learn)

低精度训练和推断是如何改善计算性能且基本不损失准确度; 英特尔公司如何在志强可扩展处理器上支持8比特推断,以及深度学习框架受到何种影响

描述 (Description)

目前,商用的深度学习应用大多使用32位单精度浮点数(fp32)进行训练和推断。已有不同的研究显示在训练或推断中使用更低精度表示(训练16位,推断8位或更低;由于反向传播中的梯度表示,训练需要相对较高精度)仍能保持基本相同的准确度。低精度表示在未来数年内很可能成为业界标准做法,尤其是针对卷积网络应用。低精度表示至少带来了两个好处。一是极大减少了模型的存储量,提高了缓存效率,数据可以更快地在内存、缓存、寄存器间搬移从而避免内存访问成为瓶颈;二是硬件可能提供更高的计算能力(每秒运算次数)。这里我们将回顾低精度表示用于深度学习训练或推断的历史,并展示英特尔是如何在志强可扩展处理器上利用低精度表示进行深度学习计算的(例如如何进行数值量化)。

Photo of Brian Liu

Brian Liu

Intel

刘建航 是英特尔人工智能事业部技术解决方案团队的系统架构师。他负责帮助中国客户使用英特尔AI解决方案(芯片,工具,软件栈)成功构建AI应用。他专注于深度学习性能诊断,低精度训练,以及适用于深度学习计算的异构架构。

Leave a Comment or Question

Help us make this conference the best it can be for you. Have questions you'd like this speaker to address? Suggestions for issues that deserve extra attention? Feedback that you'd like to share with the speaker and other attendees?

Join the conversation here (requires login)