摘要
深度学习应用的训练过程是计算密集型的,它通常依靠图形处理单元(Graphics Processing Unit, GPU)来加速训练过程。然而深度学习开发框架往往会独占GPU,造成计算资源的浪费。针对该问题,该实证研究对两个深度学习应用共享GPU训练的可行性进行讨论,系统地分析了有代表性的深度学习模型的静态和运行时特性,展示了共享GPU训练两个模型时,不同的模型组合和特征对整体性能的影响。根据实验结果所总结的原则可以作为提高调度效率和改善GPU云资源利用率的指导方针。
-
单位复旦大学; 微软亚洲研究院