8月30日消息,麻省理工学院与MIT-IBM Watson AI Lab的研究者在论文《Once for All: Train One Network and Specialize it for Efficient Deployment》提出一种方法,该方法通过分离模型训练与架构搜索过程,该方法能极大降低神经网络模型设计部署成本。这篇论文通过设计一种Once for All(OFA)的网络,使其可以直接在部署在不同的架构配置上。推理可以通过选择该OFA网络的一部分来实现。它无需再训练,就能灵活地支持不同的深度、宽度、核大小和分辨率。