代码拉取完成,页面将自动刷新
https://www.mindspore.cn/lite/docs/zh-CN/r2.3.0rc2/use/runtime_cpp.html
配置使用Ascend后端
当需要执行的后端为Ascend时(目前支持Atlas 200/300/500推理产品),需要设置AscendDeviceInfo为首选推理后端。建议设置CPUDeviceInfo为次选后端,排在Ascend后,以保证泛化模型的推理。其中Ascend310DeviceInfo通过SetDeviceID来设置设备ID。
mindspore>lite支持GPU和NPU一起使用作为后端吗?比如说将AscendDeviceInfo为首选推理后端,GPUDeviceInfo为次选后端,CPUDeviceInfo为次次选后端
Please assign maintainer to check this issue.
请为此issue分配处理人。
@fangwenyi @chengxiaoli @Shawny
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。
感谢您的提问,您可以评论//mindspore-assistant更快获取帮助:
端侧支持,端侧是用KirinNPUDeviceInfo对应麒麟芯片,支持NPU、GPU、CPU异构推理;云侧环境应该不会有同时安装GPU和NPU芯片的场景,云侧推理不支持异构。
说明:非文档问题,不在文档反馈活动中计分。
登录 后才可以发表评论