name | about | labels |
---|---|---|
Bug Report | Use this template for reporting a bug | kind/bug |
llama2_7b网络在910B环境走KBK流程,性能达不到0.5的lite性能
模型仓地址:https://gitee.com/mindspore/mindformers/blob/dev/docs/model_cards/llama2.md
Ascend
/GPU
/CPU
) / 硬件环境:Please delete the backend not involved / 请删除不涉及的后端:
/device ascend
【CANN版本】:Milan_C17/20240414
【MindSpore版本】:master_B020
【MindFormers版本】:master_B020
PyNative
/Graph
):Please delete the mode not involved / 请删除不涉及的模式:
/mode pynative
/mode graph
用例仓地址:MindFormers_Test/cases/llama2/7b/infer/
用例:
test_mf_llama2_7b_kbk_infer_alpaca_batch_incremental_1p_0001
网络性能可以达到0.5的lite
2024-04-26 01:29:13,241 - mindformers[mindformers/generation/text_generator.py:881] - INFO - total time: 59.58512878417969 s; generated tokens: 2010 tokens; generate speed: 33.73324923539765 tokens/s
2024-04-26 01:29:37,382 - mindformers[mindformers/generation/text_generator.py:881] - INFO - total time: 24.015976428985596 s; generated tokens: 2010 tokens; generate speed: 83.69428600762913 tokens/s
2024-04-26 01:30:01,670 - mindformers[mindformers/generation/text_generator.py:881] - INFO - total time: 24.162757873535156 s; generated tokens: 2010 tokens; generate speed: 83.18586853868618 tokens/s
走给谭纬城
Please assign maintainer to check this issue.
请为此issue分配处理人。
@zhangjie18
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。
感谢您的提问,您可以评论//mindspore-assistant更快获取帮助:
包含这个PR:!68744:fix nan for kbk
预热之后:total time: 5.655386209487915 s; generated tokens: 1972 tokens; generate speed: 348.6941345741551 tokens/s
batch size: 8,请测试修复llama2_generate.py脚本
已经和测试对齐,脚本的batch size输入为4,需要改为8才符合情况
lama网络FO是冯浩,冯浩验证完llama系列没问题,就可以走单。
回归版本:
mindformers:dev_20240505 9:00代码
mindspore 2.3.0 master_20240505061518_ba6602334a0da86f5
run包:Milan_C17/20240414
回归步骤:参考issue复现步骤
基本功能:问题已解决
seq_length=512推理命令
export GRAPH_OP_RUN=1;export MS_ENABLE_INTERNAL_KERNELS=on;export ASCEND_HOME_PATH=/usr/local/Ascend/latest;export MS_ENABLE_LCCL=1;export MS_ENABLE_LCCL=1 && cd /home/jenkins0/zjc/MindFormers_Test/cases/llama2/7b/infer/test_mf_llama2_7b_kbk_infer_alpaca_incremental_1p_0001;python llama_generate.py --model_type llama2_7b --yaml_file /home/jenkins0/zjc/MindFormers_Test/cases/llama2/7b/infer/test_mf_llama2_7b_kbk_infer_alpaca_incremental_1p_0001/configs/llama2/predict_llama2_7b.yaml --use_past True --checkpoint_path /home/workspace/large_model_ckpt//llama2/7b/llama2_7b.ckpt --batch_size 8
推理性能
2024-05-05 10:55:22,724 - mindformers[mindformers/generation/text_generator.py:886] - INFO - total time: 24.29969334602356 s; generated tokens: 4032 tokens; generate speed: 165.92801985543588 tokens/s
测试结论:回归通过
回归人员:zhongjicheng
回归时间: 2024-05-05
登录 后才可以发表评论