同步操作将从 左令君/attention-nmt 强制同步,此操作会覆盖自 Fork 仓库以来所做的任何修改,且无法恢复!!!
确定后同步将在后台操作,完成时将刷新页面,请耐心等待。
UCAS NLP homework
代码主要参考自:
主要是代码学习,参考自
Transformer 代码实现 https://yuanxiaosc.github.io/2018/11/08/Transformer%E4%BB%A3%E7%A0%81%E5%AE%9E%E7%8E%B0/
Trnsformer 源码总结 https://blog.csdn.net/yiyele/article/details/81913031
机器翻译模型 Transformer代码解析 https://blog.csdn.net/mijiaoxiaosan/article/details/74909076
进入 ./Attention/ 目录下: cd Attention
以Greedy模式运行: python main.py --mode infer
以BeamSearch模式运行: python main.py --mode infer --beam_width 5
进入 ./Transformer/ 目录下: cd Transformer
python main.py --is_training 0 (运行会比Attention慢,运行过程会打印出bach信息,请稍安勿躁)
./Attention/目录下和./Transformer/目录下分别也写了对应的运行命令
tensorflow (1.8.0)
math
collections
nltk
warnings
numpy
random
pickle
os
argpars
time
sys
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。