代码拉取完成,页面将自动刷新
同步操作将从 祝威廉/byzer-llm 强制同步,此操作会覆盖自 Fork 仓库以来所做的任何修改,且无法恢复!!!
确定后同步将在后台操作,完成时将刷新页面,请耐心等待。
contextlib2
ninja
netifaces
accelerate
bitsandbytes==0.39.0
transformers>=4.35.0
torch==2.1.2
ray[default]==2.9.1
sentencepiece
pyarrow==12.0.1
sentence-transformers
datasets
langchain
paramiko
einops
tqdm==4.62.3
loguru
tensorboard
pyjava==0.6.15
tiktoken
transformers_stream_generator
optimum
fastapi
uvicorn
retrying
zhipuai
dashscope
tiktoken
# dependencies only for sparkdesk
# websockets
websocket-client
# dependencies only for saas/chatglm
wudao
# dependencies only for visualglm
SwissArmyTransformer
# dependencies only for chatglm
jieba
# rouge_chinese
# icetk
# dependencies only for aws bedrock
boto3
## TGI dependencies for quick inference
# pip install flash-attn --no-build-isolation
protobuf==3.20.0
# dependencies only for stable_diffusion
# safetensors
# pydantic
# nltk
# pillow
# diffusers
# lycoris
# lycoris-lora
## the package above will downgrade the tokenizers, so here we need to force lock the version
# tokenizers==0.13.3
# camelot-py
# llama_index
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。