模型支持列表¶
NLP¶
masked_language_modeling¶
模型 |
模型规格 |
数据集 |
评估指标 |
评估得分 |
配置 |
---|---|---|---|---|---|
bert_base_uncased |
wiki |
- |
- |
text_classification¶
模型 |
模型规格 |
数据集 |
评估指标 |
评估得分 |
配置 |
---|---|---|---|---|---|
txtcls_bert_base_uncased |
Mnli |
Entity F1 |
- |
token_classification¶
模型 |
模型规格 |
数据集 |
评估指标 |
评估得分 |
配置 |
---|---|---|---|---|---|
tokcls_bert_base_chinese |
CLUENER |
Entity F1 |
- |
question_answering¶
模型 |
模型规格 |
数据集 |
评估指标 |
评估得分 |
配置 |
---|---|---|---|---|---|
qa_bert_base_uncased |
SQuAD v1.1 |
EM / F1 |
80.74 / 88.33 |
translation¶
模型 |
模型规格 |
数据集 |
评估指标 |
评估得分 |
配置 |
---|---|---|---|---|---|
t5_small |
WMT16 |
- |
- |
text_generation¶
模型 |
模型规格 |
数据集 |
评估指标 |
评估得分 |
配置 |
---|---|---|---|---|---|
llama_7b |
alpaca |
- |
- |
||
llama2_7b |
alpaca |
PPL / EM / F1 |
6.58 / 39.6 / 60.5 |
||
glm_6b |
ADGEN |
BLEU-4 / Rouge-1 / Rouge-2 / Rouge-l |
8.42 / 31.75 / 7.98 / 25.28 |
||
glm2_6b |
ADGEN |
BLEU-4 / Rouge-1 / Rouge-2 / Rouge-l |
7.47 / 30.78 / 7.07 / 24.77 |
||
glm3_6b |
ADGEN |
- |
- |
||
codegeex2_6b |
CodeAlpaca |
- |
- |
||
bloom_560m |
alpaca |
- |
- |
||
gpt2_small |
wikitext-2 |
- |
- |
||
pangualpha_2_6_b |
悟道数据集 |
TNEWS / Em / F1 |
0.646 / 2.10 / 21.12 |
||
baichuan_7b |
alpaca |
- |
- |
||
baichuan2_7b |
belle |
- |
- |
||
skywork_13b |
ADGEN |
C-Eval / MMLU / CMMLU |
60.63 / 62.14 / 61.83 |
||
wizardcoder_15b |
CodeAlpaca |
MBPP Pass@1 |
50.8 |
||
qwen_7b |
alpaca |
C-Eval |
63.3 |
||
internlm_7b |
alpaca |
- |
- |
||
ziya_13b |
alpaca |
- |
- |
CV¶
masked_image_modeling¶
模型 |
模型规格 |
数据集 |
评估指标 |
评估得分 |
配置 |
---|---|---|---|---|---|
mae_vit_base_p16 |
ImageNet-1k |
- |
- |
Multi-Modal¶
zero_shot_image_classification (by contrastive_language_image_pretrain)¶
模型 |
模型规格 |
数据集 |
评估指标 |
评估得分 |
配置 |
---|---|---|---|---|---|
clip_vit_b_32 |
Cifar100 |
Accuracy |
57.24% |
||
blip2_vit_g |
- |
- |
- |
||
visualglm |
fewshot-data |
- |
- |
LLM大模型能力支持一览¶
模型 \ 特性 |
低参微调 |
边训边评 |
Flash Attention |
并行推理 |
流式推理 |
Chat |
多轮对话 |
Lite推理 |
---|---|---|---|---|---|---|---|---|
Llama-7B/13B |
Lora |
PPL |
√ |
dp/mp |
√ |
× |
× |
√ |
Llama2-7B/13B/70B |
Lora |
PPL |
√ |
dp/mp |
√ |
√ |
√ |
√ |
GLM-6B |
Lora |
Bleu/Rouge |
√ |
dp/mp |
√ |
√ |
√ |
√ |
GLM2-6B |
Lora/P-TuningV2 |
PPL/Bleu/Rouge |
√ |
dp/mp |
√ |
√ |
√ |
√ |
GLM3-6B |
× |
× |
√ |
dp/mp |
√ |
√ |
√ |
√ |
CodeGeex2-6B |
× |
PPL/Bleu/Rouge |
√ |
dp/mp |
√ |
√ |
√ |
√ |
Bloom-560m/7.1B |
× |
PPL |
√ |
dp/mp |
√ |
√ |
√ |
√ |
GPT2-128m/13B |
Lora |
PPL |
√ |
dp/mp |
√ |
× |
× |
√ |
PanGuAlpha-2.6B/13B |
× |
PPL |
× |
dp/mp |
√ |
× |
× |
× |
BILP2 |
× |
× |
× |
dp |
√ |
× |
× |
× |
BaiChuan-7B/13B |
× |
PPL |
× |
dp/mp |
√ |
√ |
√ |
√ |
BaiChuan2-7B/13B |
Lora |
PPL |
√ |
dp/mp |
√ |
√ |
√ |
√ |
Qwen-7B/14B |
√ |
× |
√ |
dp/mp |
√ |
√ |
√ |
√ |
InternLM-7B/20B |
Lora |
PPL |
√ |
dp/mp |
√ |
√ |
√ |
√ |
Skywork-13B |
× |
× |
× |
dp/mp |
√ |
× |
× |
√ |
ZiYa-13B |
× |
PPL |
√ |
dp/mp |
√ |
× |
× |
× |
Wizardcoder-15B |
× |
PPL |
× |
dp/mp |
√ |
√ |
√ |
√ |
VisualGLM |
Lora |
× |
× |
dp |
√ |
× |
× |
√ |