匿名用户2024年07月31日
14阅读
所属分类ai、bert、其他、arxiv:1810.04805、transformer、accuracy、nlp
开源地址https://modelscope.cn/models/angelala00/test-model
授权协议Apache License 2.0

作品详情

基于BERT的中文Base预训练模型介绍(文档更新中)

BERT的中文Base预训练模型是使用wikipedia数据和masked language model任务训练的中文自然语言理解预训练模型。

模型描述

BERT是一种基于Transformer Encoder模块的双向编码表示模型。针对大规模无标注语料上,BERT通过MLM与NSP任务进行无监督预训练,可以很好地对自然语言建模。详见论文BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

本模型为Base规模(Layer-12 / Hidden-768 / Head-12),参数规模约为102M。

期望模型使用方式以及适用范围

本模型主要用于中文相关下游任务微调。用户可以基于自有训练数据进行微调。具体调用方式请参考代码示例。

如何使用

在安装完成ModelScope-lib之后即可基于nlpbertbackbonebasestd进行下游任务finetune

代码范例

```python from modelscope.metainfo import Preprocessors from modelscope.msdatasets import MsDataset from modelscope.trainers import build_trainer from modelscope.utils.constant import Tasks

通过这个方法修改cfg

def cfgmodifyfn(cfg): # 将backbone模型加载到句子相似度的模型类中 cfg.task = Tasks.sentencesimilarity # 使用句子相似度的预处理器 cfg['preprocessor'] = {'type': Preprocessors.sensim_tokenizer}

# 演示代码修改,正常使用不用修改
cfg.train.dataloader.workers_per_gpu = 0
cfg.evaluation.dataloader.workers_per_gpu = 0

# 补充数据集的特性
cfg['dataset'] = {
    'train': {
        # 实际label字段内容枚举,在训练backbone时需要传入
        'labels': ['0', '1'],
        # 第一个字段的key
        'first_sequence': 'sentence1',
        # 第二个字段的key
        'second_sequence': 'sentence2',
        # label的key
        'label': 'label',
    }
}
# lr_scheduler的配置
cfg.train.lr_scheduler.total_iters = int(len(dataset['train']) / 32) * cfg.train.max_epochs
return cfg
声明:本文仅代表作者观点,不代表本站立场。如果侵犯到您的合法权益,请联系我们删除侵权资源!如果遇到资源链接失效,请您通过评论或工单的方式通知管理员。未经允许,不得转载,本站所有资源文章禁止商业使用运营!
下载安装【程序员客栈】APP
实时对接需求、及时收发消息、丰富的开放项目需求、随时随地查看项目状态

评论