克隆该模型
git clone https://www.modelscope.cn/tiansz/bert-base-chinese.git
来源
该模型是 huggingface 的 bert-base-chinese 的模型备份,该模型可以用于实现文本分类、实体识别等任务。
它是一个基于Transformer架构的中文预训练模型,使用了大量的中文语料进行训练。bert-base-chinese具有12层的Transformer编码器,包含约110万个参数。它在多个中文自然语言处理任务上表现出色,如文本分类、命名实体识别和情感分析等。
通过使用bert-base-chinese,我们可以将其用作下游任务的特征提取器或者进行微调以适应特定任务。
评论