BE

BERT

基础大模型

Bidirectional Encoder Representations from Transformers

发布时间: 2018-10-11

437
模型参数(Parameters)
3.4
最高上下文长度(Context Length)
2K
是否支持中文
不支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

不支持

最高上下文输入长度

2K tokens

最长输出结果
暂无数据
模型类型

基础大模型

发布时间

2018-10-11

模型预文件大小

1.3GB

开源和体验地址

代码开源状态
预训练权重开源
Apache 2.0 - 免费商用授权
GitHub 源码
Hugging Face
在线体验
暂无在线体验地址

官方介绍与博客

API接口信息

接口速度(满分5分)
暂无数据
接口价格
暂无公开的 API 定价信息。

BERT模型在各大评测榜单的评分

当前尚无可展示的评测数据。

发布机构

Bidirectional Encoder Representations from Transformers模型解读

BERT (Bidirectional Encoder Representations from Transformers) 是一种基于深度学习的预训练模型,由Google在2018年发布。它是一种自然语言处理模型,用于将自然语言转换成机器可读的形式,例如对话系统、语音识别、文本分类、语言翻译、命名实体识别等。

BERT的主要贡献是在自然语言处理领域引入了预训练技术。传统的机器学习模型需要手动提取特征,而BERT不需要这样做。BERT使用Transformer网络架构,通过无监督的方式从海量文本数据中学习出通用的语言表示,可以应用于各种NLP任务。

BERT的训练分为两个阶段:预训练和微调。预训练阶段使用无标注的语料库,将模型训练成一个通用的语言表示模型。微调阶段则针对特定的任务使用标注数据进行微调。

BERT在许多NLP任务上取得了很好的效果,包括问答、文本分类、语言翻译等。其主要的优势是可以充分利用大量的无标注数据进行预训练,从而得到更好的通用表示。同时,BERT还采用了双向编码器,可以充分考虑上下文信息,使得模型在处理长文本时更为有效。

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat