首页
IT培训常见问题
企业资讯
学员活动
师资团队
图书教材
发布 : IT培训 发布时间:2021-09-15 18:43:28
BERT的全称为Bidirectional Encoder Representation from Transformers,是一个预训练的语言表征模型。BERT旨在通过联合调节所有层中的左右上下文来预训练深度双向表示。BERT 的模型结构是一个多层双向Transformer编码器。
BERT模型是Google在2018年提出的一种NLP模型,它在11个NLP领域的任务上都刷新了以往的记录,是NLP领域一个突破性进展。
咨询还可获得
对应免费课程