博客维护记录
小窝的搭建过程。
小窝的搭建过程。
本文简单介绍了CNN,RNN和LSTM相关内容。Transformer在序列任务中逐渐取代RNN(因并行计算优势),但RNN/LSTM在资源受限场景仍有价值。
BERT(Bidirectional Encoder Representations from Transformers)是谷歌于2018年提出的基于Transformer架构的预训练语言模型。它通过双向上下文理解和大规模无监督预训练,显著提升了自然语言处理(NLP)任务的性能,成为NLP领域的里程碑式模型。