2025 February

    博客维护记录

    小窝的搭建过程。

    LSTM和CNN和RNN

    本文简单介绍了CNN,RNN和LSTM相关内容。Transformer在序列任务中逐渐取代RNN(因并行计算优势),但RNN/LSTM在资源受限场景仍有价值。

    关于Transformer

    Transformer 全面介绍

    了解transformer。变形金刚!

    Bert论文阅读

    总体about Bert

    1. 概述

    BERT(Bidirectional Encoder Representations from Transformers)是谷歌于2018年提出的基于Transformer架构的预训练语言模型。它通过双向上下文理解和大规模无监督预训练,显著提升了自然语言处理(NLP)任务的性能,成为NLP领域的里程碑式模型。


TOP
COMMENT
made with ❤️ by o_oyao
©Yuxi undefined-2025

|