Transformer 最后一公里

专栏介绍

请移步本专栏的第一篇文章:点这里

27、两个例子感受注意力的作用

经过前面几节关于注意力的介绍,你应该可以更加的理解下面这句话了:

注意力机制之所以可以说是AI基础算法的一次巨大提升,原因就在于注意力机制可以确保序列数据之间的依赖不再被序列数据的距......

26、再看注意力(Q/K/V)

上一节介绍了翻译任务中,以RNN为基础结构的 Seq2Seq 模型在引入了注意力机制后的场景。

不知你在看上一节文章的内容时,有没有发现一个问题:计算注意力分数时,使用......

25、当注意力遇到Seq2Seq模型

上一节,通过一个图像和一个句子作为例子,你或许可以理解注意力是怎么回事了。

事实上,人们无论是看图还是阅读文本,还是做任何其他的事情,总是离不开注意力。

24、初识注意力!

上篇文章提到了“注意力”这个概念,这也是NLP或者Transformer架构中的一个非常重要的概念。本节开始,将以“注意力”为基础,一步步深入NLP和Transformer的细节。

......

23. 基于RNN的Encoder-Decoder结构完成文本翻译的过程

在这一节介绍了基于RNN的Encoder-Decoder结构。作为 RNN 结构的一种典型应用,LSTM 在一定程度上解决了RNN无法有效处理长文本信息的问题。

在这一......

AI助手: 网页内容总结

本节为“好玩的AI体验”内容,不属于技术文章,作为大模型的体验内容更新。

本文介绍一个基于 Kimi AI 的网页总结插件神器。适用于:文章写作者、资料整理搜集者等。

22、以 LSTM为例,通俗理解循环神经网络

上一节,我们将基于 RNN 构造的 Encoder-Decoder 结构放大来看,发现无论是 Encoder 还是 Decoder,其内部都是由一个个的 Cell 组成的。

......

AI-Play: AI 生成各种风格的漫画

本节为“好玩的AI体验”内容,不属于技术文章,作为大模型的体验内容更新。

本节介绍使用 Huggingface 官网上po出的一个漫画工厂模型,朋友们可以去体验一下,无......

AI-Play: AI 生成视频,网页直接体验

本节为“好玩的AI体验”内容,不属于技术文章,作为大模型的体验内容更新。

本节介绍使用 Huggingface 官网上po出的一个视频生成大模型进行视频生成。没有 hu......

21. 基于 RNN 的 Encoder-Decoder 结构

前文说到,Encoder-Decoder 结构是一个通用的结构,你可以用 RNN 来充当编码器/解码器实现对文本的编解码,当然,你也可以用卷积网络 CNN 充当编码器实现对图像的编码,也可以像现......

去【 小报童 】查看专栏详情