#前言本文的内容大多数翻译于bentrevett / pytorch-seq2seq ,在本文中我们实现了Attention is All You Need 文章中的transformer模型...

2021-11-24 文本处理

简介在💝 上一篇blog 💝 中我们讲述了使用rnn来进行自然语言的翻译工作,限于篇幅的原因,我们将会在本blog来讲述使用 cnn 进行自然语言的翻译工作。我们将会在💝 下一篇 💝 进行 ...

2021-11-15 文本处理

简介NLP——Bert核心内容

2021-11-08 文本处理

简介NLP——Bert与GPT-2的纠葛NLP——GPT对比GPT-2

2021-11-08 文本处理

The Transformer from “Attention is All You Need” has been on a lot of people’s minds over the las...

Recent works on plug-and-play image restoration have shown that a denoiser can implicitly serve a...

2021-11-04 文本处理

# 1 - Sequence to Sequence Learning with Neural NetworksIn this series we'll be building a machin...

简介在文本处理中有两个经典的网络模型,一个是基于循环神经网络加上 attention 的 Seq2Seq 和完全基于 attention 的 Transformer。这两个模型在机器翻译中都取得...

2021-11-03 文本处理

简介在文本处理中有两个经典的网络模型,一个是基于循环神经网络加上 attention 的 Seq2Seq 和完全基于 attention 的 Transformer。这两个模型在机器翻译中都取得...

2021-11-03 文本处理