深度学习对自然语言处理领域产生了巨大影响。
但是,作为初学者,您从哪里开始?
深度学习和自然语言处理都是一个巨大的领域。每个领域需要关注的突出方面是什么,深度学习对NLP的哪些领域影响最大?
在这篇文章中,您将发现有关自然语言处理深度学习相关的入门知识。
阅读这篇文章后,您将知道:
这篇文章分为 11 个部分,它们是:
本节主要介绍不同类型的神经网络架构,并在后面的章节中交叉引用。
总共涵盖了 4 种类型的神经网络架构,重点介绍了每种类型的应用示例和参考:
如果您只对特定网络类型的应用程序感兴趣并希望直接转到源论文,本节提供了一个很好的来源。
本节重点介绍如何使用从稀疏表示过渡到密集表示,这些表示又可以与深度学习模型一起训练。
介绍了NLP分类系统的总体结构,总结为:
该公式的关键是密集而不是稀疏的特征向量以及使用核心特征而不是特征组合。
本节提供前馈人工神经网络的速成教程。
网络既使用受大脑启发的隐喻,也使用数学符号来呈现。涵盖了常见的神经网络主题,例如:
词嵌入表示的主题是自然语言处理中神经网络方法的关键。本节扩展该主题并枚举关键方法。
回顾了以下词嵌入主题:
神经词嵌入起源于语言建模的世界,其中网络被训练为根据前面的单词序列预测下一个单词
这个较长的部分重点介绍如何训练神经网络,是为那些刚接触神经网络范式的人编写的。
本节重点介绍随机梯度下降(以及像小批量这样的朋友)以及训练期间的重要主题,如正则化。
有趣的是,介绍了神经网络的计算图视角,为Theano和TensorFlow等符号数字库提供了入门,它们是实现深度学习模型的流行基础。
本节在上一节的基础上,总结了级联 NLP 模型和跨多种语言任务学习模型的工作。
模型级联:利用神经网络模型的计算图定义来利用中间表示(编码)来开发更复杂的模型。
多任务学习:存在相关的自然语言预测任务,这些任务不会相互馈送,但可以在任务之间共享信息。
这两个高级概念都是在神经网络的上下文中描述的,这些神经网络允许在训练(错误的反向传播)和进行预测期间模型或信息之间的连接。
本节涉及自然语言任务的示例,其中深度学习方法用于进行结构化预测,例如序列、树和图形。
本节介绍贪婪和基于搜索的结构化预测,重点是后者。
本节提供卷积神经网络 (CNN) 及其对自然语言影响的速成课程。
值得注意的是,CNN已被证明对于情感分析等分类NLP任务非常有效,例如学习在文本中寻找特定的子序列或结构以进行预测。
与上一节一样,本节重点介绍特定类型网络的使用及其在 NLP 中的作用和应用。在这种情况下,循环神经网络(RNN)用于对序列进行建模。
鉴于RNN的流行,特别是NLP中的长短期记忆(LSTM),这个更大的部分通过各种反复出现的主题和模型,包括:
时间花在 RNN 模型架构或架构元素上,具体来说:
本节通过介绍特定的 RNN 算法在上一节的基础上进行构建。
具体涵盖的是:
最后一部分重点介绍一种更复杂的网络类型,称为递归神经网络,用于学习模型树。
树可以是句法树、话语树,甚至是代表句子各个部分所表达的情感的树。我们可能希望根据特定的树节点预测值,根据根节点预测值,或者为整个树或树的一部分分配质量分数。
当递归神经网络保持有关输入序列的状态时,递归神经网络维护有关树中节点的状态。
在这篇文章中,你发现了一本关于自然语言处理深度学习的入门书。
具体而言,您了解到:
对自然语言处理领域影响最大的神经网络架构。
自然语言处理任务的广泛视图,可以通过深度学习成功解决。
密集单词表示的重要性以及可用于学习它们的方法。
本文链接:http://task.lmcjl.com/news/5139.html