TensorFlow自然语言处理

TensorFlow自然语言处理

智能系统与技术丛书

暂无评价综合评分的显示会考虑用户真实性等多项因素,每部作品出现综合评分的时间不定。

作品简介

本书首先介绍NLP和TensorFlow基础知识,然后介绍如何使用Word2vec(包括高级扩展)创建单词嵌入,将单词序列转换为可由深度学习算法访问的向量。关于经典深度学习算法的章节,如卷积神经网络(CNN)和递归神经网络(RNN),展示了句子分类和语言生成等重要的NLP任务。此外还介绍如何将高性能的RNN模型,如长短期记忆(long short memory, LSTM)单元应用于NLP任务,你还将探索神经机器翻译并实现一个神经机器翻译器。

图珊·加内格达拉(Thushan Ganegedara),目前是澳大利亚悉尼大学第三年的博士生。他专注于机器学习和深度学习。他喜欢在未经测试的数据上运行算法。他还是澳大利亚初创公司AssessThreat的首席数据科学家。他在斯里兰卡莫拉图瓦大学获得了理学士学位。他经常撰写有关机器学习的技术文章和教程。此外,他经常通过游泳来努力营造健康的生活方式。

作品目录

  1. 译者序
  2. 前言
  3. 关于作者
  4. 关于审阅者
  5. 第1章 自然语言处理简介
  6. 1.1 什么是自然语言处理
  7. 1.2 自然语言处理的任务
  8. 1.3 传统的自然语言处理方法
  9. 1.4 自然语言处理的深度学习方法
  10. 1.5 本章之外的学习路线
  11. 1.6 技术工具简介
  12. 1.7 总结
  13. 第2章 理解TensorFlow
  14. 2.1 TensorFlow是什么
  15. 2.2 输入、变量、输出和操作
  16. 2.3 使用作用域重用变量
  17. 2.4 实现我们的第一个神经网络
  18. 2.5 总结
  19. 第3章 Word2vec——学习词嵌入
  20. 3.1 单词的表示或含义是什么
  21. 3.2 学习单词表示的经典方法
  22. 3.3 Word2vec——基于神经网络学习单词表示
  23. 3.4 skip-gram算法
  24. 3.5 连续词袋算法
  25. 3.6 总结
  26. 第4章 高级Word2vec
  27. 4.1 原始skip-gram算法
  28. 4.2 比较skip-gram算法和CBOW算法
  29. 4.3 词嵌入算法的扩展
  30. 4.4 最近的skip-gram和CBOW的扩展算法
  31. 4.5 GloVe:全局向量表示
  32. 4.6 使用Word2vec进行文档分类
  33. 4.7 总结
  34. 第5章 用卷积神经网络进行句子分类
  35. 5.1 介绍卷积神经网络
  36. 5.2 理解卷积神经网络
  37. 5.3 练习:在MNIST数据集上用CNN进行图片分类
  38. 5.4 用CNN进行句子分类
  39. 5.5 总结
  40. 第6章 递归神经网络
  41. 6.1 理解递归神经网络
  42. 6.2 基于时间的反向传播
  43. 6.3 RNN的应用
  44. 6.4 用RNN产生文本
  45. 6.5 评估RNN的文本结果输出
  46. 6.6 困惑度:衡量文本结果的质量
  47. 6.7 有上下文特征的递归神经网络:更长记忆的RNN
  48. 6.8 总结
  49. 第7章 长短期记忆网络
  50. 7.1 理解长短期记忆网络
  51. 7.2 LSTM如何解决梯度消失问题
  52. 7.3 其他LSTM的变体
  53. 7.4 总结
  54. 第8章 LSTM应用:文本生成
  55. 8.1 数据集
  56. 8.2 实现LSTM
  57. 8.3 LSTM与窥孔LSTM和GRU对比
  58. 8.4 改进LSTM:集束搜索
  59. 8.5 LSTM改进:用单词替代n-gram生成文本
  60. 8.6 使用TensorFlow RNN API
  61. 8.7 总结
  62. 第9章 LSTM应用:图像标题生成
  63. 9.1 了解数据
  64. 9.2 图像标题生成实现路径
  65. 9.3 使用CNN提取图像特征
  66. 9.4 实现:使用VGG-16加载权重和推理
  67. 9.5 学习词嵌入
  68. 9.6 准备输入LSTM的标题
  69. 9.7 生成LSTM的数据
  70. 9.8 定义LSTM
  71. 9.9 定量评估结果
  72. 9.10 为测试图像生成标题
  73. 9.11 使用TensorFlow RNN API和预训练的GloVe词向量
  74. 9.12 总结
  75. 第10章 序列到序列学习:神经机器翻译
  76. 10.1 机器翻译
  77. 10.2 机器翻译简史
  78. 10.3 理解神经机器翻译
  79. 10.4 为NMT系统准备数据
  80. 10.5 训练NMT
  81. 10.6 NMT推理
  82. 10.7 BLEU评分:评估机器翻译系统
  83. 10.8 从头开始实现NMT:德语到英语的翻译
  84. 10.9 结合词嵌入训练NMT
  85. 10.10 改进NMT
  86. 10.11 注意力
  87. 10.12 序列到序列模型的其他应用:聊天机器人
  88. 10.13 总结
  89. 第11章 自然语言处理的现状与未来
  90. 11.1 NLP现状
  91. 11.2 其他领域的渗透
  92. 11.3 走向通用人工智能
  93. 11.4 社交媒体NLP
  94. 11.5 涌现的新任务
  95. 11.6 新兴的机器学习模型
  96. 11.7 总结
  97. 附录 数学基础与高级TensorFlow
载入中

大家都喜欢