TensorFlow自然语言处理
智能系统与技术丛书
¥49.00
作品简介
本书首先介绍NLP和TensorFlow基础知识,然后介绍如何使用Word2vec(包括高级扩展)创建单词嵌入,将单词序列转换为可由深度学习算法访问的向量。关于经典深度学习算法的章节,如卷积神经网络(CNN)和递归神经网络(RNN),展示了句子分类和语言生成等重要的NLP任务。此外还介绍如何将高性能的RNN模型,如长短期记忆(long short memory, LSTM)单元应用于NLP任务,你还将探索神经机器翻译并实现一个神经机器翻译器。
图珊·加内格达拉(Thushan Ganegedara),目前是澳大利亚悉尼大学第三年的博士生。他专注于机器学习和深度学习。他喜欢在未经测试的数据上运行算法。他还是澳大利亚初创公司AssessThreat的首席数据科学家。他在斯里兰卡莫拉图瓦大学获得了理学士学位。他经常撰写有关机器学习的技术文章和教程。此外,他经常通过游泳来努力营造健康的生活方式。
作品目录
译者序
前言
关于作者
关于审阅者
第1章 自然语言处理简介
1.1 什么是自然语言处理
1.2 自然语言处理的任务
1.3 传统的自然语言处理方法
1.4 自然语言处理的深度学习方法
1.5 本章之外的学习路线
1.6 技术工具简介
1.7 总结
第2章 理解TensorFlow
2.1 TensorFlow是什么
2.2 输入、变量、输出和操作
2.3 使用作用域重用变量
2.4 实现我们的第一个神经网络
2.5 总结
第3章 Word2vec——学习词嵌入
3.1 单词的表示或含义是什么
3.2 学习单词表示的经典方法
3.3 Word2vec——基于神经网络学习单词表示
3.4 skip-gram算法
3.5 连续词袋算法
3.6 总结
第4章 高级Word2vec
4.1 原始skip-gram算法
4.2 比较skip-gram算法和CBOW算法
4.3 词嵌入算法的扩展
4.4 最近的skip-gram和CBOW的扩展算法
4.5 GloVe:全局向量表示
4.6 使用Word2vec进行文档分类
4.7 总结
第5章 用卷积神经网络进行句子分类
5.1 介绍卷积神经网络
5.2 理解卷积神经网络
5.3 练习:在MNIST数据集上用CNN进行图片分类
5.4 用CNN进行句子分类
5.5 总结
第6章 递归神经网络
6.1 理解递归神经网络
6.2 基于时间的反向传播
6.3 RNN的应用
6.4 用RNN产生文本
6.5 评估RNN的文本结果输出
6.6 困惑度:衡量文本结果的质量
6.7 有上下文特征的递归神经网络:更长记忆的RNN
6.8 总结
第7章 长短期记忆网络
7.1 理解长短期记忆网络
7.2 LSTM如何解决梯度消失问题
7.3 其他LSTM的变体
7.4 总结
第8章 LSTM应用:文本生成
8.1 数据集
8.2 实现LSTM
8.3 LSTM与窥孔LSTM和GRU对比
8.4 改进LSTM:集束搜索
8.5 LSTM改进:用单词替代n-gram生成文本
8.6 使用TensorFlow RNN API
8.7 总结
第9章 LSTM应用:图像标题生成
9.1 了解数据
9.2 图像标题生成实现路径
9.3 使用CNN提取图像特征
9.4 实现:使用VGG-16加载权重和推理
9.5 学习词嵌入
9.6 准备输入LSTM的标题
9.7 生成LSTM的数据
9.8 定义LSTM
9.9 定量评估结果
9.10 为测试图像生成标题
9.11 使用TensorFlow RNN API和预训练的GloVe词向量
9.12 总结
第10章 序列到序列学习:神经机器翻译
10.1 机器翻译
10.2 机器翻译简史
10.3 理解神经机器翻译
10.4 为NMT系统准备数据
10.5 训练NMT
10.6 NMT推理
10.7 BLEU评分:评估机器翻译系统
10.8 从头开始实现NMT:德语到英语的翻译
10.9 结合词嵌入训练NMT
10.10 改进NMT
10.11 注意力
10.12 序列到序列模型的其他应用:聊天机器人
10.13 总结
第11章 自然语言处理的现状与未来
11.1 NLP现状
11.2 其他领域的渗透
11.3 走向通用人工智能
11.4 社交媒体NLP
11.5 涌现的新任务
11.6 新兴的机器学习模型
11.7 总结
附录 数学基础与高级TensorFlow
载入中
大家都喜欢
Python网络编程(原书第2版)
55.00元Python编程自学手册
62.30元跟着迪哥学python数据分析与机器学习实战
55.20元深入浅出PyTorch:从模型到源码
62.93元自然语言处理实战
63.36元