自然语言处理实战:预训练模型应用及其产品化

自然语言处理实战:预训练模型应用及其产品化

暂无评价综合评分的显示会考虑用户真实性等多项因素,每部作品出现综合评分的时间不定。
7.621 评价豆瓣读书

作品简介

本书分为三部分。第1部分聚焦于自然语言处理的高层次概述,包括自然语言处理的历史、该领域流行的应用,以及如何使用预训练模型来执行迁移学习和快速解决现实世界中的问题。第二部分将深入研究自然语言处理的底层细节,包括预处理文本、分词和向量嵌入。然后探讨当今自然语言处理中有效的建模方法,如Transformer、注意力机制、普通循环神经网络、长短期记忆和门控循环单元。第三部分将讨论应用自然语言处理很重要的方面——如何产品化已开发的模型,以便这些模型为组织提供看得见、摸得着的价值。我们将讨论当今可用工具的前景,分享对它们的看法。

安库·A. 帕特尔、阿贾伊·乌皮利·阿拉萨尼帕莱编著。

作品目录

  1. 关于作者
  2. 关于封面
  3. O'Reilly Media, Inc.介绍
  4. 前言
  5. 第一部分 浮光掠影
  6. 第1章 自然语言处理介绍
  7. 1.1 什么是自然语言处理
  8. 1.2 基本的自然语言处理
  9. 1.3 总结
  10. 第2章 Transformer和迁移学习
  11. 2.1 利用fast.ai库进行训练
  12. 2.2 利用Hugging Face系列库进行推理
  13. 2.3 总结
  14. 第3章 NLP任务和应用程序
  15. 3.1 预训练语言模型
  16. 3.2 迁移学习和微调
  17. 3.3 NLP任务
  18. 3.4 自然语言数据集
  19. 3.5 NLP任务1:命名实体识别
  20. 3.6 NLP任务2:文本分类
  21. 3.7 总结
  22. 第二部分 纲举目张
  23. 第4章 分词
  24. 4.1 一个极简的分词器
  25. 4.2 Hugging Face的分词器
  26. 4.3 搭建自己的分词器
  27. 4.4 总结
  28. 第5章 向量嵌入:计算机如何“理解”单词
  29. 5.1 理解文本与读取文本
  30. 5.2 词向量
  31. 5.3 词向量嵌入实践
  32. 5.4 非词条的嵌入
  33. 5.5 总结
  34. 第6章 循环神经网络和其他序列模型
  35. 6.1 循环神经网络
  36. 6.2 长短期记忆网络
  37. 6.3 门控循环单元
  38. 6.4 总结
  39. 第7章 Transformer
  40. 7.1 从头开始构建Transformer
  41. 7.2 注意力机制
  42. 7.3 计算机视觉Transformer
  43. 7.4 总结
  44. 第8章 BERT方法论:博采众长创新篇
  45. 8.1 ImageNet
  46. 8.2 通往NLP“ImageNet时刻”之路
  47. 8.3 预训练的词向量嵌入
  48. 8.4 序列模型
  49. 8.5 循环神经网络
  50. 8.6 注意力机制
  51. 8.7 Transformer架构
  52. 8.8 NLP的“ImageNet时刻”
  53. 8.9 总结
  54. 第三部分 经世致用
  55. 第9章 工欲善其事,必先利其器
  56. 9.1 深度学习框架
  57. 9.2 可视化与实验跟踪
  58. 9.3 AutoML
  59. 9.4 机器学习基础设施和计算
  60. 9.5 边缘/终端侧推理
  61. 9.6 云推理和机器学习即服务
  62. 9.7 持续集成和持续交付
  63. 9.8 总结
  64. 第10章 可视化
  65. 10.1 我们的第一个Streamlit应用程序
  66. 10.2 总结
  67. 第11章 产品化
  68. 11.1 数据科学家、工程师和分析师
  69. 11.2 Databricks:你的统一数据分析平台
  70. 11.3 Databricks的安装
  71. 11.4 机器学习作业
  72. 11.5 MLflow
  73. 11.6 Databricks的替代品
  74. 11.7 总结
  75. 第12章 归纳提升
  76. 12.1 最后十课
  77. 12.2 最后的话
  78. 附录A 大规模训练
  79. A.1 多GPU训练
  80. A.2 分布式训练
  81. A.3 是什么让深度学习训练得更快
  82. 附录B CUDA
  83. B.1 线程和线程块
  84. B.2 编写CUDA内核
  85. B.3 CUDA实践
载入中