构建高性能Web站点

8.61259 评价豆瓣读书
阅读
¥32.50¥19.50
围炉畅读,积厚待发——电子工业社满减专场截止至:2018-12-18 00:00:00了解详情
围炉畅读,积厚待发 满200减80、满100减30、满50减10活动详情

作品简介

本书围绕如何构建高性能Web站点,从多个方面、多个角度进行了全面的阐述,涵盖了Web站点性能优化的几乎所有内容,包括数据的网络传输、服务器并发处理能力、动态网页缓存、动态网页静态化、应用层数据缓存、分布式缓存、Web服务器缓存、反向代理缓存、脚本解释速度、页面组件分离、浏览器本地缓存、浏览器并发请求、文件的分发、数据库I/O优化、数据库访问、数据库分布式设计、负载均衡、分布式文件系统、性能监控等。在这些内容中充分抓住本质并结合实践,通过通俗易懂的文字和生动有趣的配图,让读者充分并深入理解高性能架构的真相。

同时,本书充分应用跨学科知识和科学分析方法,通过宽泛的视野和独特的角度,将本书的内容展现得更加透彻和富有趣味。

郭欣,曾在腾讯网基础平台研发团队,负责诸多Web应用的开发和技术管理,并致力于性能研究和实践推广.在加入腾讯之前,获得国家系统分析师职称.目前在工作之余从事独立研究,其中包括高性能Web架构和Web敏捷开发框架,并且积极投身开源事业,同时在为SmartcDeveloper系列进行创作.

作品目录

  1. 第1章 绪论
  2. 1.1 等待的真相
  3. 1.2 瓶颈在哪里
  4. 1.3 增加带宽
  5. 1.4 减少网页中的HTTP请求
  6. 1.5 加快服务器脚本计算速度
  7. 1.6 使用动态内容缓存
  8. 1.7 使用数据缓存
  9. 1.8 将动态内容静态化
  10. 1.9 更换Web服务器软件
  11. 1.10 页面组件分离
  12. 1.11 合理部署服务器
  13. 1.12 使用负载均衡
  14. 1.13 优化数据库
  15. 1.14 考虑可扩展性
  16. 1.15 减少视觉等待
  17. 第2章 数据的网络传输
  18. 2.1 分层网络模型
  19. 2.2 带宽
  20. 2.3 响应时间
  21. 2.4 互联互通
  22. 第3章 服务器并发处理能力
  23. 3.1 吞吐率
  24. 3.2 CPU并发计算
  25. 3.3 系统调用
  26. 3.4 内存分配
  27. 3.5 持久连接
  28. 3.6 I/O模型
  29. 3.7 服务器并发策略
  30. 第4章 动态内容缓存
  31. 4.1 重复的开销
  32. 4.2 缓存与速度
  33. 4.3 页面缓存
  34. 4.4 局部无缓存
  35. 4.5 静态化内容
  36. 第5章 动态脚本加速
  37. 5.1 opcode缓存
  38. 5.2 解释器扩展模块
  39. 5.3 脚本跟踪与分析
  40. 第6章 浏览器缓存
  41. 6.1 别忘了浏览器
  42. 6.2 缓存协商
  43. 6.3 彻底消灭请求
  44. 第7章 Web服务器缓存
  45. 7.1 URL映射
  46. 7.2 缓存响应内容
  47. 7.3 缓存文件描述符
  48. 第8章 反向代理缓存
  49. 8.1 传统代理
  50. 8.2 何为反向
  51. 8.3 在反向代理上创建缓存
  52. 8.4 小心穿过代理
  53. 8.5 流量分配
  54. 第9章 Web组件分离
  55. 9.1 备受争议的分离
  56. 9.2 因材施教
  57. 9.3 拥有不同的域名
  58. 9.4 浏览器并发数
  59. 9.5 发挥各自的潜力
  60. 第10章 分布式缓存
  61. 10.1 数据库的前端缓存区
  62. 10.2 使用memcached
  63. 10.3 读操作缓存
  64. 10.4 写操作缓存
  65. 10.5 监控状态
  66. 10.6 缓存扩展
  67. 第11章 数据库性能优化
  68. 11.1 友好的状态报告
  69. 11.2 正确使用索引
  70. 11.3 锁定与等待
  71. 11.4 事务性表的性能
  72. 11.5 使用查询缓存
  73. 11.6 临时表
  74. 11.7 线程池
  75. 11.8 反范式化设计
  76. 11.9 放弃关系型数据库
  77. 第12章 Web负载均衡
  78. 12.1 一些思考
  79. 12.2 HTTP重定向
  80. 12.3 DNS负载均衡
  81. 12.4 反向代理负载均衡
  82. 12.5 IP负载均衡
  83. 12.6 直接路由
  84. 12.7 IP隧道
  85. 12.8 考虑可用性
  86. 第13章 共享文件系统
  87. 13.1 网络共享
  88. 13.2 NFS
  89. 13.3 局限性
  90. 第14章 内容分发和同步
  91. 14.1 复制
  92. 14.2 SSH
  93. 14.3 WebDAV
  94. 14.4 rsync
  95. 14.5 Hash tree
  96. 14.6 分发还是同步
  97. 14.7 反向代理
  98. 第15章 分布式文件系统
  99. 15.1 文件系统
  100. 15.2 存储节点和追踪器
  101. 15.3 MogileFS
  102. 第16章 数据库扩展
  103. 16.1 复制和分离
  104. 16.2 垂直分区
  105. 16.3 水平分区
  106. 第17章 分布式计算
  107. 17.1 异步计算
  108. 17.2 并行计算
  109. 第18章 性能监控
  110. 18.1 实时监控
  111. 18.2 监控代理
  112. 18.3 系统监控
  113. 18.4 服务监控
  114. 18.5 响应时间监控
  115. 参考文献
  116. 索 引

评论

载入中

热门划线

  1. 减少不必要的系统调用,也是Web服务器性能优化的一个方面21 人
  2. 非阻塞I/O一般只针对网络I/O有效,我们只要在socket的选项设置中使用O_NONBLOCK即可,这样对于该socket的send()或recv()便采用非阻塞方式。值得注意的是,对于磁盘I/O,非阻塞I/O并不产生效果。15 人
  3. 阻塞和非阻塞是指当进程访问的数据如果尚未就绪,进程是否需要等待,简单说这相当于函数内部的实现区别,即未就绪时是直接返回还是等待就绪;而同步和异步是指访问数据的机制,同步一般指主动请求并等待I/O操作完毕的方式,当数据就绪后在读写的时候必须阻塞,异步则指主动请求数据后便可以继续处理其他任务,随后等待I/O操作完毕的通知,这可以使进程在数据读写时也不发生阻塞。13 人
  4. 站点服务器处理请求并生成回应数据的时间主要消耗在服务器端,包括非常多的环节,我们一般用另一个指标来衡量这部分时间,即每秒处理请求数,也称吞吐率,注意这里的吞吐率不是指单位时间处理的数据量,而是请求数。影响服务器吞吐率的因素非常多,比如服务器的并发策略、I/O模型、I/O性能、CPU核数等,当然也包括应用程序本身的逻辑复杂度等。11 人
  5. 同步阻塞I/O是指当进程调用某些涉及I/O操作的系统调用或库函数时,比如accept()、send()、recv()等,进程便暂停下来,等待I/O操作完成后再继续运行。这是一种简单而有效的I/O模型,它可以和多进程结合起来有效地利用CPU资源,但是其代价就是多进程的大量内存开销。8 人
  6. Linux内核提供一种访问磁盘文件的特殊方式,它可以将内存中某块地址空间和我们要指定的磁盘文件相关联,从而把我们对这块内存的访问转换为对磁盘文件的访问,这种技术称为内存映射(Memory Mapping)。8 人
  7. 数据库持久连接7 人
  8. 响应时间=发送时间+传播时间+处理时间7 人
  9. 但正是由于需要进程执行多次的轮询来查看数据是否就绪,这花费了大量的CPU时间,使得进程处于忙碌等待状态。7 人
  10. 响应时间=(数据量比特数/带宽) +(传播距离/传播速度)+处理时间6 人

喜欢这本书的人也喜欢