Linux中國

將 Web 應用性能提高十倍的10條建議

Tip #1: 通過反向代理來提高性能和增加安全性

如果你的 web 應用運行在單個機器上,那麼這個辦法會明顯的提升性能:只需要換一個更快的機器,更好的處理器,更多的內存,更快的磁碟陣列,等等。然後新機器就可以更快的運行你的 WordPress 伺服器, Node.js 程序, Java 程序,以及其它程序。(如果你的程序要訪問資料庫伺服器,那麼解決方法依然很簡單:添加兩個更快的機器,以及在兩台電腦之間使用一個更快的鏈路。)

問題是,機器速度可能並不是問題。web 程序運行慢經常是因為計算機一直在不同的任務之間切換:通過成千上萬的連接和用戶交互,從磁碟訪問文件,運行代碼,等等。應用伺服器可能會 抖動 thrashing -比如說內存不足、將內存數據交換到磁碟,以及有多個請求要等待某個任務完成,如磁碟I/O。

你可以採取一個完全不同的方案來替代升級硬體:添加一個反向代理伺服器來分擔部分任務。反向代理伺服器 位於運行應用的機器的前端,是用來處理網路流量的。只有反向代理伺服器是直接連接到互聯網的;和應用伺服器的通訊都是通過一個快速的內部網路完成的。

使用反向代理伺服器可以將應用伺服器從等待用戶與 web 程序交互解放出來,這樣應用伺服器就可以專註於為反向代理伺服器構建網頁,讓其能夠傳輸到互聯網上。而應用伺服器就不需要等待客戶端的響應,其運行速度可以接近於優化後的性能水平。

添加反向代理伺服器還可以給你的 web 伺服器安裝帶來靈活性。比如,一個某種類型的伺服器已經超載了,那麼就可以輕鬆的添加另一個相同的伺服器;如果某個機器宕機了,也可以很容易替代一個新的。

因為反向代理帶來的靈活性,所以反向代理也是一些性能加速功能的必要前提,比如:

  • 負載均衡 (參見 Tip #2) – 負載均衡運行在反向代理伺服器上,用來將流量均衡分配給一批應用。有了合適的負載均衡,你就可以添加應用伺服器而根本不用修改應用。
  • 緩存靜態文件 (參見 Tip #3) – 直接讀取的文件,比如圖片或者客戶端代碼,可以保存在反向代理伺服器,然後直接發給客戶端,這樣就可以提高速度、分擔應用伺服器的負載,可以讓應用運行的更快。
  • 網站安全 – 反向代理伺服器可以提高網站安全性,以及快速的發現和響應攻擊,保證應用伺服器處於被保護狀態。

NGINX 軟體為用作反向代理伺服器而專門設計,也包含了上述的多種功能。NGINX 使用事件驅動的方式處理請求,這會比傳統的伺服器更加有效率。NGINX plus 添加了更多高級的反向代理特性,比如應用的健康度檢查,專門用來處理請求路由、高級緩衝和相關支持。

NGINX Worker Process helps increase application performance

Tip #2: 添加負載平衡

添加一個負載均衡伺服器 是一個相當簡單的用來提高性能和網站安全性的的方法。與其將核心 Web 伺服器變得越來越大和越來越強,不如使用負載均衡將流量分配到多個伺服器。即使程序寫的不好,或者在擴容方面有困難,僅是使用負載均衡伺服器就可以很好的提高用戶體驗。

負載均衡伺服器首先是一個反向代理伺服器(參見Tip #1)——它接受來自互聯網的流量,然後轉發請求給另一個伺服器。特別是負載均衡伺服器支持兩個或多個應用伺服器,使用分配演算法將請求轉發給不同伺服器。最簡單的負載均衡方法是 輪轉法 round robin ,每個新的請求都會發給列表裡的下一個伺服器。其它的複製均衡方法包括將請求發給活動連接最少的伺服器。NGINX plus 擁有將特定用戶的會話分配給同一個伺服器的能力

負載均衡可以很好的提高性能是因為它可以避免某個伺服器過載而另一些伺服器卻沒有需要處理的流量。它也可以簡單的擴展伺服器規模,因為你可以添加多個價格相對便宜的伺服器並且保證它們被充分利用了。

可以進行負載均衡的協議包括 HTTP、HTTPS、SPDY、HTTP/2、WebSocket、FastCGI、SCGI、uwsgi、 memcached 等,以及幾種其它的應用類型,包括基於 TCP 的應用和其它的第4層協議的程序。分析你的 web 應用來決定你要使用哪些以及哪些地方性能不足。

相同的伺服器或伺服器群可以被用來進行負載均衡,也可以用來處理其它的任務,如 SSL 末端伺服器,支持客戶端的 HTTP/1.x 和 HTTP/2 請求,以及緩存靜態文件。

NGINX 經常被用於進行負載均衡;要想了解更多的情況,可以下載我們的電子書《選擇軟體負載均衡器的五個理由》。你也可以從 《使用 NGINX 和 NGINX Plus 配置負載均衡,第一部分》中了解基本的配置指導,在 NGINX Plus 管理員指南中有完整的 NGINX 負載均衡的文檔。。我們的商業版本 NGINX Plus 支持更多優化了的負載均衡特性,如基於伺服器響應時間的載入路由和 Microsoft』s NTLM 協議上的負載均衡。

Tip #3: 緩存靜態和動態的內容

緩存可以通過加速內容的傳輸速度來提高 web 應用的性能。它可以採用以下幾種策略:當需要的時候預處理要傳輸的內容,保存數據到速度更快的設備,把數據存儲在距離客戶端更近的位置,或者將這幾種方法結合起來使用。

有兩種不同類型數據的緩衝:

  • 靜態內容緩存。不經常變化的文件,比如圖像(JPEG、PNG) 和代碼(CSS,JavaScript),可以保存在外圍伺服器上,這樣就可以快速的從內存和磁碟上提取。
  • 動態內容緩存。很多 web 應用會針對每次網頁請求生成一個新的 HTML 頁面。在短時間內簡單的緩存生成的 HTML 內容,就可以很好的減少要生成的內容的數量,而且這些頁面足夠新,可以滿足你的需要。

舉個例子,如果一個頁面每秒會被瀏覽10次,你將它緩存 1 秒,90%請求的頁面都會直接從緩存提取。如果你分開緩存靜態內容,甚至新生成的頁面可能都是由這些緩存構成的。

下面由是 web 應用發明的三種主要的緩存技術:

  • 縮短數據與用戶的網路距離。把一份內容的拷貝放的離用戶更近的節點來減少傳輸時間。
  • 提高內容伺服器的速度。內容可以保存在一個更快的伺服器上來減少提取文件的時間。
  • 從過載伺服器上移走數據。機器經常因為要完成某些其它的任務而造成某個任務的執行速度比測試結果要差。將數據緩存在不同的機器上可以提高緩存資源和非緩存資源的性能,而這是因為主機沒有被過度使用。

對 web 應用的緩存機制可以在 web 應用伺服器內部實現。首先,緩存動態內容是用來減少應用伺服器載入動態內容的時間。其次,緩存靜態內容(包括動態內容的臨時拷貝)是為了更進一步的分擔應用伺服器的負載。而且緩存之後會從應用伺服器轉移到對用戶而言更快、更近的機器,從而減少應用伺服器的壓力,減少提取數據和傳輸數據的時間。

改進過的緩存方案可以極大的提高應用的速度。對於大多數網頁來說,靜態數據,比如大圖像文件,構成了超過一半的內容。如果沒有緩存,那麼這可能會花費幾秒的時間來提取和傳輸這類數據,但是採用了緩存之後不到1秒就可以完成。

舉一個在實際中緩存是如何使用的例子, NGINX 和 NGINX Plus 使用了兩條指令來設置緩存機制:proxy_cache_path 和 proxy_cache。你可以指定緩存的位置和大小、文件在緩存中保存的最長時間和其它一些參數。使用第三條(而且是相當受歡迎的一條)指令 proxy_cache_use_stale,如果提供新鮮內容的伺服器忙碌或者掛掉了,你甚至可以讓緩存提供較舊的內容,這樣客戶端就不會一無所得。從用戶的角度來看這可以很好的提高你的網站或者應用的可用時間。

NGINX plus 有個高級緩存特性,包括對緩存清除的支持和在儀錶盤上顯示緩存狀態信息。

要想獲得更多關於 NGINX 的緩存機制的信息可以瀏覽 NGINX Plus 管理員指南中的《參考文檔》和《NGINX 內容緩存》。

注意:緩存機制分布於應用開發者、投資決策者以及實際的系統運維人員之間。本文提到的一些複雜的緩存機制從 DevOps 的角度來看很具有價值,即對集應用開發者、架構師以及運維操作人員的功能為一體的工程師來說可以滿足它們對站點功能性、響應時間、安全性和商業結果(如完成的交易數)等需要。

Tip #4: 壓縮數據

壓縮是一個具有很大潛力的提高性能的加速方法。現在已經有一些針對照片(JPEG 和PNG)、視頻(MPEG-4)和音樂(MP3)等各類文件精心設計和高壓縮率的標準。每一個標準都或多或少的減少了文件的大小。

文本數據 —— 包括HTML(包含了純文本和 HTML 標籤),CSS 和代碼,比如 Javascript —— 經常是未經壓縮就傳輸的。壓縮這類數據會在對應用程序性能的感覺上,特別是處於慢速或受限的移動網路的客戶端,產生更大的影響。

這是因為文本數據經常是用戶與網頁交互的有效數據,而多媒體數據可能更多的是起提供支持或者裝飾的作用。智能的內容壓縮可以減少 HTML,Javascript,CSS和其它文本內容對帶寬的要求,通常可以減少 30% 甚至更多的帶寬和相應的頁面載入時間。

如果你使用 SSL,壓縮可以減少需要進行 SSL 編碼的的數據量,而這些編碼操作會佔用一些 CPU 時間而抵消了壓縮數據減少的時間。

壓縮文本數據的方法很多,舉個例子,在 HTTP/2 中,小說文本的壓縮模式就特別調整了頭部數據。另一個例子是可以在 NGINX 里打開使用 GZIP 壓縮。你在你的服務里預先壓縮文本數據之後,你就可以直接使用 gzip_static 指令來處理壓縮過的 .gz 版本。

Tip #5: 優化 SSL/TLS

安全套接字(SSL) 協議和它的下一代版本傳輸層安全(TLS)協議正在被越來越多的網站採用。SSL/TLS 對從原始伺服器發往用戶的數據進行加密提高了網站的安全性。影響這個趨勢的部分原因是 Google 正在使用 SSL/TLS,這在搜索引擎排名上是一個正面的影響因素。

儘管 SSL/TLS 越來越流行,但是使用加密對速度的影響也讓很多網站望而卻步。SSL/TLS 之所以讓網站變的更慢,原因有二:

  1. 任何一個連接第一次連接時的握手過程都需要傳遞密鑰。而採用 HTTP/1.x 協議的瀏覽器在建立多個連接時會對每個連接重複上述操作。
  2. 數據在傳輸過程中需要不斷的在伺服器端加密、在客戶端解密。

為了鼓勵使用 SSL/TLS,HTTP/2 和 SPDY(在下一章會描述)的作者設計了新的協議來讓瀏覽器只需要對一個瀏覽器會話使用一個連接。這會大大的減少上述第一個原因所浪費的時間。然而現在可以用來提高應用程序使用 SSL/TLS 傳輸數據的性能的方法不止這些。

web 伺服器有對應的機制優化 SSL/TLS 傳輸。舉個例子,NGINX 使用 OpenSSL 運行在普通的硬體上提供了接近專用硬體的傳輸性能。NGINX 的 SSL 性能 有詳細的文檔,而且把對 SSL/TLS 數據進行加解密的時間和 CPU 佔用率降低了很多。

更進一步,參考這篇文章了解如何提高 SSL/TLS 性能的更多細節,可以總結為一下幾點:

  • 會話緩衝。使用指令 ssl_session_cache 可以緩存每個新的 SSL/TLS 連接使用的參數。
  • 會話票據或者 ID。把 SSL/TLS 的信息保存在一個票據或者 ID 里可以流暢的復用而不需要重新握手。
  • OCSP 分割。通過緩存 SSL/TLS 證書信息來減少握手時間。

NGINX 和 NGINX Plus 可以被用作 SSL/TLS 服務端,用於處理客戶端流量的加密和解密,而同時以明文方式和其它伺服器進行通信。要設置 NGINX 和 NGINX Plus 作為 SSL/TLS 服務端,參看 《HTTPS 連接》 和《加密的 TCP 連接》。

Tip #6: 使用 HTTP/2 或 SPDY

對於已經使用了 SSL/TLS 的站點,HTTP/2 和 SPDY 可以很好的提高性能,因為每個連接只需要一次握手。而對於沒有使用 SSL/TLS 的站點來說,從響應速度的角度來說 HTTP/2 和 SPDY 將讓遷移到 SSL/TLS 沒有什麼壓力(原本會降低效率)。

Google 在2012年開始把 SPDY 作為一個比 HTTP/1.x 更快速的協議來推薦。HTTP/2 是目前 IETF 通過的標準,是基於 SPDY 的。SPDY 已經被廣泛的支持了,但是很快就會被 HTTP/2 替代。

SPDY 和 HTTP/2 的關鍵是用單一連接來替代多路連接。單個連接是被複用的,所以它可以同時攜帶多個請求和響應的分片。

通過使用單一連接,這些協議可以避免像在實現了 HTTP/1.x 的瀏覽器中一樣建立和管理多個連接。單一連接在對 SSL 特別有效,這是因為它可以最小化 SSL/TLS 建立安全鏈接時的握手時間。

SPDY 協議需要使用 SSL/TLS,而 HTTP/2 官方標準並不需要,但是目前所有支持 HTTP/2 的瀏覽器只有在啟用了 SSL/TLS 的情況下才能使用它。這就意味著支持 HTTP/2 的瀏覽器只有在網站使用了 SSL 並且伺服器接收 HTTP/2 流量的情況下才會啟用 HTTP/2。否則的話瀏覽器就會使用 HTTP/1.x 協議。

當你實現 SPDY 或者 HTTP/2 時,你不再需要那些常規的 HTTP 性能優化方案,比如按域分割、資源聚合,以及圖像拼合。這些改變可以讓你的代碼和部署變得更簡單和更易於管理。要了解 HTTP/2 帶來的這些變化可以瀏覽我們的《白皮書》。

NGINX Supports SPDY and HTTP/2 for increased web application performance

作為支持這些協議的一個樣例,NGINX 已經從一開始就支持了 SPDY,而且大部分使用 SPDY 協議的網站都運行的是 NGINX。NGINX 同時也很早對 HTTP/2 的提供了支持,從2015 年9月開始,開源版 NGINX 和 NGINX Plus 就支持它了。

經過一段時間,我們 NGINX 希望更多的站點完全啟用 SSL 並且向 HTTP/2 遷移。這將會提高安全性,同時也會找到並實現新的優化手段,簡化的代碼表現的會更加優異。

Tip #7: 升級軟體版本

一個提高應用性能的簡單辦法是根據軟體的穩定性和性能的評價來選在你的軟體棧。進一步說,因為高性能組件的開發者更願意追求更高的性能和解決 bug ,所以值得使用最新版本的軟體。新版本往往更受開發者和用戶社區的關注。更新的版本往往會利用到新的編譯器優化,包括對新硬體的調優。

穩定的新版本通常比舊版本具有更好的兼容性和更高的性能。一直進行軟體更新,可以非常簡單的保持軟體保持最佳的優化,解決掉 bug,以及提高安全性。

一直使用舊版軟體也會阻止你利用新的特性。比如上面說到的 HTTP/2,目前要求 OpenSSL 1.0.1。在2016 年中期開始將會要求1.0.2 ,而它是在2015年1月才發布的。

NGINX 用戶可以開始遷移到 NGINX 最新的開源軟體 或者 NGINX Plus;它們都包含了最新的能力,如 socket 分割和線程池(見下文),這些都已經為性能優化過了。然後好好看看的你軟體棧,把它們升級到你能升級到的最新版本吧。

Tip #8: Linux 系統性能調優

Linux 是大多數 web 伺服器使用的操作系統,而且作為你的架構的基礎,Linux 顯然有不少提高性能的可能。默認情況下,很多 Linux 系統都被設置為使用很少的資源,以符合典型的桌面應用使用。這就意味著 web 應用需要一些微調才能達到最大效能。

這裡的 Linux 優化是專門針對 web 伺服器方面的。以 NGINX 為例,這裡有一些在加速 Linux 時需要強調的變化:

  • 緩衝隊列。如果你有掛起的連接,那麼你應該考慮增加 net.core.somaxconn 的值,它代表了可以緩存的連接的最大數量。如果連接限制太小,那麼你將會看到錯誤信息,而你可以逐漸的增加這個參數直到錯誤信息停止出現。
  • 文件描述符。NGINX 對一個連接使用最多2個文件描述符。如果你的系統有很多連接請求,你可能就需要提高sys.fs.file_max ,以增加系統對文件描述符數量整體的限制,這樣才能支持不斷增加的負載需求。
  • 臨時埠。當使用代理時,NGINX 會為每個上游伺服器創建臨時埠。你可以設置net.ipv4.ip_local_port_range 來提高這些埠的範圍,增加可用的埠號。你也可以減少非活動的埠的超時判斷來重複使用埠,這可以通過 net.ipv4.tcp_fin_timeout 來設置,這可以快速的提高流量。

對於 NGINX 來說,可以查閱 《NGINX 性能調優指南》來學習如果優化你的 Linux 系統,這樣它就可以很好的適應大規模網路流量而不會超過工作極限。

Tip #9: web 伺服器性能調優

無論你是用哪種 web 伺服器,你都需要對它進行優化來提高性能。下面的推薦手段可以用於任何 web 伺服器,但是一些設置是針對 NGINX 的。關鍵的優化手段包括:

  • 訪問日誌。不要把每個請求的日誌都直接寫回磁碟,你可以在內存將日誌緩存起來然後批量寫回磁碟。對於NGINX 來說,給指令 access_log 添加參數 buffer=size 可以讓系統在緩存滿了的情況下才把日誌寫到磁碟。如果你添加了參數 flush=time ,那麼緩存內容會每隔一段時間再寫回磁碟。
  • 緩存。緩存會在內存中存放部分響應,直到滿了為止,這可以讓與客戶端的通信更加高效。內存放不下的響應會寫回磁碟,而這就會降低效能。當 NGINX 啟用了緩存機制後,你可以使用指令 proxy_buffer_sizeproxy_buffers 來管理緩存。
  • 客戶端保活。保活連接可以減少開銷,特別是使用 SSL/TLS 時。對於 NGINX 來說,你可以從 keepalive_requests 的默認值 100 開始增加最大連接數,這樣一個客戶端就可以在一個指定的連接上請求多次,而且你也可以通過增加 keepalive_timeout 的值來允許保活連接存活更長時間,這樣就可以讓後來的請求處理的更快速。
  • 上游保活。上游的連接——即連接到應用伺服器、資料庫伺服器等機器的連接——同樣也會受益於連接保活。對於上游連接來說,你可以增加 keepalive,即每個工人進程的空閑保活連接個數。這就可以提高連接的復用次數,減少需要重新打開全新連接的次數。更多關於保活連接的信息可以參見這篇「 HTTP 保活連接和性能」
  • 限制。限制客戶端使用的資源可以提高性能和安全性。對於 NGINX 來說,指令 limit_connlimit_conn_zone 限制了給定來源的連接數量,而 limit_rate 限制了帶寬。這些限制都可以阻止合法用戶扒取資源,同時也避免了攻擊。指令 limit_reqlimit_req_zone 限制了客戶端請求。對於上游伺服器來說,可以在 upstream 的配置塊里的 server 指令使用 max_conns 參數來限制連接到上游伺服器的連接數。 這樣可以避免伺服器過載。關聯的 queue 指令會創建一個隊列來在連接數抵達 max_connS 限制時在指定長度的時間內保存特定數量的請求。
  • 工人進程。工人進程負責處理請求。NGINX 採用事件驅動模型和操作系統特定的機制來有效的將請求分發給不同的工人進程。這條建議推薦設置 worker_processes 為每個 CPU 一個 。worker_connections 的最大數(默認512)可以在大部分系統上根據需要增加,實驗性地找到最適合你的系統的值。
  • 套接字分割。通常一個套接字監聽器會把新連接分配給所有工人進程。套接字分割會為每個工人進程創建一個套接字監聽器,這樣一來以當套接字監聽器可用時,內核就會將連接分配給它。這可以減少鎖競爭,並且提高多核系統的性能,要啟用套接字分隔需要在 listen 指令裡面加上 reuseport 參數。
  • 線程池。計算機進程可能被一個單一的緩慢的操作所佔用。對於 web 伺服器軟體來說,磁碟訪問會影響很多更快的操作,比如計算或者在內存中拷貝。使用了線程池之後慢操作可以分配到不同的任務集,而主進程可以一直運行快速操作。當磁碟操作完成後結果會返回給主進程的循環。在 NGINX 里有兩個操作——read() 系統調用和 sendfile() ——被分配到了線程池

Thread pools help increase application performance by assigning a slow operation to a separate set of tasks

技巧。當改變任何操作系統或支持服務的設置時,一次只改變一個參數然後測試性能。如果修改引起問題了,或者不能讓你的系統更快,那麼就改回去。

在《調優 NGINX 性能》里可以看到更詳細的 NGINX 調優方法。

Tip #10: 監視系統活動來解決問題和瓶頸

在應用開發中要使得系統變得非常高效的關鍵是監視你的系統在現實世界運行的性能。你必須能通過特定的設備和你的 web 基礎設施上監控程序活動。

監視活動是最積極的——它會告訴你發生了什麼,把問題留給你發現和最終解決掉。

監視可以發現幾種不同的問題。它們包括:

  • 伺服器宕機。
  • 伺服器出問題一直在丟失連接。
  • 伺服器出現大量的緩存未命中。
  • 伺服器沒有發送正確的內容。

應用的總體性能監控工具,比如 New Relic 和 Dynatrace,可以幫助你監控到從遠程載入網頁的時間,而 NGINX 可以幫助你監控到應用交付端。當你需要考慮為基礎設施添加容量以滿足流量需求時,應用性能數據可以告訴你你的優化措施的確起作用了。

為了幫助開發者快速的發現、解決問題,NGINX Plus 增加了應用感知健康度檢查 ——對重複出現的常規事件進行綜合分析並在問題出現時向你發出警告。NGINX Plus 同時提供會話過濾功能,這可以阻止當前任務完成之前接受新的連接,另一個功能是慢啟動,允許一個從錯誤恢復過來的伺服器追趕上負載均衡伺服器群的進度。當使用得當時,健康度檢查可以讓你在問題變得嚴重到影響用戶體驗前就發現它,而會話過濾和慢啟動可以讓你替換伺服器,並且這個過程不會對性能和正常運行時間產生負面影響。下圖就展示了內建的 NGINX Plus 模塊實時活動監視的儀錶盤,包括了伺服器群,TCP 連接和緩存信息等 Web 架構信息。

Use real-time application performance monitoring tools to identify and resolve issues quickly

總結: 看看10倍性能提升的效果

這些性能提升方案對任何一個 web 應用都可用並且效果都很好,而實際效果取決於你的預算、你能花費的時間、目前實現方案的差距。所以你該如何對你自己的應用實現10倍性能提升?

為了指導你了解每種優化手段的潛在影響,這裡是上面詳述的每個優化方法的關鍵點,雖然你的情況肯定大不相同:

  • 反向代理伺服器和負載均衡。沒有負載均衡或者負載均衡很差都會造成間歇的性能低谷。增加一個反向代理,比如 NGINX ,可以避免 web 應用程序在內存和磁碟之間波動。負載均衡可以將過載伺服器的任務轉移到空閑的伺服器,還可以輕鬆的進行擴容。這些改變都可以產生巨大的性能提升,很容易就可以比你現在的實現方案的最差性能提高10倍,對於總體性能來說可能提高的不多,但是也是有實質性的提升。
  • 緩存動態和靜態數據。如果你有一個負擔過重的 web 伺服器,那麼毫無疑問肯定是你的應用伺服器,只通過緩存動態數據就可以在峰值時間提高10倍的性能。緩存靜態文件可以提高几倍的性能。
  • 壓縮數據。使用媒體文件壓縮格式,比如圖像格式 JPEG,圖形格式 PNG,視頻格式 MPEG-4,音樂文件格式 MP3 可以極大的提高性能。一旦這些都用上了,然後壓縮文件數據可以將初始頁面載入速度提高兩倍。
  • 優化 SSL/TLS。安全握手會對性能產生巨大的影響,對它們的優化可能會對初始響應產生2倍的提升,特別是對於大量文本的站點。優化 SSL/TLS 下媒體文件只會產生很小的性能提升。
  • 使用 HTTP/2 和 SPDY。當你使用了 SSL/TLS,這些協議就可以提高整個站點的性能。
  • 對 Linux 和 web 伺服器軟體進行調優。比如優化緩存機制,使用保活連接,分配時間敏感型任務到不同的線程池可以明顯的提高性能;舉個例子,線程池可以加速對磁碟敏感的任務近一個數量級

我們希望你親自嘗試這些技術。我們希望知道你說取得的各種性能提升案例。請在下面評論欄分享你的結果或者在標籤 #NGINX 和 #webperf 下 tweet 你的故事。

網上資源

via: https://www.nginx.com/blog/10-tips-for-10x-application-performance/

作者:Floyd Smith 譯者:Ezio 校對:wxy

本文由 LCTT 原創編譯,Linux中國 榮譽推出


本文轉載來自 Linux 中國: https://github.com/Linux-CN/archive

對這篇文章感覺如何?

太棒了
0
不錯
0
愛死了
0
不太好
0
感覺很糟
0
雨落清風。心向陽

    You may also like

    Leave a reply

    您的郵箱地址不會被公開。 必填項已用 * 標註

    此站點使用Akismet來減少垃圾評論。了解我們如何處理您的評論數據

    More in:Linux中國