Linux中國

使用 dd 檢查存儲性能

本文包含一些示例命令,向你展示如何使用 dd 命令粗略估計硬碟驅動器和 RAID 陣列的性能。準確的測量必須考慮諸如寫入放大系統調用開銷之類的事情,本指南不會考慮這些。對於可能提供更準確結果的工具,你可能需要考慮使用 hdparm

為了分解與文件系統相關的性能問題,這些示例顯示了如何通過直接讀取和寫入塊設備來在塊級測試驅動器和陣列的性能。警告寫入測試將會銷毀用來運行測試的塊設備上的所有數據。不要對包含你想要保留的數據的任何設備運行這些測試!

四個測試

下面是四個示例 dd 命令,可用於測試塊設備的性能:

1、 從 $MY_DISK 讀取的一個進程:

# dd if=$MY_DISK of=/dev/null bs=1MiB count=200 iflag=nocache

2、寫入到 $MY_DISK 的一個進程:

# dd if=/dev/zero of=$MY_DISK bs=1MiB count=200 oflag=direct

3、從 $MY_DISK 並發讀取的兩個進程:

# (dd if=$MY_DISK of=/dev/null bs=1MiB count=200 iflag=nocache &); (dd if=$MY_DISK of=/dev/null bs=1MiB count=200 iflag=nocache skip=200 &)

4、 並發寫入到 $MY_DISK 的兩個進程:

# (dd if=/dev/zero of=$MY_DISK bs=1MiB count=200 oflag=direct &); (dd if=/dev/zero of=$MY_DISK bs=1MiB count=200 oflag=direct skip=200 &)
  • 執行讀寫測試時,相應的 iflag=nocacheoflag=direct 參數非常重要,因為沒有它們,dd 命令有時會顯示從內存中傳輸數據的結果速度,而不是從硬碟。
  • bscount 參數的值有些隨意,我選擇的值應足夠大,以便在大多數情況下為當前硬體提供合適的平均值。
  • nullzero 設備在讀寫測試中分別用於目標和源,因為它們足夠快,不會成為性能測試中的限制因素。
  • 並發讀寫測試中第二個 dd 命令的 skip=200 參數是為了確保 dd 的兩個副本在硬碟驅動器的不同區域上運行。

16 個示例

下面是演示,顯示針對以下四個塊設備中之一運行上述四個測試中的各個結果:

  1. MY_DISK=/dev/sda2(用在示例 1-X 中)
  2. MY_DISK=/dev/sdb2(用在示例 2-X 中)
  3. MY_DISK=/dev/md/stripped(用在示例 3-X 中)
  4. MY_DISK=/dev/md/mirrored(用在示例 4-X 中)

首先將計算機置於救援模式,以減少後台服務的磁碟 I/O 隨機影響測試結果的可能性。警告:這將關閉所有非必要的程序和服務。在運行這些命令之前,請務必保存你的工作。你需要知道 root 密碼才能進入救援模式。passwd 命令以 root 用戶身份運行時,將提示你(重新)設置 root 帳戶密碼。

$ sudo -i
# passwd
# setenforce 0
# systemctl rescue

你可能還想暫時禁止將日誌記錄到磁碟:

# sed -r -i.bak 's/^#?Storage=.*/Storage=none/' /etc/systemd/journald.conf
# systemctl restart systemd-journald.service

如果你有交換設備,可以暫時禁用它並用於執行後面的測試:

# swapoff -a
# MY_DEVS=$(mdadm --detail /dev/md/swap | grep active | grep -o "/dev/sd.*")
# mdadm --stop /dev/md/swap
# mdadm --zero-superblock $MY_DEVS

示例 1-1 (從 sda 讀取)

# MY_DISK=$(echo $MY_DEVS | cut -d ' ' -f 1)
# dd if=$MY_DISK of=/dev/null bs=1MiB count=200 iflag=nocache
200+0 records in
200+0 records out
209715200 bytes (210 MB, 200 MiB) copied, 1.7003 s, 123 MB/s

示例 1-2 (寫入到 sda)

# MY_DISK=$(echo $MY_DEVS | cut -d ' ' -f 1)
# dd if=/dev/zero of=$MY_DISK bs=1MiB count=200 oflag=direct
200+0 records in
200+0 records out
209715200 bytes (210 MB, 200 MiB) copied, 1.67117 s, 125 MB/s

示例 1-3 (從 sda 並發讀取)

# MY_DISK=$(echo $MY_DEVS | cut -d ' ' -f 1)
# (dd if=$MY_DISK of=/dev/null bs=1MiB count=200 iflag=nocache &); (dd if=$MY_DISK of=/dev/null bs=1MiB count=200 iflag=nocache skip=200 &)
200+0 records in
200+0 records out
209715200 bytes (210 MB, 200 MiB) copied, 3.42875 s, 61.2 MB/s
200+0 records in
200+0 records out
209715200 bytes (210 MB, 200 MiB) copied, 3.52614 s, 59.5 MB/s

示例 1-4 (並發寫入到 sda)

# MY_DISK=$(echo $MY_DEVS | cut -d ' ' -f 1)
# (dd if=/dev/zero of=$MY_DISK bs=1MiB count=200 oflag=direct &); (dd if=/dev/zero of=$MY_DISK bs=1MiB count=200 oflag=direct skip=200 &)
200+0 records out
209715200 bytes (210 MB, 200 MiB) copied, 3.2435 s, 64.7 MB/s
200+0 records in
200+0 records out
209715200 bytes (210 MB, 200 MiB) copied, 3.60872 s, 58.1 MB/s

示例 2-1 (從 sdb 讀取)

# MY_DISK=$(echo $MY_DEVS | cut -d ' ' -f 2)
# dd if=$MY_DISK of=/dev/null bs=1MiB count=200 iflag=nocache
200+0 records in
200+0 records out
209715200 bytes (210 MB, 200 MiB) copied, 1.67285 s, 125 MB/s

示例 2-2 (寫入到 sdb)

# MY_DISK=$(echo $MY_DEVS | cut -d ' ' -f 2)
# dd if=/dev/zero of=$MY_DISK bs=1MiB count=200 oflag=direct
200+0 records in
200+0 records out
209715200 bytes (210 MB, 200 MiB) copied, 1.67198 s, 125 MB/s

示例 2-3 (從 sdb 並發讀取)

# MY_DISK=$(echo $MY_DEVS | cut -d ' ' -f 2)
# (dd if=$MY_DISK of=/dev/null bs=1MiB count=200 iflag=nocache &); (dd if=$MY_DISK of=/dev/null bs=1MiB count=200 iflag=nocache skip=200 &)
200+0 records in
200+0 records out
209715200 bytes (210 MB, 200 MiB) copied, 3.52808 s, 59.4 MB/s
200+0 records in
200+0 records out
209715200 bytes (210 MB, 200 MiB) copied, 3.57736 s, 58.6 MB/s

示例 2-4 (並發寫入到 sdb)

# MY_DISK=$(echo $MY_DEVS | cut -d ' ' -f 2)
# (dd if=/dev/zero of=$MY_DISK bs=1MiB count=200 oflag=direct &); (dd if=/dev/zero of=$MY_DISK bs=1MiB count=200 oflag=direct skip=200 &)
200+0 records in
200+0 records out
209715200 bytes (210 MB, 200 MiB) copied, 3.7841 s, 55.4 MB/s
200+0 records in
200+0 records out
209715200 bytes (210 MB, 200 MiB) copied, 3.81475 s, 55.0 MB/s

示例 3-1 (從 RAID0 讀取)

# mdadm --create /dev/md/stripped --homehost=any --metadata=1.0 --level=0 --raid-devices=2 $MY_DEVS
# MY_DISK=/dev/md/stripped
# dd if=$MY_DISK of=/dev/null bs=1MiB count=200 iflag=nocache
200+0 records in
200+0 records out
209715200 bytes (210 MB, 200 MiB) copied, 0.837419 s, 250 MB/s

示例 3-2 (寫入到 RAID0)

# MY_DISK=/dev/md/stripped
# dd if=/dev/zero of=$MY_DISK bs=1MiB count=200 oflag=direct
200+0 records in
200+0 records out
209715200 bytes (210 MB, 200 MiB) copied, 0.823648 s, 255 MB/s

示例 3-3 (從 RAID0 並發讀取)

# MY_DISK=/dev/md/stripped
# (dd if=$MY_DISK of=/dev/null bs=1MiB count=200 iflag=nocache &); (dd if=$MY_DISK of=/dev/null bs=1MiB count=200 iflag=nocache skip=200 &)
200+0 records in
200+0 records out
209715200 bytes (210 MB, 200 MiB) copied, 1.31025 s, 160 MB/s
200+0 records in
200+0 records out
209715200 bytes (210 MB, 200 MiB) copied, 1.80016 s, 116 MB/s

示例 3-4 (並發寫入到 RAID0)

# MY_DISK=/dev/md/stripped
# (dd if=/dev/zero of=$MY_DISK bs=1MiB count=200 oflag=direct &); (dd if=/dev/zero of=$MY_DISK bs=1MiB count=200 oflag=direct skip=200 &)
200+0 records in
200+0 records out
209715200 bytes (210 MB, 200 MiB) copied, 1.65026 s, 127 MB/s
200+0 records in
200+0 records out
209715200 bytes (210 MB, 200 MiB) copied, 1.81323 s, 116 MB/s

示例 4-1 (從 RAID1 讀取)

# mdadm --stop /dev/md/stripped
# mdadm --create /dev/md/mirrored --homehost=any --metadata=1.0 --level=1 --raid-devices=2 --assume-clean $MY_DEVS
# MY_DISK=/dev/md/mirrored
# dd if=$MY_DISK of=/dev/null bs=1MiB count=200 iflag=nocache
200+0 records in
200+0 records out
209715200 bytes (210 MB, 200 MiB) copied, 1.74963 s, 120 MB/s

示例 4-2 (寫入到 RAID1)

# MY_DISK=/dev/md/mirrored
# dd if=/dev/zero of=$MY_DISK bs=1MiB count=200 oflag=direct
200+0 records in
200+0 records out
209715200 bytes (210 MB, 200 MiB) copied, 1.74625 s, 120 MB/s

示例 4-3 (從 RAID1 並發讀取)

# MY_DISK=/dev/md/mirrored
# (dd if=$MY_DISK of=/dev/null bs=1MiB count=200 iflag=nocache &); (dd if=$MY_DISK of=/dev/null bs=1MiB count=200 iflag=nocache skip=200 &)
200+0 records in
200+0 records out
209715200 bytes (210 MB, 200 MiB) copied, 1.67171 s, 125 MB/s
200+0 records in
200+0 records out
209715200 bytes (210 MB, 200 MiB) copied, 1.67685 s, 125 MB/s

示例 4-4 (並發寫入到 RAID1)

# MY_DISK=/dev/md/mirrored
# (dd if=/dev/zero of=$MY_DISK bs=1MiB count=200 oflag=direct &); (dd if=/dev/zero of=$MY_DISK bs=1MiB count=200 oflag=direct skip=200 &)
200+0 records in
200+0 records out
209715200 bytes (210 MB, 200 MiB) copied, 4.09666 s, 51.2 MB/s
200+0 records in
200+0 records out
209715200 bytes (210 MB, 200 MiB) copied, 4.1067 s, 51.1 MB/s

恢復交換設備和日誌配置

# mdadm --stop /dev/md/stripped /dev/md/mirrored
# mdadm --create /dev/md/swap --homehost=any --metadata=1.0 --level=1 --raid-devices=2 $MY_DEVS
# mkswap /dev/md/swap
# swapon -a
# mv /etc/systemd/journald.conf.bak /etc/systemd/journald.conf
# systemctl restart systemd-journald.service
# reboot

結果解讀

示例 1-1、1-2、2-1 和 2-2 表明我的每個驅動器以大約 125 MB/s 的速度讀寫。

示例 1-3、1-4、2-3 和 2-4 表明,當在同一驅動器上並行完成兩次讀取或寫入時,每個進程的驅動器帶寬大約為一半(60 MB/s)。

3-X 示例顯示了將兩個驅動器放在 RAID0(數據條帶化)陣列中的性能優勢。在所有情況下,這些數字表明 RAID0 陣列的執行速度是任何一個驅動器能夠獨立提供的速度的兩倍。相應的是,丟失所有內容的可能性也是兩倍,因為每個驅動器只包含一半的數據。一個三個驅動器陣列的執行速度是單個驅動器的三倍(所有驅動器規格都相同),但遭受災難性故障的可能也是三倍。

4-X 示例顯示 RAID1(數據鏡像)陣列的性能類似於單個磁碟的性能,除了多個進程同時讀取的情況(示例4-3)。在多個進程讀取的情況下,RAID1 陣列的性能類似於 RAID0 陣列的性能。這意味著你將看到 RAID1 的性能優勢,但僅限於進程同時讀取時。例如,當你在前台使用 Web 瀏覽器或電子郵件客戶端時,進程會嘗試訪問後台中的大量文件。RAID1 的主要好處是,如果驅動器出現故障,你的數據不太可能丟失。

故障排除

如果上述測試未按預期執行,則可能是驅動器壞了或出現故障。大多數現代硬碟都內置了自我監控、分析和報告技術SMART)。如果你的驅動器支持它,smartctl 命令可用於查詢你的硬碟驅動器的內部統計信息:

# smartctl --health /dev/sda
# smartctl --log=error /dev/sda
# smartctl -x /dev/sda

另一種可以調整 PC 以獲得更好性能的方法是更改 I/O 調度程序。Linux 系統支持多個 I/O 調度程序,Fedora 系統的當前默認值是 deadline 調度程序的 multiqueue 變體。默認情況下它的整體性能非常好,並且對於具有許多處理器和大型磁碟陣列的大型伺服器,其擴展性極為出色。但是,有一些更專業的調度程序在某些條件下可能表現更好。

要查看驅動器正在使用的 I/O 調度程序,請運行以下命令:

$ for i in /sys/block/sd?/queue/scheduler; do echo "$i: $(<$i)"; done

你可以通過將所需調度程序的名稱寫入 /sys/block/<device name>/queue/scheduler 文件來更改驅動器的調度程序:

# echo bfq > /sys/block/sda/queue/scheduler

你可以通過為驅動器創建 udev 規則來永久更改它。以下示例顯示了如何創建將所有的旋轉式驅動器設置為使用 BFQ I/O 調度程序的 udev 規則:

# cat << END > /etc/udev/rules.d/60-ioscheduler-rotational.rules
ACTION=="add|change", KERNEL=="sd[a-z]", ATTR{queue/rotational}=="1", ATTR{queue/scheduler}="bfq"
END

這是另一個設置所有的固態驅動器使用 NOOP I/O 調度程序的示例:

# cat << END > /etc/udev/rules.d/60-ioscheduler-solid-state.rules
ACTION=="add|change", KERNEL=="sd[a-z]", ATTR{queue/rotational}=="0", ATTR{queue/scheduler}="none"
END

更改 I/O 調度程序不會影響設備的原始吞吐量,但通過優先考慮後台任務的帶寬或消除不必要的塊重新排序,可能會使你的 PC 看起來響應更快。

via: https://fedoramagazine.org/check-storage-performance-with-dd/

作者:Gregory Bartholomew 選題:lujun9972 譯者:wxy 校對:wxy

本文由 LCTT 原創編譯,Linux中國 榮譽推出


本文轉載來自 Linux 中國: https://github.com/Linux-CN/archive

對這篇文章感覺如何?

太棒了
0
不錯
0
愛死了
0
不太好
0
感覺很糟
0
雨落清風。心向陽

    You may also like

    Leave a reply

    您的電子郵箱地址不會被公開。 必填項已用 * 標註

    此站點使用Akismet來減少垃圾評論。了解我們如何處理您的評論數據

    More in:Linux中國