1. Тестування IBM FlashSystem 840
1
Тестування IBM FlashSystem 840
Конфігурація тестової IBM FlashSystem 840:
- У наявності 8х Flash Module eMLC (можливо до 12хFlash Module) 2TB (а насправді 1,87TB), 1 з яких - hotspare, інші 7 – зібрано в R5
- host interfaces 8x8Gb FC (можливо до 16x8Gb FC)
Задекларована вендором продуктивність IBM FlashSystem 840 до 775K iops, блоками 4KB 100%Random, 70%/30% Read/Write.
Проведемо тестування для визначення фактично досяжних показників продуктивності IBM FlashSystem 840 у наявній конфігурації (тільки 8хFlash Module з 12-и).
У тестовому ландшафті 32хLU IBM FlashSystem 840 були презентовані (через FC-SAN) двом серверам IBM POWER System S822 (4х8Gb FC в кожному сервері, разом - 8x8Gb FC, тобто загалом стільки ж як і в IBM FlashSystem 840) по 16хLU на сервер. Сервери IBM POWER System S822 використовувались з Dual VIOS та FC NPIV.
На кожному тестовому сервері/LPAR, LU були зібрані в страйп за допомогою AIX LVM. Дані були розміщені на файловій системі JFS2 з inline log та опціями noatime, cio. Файлова система (розміром 4ТБ) була заповнена даними >80%, для подальшого тестування використовувався весь цей обсяг даних.
Перший тест на лінійну швидкість читання продемонстрував продуктивність - більше 5GBps (див. Diagram 1)
Diagram 1
2. Тестування IBM FlashSystem 840
2
Наступний тест на швидкість запису продемонстрував продуктивність майже 2GBps (див. Diagram 2)
Diagram 2
Тест багатопотокового навантаження - 100% Random, співвідношення Read/Write=80/20, розмір блоку 4KB – продуктивність більше 500K iops (див. Diagram 3)
Diagram 3
3. Тестування IBM FlashSystem 840
3
Повторимо тест багатопотокового навантаження - 100% Random, співвідношення Read/Write=80/20,
змінюючи розмір блоку даних (Diagram 4 – продуктивність в iops, Diagram 5 – відповідний час відгуку на сервері дискової підсистеми в ms).
4KB
8KB
16KB
32KB
64KB
128KB
IBM FlashSystem 840
507724
325057
174311
90340
45839
23059
0
100000
200000
300000
400000
500000
600000
IOPS
Diagram 4 - IBM FlashSystem 840
100% Random, Read/Write= 80/20
0
5
10
15
20
25
4KB
8KB
16KB
32KB
64KB
128KB
ms
4KB
8KB
16KB
32KB
64KB
128KB
IBM FlashSystem 840, write ms
0.6
1.1
2.9
7.6
16.2
31
IBM FlashSystem 840, read ms
1.2
2.4
4.8
9.6
18.8
34.5
Diagram 5 - IBM FlashSystem 840
average latency
4. Тестування IBM FlashSystem 840
4
А для наступного тесту залишимо розмір блоку даних незмінним – 8KB, а змінювати будемо співвідношення Read/Write. Як видно на Diagram 6 – максимальна продуктивність була досягнута на співвідношенні, відмінному від 100% Read.
100%
Write
10%
Read
90%
Write
20%
Read
80%
Write
30%
Read
70%
Write
40%
Read
60%
Write
50%
Read
50%
Write
60%
Read
40%
Write
70%
Read
30%
Write
80%
Read
20%
Write
90%
Read
10%
Write
100%
Read
IBM FlashSystem 840
187480
199834
213311
226443
241190
257174
274482
296792
325265
385369
378269
0
50000
100000
150000
200000
250000
300000
350000
400000
450000
IOPS
Diagram 6 - IBM FlashSystem 840
100% Random, Read/Write= 0/100-100/0
5. Тестування IBM FlashSystem 840
5
Надалі розглянемо такий аспект – як зміниться продуктивність IBM FlashSystem 840 під час оновлення firmware? Вендори завжди рекомендують виконувати оновлення firmware під час найменшого навантаження, але ніколи не уточнюють, що саме під цим розуміють… 1K iops, 10K iops, 100K iops?
Згенеруємо навантаження близько ~100K iops - 100% Random, співвідношення Read/Write=80/20, розмір блоку 8KB, та почнемо одночасно оновлення firmware на IBM FlashSystem 840. Як видно на Diagram 7 та 8, зниження продуктивності по кількості iops дуже короткочасне (безпосередньо під час оновлення контролерів, більш детально/online дана ситуація зображена на Diagram 9 ), а незначне збільшення часу відгуку відбувається під час верифікації RAID stripes.
Diagram 7
Diagram 8
0
20000
40000
60000
80000
100000
120000
140000
16:10
16:16
16:21
16:27
16:32
16:38
16:43
16:49
16:54
17:00
17:05
17:11
17:16
17:22
17:27
17:33
17:38
17:44
17:49
17:55
18:00
18:06
18:11
18:17
18:22
18:28
18:33
18:39
18:44
18:50
18:55
19:01
19:06
Disk xfers
IO/sec
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
16:10
16:16
16:21
16:27
16:32
16:38
16:43
16:49
16:54
17:00
17:05
17:11
17:16
17:22
17:27
17:33
17:38
17:44
17:49
17:55
18:00
18:06
18:11
18:17
18:22
18:28
18:33
18:39
18:44
18:50
18:55
19:01
19:06
Disk Service Time msec/xfer