आईओपीएस
The neutrality of this article is disputed. (August 2016) (Learn how and when to remove this template message) |
इनपुट/आउटपुट ऑपरेशंस प्रति सेकंड (IOPS, उच्चारित 'आई-ऑप्स) एक इनपुट/आउटपुट प्रदर्शन माप है जिसका उपयोग हार्ड डिस्क ड्राइव (HDD), ठोस राज्य ड्राइव (SSD), और स्टोरेज एरिया जैसे डेटा स्टोरेज डिवाइस डिवाइस को चिह्नित करने के लिए किया जाता है। नेटवर्क (सैन)। बेंचमार्क (कंप्यूटिंग) की तरह, स्टोरेज डिवाइस निर्माताओं द्वारा प्रकाशित IOPS नंबर सीधे वास्तविक दुनिया के एप्लिकेशन प्रदर्शन से संबंधित नहीं होते हैं।[1][2]
पृष्ठभूमि
किसी भी स्टोरेज डिवाइस की प्रदर्शन विशेषताओं का अर्थपूर्ण वर्णन करने के लिए, कम से कम तीन मीट्रिक एक साथ निर्दिष्ट करना आवश्यक है: IOPS, प्रतिक्रिया समय, और (आवेदन) वर्कलोड। प्रतिक्रिया-समय और वर्कलोड के एक साथ विनिर्देशों के अभाव में, IOPS अनिवार्य रूप से अर्थहीन हैं। अलगाव में, IOPS को एक ऑटोमोबाइल इंजन के प्रति मिनट क्रांतियों के अनुरूप माना जा सकता है, अर्थात एक इंजन जो 10,000 RPM पर कताई करने में सक्षम है, तटस्थ में इसके प्रसारण के साथ कुछ भी मूल्य नहीं देता है, हालांकि एक इंजन दिए गए समय पर निर्दिष्ट टॉर्क और हॉर्सपावर विकसित करने में सक्षम है। RPM की संख्या पूरी तरह से इंजन की क्षमताओं का वर्णन करती है।
किसी भी सिस्टम कॉन्फ़िगरेशन में संभव IOPS की विशिष्ट संख्या बहुत भिन्न होगी, चर के आधार पर परीक्षक कार्यक्रम में प्रवेश करता है, जिसमें पढ़ने और लिखने के संचालन का संतुलन, अनुक्रमिक पहुंच का मिश्रण और रैंडम एक्सेस एक्सेस पैटर्न, वर्कर थ्रेड की संख्या शामिल है। (कंप्यूटर विज्ञान) और कतार की गहराई, साथ ही डेटा ब्लॉक आकार।[1]ऐसे अन्य कारक भी हैं जो IOPS परिणामों को प्रभावित कर सकते हैं जिनमें सिस्टम सेटअप, स्टोरेज ड्राइवर, OS बैकग्राउंड ऑपरेशन आदि शामिल हैं।[3]
प्रदर्शन विशेषताएं
मापी जाने वाली सबसे आम प्रदर्शन विशेषताएं अनुक्रमिक और यादृच्छिक संचालन हैं। अनुक्रमिक संचालन एक निरंतर डेटा संग्रहण में स्टोरेज डिवाइस पर स्थानों तक पहुँचते हैं और आम तौर पर बड़े डेटा स्थानांतरण आकारों से जुड़े होते हैं, उदा। ≥ 128 किलोबाइट। रैंडम ऑपरेशंस स्टोरेज डिवाइस पर गैर-सन्निहित तरीके से स्थानों तक पहुँचते हैं और आमतौर पर छोटे डेटा ट्रांसफर आकारों से जुड़े होते हैं, उदा। 4kb।
सबसे आम प्रदर्शन विशेषताएं इस प्रकार हैं:
Measurement | Description |
---|---|
Total IOPS | Total number of I/O operations per second (when performing a mix of read and write tests) |
Random Read IOPS | Average number of random read I/O operations per second |
Random Write IOPS | Average number of random write I/O operations per second |
Sequential Read IOPS | Average number of sequential read I/O operations per second |
Sequential Write IOPS | Average number of sequential write I/O operations per second |
HDD और इसी तरह के इलेक्ट्रोमैकेनिकल स्टोरेज डिवाइस के लिए, रैंडम IOPS नंबर मुख्य रूप से स्टोरेज डिवाइस के रैंडम समय की तलाश पर निर्भर होते हैं, जबकि SSD और इसी तरह के सॉलिड स्टेट स्टोरेज डिवाइस के लिए, रैंडम IOPS नंबर मुख्य रूप से स्टोरेज डिवाइस के इंटरनल कंट्रोलर और मेमोरी इंटरफेस पर निर्भर होते हैं। गति। दोनों प्रकार के भंडारण उपकरणों पर, अनुक्रमिक IOPS संख्याएं (विशेष रूप से बड़े ब्लॉक आकार का उपयोग करते समय) आमतौर पर अधिकतम निरंतर बैंडविड्थ का संकेत देती हैं जिसे भंडारण उपकरण संभाल सकता है।[1]अक्सर अनुक्रमिक IOPS को एक साधारण डेटा-दर इकाइयों के रूप में रिपोर्ट किया जाता है#मेगाबाइट प्रति सेकेंड संख्या निम्नानुसार है:
<ब्लॉककोट> (फिर डेटा-दर इकाइयों#मेगाबाइट प्रति सेकंड|एमबी/एस में परिवर्तित) </ब्लॉककोट>
कुछ HDD के प्रदर्शन में सुधार होगा क्योंकि बकाया IO की संख्या (यानी कतार की गहराई) बढ़ जाती है। यह आमतौर पर कमांड क्यूइंग और रीऑर्डरिंग करने वाले ड्राइव पर अधिक उन्नत कंट्रोलर लॉजिक का परिणाम होता है जिसे आमतौर पर या तो टैग की गई कमांड क्यूइंग (टीसीक्यू) या नेटिव कमांड क्यूइंग (एनसीक्यू) कहा जाता है। अधिकांश वस्तु सैटा ड्राइव या तो ऐसा नहीं कर सकते हैं, या उनका कार्यान्वयन इतना खराब है कि कोई प्रदर्शन लाभ नहीं देखा जा घंटे है।[citation needed] एंटरप्राइज क्लास SATA ड्राइव्स, जैसे कि पश्चिमी डिजिटल रैप्टर और सीगेट बाराकुडा एनएल गहरी कतारों के साथ लगभग 100% सुधार करेंगे।[4] उच्च-अंत SCSI ड्राइव आमतौर पर सर्वरों में पाए जाते हैं, आम तौर पर बहुत अधिक सुधार दिखाते हैं, Seagate Technology Savvio के साथ 400 IOPS से अधिक - इसके प्रदर्शन को दोगुना करने से अधिक।[citation needed]
जबकि पारंपरिक HDD में पढ़ने और लिखने के संचालन के लिए लगभग समान IOPS होते हैं, कई फ्लैश मेमोरी | NAND फ्लैश-आधारित SSDs और USB स्टिक पढ़ने की तुलना में बहुत धीमी गति से लिखते हैं, क्योंकि पहले से लिखे गए स्थान पर सीधे लिखने में असमर्थता के कारण कचरा संग्रह नामक प्रक्रिया को मजबूर किया जाता है। (एसएसडी)।[5][6][7] इसने IOPS प्रदर्शन का परीक्षण करते समय हार्डवेयर परीक्षण साइटों को स्वतंत्र रूप से मापा परिणाम प्रदान करना शुरू कर दिया है।
फ्लैश एसएसडी, जैसे कि इंटेल एक्स25-ई (2010 में जारी) में पारंपरिक एचडीडी की तुलना में बहुत अधिक आईओपीएस है। Xssist द्वारा किए गए एक परीक्षण में, Iometer, 4 KB रैंडम ट्रांसफर, 70/30 पढ़ने/लिखने का अनुपात, क्यू डेप्थ 4 का उपयोग करते हुए, Intel X25-E 64GB G1 द्वारा वितरित IOPS ने लगभग 10000 IOP शुरू किए, और 8 मिनट के बाद तेजी से गिरा 4000 IOPS, और अगले 42 मिनट तक धीरे-धीरे घटता रहा। IOPS लगभग 50 मिनट और उसके बाद से 3000 और 4000 के बीच भिन्न होता है, शेष 8+ घंटों के लिए परीक्षण चलता है।[8] 50वें मिनट के बाद रैंडम IOPS में गिरावट के बावजूद, X25-E में अभी भी पारंपरिक हार्ड डिस्क ड्राइव की तुलना में बहुत अधिक IOPS है। SandForce नियंत्रक का उपयोग करके OCZ RevoDrive 3 x2 PCIe सहित कुछ SSDs ने बहुत अधिक निरंतर लेखन प्रदर्शन दिखाया है जो पढ़ने की गति से अधिक निकटता से मेल खाता है।[9]
उदाहरण
मैकेनिकल हार्ड ड्राइव
परीक्षण के दौरान प्रयुक्त ब्लॉक आकार किसी दिए गए ड्राइव द्वारा किए गए आईओपीएस की संख्या को महत्वपूर्ण रूप से प्रभावित करता है। कुछ विशिष्ट प्रदर्शन आंकड़ों के लिए नीचे देखें:[10]
Drive (Type / RPM) | IOPS
(4KB block, random) |
IOPS
(64KB block, random) |
MB/s (64KB block, random) | IOPS
(512KB block, random) |
MB/s (512KB block, random) | MB/s (large block, sequential) |
---|---|---|---|---|---|---|
SAS / 15K | 188 - 203 | 175 - 192 | 11.2 – 12.3 | 115 – 135 | 58.9 – 68.9 | 91.5 – 126.3 |
FC / 15K | 163 - 178 | 151 - 169 | 9.7 – 10.8 | 97 – 123 | 49.7 – 63.1 | 73.5 – 127.5 |
FC / 10K | 142 - 151 | 130 – 143 | 8.3 – 9.2 | 80 – 104 | 40.9 – 53.1 | 58.1 – 107.2 |
SAS / 10K | 142 - 151 | 130 – 143 | 8.3 – 9.2 | 80 – 104 | 40.9 – 53.1 | 58.1 – 107.2 |
SATA / 7200 | 73 - 79 | 69 - 76 | 4.4 – 4.9 | 47 – 63 | 24.3 – 32.1 | 43.4 – 97.8 |
SATA / 5400 | 57 | 55 | 3.5 | 44 | 22.6 |
सॉलिड-स्टेट डिवाइस
Device | Type | IOPS | Interface | Notes |
---|---|---|---|---|
Intel X25-M G2 (MLC) | SSD | ~8,600 IOPS[11] | SATA 3 Gbit/s | Intel's data sheet[12] claims 6,600/8,600 IOPS (80 GB/160 GB version) and 35,000 IOPS for random 4 KB writes and reads, respectively. |
Intel X25-E (SLC) | SSD | ~5,000 IOPS[13] | SATA 3 Gbit/s | Intel's data sheet[14] claims 3,300 IOPS and 35,000 IOPS for writes and reads, respectively. 5,000 IOPS are measured for a mix. Intel X25-E G1 has around 3 times higher IOPS compared to the Intel X25-M G2.[15] |
G.Skill Phoenix Pro | SSD | ~20,000 IOPS[16] | SATA 3 Gbit/s | SandForce-1200 based SSD drives with enhanced firmware, states up to 50,000 IOPS, but benchmarking shows for this particular drive ~25,000 IOPS for random read and ~15,000 IOPS for random write.[16] |
OCZ Vertex 3 | SSD | Up to 60,000 IOPS[17] | SATA 6 Gbit/s | Random Write 4 kB (Aligned) |
Corsair Force Series GT | SSD | Up to 85,000 IOPS[18] | SATA 6 Gbit/s | 240 GB Drive, 555 MB/s sequential read & 525 MB/s sequential write, Random Write 4 kB Test (Aligned) |
Samsung SSD 850 PRO | SSD | 100,000 read IOPS 90,000 write IOPS[19] |
SATA 6 Gbit/s | 4 KB aligned random I/O at QD32 10,000 read IOPS, 36,000 write IOPS at QD1 550 MB/s sequential read, 520 MB/s sequential write on 256 GB and larger models 550 MB/s sequential read, 470 MB/s sequential write on 128 GB model[19] |
Memblaze PBlaze5 910/916 NVMe SSD[20] | SSD | 1000K Random Read(4KB) IOPS
303K Random Write(4KB) IOPS |
PCIe (NVMe) | The performance data is from PBlaze5 C916 (6.4TB) NVMe SSD. |
OCZ Vertex 4 | SSD | Up to 120,000 IOPS[21] | SATA 6 Gbit/s | 256 GB Drive, 560 MB/s sequential read & 510 MB/s sequential write, Random Read 4kB Test 90K IOPS, Random Write 4kB Test 85k IOPS |
(IBM) Texas Memory Systems RamSan-20 | SSD | 120,000+ Random Read/Write IOPS[22] | PCIe | Includes RAM cache |
Fusion-io ioDrive | SSD | 140,000 Read IOPS, 135,000 Write IOPS[23] | PCIe | |
Virident Systems tachIOn | SSD | 320,000 sustained READ IOPS using 4kB blocks and 200,000 sustained WRITE IOPS using 4kB blocks[24] | PCIe | |
OCZ RevoDrive 3 X2 | SSD | 200,000 Random Write 4k IOPS[25] | PCIe | |
Fusion-io ioDrive Duo | SSD | 250,000+ IOPS[26] | PCIe | |
WHIPTAIL, ACCELA | SSD | 250,000/200,000+ Write/Read IOPS[27] | Fibre Channel, iSCSI, Infiniband/SRP, NFS, SMB | Flash Based Storage Array |
DDRdrive X1 | SSD | 300,000+ (512B Random Read IOPS) and 200,000+ (512B Random Write IOPS)[28][29][30][31] | PCIe | |
SolidFire SF3010/SF6010 | SSD | 250,000 4kB Read/Write IOPS[32] | iSCSI | Flash Based Storage Array (5RU) |
Intel SSD 750 Series | SSD | 440,000 read IOPS 290,000 write IOPS[33][34] |
NVMe over PCIe 3.0 x4, U.2 and HHHL expansion card | 4 KB aligned random I/O with four workers at QD32 (effectively QD128), 1.2 TB model[34] Up to 2.4 GB/s sequential read, 1.2 GB/s sequential write[33] |
Samsung SSD 960 EVO | SSD | 380,000 read IOPS 360,000 write IOPS[35] |
NVMe over PCIe 3.0 x4, M.2 | 4 kB aligned random I/O with four workers at QD4 (effectively QD16),[36] 1 TB model 14,000 read IOPS, 50,000 write IOPS at QD1 330,000 read IOPS, 330,000 write IOPS on 500 GB model 300,000 read IOPS, 330,000 write IOPS on 250 GB model Up to 3.2 GB/s sequential read, 1.9 GB/s sequential write[35] |
Samsung SSD 960 PRO | SSD | 440,000 read IOPS 360,000 write IOPS[35] |
NVMe over PCIe 3.0 x4, M.2 | 4kB aligned random I/O with four workers at QD4 (effectively QD16),[36] 1 TB and 2 TB models 14,000 read IOPS, 50,000 write IOPS at QD1 330,000 read IOPS, 330,000 write IOPS on 512 GB model Up to 3.5 GB/s sequential read, 2.1 GB/s sequential write[35] |
(IBM) Texas Memory Systems RamSan-720 Appliance | FLASH/DRAM | 500,000 Optimal Read, 250,000 Optimal Write 4kB IOPS[37] | FC / InfiniBand | |
OCZ Single SuperScale Z-Drive R4 PCI-Express SSD | SSD | Up to 500,000 IOPS[38] | PCIe | |
WHIPTAIL, INVICTA | SSD | 650,000/550,000+ Read/Write IOPS[39] | Fibre Channel, iSCSI, Infiniband/SRP, NFS | Flash Based Storage Array |
VIOLIN systems
Violin XVS 8 |
3RU Flash Memory Array | As Low as 50μs latency | 400μs latency @ 1M IOPS | 1ms latency @ 2M IOPS Dedupe LUN - 340,000 IOPS @ 1ms | Fibre Channel, ISCSI
NVMe over FC |
|
VIOLIN systems
XIO G4 |
SSD Array | IOPs up to: 400,000 at <1ms latency | Fibre Channel, ISCSI | 2U Dual-Controller Active/Active 8Gb FC2
4 ports per controller |
Samsung SSD 980 PRO | SSD | 1,000,000 read/write IOPS[40] | NVMe over PCIe 4.0 x4, M.2 | 4 kB aligned random I/O at QD32, 1 TB model 22,000 read IOPS, 60,000 write IOPS at QD1 800,000 read IOPS, 1,000,000 write IOPS on 500 GB model 500,000 read IOPS, 600,000 write IOPS on 250 GB model Up to 7.0 GB/s sequential read, 5.0 GB/s sequential write[40] |
(IBM) Texas Memory Systems RamSan-630 Appliance | Flash/DRAM | 1,000,000+ 4kB Random Read/Write IOPS[41] | FC / InfiniBand | |
IBM FlashSystem 840 | Flash/DRAM | 1,100,000+ 4kB Random Read/600,000 4kB Write IOPS[42] | 8G FC / 16G FC / 10G FCoE / InfiniBand | Modular 2U Storage Shelf - 4TB-48TB |
Fusion-io ioDrive Octal (single PCI Express card) | SSD | 1,180,000+ Random Read/Write IOPS[43] | PCIe | |
OCZ 2x SuperScale Z-Drive R4 PCI-Express SSD | SSD | Up to 1,200,000 IOPS[38] | PCIe | |
(IBM)Texas Memory Systems RamSan-70 | Flash/DRAM | 1,200,000 Random Read/Write IOPS[44] | PCIe | Includes RAM cache |
Kaminario K2 | SSD | Up to 2,000,000 IOPS.[45] 1,200,000 IOPS in SPC-1 benchmark simulating business applications[46][47] |
FC | MLC Flash |
NetApp FAS6240 cluster | Flash/Disk | 1,261,145 SPECsfs2008 nfsv3 IOPs using 1,440 15k disks, across 60 shelves, with virtual storage tiering.[48] | NFS, SMB, FC, FCoE, iSCSI | SPECsfs2008 is the latest version of the Standard Performance Evaluation Corporation benchmark suite measuring file server throughput and response time, providing a standardized method for comparing performance across different vendor platforms. http://www.spec.org/sfs2008. |
Fusion-io ioDrive2 | SSD | Up to 9,608,000 IOPS[49] | PCIe | Only via demonstration so far. |
E8 Storage | SSD | Up to 10 million IOPS[50] | 10-100Gb Ethernet | Rack scale flash appliance |
EMC DSSD D5 | Flash | Up to 10 million IOPS[51] | PCIe Out of Box, up to 48 clients with high availability. | PCIe Rack Scale Flash Appliance. Product discontinued.[52] |
Pure Storage M50 | Flash | Up to 220,000 32k IOPS <1ms average latency Up to 7 GB/s bandwidth[53] | 16 Gbit/s Fibre Channel 10 Gbit/s Ethernet iSCSI 10 Gbit/s Replication ports 1 Gbit/s Management ports | 3U – 7U 1007 - 1447 Watts (nominal) 95 lbs (43.1 kg) fully loaded + 44 lbs per expansion shelf 5.12” x 18.94” x 29.72” chassis |
Nimble Storage AF9000 | Flash | Up to 1.4 million IOPS | 16 Gbit/s Fibre Channel 10 Gbit/s Ethernet iSCSI 10 Gbit/s 1/10 Gbit/s Management ports | 3600 Watts - Up to 2,212 TB RAW capacity - up to 8 expansion shelves - 16 1/10 GBit iSCSI Mgmt Ports - optional 48 1/10 GBit iSCSI Ports - optional 96 8/16 GBit Fibrechannel Ports - Thermal (BTU - 11,792) |
यह भी देखें
संदर्भ
- ↑ 1.0 1.1 1.2 Lowe, Scott (2010-02-12). "एक भंडारण सरणी में IOPS की गणना करें". techrepublic.com. Retrieved 2011-07-03.
- ↑ "Getting The Hang Of IOPS v1.3". 2012-08-03. Retrieved 2013-08-15.
- ↑ Smith, Kent (2009-08-11). "बेंचमार्किंग एसएसडी: डेविल प्रीकंडीशनिंग विवरण में है" (PDF). SandForce.com. Retrieved 2015-05-05.
- ↑ "SATA in the Enterprise - A 500 GB Drive Roundup | StorageReview.com - Storage Reviews". StorageReview.com. 2006-07-13. Archived from the original on 2013-05-05. Retrieved 2013-05-13.
- ↑ Xiao-yu Hu; Eleftheriou, Evangelos; Haas, Robert; Iliadis, Ilias; Pletka, Roman (2009). "फ्लैश-आधारित सॉलिड स्टेट ड्राइव में प्रवर्धन विश्लेषण लिखें". IBM. CiteSeerX 10.1.1.154.8668.
{{cite journal}}
: Cite journal requires|journal=
(help) - ↑ "SSDs - प्रवर्धन, TRIM और GC लिखें" (PDF). OCZ Technology. Archived from the original (PDF) on 2012-05-26. Retrieved 2010-05-31.
- ↑ "इंटेल सॉलिड स्टेट ड्राइव". Intel. Retrieved 2010-05-31.
- ↑ "Intel X25-E 64GB G1, 4KB Random IOPS, iometer benchmark". 2010-03-27. Retrieved 2010-04-01.
- ↑ "OCZ RevoDrive 3 x2 PCIe SSD Review – 1.5GB Read/1.25GB Write/200,000 IOPS As Little As $699". 2011-06-28. Retrieved 2011-06-30.
- ↑ "RAID प्रदर्शन कैलक्यूलेटर - WintelGuy.com". wintelguy.com. Retrieved 2019-04-01.
- ↑ Schmid, Patrick; Roos, Achim (2008-09-08). "Intel's X25-M Solid State Drive Reviewed". Retrieved 2011-08-02.
- ↑ "Intel X18-M/X25-M SATA Solid State Drive — 34 nm Product Line" (PDF). Intel. January 2010. Archived from the original (PDF) on 2010-08-12. Retrieved 2010-07-20.
- ↑ Schmid, Patrick; Roos, Achim (27 February 2009). "Intel's X25-E SSD Walks All Over The Competition: They Did It Again: X25-E For Servers Takes Off". TomsHardware.com. Retrieved 2013-05-13.
- ↑ "Archived copy" (PDF). Archived from the original (PDF) on 2009-02-06. Retrieved 2009-03-18.
{{cite web}}
: CS1 maint: archived copy as title (link) - ↑ "Intel X25-E G1 vs Intel X25-M G2 Random 4 KB IOPS, iometer". May 2010. Retrieved 2010-05-19.
- ↑ 16.0 16.1 "G.Skill Phoenix Pro 120 GB Test - SandForce SF-1200 SSD mit 50K IOPS - HD Tune Access Time IOPS (Diagramme) (5/12)". Tweakpc.de. Retrieved 2013-05-13.
- ↑ http://www.ocztechnology.com/res/manuals/OCZ_Vertex3_Product_Sheet.pdf[bare URL PDF]
- ↑ Force Series™ GT 240GB SATA 3 6Gb/s Solid-State Hard Drive. "Force Series™ GT 240GB SATA 3 6Gb/s Solid-State Hard Drive - Force Series GT - SSD". Corsair.com. Retrieved 2013-05-13.
- ↑ 19.0 19.1 "Samsung SSD 850 PRO Specifications". Samsung Electronics. Retrieved 7 June 2017.
- ↑ "PBlaze5 910/916 series NVMe SSD". memblaze.com. Retrieved 2019-03-28.
- ↑ "OCZ Vertex 4 SSD 2.5" SATA 3 6Gb/s". Ocztechnology.com. Retrieved 2013-05-13.
- ↑ "IBM System Storage - Flash: Overview". Ramsan.com. Retrieved 2013-05-13.
- ↑ "Home - Fusion-io Community Forum". Community.fusionio.com. Archived from the original on 2010-08-23. Retrieved 2013-05-13.
- ↑ "Virident's tachIOn SSD flashes by". theregister.co.uk.
- ↑ "OCZ RevoDrive 3 X2 480GB Review | StorageReview.com - Storage Reviews". StorageReview.com. 2011-06-28. Retrieved 2013-05-13.
- ↑ "Home - Fusion-io Community Forum". Community.fusionio.com. Archived from the original on 2010-06-19. Retrieved 2013-05-13.
- ↑ "Products". Whiptail. Retrieved 2013-05-13.
- ↑ http://www.ddrdrive.com/ddrdrive_press.pdf[bare URL PDF]
- ↑ "Archived copy" (PDF). Archived from the original (PDF) on 2009-05-20. Retrieved 2009-05-22.
{{cite web}}
: CS1 maint: archived copy as title (link) - ↑ "Archived copy" (PDF). Archived from the original (PDF) on 2009-05-20. Retrieved 2009-05-22.
{{cite web}}
: CS1 maint: archived copy as title (link) - ↑ Allyn Malventano (2009-05-04). "DDRdrive hits the ground running - PCI-E RAM-based SSD | PC Perspective". Pcper.com. Archived from the original on 2013-07-14. Retrieved 2013-05-13.
- ↑ "SSD Cloud Storage System - Examples & Specifications". SolidFire. Archived from the original on 2012-06-23. Retrieved 2013-05-13.
- ↑ 33.0 33.1 "Intel® SSD 750 Series (1.2TB, 2.5in PCIe 3.0, 20nm, MLC) Specifications". Intel® ARK (Product Specs). Retrieved 2015-11-17.
- ↑ 34.0 34.1 Intel (October 2015). "Intel SSD 750 Series Product Specification" (PDF). p. 8. Retrieved 9 June 2017.
Performance measured by Intel using IOMeter on Intel provided NVMe driver with Queue Depth 128 (QD=32, workers=4).
- ↑ 35.0 35.1 35.2 35.3 Samsung Electronics. "NVMe SSD 960 PRO/EVO". Retrieved 7 June 2017.
- ↑ 36.0 36.1 Ramseyer, Chris (18 October 2016). "Samsung 960 Pro SSD Review". Tom's Hardware. Retrieved 9 June 2017.
Samsung tests NVMe products with four workers at QD4
- ↑ 8. https://www.ramsan.com/files/download/798 Archived 2013-01-16 at the Wayback Machine
- ↑ 38.0 38.1 "OCZ Technology Launches Next Generation Z-Drive R4 PCI Express Solid State Storage Systems". OCZ. 2011-08-02. Retrieved 2011-08-02.
- ↑ "Products". Whiptail. Retrieved 2013-05-13.
- ↑ 40.0 40.1 Samsung Electronics. "Samsung SSD 980 PRO". Retrieved 6 December 2020.
- ↑ "IBM flash storage and solutions: Overview". Ramsan.com. Retrieved 2013-11-14.
- ↑ "IBM flash storage and solutions: Overview". ibm.com. Retrieved 2014-05-21.
- ↑ "ioDrive Octal". Fusion-io. Retrieved 2013-11-14.
- ↑ "IBM flash storage and solutions: Overview". Ramsan.com. Retrieved 2013-11-14.
- ↑ Lyle Smith. "Kaminario Boasts Over 2 Million IOPS and 20 GB/s Throughput on a Single All-Flash K2 Storage System". Archived from the original on 2016-04-22. Retrieved 2015-12-19.
- ↑ Mellor, Chris (2012-07-30). "Chris Mellor, The Register, July 30, 2012: "Million-plus IOPS: Kaminario smashes IBM in DRAM decimation"". Theregister.co.uk. Retrieved 2013-11-14.
- ↑ Storage Performance Council. "Storage Performance Council: Active SPC-1 Results". storageperformance.org. Archived from the original on 2014-09-25. Retrieved 2012-09-25.
- ↑ "SpecSFS2008". Retrieved 2014-02-07.
- ↑ "Achieves More Than Nine Million IOPS From a Single ioDrive2". Fusion-io. Retrieved 2013-11-14.
- ↑ "E8 Storage 10 million IOPS claim". TheRegister. Retrieved 2016-02-26.
- ↑ "Rack-Scale Flash Appliance - DSSD D5 EMC". EMC. Retrieved 2016-03-23.
- ↑ "Dell kills off standalone DSSD D5, scatters remains into other gear". The Register.
- ↑ "Pure Storage Datasheet" (PDF).