Citiraj:
Autor Nick7
Pa.. najzanimljivije (najtuznije?) je da je ovo namijenjeno da se vrti CEPH na tome.
Imao prilike za probati, pa probao koliko ide (nije da bas svaki dan imas server sa 20 x NVMe diskova) 
Isto tako server je imao 2x dual-port 100GBps kartice. I koliko god da djeluje to fora, napuniti taj bandwidth izmedju dva servera je poprilicna nauka. Uspio natjerati kojih 70Gbps sa iperf-om na 100Gbps interface-u, ali vise nije htjelo...
|
Rekao bih da tebe hebe TCP overhead jer je iperf alat za testiranje mreznih (TCP/IP) performansi... A TCP i IP nekako bas i nisu low-latency protokoli...  Cak i sa TCP offloadingom, unosis latencije koje su vidljive na tim brzinama...
Probaj sloziti NVMeOF ako mozes preko toga tako da sibas NVMe protokol preko te mreze nekako...
U svakom slucaju zanimljivo, iako ne znam sta ce ti takvo sto za Ceph... Vise bi smisla imalo uzeti malo vise manjih servera sa diskovima manjih kapaciteta i sloziti ih u Ceph cluster...
A i pitanje je sto mozes dobiti na Cephu ako ces ga koristiti kao block device... Ceph je primarno object storage preko kojeg se lijepi block storage ili file storage... Tako da i tu imas jos malo overheada...
Casna rijec, sad me bas zanima kako bi radio Ceph na RAMDisku... 
__________________
GMKTec K8Plus
AMD Ryzen 7 PRO 8845HS, 3.80-5.10GHz 8-core
64GB DDR5-5200 (2x32GB), quad-channel
NVMe1 - 512GB Micron 3400, PCI-E 4.0 x4
NVMe2 - 512GB Samsung PM981, PCI-E 3.0 x4
AMD Radeon 780M integrirana grafika
2x EIZO EV2336WFS3-BK
23" 1920x1080 IPS
Dell Latitude 7390
intel i7 8650U, 1.90-4.20GHz, 4-core
32GB DDR4-2666
512GB Samsung PM981a, PCI-E 3.0 x4
intel UHD 620
13.3" FullHD IPS Touchscreen
Zadnje izmijenjeno od: calypso. 24.04.2025. u 17:26.
|