fc2ブログ

[CentOS]LVMコマンド

fdisk /dev/sdb
 ※ 4つパーティション作成

pvcreate /dev/sdb1
pvcreate /dev/sdb2
pvcreate /dev/sdb3
pvcreate /dev/sdb4

vgcreate vgdata /dev/sdb1 /dev/sdb2 /dev/sdb3 /dev/sdb4
lvcreate -l 90%VG -n lv0 vgdata

mkfs -t xfs /dev/vgdata/lv0
mkdir -p /mnt/lv_data
mount /dev/vgdata/lv0 /mnt/lv_data/

https://qiita.com/TsutomuNakamura/items/a68377952d07397db448

lvcreate -s -l 100%FREE -n snap /dev/vgdata/lv0

mount -o ro /dev/lvm-test/snap /mnt/snap
ここでエラー発生。確認中。
スポンサーサイト



[CentOS]ddコマンドでHDDクローン

専用のデュプリケータを使うのも良いが、Linuxマシンで手軽にクローン作りたい。
という事でddコマンドでやってみる。

dd if=/dev/sda of=/dev/sdb status=progress



このコマンドでOS入りのsdaから、クローン先のsdbに丸ごとコピーされる。
今回は同じ4TBのHDD同士で、かつトータルセクタ数も一致してたので、bsとかcountオプションは付けない。
進捗が見たいので、status=progressオプションもつけた。

Celeron J3455だから遅いのは仕方ないが、転送レートは36MB/s程度。
となると、大体31時間弱くらいかかるのか。。。長いな。

[CentOS]hdparamで容量クリッピングが元に戻る原因

基本は容量クリップなんでやる必要ないが、今回は、RAIDのリビルド時間を短縮するために、
あえて4GBとかの容量にしたいという目的。

hdparam -N /dev/sdc  ・・・ setmax(最大セクタ)値の確認
hdparam -N 8000000 /dev/sdc ・・・ setmaxを8000000にセット。セクタは8の倍数にした方がalignが取れて良い。
hdparam -N p8000000 /dev/sdc ・・・ 上記のpermanent(永久)設定


この方法でHDD容量クリッピングしても再起動すると元に戻ってしまっていた。
原因が分からず困ってたが、どうやら、fdiskでパーティションを作っていたのが問題らしい。
パーティションを全て削除してからやり直したら、元に戻らなくなった。

[CentOS]NVMe over fabricサーバ構築

SPDKコマンド手順

https://github.com/spdk/spdk/issues/899
    +-------------+-------------------+------------------------------------------------------------------------+
| bdev class |function | steps for example |
+-------------+-------------------+------------------------------------------------------------------------+
| malloc bdev |setup malloc |./scripts/rpc.py construct_malloc_bdev 64 4096 (>=512) |
| |bdev with rdma |./scripts/rpc.py nvmf_subsystem_create -s SPDK00000000000001 |
| | | -a -m 20 nqn.2016-06.io.spdk:cnode1 |
| | |./scripts/rpc.py nvmf_create_transport -t rdma |
| |-------------------+------------------------------------------------------------------------+
| |create nvmf |./scripts/rpc.py construct_malloc_bdev 64 4096 |
| |subsystem on malloc|./scripts/rpc.py nvmf_subsystem_create nqn.2016-06.io.spdk:cnode1 |
| | | -a -s SPDK00000000000001 |
| | |./scripts/rpc.py nvmf_subsystem_add_ns nqn.2016-06.io.spdk:cnode1 |
| | | Malloc0 |
+-------------+-------------------+------------------------------------------------------------------------+
| nvme bdev |setup nvme bdev |./scripts/rpc.py nvmf_create_transport -t RDMA -u 8192 -p 4 |
| |with pcie |./scripts/rpc.py construct_nvme_bdev -b Nvme0 -t pcie |
| | | ( -f ipv4 optional ) -a 0000:5e:00.0 |
| | |./scripts/rpc.py nvmf_subsystem_create nqn.2016-06.io.spdk:cnode1 |
| | | -a -s SPDK00000000000001 |
| | |./scripts/rpc.py nvmf_subsystem_add_ns nqn.2016-06.io.spdk:cnode1 |
| | | Nvme0n1 |
| | |./scripts/rpc.py nvmf_subsystem_add_listener nqn.2016-06.io.spdk:cnode1 |
| | | -t rdma -a 192.168.89.11 -s 4420 |
| |-------------------+------------------------------------------------------------------------+
| |setup nvme bdev |./scripts/rpc.py nvmf_create_transport -t RDMA -u 8192 -p 4 |
| |with rdma |./scripts/rpc.py construct_nvme_bdev -t rdma -f ipv4 -a 192.168.89.11 |
| | | -n nqn.2016-06.io.spdk:cnode1 -b Nvme0 -s 4420 |
| | | ./scripts/rpc.py nvmf_subsystem_create nqn.2016-06.io.spdk:cnode1 |
| | | -a -s SPDK00000000000001 |
| | |./scripts/rpc.py nvmf_subsystem_add_ns nqn.2016-06.io.spdk:cnode1 |
| | | Nvme0n1 |
| | |./scripts/rpc.py nvmf_subsystem_add_listener nqn.2016-06.io.spdk:cnode1 |
| | | -t rdma -a 192.168.89.11 -s 4420 |
| |-------------------+------------------------------------------------------------------------+
| |del nvme controller|./scripts/rpc.py delete_nvme_controller Nvme0 |
+-------------+-------------------+------------------------------------------------------------------------+

[CentOS]25GbEのせいで1GbEポートが接続出来ない?

XH110G(CentOS8)に25GbEカードを接続したら、LANポートがつながらなくなった。

どうにも原因が分からなかったが、
ifdown enp1s0
とやって、25GbEポートを一度Disableにしたらオンボード1GbEもping通るようになった。
原因不明。

その後
ifup enp1s0
でEnableにしても、オンボード1GbEは接続出来たまま。


安心したものの、再起動してみたらまた戻って、接続できない。
また同じように25GbEを一度Disableしてみたら、1GbEで接続できた。

なので次は、25GbEをダウンさせて、起動時の自動接続もOFFにしてから再起動。
これで起動時に1GbEが接続出来るようになった。

ちなみに、自作したh170の方で試したら、25GbE起動したままでも、オンボード1GbEは接続出来た。
XH110Gの電源が弱い、とか?

原因分からないが、現状はこれで対処しよう。


後日A320に25GbEカードつなげてみても同じ症状で1GbEが接続出来ない。
自分自身へのpingは成功するが、他PCへのpingはダメ。
なので25GbEをdownしてみると、ping成功するようになり、さらにそこから25GbEをupさせても1GbEのpingは成功したまま。


(2021.2.20追記)
いろいろ試してたら、どうやら、1GbEと25GbEは別セグメントにするのが良いらしい。
別セグメントにしたら、25GbE同士でpingも出来たし、NVMe-over fabricも成功した。
カレンダー
09 | 2022/10 | 11
- - - - - - 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 - - - - -
累積訪問者
現在の訪問者
現在の閲覧者数:
最新記事
最新トラックバック
最新コメント
月別アーカイブ
カテゴリ
プロフィール

bobgosso

Author:bobgosso
FPGAのブログへようこそ!

検索フォーム
RSSリンクの表示
リンク
ブロとも申請フォーム

この人とブロともになる

QRコード
QRコード