当前位置: 首页 > ds >正文

AWS创建多块盘并创建RAID0以及后增加空间

创建硬盘并挂载到EC2上,后查询如下

[root@ip-127-0-0-1 ~]# lsblk
NAME          MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS
nvme0n1       259:0    0  40G  0 disk 
├─nvme0n1p1   259:1    0  40G  0 part /
├─nvme0n1p127 259:2    0   1M  0 part 
└─nvme0n1p128 259:3    0  10M  0 part /boot/efi
nvme1n1       259:4    0  15G  0 disk 
nvme2n1       259:5    0  15G  0 disk 
nvme3n1       259:6    0  15G  0 disk 
nvme4n1       259:7    0  15G  0 disk 
nvme5n1       259:8    0  15G  0 disk 
nvme6n1       259:9    0  15G  0 disk 
nvme7n1       259:10   0  15G  0 disk 
nvme8n1       259:11   0  15G  0 disk

安装 mdadm 工具

[root@ip-127-0-0-1 ~]# yum update -y
......
Dependencies resolved.
Nothing to do.
Complete!
[root@ip-172-31-26-146 ~]# yum install mdadm -y
......
Installed:mdadm-4.2-3.amzn2023.0.5.x86_64                                               Complete!

创建 RAID 0 阵列

[root@ip-127-0-0-1 ~]# mdadm --create /dev/md0 --level=0 --raid-devices=8 /dev/nvme1n1 /dev/nvme2n1 /dev/nvme3n1 /dev/nvme4n1 /dev/nvme5n1 /dev/nvme6n1 /dev/nvme7n1 /dev/nvme8n1
mdadm: Defaulting to version 1.2 metadata /dev/md0 --level=0 --raid-devices=8 /dev/nvme1n1 /dev/nvme2n1 /dev/nvme3n1 /dev/nvme4n1 /dev/nvme5n1 /dev/nvme6n1 /dev/nvme7n1 /dev/nvme8n1
[1031053.926574] md0: detected capacity change from 0 to 251510784
mdadm: array /dev/md0 started.
创建过程通常很快。你可以使用 watch cat /proc/mdstat 或 sudo mdadm --detail /dev/md0 来查看状态。
[root@ip-127-0-0-1 ~]# mdadm --detail /dev/md0
/dev/md0:Version : 1.2Creation Time : Tue Apr 29 06:19:53 2025Raid Level : raid0Array Size : 125755392 (119.93 GiB 128.77 GB)Raid Devices : 8Total Devices : 8Persistence : Superblock is persistentUpdate Time : Tue Apr 29 06:19:53 2025State : clean Active Devices : 8Working Devices : 8Failed Devices : 0Spare Devices : 0Layout : -unknown-Chunk Size : 512KConsistency Policy : noneName : 0UUID : ab7af972:85386ba3:4de7de66:c4efcf91Events : 0Number   Major   Minor   RaidDevice State0     259        4        0      active sync   /dev/sdb1     259        5        1      active sync   /dev/sdc2     259        6        2      active sync   /dev/sdd3     259        7        3      active sync   /dev/sde4     259        8        4      active sync   /dev/sdf5     259        9        5      active sync   /dev/sdg6     259       10        6      active sync   /dev/sdh7     259       11        7      active sync   /dev/sdi

在新建的 /dev/md0 设备上创建文件系统。常用的文件系统有 ext4 或 xfs (xfs 通常在大容量卷上表现更好)。

[root@ip-127-0-0-1 ~]# mkfs.xfs /dev/md0
log stripe unit (524288 bytes) is too large (maximum is 256KiB)
log stripe unit adjusted to 32KiB
meta-data=/dev/md0               isize=512    agcount=16, agsize=1964928 blks=                       sectsz=512   attr=2, projid32bit=1=                       crc=1        finobt=1, sparse=1, rmapbt=0=                       reflink=1    bigtime=1 inobtcount=1
data     =                       bsize=4096   blocks=31438848, imaxpct=25=                       sunit=128    swidth=1024 blks
naming   =version 2              bsize=4096   ascii-ci=0, ftype=1
log      =internal log           bsize=4096   blocks=16384, version=2=                       sectsz=512   sunit=8 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
查看文件属性
[root@ip-127-0-0-1 ~]# lsblk
NAME          MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINTS
nvme0n1       259:0    0    40G  0 disk  
├─nvme0n1p1   259:1    0    40G  0 part  /
├─nvme0n1p127 259:2    0     1M  0 part  
└─nvme0n1p128 259:3    0    10M  0 part  /boot/efi
nvme1n1       259:4    0    15G  0 disk  
└─md0           9:0    0 119.9G  0 raid0 
nvme2n1       259:5    0    15G  0 disk  
└─md0           9:0    0 119.9G  0 raid0 
nvme3n1       259:6    0    15G  0 disk  
└─md0           9:0    0 119.9G  0 raid0 
nvme4n1       259:7    0    15G  0 disk  
└─md0           9:0    0 119.9G  0 raid0 
nvme5n1       259:8    0    15G  0 disk  
└─md0           9:0    0 119.9G  0 raid0 
nvme6n1       259:9    0    15G  0 disk  
└─md0           9:0    0 119.9G  0 raid0 
nvme7n1       259:10   0    15G  0 disk  
└─md0           9:0    0 119.9G  0 raid0 
nvme8n1       259:11   0    15G  0 disk  
└─md0           9:0    0 119.9G  0 raid0 

配置自动挂载 (持久化)

更新 mdadm 配置
[root@ip-127-0-0-1 ~]# mdadm --detail --scan | sudo tee -a /etc/mdadm.conf
ARRAY /dev/md0 metadata=1.2 name=0 UUID=ab7af972:85386ba3:4de7de66:c4efcf91
更新 /etc/fstab
[root@ip-127-0-0-1 ~]# blkid /dev/md0
/dev/md0: UUID="33e3c305-fcc7-472f-b583-ac29e5b998b8" BLOCK_SIZE="512" TYPE="xfs"
[root@ip-172-31-26-146 ~]# tail -1 /etc/fstab 
UUID=33e3c305-fcc7-472f-b583-ac29e5b998b8  /data/raid0-storge/  xfs  defaults,nofail  0  0
挂载
[root@ip-127-0-0-1 ~]# mount -a
[1031693.035943] XFS (md0): Mounting V5 Filesystem
[1031693.132845] XFS (md0): Ending clean mount
[root@ip-127-0-0-1 ~]# df -h
Filesystem        Size  Used Avail Use% Mounted on
devtmpfs          4.0M     0  4.0M   0% /dev
tmpfs             3.9G     0  3.9G   0% /dev/shm
tmpfs             1.6G  636K  1.6G   1% /run
/dev/nvme0n1p1     40G  5.4G   35G  14% /
tmpfs             3.9G     0  3.9G   0% /tmp
/dev/nvme0n1p128   10M  1.3M  8.7M  13% /boot/efi
overlay            40G  5.4G   35G  14% /var/lib/docker/overlay2/84699b7470c48b0c4a1cb8b91b868be21f96c388de173f25df9ac741be7d0d0e/merged
tmpfs             782M     0  782M   0% /run/user/1000
/dev/md0          120G  889M  119G   1% /data/raid0-storge

将raid0进行扩容

手动存一些数据
[root@ip-127-0-0-1 data]# du -sh ./*
1.7G    ./raid0-storge
手动将所有的各个EBS在控制台上扩充10G,达到25G

在这里插入图片描述
在这里插入图片描述

确定硬盘是否分区并确定raid0八块硬盘是否都在线
[root@ip-127-0-0-1 data]# fdisk -l /dev/nvme1n1
Disk /dev/nvme1n1: 25 GiB, 26843545600 bytes, 52428800 sectors
Disk model: Amazon Elastic Block Store              
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
查看raid的详细信息
[root@ip-127-0-0-1 data]# mdadm --detail /dev/md0
/dev/md0:Version : 1.2Creation Time : Tue Apr 29 06:19:53 2025Raid Level : raid0Array Size : 125755392 (119.93 GiB 128.77 GB)Raid Devices : 8Total Devices : 8Persistence : Superblock is persistentUpdate Time : Tue Apr 29 06:19:53 2025State : clean Active Devices : 8Working Devices : 8Failed Devices : 0Spare Devices : 0Layout : -unknown-Chunk Size : 512KConsistency Policy : noneName : 0UUID : ab7af972:85386ba3:4de7de66:c4efcf91Events : 0Number   Major   Minor   RaidDevice State0     259        4        0      active sync   /dev/sdb1     259        5        1      active sync   /dev/sdc2     259        6        2      active sync   /dev/sdd3     259        7        3      active sync   /dev/sde4     259        8        4      active sync   /dev/sdf5     259        9        5      active sync   /dev/sdg6     259       10        6      active sync   /dev/sdh7     259       11        7      active sync   /dev/sdi
扩大 RAID0 逻辑卷尺寸

RAID0 是 striping,可以使用 --grow 命令扩展大小:

[root@ip-127-0-0-1 data]# df -hT
Filesystem       Type      Size  Used Avail Use% Mounted on
devtmpfs         devtmpfs  4.0M     0  4.0M   0% /dev
tmpfs            tmpfs     3.9G     0  3.9G   0% /dev/shm
tmpfs            tmpfs     1.6G  636K  1.6G   1% /run
/dev/nvme0n1p1   xfs        40G  5.4G   35G  14% /
tmpfs            tmpfs     3.9G     0  3.9G   0% /tmp
/dev/nvme0n1p128 vfat       10M  1.3M  8.7M  13% /boot/efi
overlay          overlay    40G  5.4G   35G  14% /var/lib/docker/overlay2/84699b7470c48b0c4a1cb8b91b868be21f96c388de173f25df9ac741be7d0d0e/merged
tmpfs            tmpfs     782M     0  782M   0% /run/user/1000
/dev/md0         xfs       120G  2.6G  118G   3% /data/raid0-storge
[root@ip-127-0-0-1 data]# xfs_growfs /data/raid0-storge/
meta-data=/dev/md0               isize=512    agcount=16, agsize=1964928 blks=                       sectsz=512   attr=2, projid32bit=1=                       crc=1        finobt=1, sparse=1, rmapbt=0=                       reflink=1    bigtime=1 inobtcount=1
data     =                       bsize=4096   blocks=31438848, imaxpct=25=                       sunit=128    swidth=1024 blks
naming   =version 2              bsize=4096   ascii-ci=0, ftype=1
log      =internal log           bsize=4096   blocks=16384, version=2=                       sectsz=512   sunit=8 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0

本来以为这一步会让 RAID0 把每块磁盘的新空间包含进来。
但最后是不行,最后的结果是不能动态扩充raid0,RAID0不支持在线扩容

各个阵列扩容详情
RAID 类型扩容方法备注
RAID 0不能直接扩容需重建或配合 LVM 使用
RAID 1支持换更大盘再 sync可扩容但较繁琐
RAID 5支持添加新盘也可以结合 LVM
RAID 10类似 RAID 1,可扩但复杂通常需重建或配合 LVM
http://www.xdnf.cn/news/3050.html

相关文章:

  • 【OSG学习笔记】Day 14: 操作器(Manipulator)的深度使用
  • Go语言Context机制深度解析:从原理到实践
  • 【Java核心】一文理解Java面向对象(超级详细!)
  • 测试基础笔记第十六天
  • 【沉浸式求职学习day29】【信科知识面试题第一部分】【新的模块,值得收藏】
  • Opencv中图像深度(Depth)和通道数(Channels)区别
  • 嵌入式复习第一章
  • 基于C++的IOT网关和平台1:github项目ctGateway
  • ppt箭头素材图片大全
  • Python实例题:ebay在线拍卖数据分析
  • OpenAI Embedding 和密集检索(如 BERT/DPR)进行语义相似度搜索有什么区别和联系
  • Transformer-LSTM-SVM回归
  • 扣子流程图批量导入飞书多维表格
  • 如何在Java中去除字符串中的空格?
  • 16、路由守卫:设置魔法结界——React 19 React Router
  • Uniapp:置顶
  • 跟我学C++中级篇——控制死锁
  • 【网络原理】TCP异常处理(二):连接异常
  • 本地知识库工具FASTGPT的安装与搭建
  • 深入解析 Linux 进程池:原理、实现与高并发优化
  • tbb parallel_for 使用
  • 【计算机视觉】目标检测:深度解析YOLOv9:下一代实时目标检测架构的创新与实战
  • 14.外观模式:思考与解读
  • Cesium添加WMS,WMTS,地形图图,3D Tiles数据
  • 单链表详解
  • Suna - 开源通用人工智能助手
  • 算法每日一题 | 入门-顺序结构-A+B Problem
  • 颜色分类,不靠“调色盘”:双指针 VS 计数排序的正面PK
  • 【Hive入门】Hive高级特性:视图与物化视图
  • 从 Synchron 会议观察 Lustre/Scade 同步语言的演化 (1994 - 2024)