实训项目3 Linux文件系统与磁盘管理(2)

2019-08-03 14:53

gvfs-fuse-daemon on /root/.gvfs type fuse.gvfs-fuse-daemon (rw,nosuid,nodev) /dev/sdb1 on /mnt/mountpoint1 type ext4 (rw) /dev/sdb5 on /mnt/mountpoint2 type vfat (rw) ● 利用umount命令卸载上面的两个分区。 # umount /mnt/mountpoint1 # umount /mnt/mountpoint2

子项目3.实现/dev/sdb1和/dev/sdb5的自动挂载

● 编辑系统文件/etc/fstab文件,把上面两个分区加入此文件中。 # vim /etc/fstab

● 重新启动系统,显示已经挂载到系统上的分区,检查设置是否成功。

或者 使用mount –a 重新读取/etc/fstab文件,并mount,然后使用如下命令: # mount

检查是否能够自动挂载。

子项目4.挂载光盘和U盘

● 取一张光盘放入光驱中,将光盘挂载到/mnt/cdrom目录下。查看光盘中的文件。 #mkdir /mnt/cdrom

# mount /dev/cdrom /mnt/cdrom

需要注意的是:如果使用虚拟机,一定要看清楚当前光驱是否连接(通电启动)。 ● 利用与上述相似的命令完成U盘的挂载与卸载。

先使用fdisk –l 查出该U盘设备的名称,例如为/dev/sde1(如下) #fdisk -l … …

/dev/sde1 * 1 48948 7831512 c W95 FAT32 (LBA) # mount -t vfat /dev/sde1 /mnt/flash -o utf8

实训项目3-2创建磁盘阵列mdadm

一、实训目的

● 掌握利用mdadm创建磁盘阵列的方法。

二、项目背景

某企业在Linux服务器中新增了四块硬盘/dev/sdc,/dev/sdd,/dev/sde,/dev/sdf要求建立一个RAID5磁盘阵列,3块磁盘+1块热备盘。在RAID上建立ext4文件系统,并能自动挂载!。

二、实训内容

磁盘阵列的建立,测试与管理。

四、实训步骤

以创建RAID5为例

当前存在4块10G的硬盘sdc,sdd,sde,sdf

先用三块(sdc,sdd,sde)来做RAID-5,这是做RAID-5最少的磁盘数量,为了安全,通常都需要加上一块热备磁盘(sdf),以用来替换出故障的磁盘。 注意:用分区来做RAID也可以,不过这样不太科学。

子项目1.创建磁盘阵列

# mdadm –C /dev/md5 -l5 -n3 -x1 /dev/sd[cdef]

mdadm: partition table exists on /dev/sdc but will be lost or meaningless after creating array

mdadm: partition table exists on /dev/sdd but will be lost or meaningless after creating array

Continue creating array? y #输入y mdadm: Defaulting to version 1.2 metadata mdadm: array /dev/md5 started. 命令参数的解释:

-C 创建一个新的Array -v --verbose,显示详情 -l 指明RAID级别 -n 磁盘数量 -x 热备磁盘数量

以上命令创建了raid5 级别的3块盘1块热备磁盘的md5。

RAID设备文件创建成功后,会在/dev下创建md目录和和md5设备文件,并且在/dev/md/目录下创建了md-device-map文件。 # ll /dev/md*

brw-rw----. 1 root disk 9, 5 Mar 10 22:35 /dev/md5

/dev/md: total 4

-rw-------. 1 root root 53 Mar 10 22:35 md-device-map

查看一下RAID设备的情况 # mdadm -D /dev/md5 /dev/md5:

Version : 1.2

Creation Time : Sat Mar 10 22:35:20 2012 Raid Level : raid5

Array Size : 20968448 (20.00 GiB 21.47 GB) Used Dev Size : 10484224 (10.00 GiB 10.74 GB) Raid Devices : 3 Total Devices : 4

Persistence : Superblock is persistent

Update Time : Sat Mar 10 22:38:52 2012 State : clean Active Devices : 3 Working Devices : 4 Failed Devices : 0 Spare Devices : 1

Layout : left-symmetric Chunk Size : 512K

Name : hlinux6:5 (local to host hlinux6)

UUID : fb857e32:42ec303c:b164187b:ef04a069 Events : 18

Number Major Minor RaidDevice State

0 8 32 0 active sync /dev/sdc 1 8 48 1 active sync /dev/sdd 4 8 64 2 active sync /dev/sde

3 8 80 - spare /dev/sdf

子项目2.对RAID设备创建文件系统、分区、挂载

创建好的RAID设备可以当做普通磁盘一样进行分区,使用命令fdisk /dev/md5就可以了,这里不在阐述。

RAID设备创建好后,要对它进行“格式化”(准确的说法是创建文件系统,linux下没有格式化这个说法)

# mkfs.ext4 /dev/md5

mke2fs 1.41.12 (17-May-2010) Filesystem label= OS type: Linux

Block size=4096 (log=2) Fragment size=4096 (log=2)

Stride=128 blocks, Stripe width=256 blocks 1310720 inodes, 5242112 blocks

262105 blocks (5.00%) reserved for the super user First data block=0

Maximum filesystem blocks=0 160 block groups

32768 blocks per group, 32768 fragments per group 8192 inodes per group

Superblock backups stored on blocks: 32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 4096000

Writing inode tables: done Creating journal (32768 blocks): done

Writing superblocks and filesystem accounting information: done

This filesystem will be automatically checked every 29 mounts or 180 days, whichever comes first. Use tune2fs -c or -i to override.

挂载并使用

# mkdir /mnt/md

# mount /dev/md5 /mnt/md

[root@hlinux6 Desktop]# mount | grep md5 /dev/md5 on /mnt/md type ext4 (rw) # touch /mnt/md/file{1,2,3} # ls /mnt/md

file1 file2 file3 lost+found

为了下次开机还能正常使用我们的RAID设备,我们还需要做以下事情:

(1)首先查看一下 mdadm.conf文件的内容 # cat /etc/mdadm.conf

# mdadm.conf written out by anaconda MAILADDR root

AUTO +imsm +1.x -all

/etc/mdadm.conf文件中里面已经有了一些内容,但没有新生成的这个RAID的相关信息,所以我们要把RAID的相关信息写入此文件中,否则在下次开机RAID设备就不起作用了。

(2)将新生成的RAID设备信息写入mdadm.conf文件中

[root@hlinux6 Desktop]# mdadm -Ds >> /etc/mdadm.conf [root@hlinux6 Desktop]# cat /etc/mdadm.conf # mdadm.conf written out by anaconda MAILADDR root

AUTO +imsm +1.x -all ARRAY /dev/md5 metadata=1.2 spares=1 name=hlinux6:5 UUID=fb857e32:42ec303c:b164187b:ef04a069

注意,如果系统中有多个RAID的话,此命令会把系统中所有的RAID信息全部收集并写入此文件。所以,当用>>来追加内容的时候,你可能需要根据情况来修改。

(3)最后,我们还要把挂载的信息写入fstab # vim /etc/fstab 加入下面的内容

/dev/md5 /mnt/md ext4 defaults 0 0 # mount -a

使用命令查看是否成功: #df

# cat /proc/mdstat #mdadm -D /dev/md5

上面三个命令都可以观察生成的这个md5

在/mnt/md目录下cat 个文件出来,然后重启! # cat > /mnt/md/file4 hello! ^C

最后需要重新启动系统测试看是否成功!看看这个文件是否还在,内容没有变化!

子项目3.对RAID设备进行测试

下面来看看,出错后将会怎样?

# mdadm –f /dev/md5 /dev/sdc 将/dev/sdc标记为已损坏的设备

mdadm: set /dev/sdc faulty in /dev/md5 马上查看磁盘阵列

# mdadm –D /dev/md5

/dev/md5:

Version : 1.2

Creation Time : Sun Mar 11 09:20:29 2012 Raid Level : raid5

Array Size : 20968448 (20.00 GiB 21.47 GB) Used Dev Size : 10484224 (10.00 GiB 10.74 GB) Raid Devices : 3 Total Devices : 4


实训项目3 Linux文件系统与磁盘管理(2).doc 将本文的Word文档下载到电脑 下载失败或者文档不完整,请联系客服人员解决!

下一篇:蚌埠市中小学教师初级职称认定考核实施办法(试行)

相关阅读
本类排行
× 注册会员免费下载(下载后可以自由复制和排版)

马上注册会员

注:下载文档有可能“只有目录或者内容不全”等情况,请下载之前注意辨别,如果您已付费且无法下载或内容有问题,请联系我们协助你处理。
微信: QQ: