gvfs-fuse-daemon on /root/.gvfs type fuse.gvfs-fuse-daemon (rw,nosuid,nodev) /dev/sdb1 on /mnt/mountpoint1 type ext4 (rw) /dev/sdb5 on /mnt/mountpoint2 type vfat (rw) ● 利用umount命令卸载上面的两个分区。 # umount /mnt/mountpoint1 # umount /mnt/mountpoint2
子项目3.实现/dev/sdb1和/dev/sdb5的自动挂载
● 编辑系统文件/etc/fstab文件,把上面两个分区加入此文件中。 # vim /etc/fstab
● 重新启动系统,显示已经挂载到系统上的分区,检查设置是否成功。
或者 使用mount –a 重新读取/etc/fstab文件,并mount,然后使用如下命令: # mount
检查是否能够自动挂载。
子项目4.挂载光盘和U盘
● 取一张光盘放入光驱中,将光盘挂载到/mnt/cdrom目录下。查看光盘中的文件。 #mkdir /mnt/cdrom
# mount /dev/cdrom /mnt/cdrom
需要注意的是:如果使用虚拟机,一定要看清楚当前光驱是否连接(通电启动)。 ● 利用与上述相似的命令完成U盘的挂载与卸载。
先使用fdisk –l 查出该U盘设备的名称,例如为/dev/sde1(如下) #fdisk -l … …
/dev/sde1 * 1 48948 7831512 c W95 FAT32 (LBA) # mount -t vfat /dev/sde1 /mnt/flash -o utf8
实训项目3-2创建磁盘阵列mdadm
一、实训目的
● 掌握利用mdadm创建磁盘阵列的方法。
二、项目背景
某企业在Linux服务器中新增了四块硬盘/dev/sdc,/dev/sdd,/dev/sde,/dev/sdf要求建立一个RAID5磁盘阵列,3块磁盘+1块热备盘。在RAID上建立ext4文件系统,并能自动挂载!。
二、实训内容
磁盘阵列的建立,测试与管理。
四、实训步骤
以创建RAID5为例
当前存在4块10G的硬盘sdc,sdd,sde,sdf
先用三块(sdc,sdd,sde)来做RAID-5,这是做RAID-5最少的磁盘数量,为了安全,通常都需要加上一块热备磁盘(sdf),以用来替换出故障的磁盘。 注意:用分区来做RAID也可以,不过这样不太科学。
子项目1.创建磁盘阵列
# mdadm –C /dev/md5 -l5 -n3 -x1 /dev/sd[cdef]
mdadm: partition table exists on /dev/sdc but will be lost or meaningless after creating array
mdadm: partition table exists on /dev/sdd but will be lost or meaningless after creating array
Continue creating array? y #输入y mdadm: Defaulting to version 1.2 metadata mdadm: array /dev/md5 started. 命令参数的解释:
-C 创建一个新的Array -v --verbose,显示详情 -l 指明RAID级别 -n 磁盘数量 -x 热备磁盘数量
以上命令创建了raid5 级别的3块盘1块热备磁盘的md5。
RAID设备文件创建成功后,会在/dev下创建md目录和和md5设备文件,并且在/dev/md/目录下创建了md-device-map文件。 # ll /dev/md*
brw-rw----. 1 root disk 9, 5 Mar 10 22:35 /dev/md5
/dev/md: total 4
-rw-------. 1 root root 53 Mar 10 22:35 md-device-map
查看一下RAID设备的情况 # mdadm -D /dev/md5 /dev/md5:
Version : 1.2
Creation Time : Sat Mar 10 22:35:20 2012 Raid Level : raid5
Array Size : 20968448 (20.00 GiB 21.47 GB) Used Dev Size : 10484224 (10.00 GiB 10.74 GB) Raid Devices : 3 Total Devices : 4
Persistence : Superblock is persistent
Update Time : Sat Mar 10 22:38:52 2012 State : clean Active Devices : 3 Working Devices : 4 Failed Devices : 0 Spare Devices : 1
Layout : left-symmetric Chunk Size : 512K
Name : hlinux6:5 (local to host hlinux6)
UUID : fb857e32:42ec303c:b164187b:ef04a069 Events : 18
Number Major Minor RaidDevice State
0 8 32 0 active sync /dev/sdc 1 8 48 1 active sync /dev/sdd 4 8 64 2 active sync /dev/sde
3 8 80 - spare /dev/sdf
子项目2.对RAID设备创建文件系统、分区、挂载
创建好的RAID设备可以当做普通磁盘一样进行分区,使用命令fdisk /dev/md5就可以了,这里不在阐述。
RAID设备创建好后,要对它进行“格式化”(准确的说法是创建文件系统,linux下没有格式化这个说法)
# mkfs.ext4 /dev/md5
mke2fs 1.41.12 (17-May-2010) Filesystem label= OS type: Linux
Block size=4096 (log=2) Fragment size=4096 (log=2)
Stride=128 blocks, Stripe width=256 blocks 1310720 inodes, 5242112 blocks
262105 blocks (5.00%) reserved for the super user First data block=0
Maximum filesystem blocks=0 160 block groups
32768 blocks per group, 32768 fragments per group 8192 inodes per group
Superblock backups stored on blocks: 32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 4096000
Writing inode tables: done Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done
This filesystem will be automatically checked every 29 mounts or 180 days, whichever comes first. Use tune2fs -c or -i to override.
挂载并使用
# mkdir /mnt/md
# mount /dev/md5 /mnt/md
[root@hlinux6 Desktop]# mount | grep md5 /dev/md5 on /mnt/md type ext4 (rw) # touch /mnt/md/file{1,2,3} # ls /mnt/md
file1 file2 file3 lost+found
为了下次开机还能正常使用我们的RAID设备,我们还需要做以下事情:
(1)首先查看一下 mdadm.conf文件的内容 # cat /etc/mdadm.conf
# mdadm.conf written out by anaconda MAILADDR root
AUTO +imsm +1.x -all
/etc/mdadm.conf文件中里面已经有了一些内容,但没有新生成的这个RAID的相关信息,所以我们要把RAID的相关信息写入此文件中,否则在下次开机RAID设备就不起作用了。
(2)将新生成的RAID设备信息写入mdadm.conf文件中
[root@hlinux6 Desktop]# mdadm -Ds >> /etc/mdadm.conf [root@hlinux6 Desktop]# cat /etc/mdadm.conf # mdadm.conf written out by anaconda MAILADDR root
AUTO +imsm +1.x -all ARRAY /dev/md5 metadata=1.2 spares=1 name=hlinux6:5 UUID=fb857e32:42ec303c:b164187b:ef04a069
注意,如果系统中有多个RAID的话,此命令会把系统中所有的RAID信息全部收集并写入此文件。所以,当用>>来追加内容的时候,你可能需要根据情况来修改。
(3)最后,我们还要把挂载的信息写入fstab # vim /etc/fstab 加入下面的内容
/dev/md5 /mnt/md ext4 defaults 0 0 # mount -a
使用命令查看是否成功: #df
# cat /proc/mdstat #mdadm -D /dev/md5
上面三个命令都可以观察生成的这个md5
在/mnt/md目录下cat 个文件出来,然后重启! # cat > /mnt/md/file4 hello! ^C
最后需要重新启动系统测试看是否成功!看看这个文件是否还在,内容没有变化!
子项目3.对RAID设备进行测试
下面来看看,出错后将会怎样?
# mdadm –f /dev/md5 /dev/sdc 将/dev/sdc标记为已损坏的设备
mdadm: set /dev/sdc faulty in /dev/md5 马上查看磁盘阵列
# mdadm –D /dev/md5
/dev/md5:
Version : 1.2
Creation Time : Sun Mar 11 09:20:29 2012 Raid Level : raid5
Array Size : 20968448 (20.00 GiB 21.47 GB) Used Dev Size : 10484224 (10.00 GiB 10.74 GB) Raid Devices : 3 Total Devices : 4