admin 管理员组文章数量: 887021
2024年3月9日发(作者:java常用类有必要学吗)
一、系统相关:
sysconfig -v 查看硬件信息,主要显示了硬件平台、版本、序列号、适配器(网卡、光纤卡等)、硬盘等硬件信息
sysconfig -r 显示磁盘、raid、volume信息,等同于vol status -r
-每个RAID会显示RAID的类型、RAID中每个磁盘是属于数据盘(data)、校验盘(parity或dparity);
-volume的划分信息;
-磁盘基本信息,不属于RAID中的spare是本控制器的,partner是对端控制器的;
-磁盘详细信息,HA=host adapter,比如4a表示slot4槽上卡的a口;shelf表示磁盘柜编号(如1表示1号盘柜);BAY表示在盘柜的第几块;
-当有盘损坏的时候,可以用sysconfig -r命令来看具体是那块盘损坏了;
二、配置RAID组:
2.1 查看aggr信息
aggr show_space -h aggr0 查看aggr空间的使用情况(-h是以MB为单位,-g是以GB为单位,如果不指定aggr,则列出所有aggr的space使用情况)
vol status -r 可以看到每个aggr包含几个raid组(rg),每个raid组有几块磁盘等信息,并列出所有spare磁盘
aggr status aggr0 -r 列出指定的aggr0的信息
-aggr status [
nas3020a*> aggr status
Aggr State Status Options
aggr0 online raid_dp, aggr root
nas3020a*> aggr status -v aggr2 查看aggr2的一些options的值,如raidsize默认是16(16块盘一个RAID,超过16块盘会创建一个新的raid组)
Aggr State Status Options
aggr2 online raid_dp, aggr nosnap=off, raidtype=raid_dp,
raidsize=16,
ignore_inconsistent=off,
snapmirrored=off,
resyncsnaptime=60,
fs_size_fixed=off,
snapshot_autodelete=on,
lost_write_protect=on
Volumes:
Plex /aggr2/plex0: online, normal, active
RAID group /aggr2/plex0/rg0: normal
nas3020a*> aggr help options 查看aggr相关的options的帮助信息(options的功能介绍和使用方法)
aggr options
The following commands are available; for more information
type "aggr help options
fs_size_fixed raidsize resyncsnaptime snapmirrored
lost_write_protect raidtype root snapshot_autodelete
nosnap
nas3020a*> aggr help options raidtype 查看aggr的raidtype的说明和使用方法
aggr options
- change aggregate or traditional volume
RAID type to
2.2 创建aggr
aggr create aggr1 -d 0a.20 0a.21 0a.22 0a.23 0a.24 指定哪些盘组成aggr1
aggr create aggr2 8 指定由8块盘组成aggr2
nas3020a*> aggr status aggr2 -r 查看aggr2的信息,可知系统自动从oa和ob各选择4块盘组成aggr2(负载分担)
Aggregate aggr2 (online, raid_dp) (block checksums)
Plex /aggr2/plex0 (online, normal, active)
RAID group /aggr2/plex0/rg0 (normal)
RAID Disk Device HA SHELF BAY CHAN Pool Type RPM Used (MB/blks)
Phys (MB/blks)
--------- ------ ------------- ---- ---- ---- ----- -------------- --------------
dparity 0b.25 0b 1 9 FC:A - FCAL 10000 136000/278528000
137104/280790184
parity 0a.35 0a 2 3 FC:A - FCAL 10000 136000/278528000
137104/280790184
data 0b.32 0b 2 0 FC:A - FCAL 10000 136000/278528000
137104/280790184
data 0a.25 0a 1 9 FC:A - FCAL 10000 136000/278528000
137104/280790184
data 0b.26 0b 1 10 FC:A - FCAL 10000 136000/278528000
137104/280790184
data 0a.36 0a 2 4 FC:A - FCAL 10000 136000/278528000
137104/280790184
data 0b.35 0b 2 3 FC:A - FCAL 10000 136000/278528000
137104/280790184
data 0a.26 0a 1 10 FC:A - FCAL 10000 136000/278528000
137104/280790184
nas3020a*> aggr status aggr1 -r 查看aggr1的信息,由自定义的5块盘组成
Aggregate aggr1 (online, raid_dp) (block checksums)
Plex /aggr1/plex0 (online, normal, active)
RAID group /aggr1/plex0/rg0 (normal)
RAID Disk Device HA SHELF BAY CHAN Pool Type RPM Used (MB/blks)
Phys (MB/blks)
--------- ------ ------------- ---- ---- ---- ----- -------------- --------------
dparity 0a.20 0a 1 4 FC:A - FCAL 10000 136000/278528000
137104/280790184
parity 0a.21 0a 1 5 FC:A - FCAL 10000 136000/278528000
137104/280790184
data 0a.22 0a 1 6 FC:A - FCAL 10000 136000/278528000
137104/280790184
data 0a.23 0a 1 7 FC:A - FCAL 10000 136000/278528000
137104/280790184
data 0a.24 0a 1 8 FC:A - FCAL 10000 136000/278528000
137104/280790184
2.3 扩展aggr
aggr add命令的用法:
nas3020a> aggr help add
aggr add
- add disks listed in
or
-d
[-d
参数说明:
-n 预演命令的执行,如:
nas3020a> aggr add aggr2 -n 3
aggr add aggr2 -d 0b.21 0a.27 0b.45
-g 可以将盘加入指定的RG中(raid-group),或加入到一个新建的RG中(new),而使用all选项,则会先向存在的RG里面添加磁盘,直到它们满了,然后再新创建RG
如果没有使用-g选项,则磁盘首先被加入到最近创建的RG里面,直到它满了才会创建新的RG(同"-g all")
-d 指定具体的磁盘,如:
aggr add aggr2 -d 0b.20 0a.24 0b.42
...
Addition of 3 disks to the aggregate has completed.
实例演示:
nas3020a*> aggr add aggr1 3 往aggr1中增加3块盘
nas3020a*> aggr status aggr1 -r 再次查看后,发现在aggr1中原来的raid组中增加了3块数据盘(而不是增加一个raid组)
Aggregate aggr1 (online, raid_dp) (block checksums)
Plex /aggr1/plex0 (online, normal, active)
RAID group /aggr1/plex0/rg0 (normal)
RAID Disk Device HA SHELF BAY CHAN Pool Type RPM Used (MB/blks)
Phys (MB/blks)
--------- ------ ------------- ---- ---- ---- ----- -------------- --------------
dparity 0a.20 0a 1 4 FC:A - FCAL 10000 136000/278528000
137104/280790184
parity 0a.21 0a 1 5 FC:A - FCAL 10000 136000/278528000
137104/280790184
data 0a.22 0a 1 6 FC:A - FCAL 10000 136000/278528000
137104/280790184
data 0a.23 0a 1 7 FC:A - FCAL 10000 136000/278528000
137104/280790184
data 0a.24 0a 1 8 FC:A - FCAL 10000 136000/278528000
137104/280790184
data 0b.36 0b 2 4 FC:A - FCAL 10000 136000/278528000
137422/281442144
data 0a.37 0a 2 5 FC:A - FCAL 10000 136000/278528000
137104/280790184
data 0b.27 0b 1 11 FC:A - FCAL 10000 136000/278528000
137104/280790184
nas3020a*> aggr options aggr1 raidsize 4 设置随后加入aggr1中的盘,由4块盘组成一个raid组,但是不影响前面已创建好的raid组
nas3020a*> aggr add aggr1 4 然后再往aggr1中增加4块盘
nas3020a*> aggr status aggr1 -r 再次查看aggr1的信息,发现aggr1中增加了一个4块盘组成的raid组
Aggregate aggr1 (online, raid_dp) (block checksums)
Plex /aggr1/plex0 (online, normal, active)
RAID group /aggr1/plex0/rg0 (normal)
RAID Disk Device HA SHELF BAY CHAN Pool Type RPM Used (MB/blks)
Phys (MB/blks)
--------- ------ ------------- ---- ---- ---- ----- -------------- --------------
dparity 0a.20 0a 1 4 FC:A - FCAL 10000 136000/278528000
137104/280790184
parity 0a.21 0a 1 5 FC:A - FCAL 10000 136000/278528000
137104/280790184
data 0a.22 0a 1 6 FC:A - FCAL 10000 136000/278528000
137104/280790184
data 0a.23 0a 1 7 FC:A - FCAL 10000 136000/278528000
137104/280790184
data 0a.24 0a 1 8 FC:A - FCAL 10000 136000/278528000
137104/280790184
data 0b.36 0b 2 4 FC:A - FCAL 10000 136000/278528000
137422/281442144
data 0a.37 0a 2 5 FC:A - FCAL 10000 136000/278528000
137104/280790184
data 0b.27 0b 1 11 FC:A - FCAL 10000 136000/278528000
137104/280790184
RAID group /aggr1/plex0/rg1 (normal)
RAID Disk Device HA SHELF BAY CHAN Pool Type RPM Used (MB/blks)
Phys (MB/blks)
--------- ------ ------------- ---- ---- ---- ----- -------------- --------------
dparity 0b.37 0b 2 5 FC:A - FCAL 10000 136000/278528000
139072/284820800
parity 0a.38 0a 2 6 FC:A - FCAL 10000 136000/278528000
137104/280790184
data 0b.28 0b 1 12 FC:A - FCAL 10000 136000/278528000
137104/280790184
data 0a.27 0a 1 11 FC:A - FCAL 10000 136000/278528000
137104/280790184
nas3020a*> aggr add aggr1 5 如果指定加入aggr1中的盘数是5,则会提示不是所有的盘都会用到,因为之前已经定义了raidsize=4
Not all disks used
Note: preparing to add 2 data disks and 2 parity disks.
Continue? ([y]es, [n]o, or [p]review RAID layout) y
....
nas3020a*> aggr status aggr1 -r 然后可以看到虽然指定加入aggr1的盘是5块,但是实际只增加了一个4块盘的raid组
Aggregate aggr1 (online, raid_dp) (block checksums)
Plex /aggr1/plex0 (online, normal, active)
RAID group /aggr1/plex0/rg0 (normal)
......
RAID group /aggr1/plex0/rg1 (normal)
......
RAID group /aggr1/plex0/rg2 (normal)
RAID Disk Device HA SHELF BAY CHAN Pool Type RPM Used (MB/blks)
Phys (MB/blks)
--------- ------ ------------- ---- ---- ---- ----- -------------- --------------
dparity 0a.39 0a 2 7 FC:A - FCAL 10000 136000/278528000
137104/280790184
parity 0b.40 0b 2 8 FC:A - FCAL 10000 136000/278528000
137104/280790184
data 0a.28 0a 1 12 FC:A - FCAL 10000 136000/278528000
137104/280790184
data 0b.29 0b 1 13 FC:A - FCAL 10000 136000/278528000
137422/281442144
nas3020a*> aggr add aggr1 3 如果指定加入aggr1中的盘是3块,则虽然指定的raidsize是4,也只会加入3块盘组成的raid组
Note: preparing to add 1 data disk and 2 parity disks.
Continue? ([y]es, [n]o, or [p]review RAID layout) y
......
nas3020a*> aggr status aggr1 -r 新加入的是一个3块盘组成的raid组
......
RAID group /aggr1/plex0/rg3 (normal)
RAID Disk Device HA SHELF BAY CHAN Pool Type RPM Used (MB/blks)
Phys (MB/blks)
--------- ------ ------------- ---- ---- ---- ----- -------------- --------------
dparity 0a.40 0a 2 8 FC:A - FCAL 10000 136000/278528000
137104/280790184
parity 0b.42 0b 2 10 FC:A - FCAL 10000 136000/278528000
137104/280790184
data 0a.29 0a 1 13 FC:A - FCAL 10000 136000/278528000
137104/280790184
补充:aggr创建后,其默认raidsize=16(aggr status aggr_name -v命令可以查看),假设创建了原始aggrN中包含了14块磁盘,使用aggr add aggrN 8命令往aggrN中增加8块磁盘,则结果会先往aggrN中原来的rg里增加2块数据盘,然后再用剩下的6块盘创建一个新的rg(4块数据,2块校验),而系统则会提示“增加6块数据盘和2块校验盘”(如果是RAID
DP)。-g选项可以改变这个规则。
2.4 拷贝aggr
aggr copy命令用法:
nas3020a> aggr help copy
aggr copy start [-p {inet|inet6}] [-S | -s
- execute aggregate copying from
aggr copy {abort | status | throttle} [all |
- control aggregate copying for all operations, or
The following commands are available; for more information
type "aggr help copy
abort start status throttle
2.5 删除aggr(先offline,在destroy)
nas3020a*> aggr offline aggr1
Aggregate 'aggr1' is now offline.
nas3020a*> aggr status
Aggr State Status Options
aggr2 online raid_dp, aggr
aggr1 offline raid_dp, aggr raidsize=4,
lost_write_protect=off
aggr0 online raid_dp, aggr root
nas3020a*> aggr destroy aggr1
Are you sure you want to destroy this aggregate? y
Wed Jan 5 08:23:05 GMT [nas3020a: yed:info]: Aggregate 'aggr1'
destroyed.
Aggregate 'aggr1' destroyed.
删除aggr1后,原aggr1中的磁盘的状态会是“not zeroed”(执行sysconfig -r可看到该信息),再次使用这些磁盘的时候会自动进行zeroing,如下:
nas3020a*> aggr create aggr1 5 初始创建的aggr1的5块盘和之前的盘不同,所以不需要zeroing
nas3020a*> aggr add aggr1 8
nas3020a*> aggr status
Aggr State Status Options
aggr1 online raid_dp, aggr
growing #growing,而不是立即扩展成功的
aggr2 online raid_dp, aggr
aggr0 online raid_dp, aggr root
nas3020a*> aggr status aggr1 -r #查看aggr1详细信息可发现,新加入的磁盘在做zeroing的动作。
Aggregate aggr1 (online, raid_dp, growing) (block checksums)
Plex /aggr1/plex0 (online, normal, active)
RAID group /aggr1/plex0/rg0 (normal)
RAID Disk Device HA SHELF BAY CHAN Pool Type RPM Used (MB/blks)
Phys (MB/blks)
--------- ------ ------------- ---- ---- ---- ----- -------------- --------------
dparity 0a.41 0a 2 9 FC:A - FCAL 10000 136000/278528000
137104/280790184
parity 0b.43 0b 2 11 FC:A - FCAL 10000 136000/278528000
137104/280790184
data 0a.42 0a 2 10 FC:A - FCAL 10000 136000/278528000
137104/280790184
data 0b.44 0b 2 12 FC:A - FCAL 10000 136000/278528000
137104/280790184
data 0a.43 0a 2 11 FC:A - FCAL 10000 136000/278528000
137104/280790184
Targeted to traditional volume or aggregate but not yet assigned to a raid group
RAID Disk Device HA SHELF BAY CHAN Pool Type RPM Used (MB/blks)
Phys (MB/blks)
--------- ------ ------------- ---- ---- ---- ----- -------------- --------------
pending 0a.20 0a 1 4 FC:A - FCAL 10000 136000/278528000
137104/280790184 (zeroing, 6% done)
pending 0a.21 0a 1 5 FC:A - FCAL 10000 136000/278528000
137104/280790184 (zeroing, 6% done)
pending 0a.37 0a 2 5 FC:A - FCAL 10000 136000/278528000
137104/280790184 (zeroing, 5% done)
pending 0a.38 0a 2 6 FC:A - FCAL 10000 136000/278528000
137104/280790184 (zeroing, 5% done)
pending 0b.16 0b 1 0 FC:A - FCAL 10000 136000/278528000
137104/280790184 (zeroing, 5% done)
pending 0b.17 0b 1 1 FC:A - FCAL 10000 136000/278528000
137104/280790184 (zeroing, 5% done)
pending 0b.36 0b 2 4 FC:A - FCAL 10000 136000/278528000
137422/281442144 (zeroing, 6% done)
pending 0b.37 0b 2 5 FC:A - FCAL 10000 136000/278528000
139072/284820800 (zeroing, 5% done)
2.6 通过手工fail一块磁盘,显示换盘的过程
nas3020a*> disk fail 0b.32 #手工把ob.32磁盘fail
*** You are about to prefail the following file system disk, ***
*** which will eventually result in it being failed ***
Disk /aggr2/plex0/rg0/0b.32
RAID Disk Device HA SHELF BAY CHAN Pool Type RPM Used (MB/blks)
Phys (MB/blks)
--------- ------ ------------- ---- ---- ---- ----- -------------- --------------
data 0b.32 0b 2 0 FC:A - FCAL 10000 136000/278528000
137104/280790184
***
Really prefail disk 0b.32? y
disk fail: The following disk was prefailed: 0b.32
Disk 0b.32 has been prefailed. Its contents will be copied to a
replacement disk, and the prefailed disk will be failed out.
nas3020a*> aggr status aggr2 -r #从0b.32到spare磁盘(0a.44,该磁盘原不属于aggr2)开始copy
Aggregate aggr2 (online, raid_dp) (block checksums)
Plex /aggr2/plex0 (online, normal, active)
RAID group /aggr2/plex0/rg0 (normal)
RAID Disk Device HA SHELF BAY CHAN Pool Type RPM Used (MB/blks)
Phys (MB/blks)
--------- ------ ------------- ---- ---- ---- ----- -------------- --------------
dparity 0b.25 0b 1 9 FC:A - FCAL 10000 136000/278528000
137104/280790184
parity 0a.35 0a 2 3 FC:A - FCAL 10000 136000/278528000
137104/280790184
data 0b.32 0b 2 0 FC:A - FCAL 10000 136000/278528000
137104/280790184 (prefail, copy in progress)
-> copy 0a.44 0a 2 12 FC:A - FCAL 10000 136000/278528000
137104/280790184 (copy 0% completed)
data 0a.25 0a 1 9 FC:A - FCAL 10000 136000/278528000
137104/280790184
data 0b.26 0b 1 10 FC:A - FCAL 10000 136000/278528000
137104/280790184
data 0a.36 0a 2 4 FC:A - FCAL 10000 136000/278528000
137104/280790184
data 0b.35 0b 2 3 FC:A - FCAL 10000 136000/278528000
137104/280790184
data 0a.26 0a 1 10 FC:A - FCAL 10000 136000/278528000
137104/280790184
nas3020a*> sysconfig -r #0b.32磁盘被标记为"Broken disks"
......
Broken disks
RAID Disk Device HA SHELF BAY CHAN Pool Type RPM Used (MB/blks)
Phys (MB/blks)
--------- ------ ------------- ---- ---- ---- ----- -------------- --------------
admin failed 0b.32 0b 2 0 FC:A - FCAL 10000 136000/278528000
137104/280790184
nas3020a*> disk unfail 0b.32 #把0b.32磁盘恢复正常
......
三、如何标识磁盘
nas3020a*> sysconfig -r
Aggregate aggr1 (online, raid_dp) (block checksums)
Plex /aggr1/plex0 (online, normal, active)
RAID group /aggr1/plex0/rg0 (normal)
RAID Disk Device HA SHELF BAY CHAN Pool Type RPM Used (MB/blks)
Phys (MB/blks)
--------- ------ ------------- ---- ---- ---- ----- -------------- --------------
dparity 0a.41 0a 2 9 FC:A - FCAL 10000 136000/278528000
137104/280790184
parity 0b.43 0b 2 11 FC:A - FCAL 10000 136000/278528000
137104/280790184
data 0a.42 0a 2 10 FC:A - FCAL 10000 136000/278528000
137104/280790184
data 0b.44 0b 2 12 FC:A - FCAL 10000 136000/278528000
137104/280790184
......
其中,0a.41即为Disk ID(磁盘标识),Disk ID由path_id和deivce_id组成,即path__id
的形式,通过Disk ID可快速定位磁盘的位置。
path_id - 指适配卡所在的槽位,和该适配器上的端口号,例如0a表示slot0上的适配器的a口
slot0一般是主板上集成的,slot0上一般有a、b、c、d共4个端口;可在其他slot上附加适配卡,附加的适配卡一般是双端口的(a和b口)
device_id - 指磁盘的loop id或者scsi id号,由磁盘柜的类型、磁盘柜的ID号和该磁盘在磁盘柜中的位置(第几个bay)来决定。
另外,从sysconfig -r列出的磁盘信息:HA表示path_id;SHELF表示盘柜的编号;BAY表示该磁盘在盘柜中的位置。
四、Volume的管理
4.1 磁盘、RG组、plex与aggr的关系
RAID组由一块或多块数据磁盘加上一块或多块数据校验盘组成,
plex是一个或多个RG组的集合。
一个aggr是一个或多个plex的集合,如果RG组做镜像了,则一个aggr包含两个plex,否则只包含一个plex。
Aggr用来管理plex和RAID组,因为这些实体只能作为aggr的一部分存在。
一个卷就依赖aggr,因为它是实际物理存储。而卷是逻辑的存储实体,用来保存用户数据,卷可以通过多种协议来进行访问。
4.2 卷的定义,传统卷和灵活卷
传统卷:只能在一个aggregate中,只能通过添加整个新硬盘的容量来扩容,不能减小,一个RG上只能有一个传统卷
灵活卷:可以只包含某个RG的一部分
4.3 root卷和/vol
每个netapp存储都必须有且只有一个root volume,存储启动的时候要读取在它上面保存的数据。一般是第一个shlef的前三块盘组成root卷,缺省是做成Raiddp
如果root卷不能访问了,存储依然可以从其它volume启动并提供持续服务
root卷是唯一具有root属性的卷,而它里面的/etc目录保存的是配置信息。它与其它vol差不多,只不过这个vol还存放ontap的配置信息、日志、firmware等等东西。
目录名是由/vol开头的:
/vol/vol0 是volume名。
/vol/user/cheryl 是/vol/usr卷上的一个目录。
注意:/vol不是一个目录,它是一个特殊的虚拟root路径,存储用它来mount其它目录。你不能通过Mount /vol来看其它卷,只能是mount每个卷单独的,所以一定注意/vol并不是一个根mount点
4.4 创建volume
nas3020a*> vol #输入vol回车,会列出vol可用的命令
The following commands are available; for more information
type "vol help
add destroy options scrub
autosize lang raidlabel size
clone media_scrub read_fsid split
container migrate rename status
copy mirror restrict verify
create offline rewrite_fsid wafliron
decompress online
nas3020a*> vol help status #查看vol的status命令的详细帮助信息
vol status [
- print the status of volume
(Only -v, -l, -b, and -? are available in a vfiler context)
创建卷的步骤:
nas3020a*> aggr status #先查看当前有哪些aggr
nas3020a*> aggr show_space -h aggr1 #查看aggr1当前空间使用情况,包括有哪些卷等
nas3020a*> aggr status aggr1 -r #查看aggr1当前状态(有几个rg?包括那些磁盘等)
nas3020a*> vol create wytest aggr1 800m #在aggr1上创建一个800MB的卷(这是灵活卷),
创建卷后,可再次执行aggr show_space -h aggr1查看aggr1内卷的信息
nas3020a*> vol size wytest #查看卷wytest的大小
vol size: Flexible volume 'wytest' has size 800m.
nas3020a*> vol status wytest #查看卷wytest的状态(具体参数可参考vol help status输出信息)
Volume State Status Options
wytest online raid_dp, flex
Containing aggregate: 'aggr1'
4.5 扩展和减小volume的空间
nas3020a*> vol size wytest +200m #扩展200MB
vol size: Flexible volume 'wytest' size set to 1000m.
nas3020a*> vol size wytest -300m #减小300MB
vol size: Flexible volume 'wytest' size set to 700m.
4.6 删除volume
nas3020a*> vol offline wytest #删除volume前要先offline
Thu Jan 6 03:07:40 GMT [nas3020a: e:info]: Volume 'wytest' has been set
temporarily offline
Volume 'wytest' is now offline.
nas3020a*> vol status wytest #查看volume的状态
Volume State Status Options
wytest offline raid_dp, flex
Containing aggregate: 'aggr1'
nas3020a*> vol destroy wytest #删除volume
Are you sure you want to destroy this volume? y
Thu Jan 6 03:08:04 GMT [nas3020a: yed:info]: Volume wytest destroyed.
Volume 'wytest' destroyed.
五、NFS配置管理
5.1 /etc/exports文件配置注意事项:
1、使用rdfile命令打开/etc/exports文件,拷贝到文本中,完成编辑后,执行全拷贝
2、使用wrfile命令打开/etc/exports文件,将编辑好的内容拷贝进来后,一定要先回车(让光标移动到最后空行的位置),然后按ctrl+c结束。
3、最后,执行exportfs -a命令
5.2 对/etc/exports文件不同配置的测试:
nas3020a*> rdfile /etc/exports
#/vol/vol0 -sec=sys,rw,anon=0,nosuid
/vol/vol0/home -sec=sys,rw,nosuid
/vol/vol0 -sec=sys,rw,root=100.232.31.44
/vol/vol1 -sec=sys,rw,root=100.130.43.75 #可以mount,有读写权限
/vol/vol2 -sec=sys,rw=100.130.43.75 #可以mount,但是没有权限
/vol/vol3 -sec=sys,rw=100.130.43.75,root=100.130.43.75 #可以mount,有读写权限,推荐使用这种配置方式
/vol/vol4 -sec=sys,rw,anon=0 #可以mount,有读写权限
[root@weiy /]# df -h
文件系统 容量 已用 可用 已用% 挂载点
/dev/mapper/VolGroup00-LogVol00
8.6G 6.1G 2.1G 75% /
/dev/sda1 99M 12M 82M 13% /boot
tmpfs 233M 0 233M 0% /dev/shm
100.232.31.205:/vol/vol1 640M 64K 640M 1% /wytest
100.232.31.205:/vol/vol2 800M 64K 800M 1% /wytest2
100.232.31.205:/vol/vol3 400M 64K 400M 1% /wytest3
100.232.31.205:/vol/vol4 1.6G 64K 1.6G 1% /wytest4
[root@weiy /]# touch /wytest/aaa1
[root@weiy /]# touch /wytest2/aaa2
touch: 无法触碰 “/wytest2/aaa2”: 权限不够
[root@weiy /]# touch /wytest3/aaa3
[root@weiy /]# touch /wytest4/aaa4
5.3 exportfs命令
exportfs [-aiuv] [-I opton] [pathname]
exportfs -a #输出/etc/exports文件里面的全部条目,exportfs -av显示过程
exportfs -i -o #相当于命令行输出资源
exportfs -i -o ro=host1 /vol/vol0/home
exportfs -u #不输出/etc/exports文件里面的条目exports -u /vol/vol0/sales
exportfs -ua #不输出/etc/exports文件里面的所有条目
tan> exportfs -p /vol/vol0 #相当于在/etc/exports里面加上这个条目
/vol/vol0 -sec=sys,rw
举例如下:
1、使用exportfs命令往/etc/exports文件中添加一条记录(这种方式更安全),不需要执行exportfs -a即可使用,如下:
(配置写入/etc/exports文件,重启也生效)
1)、先创建一个卷
nas3020a*> vol create vol5 aggr1 200m
Creation of volume 'vol5' with size 200m on containing aggregate
'aggr1' has completed.
2)、查看/etc/exports文件中,自动生成了vol5的一条配置
nas3020a*> rdfile /etc/exports
#/vol/vol0 -sec=sys,rw,anon=0,nosuid
/vol/vol0/home -sec=sys,rw,nosuid
/vol/vol0 -sec=sys,rw,root=100.232.31.44
/vol/vol1 -sec=sys,rw,root=100.130.43.75
/vol/vol2 -sec=sys,rw=100.130.43.75
/vol/vol3 -sec=sys,rw=100.130.43.75,root=100.130.43.75
/vol/vol4 -sec=sys,rw,anon=0
/vol/vol5 -sec=sys,rw,nosuid
3)、使用exportfs命令添加配置
nas3020a*> exportfs -p sec=sys,rw=100.130.43.75,root=100.130.43.75 /vol/vol5
4)、再次查看,原先的vol5的配置被#注释了,并产生了一条新的配置
nas3020a*> rdfile /etc/exports
#/vol/vol0 -sec=sys,rw,anon=0,nosuid
/vol/vol0/home -sec=sys,rw,nosuid
/vol/vol0 -sec=sys,rw,root=100.232.31.44
/vol/vol1 -sec=sys,rw,root=100.130.43.75
/vol/vol2 -sec=sys,rw=100.130.43.75
/vol/vol3 -sec=sys,rw=100.130.43.75,root=100.130.43.75
/vol/vol4 -sec=sys,rw,anon=0
#/vol/vol5 -sec=sys,rw,nosuid
/vol/vol5 -sec=sys,rw=100.130.43.75,root=100.130.43.75
2、使用exportfs -i -o命令(当前生效,配置不写入/etc/exports文件,重启恢复)
1)、查看当前/etc/exports文件,内容如下:
nas3020a*> rdfile /etc/exports
#/vol/vol0 -sec=sys,rw,anon=0,nosuid
/vol/vol0/home -sec=sys,rw,nosuid
/vol/vol0 -sec=sys,rw,root=100.232.31.44
/vol/vol1 -sec=sys,rw,root=100.130.43.75
/vol/vol2 -sec=sys,rw=100.130.43.75
/vol/vol3 -sec=sys,rw=100.130.43.75,root=100.130.43.75
/vol/vol4 -sec=sys,rw,anon=0
#/vol/vol5 -sec=sys,rw,nosuid
/vol/vol5 -sec=sys,rw=100.130.43.75,root=100.130.43.75
/vol/vol6 -sec=sys,rw,nosuid
2)、执行exportfs命令如下:
nas3020a*> exportfs
/vol/vol0/home -sec=sys,rw,nosuid
/vol/vol0 -sec=sys,rw,root=100.232.31.44
/vol/vol1 -sec=sys,rw,root=100.130.43.75
/vol/vol2 -sec=sys,rw=100.130.43.75
/vol/vol3 -sec=sys,rw=100.130.43.75,root=100.130.43.75
/vol/vol4 -sec=sys,rw,anon=0
/vol/vol5 -sec=sys,rw=100.130.43.75,root=100.130.43.75
/vol/vol6 -sec=sys,rw,nosuid
3)、执行exportfs -i -o命令:
nas3020a*> exportfs -i -o rw=100.130.43.75,root=100.130.43.75 /vol/vol6
4)、查看/etc/exports文件中,关于vol6的配置没有变化
nas3020a*> rdfile /etc/exports
#/vol/vol0 -sec=sys,rw,anon=0,nosuid
/vol/vol0/home -sec=sys,rw,nosuid
/vol/vol0 -sec=sys,rw,root=100.232.31.44
/vol/vol1 -sec=sys,rw,root=100.130.43.75
/vol/vol2 -sec=sys,rw=100.130.43.75
/vol/vol3 -sec=sys,rw=100.130.43.75,root=100.130.43.75
/vol/vol4 -sec=sys,rw,anon=0
#/vol/vol5 -sec=sys,rw,nosuid
/vol/vol5 -sec=sys,rw=100.130.43.75,root=100.130.43.75
/vol/vol6 -sec=sys,rw,nosuid
5)、执行exportfs命令,发现vol6的配置已经改变了
nas3020a*> exportfs
/vol/vol0/home -sec=sys,rw,nosuid
/vol/vol0 -sec=sys,rw,root=100.232.31.44
/vol/vol1 -sec=sys,rw,root=100.130.43.75
/vol/vol2 -sec=sys,rw=100.130.43.75
/vol/vol3 -sec=sys,rw=100.130.43.75,root=100.130.43.75
/vol/vol4 -sec=sys,rw,anon=0
/vol/vol5 -sec=sys,rw=100.130.43.75,root=100.130.43.75
/vol/vol6 -sec=sys,rw=100.130.43.75,root=100.130.43.75
此时,客户端可挂载/vol/vol6,并具有root和读写权限,说明配置生效了。
3、重启设备,确认配置是否有变化
1)、执行重启:
nas3020a*> reboot
Thu Jan 6 09:37:11 GMT [nas3020a: wn:notice]: System shut down because :
"reboot".
2)、查看/etc/exports文件内容,并执行exportfs命令,结果发现
a、/vol/vol6恢复到了执行exportfs -i -o命令之前的的配置,说明exportfs -i -o不是永久的
b、/vol/vol5的配置没变,说明exportfs -p命令是永久生效的
nas3020a> rdfile /etc/exports
#/vol/vol0 -sec=sys,rw,anon=0,nosuid
/vol/vol0/home -sec=sys,rw,nosuid
/vol/vol0 -sec=sys,rw,root=100.232.31.44
/vol/vol1 -sec=sys,rw,root=100.130.43.75
/vol/vol2 -sec=sys,rw=100.130.43.75
/vol/vol3 -sec=sys,rw=100.130.43.75,root=100.130.43.75
/vol/vol4 -sec=sys,rw,anon=0
#/vol/vol5 -sec=sys,rw,nosuid
/vol/vol5 -sec=sys,rw=100.130.43.75,root=100.130.43.75
/vol/vol6 -sec=sys,rw,nosuid
nas3020a> exportfs
/vol/vol0/home -sec=sys,rw,nosuid
/vol/vol0 -sec=sys,rw,root=100.232.31.44
/vol/vol1 -sec=sys,rw,root=100.130.43.75
/vol/vol2 -sec=sys,rw=100.130.43.75
/vol/vol3 -sec=sys,rw=100.130.43.75,root=100.130.43.75
/vol/vol4 -sec=sys,rw,anon=0
/vol/vol5 -sec=sys,rw=100.130.43.75,root=100.130.43.75
/vol/vol6 -sec=sys,rw,nosuid
此时,客户端对/vol/vol6没有了读写的权限
5.4 主机端如何mount资源
试验发现linux和solaris只允许root用户来mount网络资源。
在NFS服务器设定好了之后,我们可以先测试一下NFS连接情况,就是利用 showmount
这个指令来查看:
1、showmount命令
[root@linux ~]# showmount [-ae] [hostname|IP]
参数:
-a :显示目前主机与客户端的 NFS 连接分享的状态;
-e :显示某部主机的 /etc/exports 所分享的目录资料。
2、rpcinfo命令查看存储设备注册的端口信息
[root@weiy wytest2]# rpcinfo -p 100.232.31.205
程序 版本 协议 端口
100011 1 udp 4049 rquotad
100024 1 tcp 4047 status
100024 1 udp 4047 status
100021 4 tcp 4045 nlockmgr
100021 3 tcp 4045 nlockmgr
100021 1 tcp 4045 nlockmgr
100021 4 udp 4045 nlockmgr
100021 3 udp 4045 nlockmgr
100021 1 udp 4045 nlockmgr
100005 3 tcp 4046 mountd
100005 2 tcp 4046 mountd
100005 1 tcp 4046 mountd
100005 3 udp 4046 mountd
100005 2 udp 4046 mountd
100005 1 udp 4046 mountd
100003 3 tcp 2049 nfs
100003 2 tcp 2049 nfs
100003 3 udp 2049 nfs
100003 2 udp 2049 nfs
100000 2 tcp 111 portmapper
100000 2 udp 111 portmapper
3、/etc/fstab文件设置开机自动mount
六、用户管理命令
nas3020a> useradmin
Usage:
useradmin whoami
user add
modify
delete
list [options]
group add
modify
delete
list [options]
role add
modify
delete
list [options]
domainuser add
delete [options]
list [options]
load
For more detailed information about each subcommand, use:
useradmin help { user | group | role | domainuser }
2、组管理
创建组
nas3020a> useradmin group add wygroup
默认role为none,如下:
nas3020a> useradmin group list
...
Name: wygroup
Info:
Rid: 131077
Roles: none
...
查看管理组的帮助:
nas3020a> useradmin help group
Usage:
useradmin group add
[-c "comments"]
[-r
useradmin group delete
useradmin group modify
[-c "comments"]
[-g "new group_name"]
[-r
useradmin group list [group_name [-u]]
更改组的role:
nas3020a> useradmin group modify wygroup -r power
当然,也可以在创建组的时候指定role:
nas3020a> useradmin group add groupa -r power
删除组:
nas3020a> useradmin group delete wygroup
3、用户管理
查看用户:
nas3020a> useradmin user list
Name: root
Info: Default system administrator.
Rid: 0
Groups:
Name: wy
Info:
Rid: 131076
Groups: agroup
创建用户(指定组为wygroup):
nas3020a> useradmin user add wytest -g wygroup
New password:
Retype new password:
User
4、更改密码
nas3020a> passwd
Login: wytest #需要更改的用户
New password:
Password validation failed. Password must have at least 8 characters
New password:
Retype new password:
5、查看当前登录用户
nas3020a> useradmin whoami
版权声明:本文标题:NetApp常用管理命令总结 内容由网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:http://www.freenas.com.cn/free/1709916592h550468.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论