admin 管理员组

文章数量: 887021


2024年3月9日发(作者:java常用类有必要学吗)

一、系统相关:

sysconfig -v 查看硬件信息,主要显示了硬件平台、版本、序列号、适配器(网卡、光纤卡等)、硬盘等硬件信息

sysconfig -r 显示磁盘、raid、volume信息,等同于vol status -r

-每个RAID会显示RAID的类型、RAID中每个磁盘是属于数据盘(data)、校验盘(parity或dparity);

-volume的划分信息;

-磁盘基本信息,不属于RAID中的spare是本控制器的,partner是对端控制器的;

-磁盘详细信息,HA=host adapter,比如4a表示slot4槽上卡的a口;shelf表示磁盘柜编号(如1表示1号盘柜);BAY表示在盘柜的第几块;

-当有盘损坏的时候,可以用sysconfig -r命令来看具体是那块盘损坏了;

二、配置RAID组:

2.1 查看aggr信息

aggr show_space -h aggr0 查看aggr空间的使用情况(-h是以MB为单位,-g是以GB为单位,如果不指定aggr,则列出所有aggr的space使用情况)

vol status -r 可以看到每个aggr包含几个raid组(rg),每个raid组有几块磁盘等信息,并列出所有spare磁盘

aggr status aggr0 -r 列出指定的aggr0的信息

-aggr status [] [-d | -r | -v | -l | -c | -b | -s | -f | -i | -?]

nas3020a*> aggr status

Aggr State Status Options

aggr0 online raid_dp, aggr root

nas3020a*> aggr status -v aggr2 查看aggr2的一些options的值,如raidsize默认是16(16块盘一个RAID,超过16块盘会创建一个新的raid组)

Aggr State Status Options

aggr2 online raid_dp, aggr nosnap=off, raidtype=raid_dp,

raidsize=16,

ignore_inconsistent=off,

snapmirrored=off,

resyncsnaptime=60,

fs_size_fixed=off,

snapshot_autodelete=on,

lost_write_protect=on

Volumes:

Plex /aggr2/plex0: online, normal, active

RAID group /aggr2/plex0/rg0: normal

nas3020a*> aggr help options 查看aggr相关的options的帮助信息(options的功能介绍和使用方法)

aggr options

The following commands are available; for more information

type "aggr help options "

fs_size_fixed raidsize resyncsnaptime snapmirrored

lost_write_protect raidtype root snapshot_autodelete

nosnap

nas3020a*> aggr help options raidtype 查看aggr的raidtype的说明和使用方法

aggr options raidtype

- change aggregate or traditional volume 's

RAID type to

2.2 创建aggr

aggr create aggr1 -d 0a.20 0a.21 0a.22 0a.23 0a.24 指定哪些盘组成aggr1

aggr create aggr2 8 指定由8块盘组成aggr2

nas3020a*> aggr status aggr2 -r 查看aggr2的信息,可知系统自动从oa和ob各选择4块盘组成aggr2(负载分担)

Aggregate aggr2 (online, raid_dp) (block checksums)

Plex /aggr2/plex0 (online, normal, active)

RAID group /aggr2/plex0/rg0 (normal)

RAID Disk Device HA SHELF BAY CHAN Pool Type RPM Used (MB/blks)

Phys (MB/blks)

--------- ------ ------------- ---- ---- ---- ----- -------------- --------------

dparity 0b.25 0b 1 9 FC:A - FCAL 10000 136000/278528000

137104/280790184

parity 0a.35 0a 2 3 FC:A - FCAL 10000 136000/278528000

137104/280790184

data 0b.32 0b 2 0 FC:A - FCAL 10000 136000/278528000

137104/280790184

data 0a.25 0a 1 9 FC:A - FCAL 10000 136000/278528000

137104/280790184

data 0b.26 0b 1 10 FC:A - FCAL 10000 136000/278528000

137104/280790184

data 0a.36 0a 2 4 FC:A - FCAL 10000 136000/278528000

137104/280790184

data 0b.35 0b 2 3 FC:A - FCAL 10000 136000/278528000

137104/280790184

data 0a.26 0a 1 10 FC:A - FCAL 10000 136000/278528000

137104/280790184

nas3020a*> aggr status aggr1 -r 查看aggr1的信息,由自定义的5块盘组成

Aggregate aggr1 (online, raid_dp) (block checksums)

Plex /aggr1/plex0 (online, normal, active)

RAID group /aggr1/plex0/rg0 (normal)

RAID Disk Device HA SHELF BAY CHAN Pool Type RPM Used (MB/blks)

Phys (MB/blks)

--------- ------ ------------- ---- ---- ---- ----- -------------- --------------

dparity 0a.20 0a 1 4 FC:A - FCAL 10000 136000/278528000

137104/280790184

parity 0a.21 0a 1 5 FC:A - FCAL 10000 136000/278528000

137104/280790184

data 0a.22 0a 1 6 FC:A - FCAL 10000 136000/278528000

137104/280790184

data 0a.23 0a 1 7 FC:A - FCAL 10000 136000/278528000

137104/280790184

data 0a.24 0a 1 8 FC:A - FCAL 10000 136000/278528000

137104/280790184

2.3 扩展aggr

aggr add命令的用法:

nas3020a> aggr help add

aggr add [-f] [-n] [-g |new|all]

- add disks listed in to aggregate ;

is either:

[@]

or

-d ...

[-d ... ].

参数说明:

-n 预演命令的执行,如:

nas3020a> aggr add aggr2 -n 3

aggr add aggr2 -d 0b.21 0a.27 0b.45

-g 可以将盘加入指定的RG中(raid-group),或加入到一个新建的RG中(new),而使用all选项,则会先向存在的RG里面添加磁盘,直到它们满了,然后再新创建RG

如果没有使用-g选项,则磁盘首先被加入到最近创建的RG里面,直到它满了才会创建新的RG(同"-g all")

-d 指定具体的磁盘,如:

aggr add aggr2 -d 0b.20 0a.24 0b.42

...

Addition of 3 disks to the aggregate has completed.

实例演示:

nas3020a*> aggr add aggr1 3 往aggr1中增加3块盘

nas3020a*> aggr status aggr1 -r 再次查看后,发现在aggr1中原来的raid组中增加了3块数据盘(而不是增加一个raid组)

Aggregate aggr1 (online, raid_dp) (block checksums)

Plex /aggr1/plex0 (online, normal, active)

RAID group /aggr1/plex0/rg0 (normal)

RAID Disk Device HA SHELF BAY CHAN Pool Type RPM Used (MB/blks)

Phys (MB/blks)

--------- ------ ------------- ---- ---- ---- ----- -------------- --------------

dparity 0a.20 0a 1 4 FC:A - FCAL 10000 136000/278528000

137104/280790184

parity 0a.21 0a 1 5 FC:A - FCAL 10000 136000/278528000

137104/280790184

data 0a.22 0a 1 6 FC:A - FCAL 10000 136000/278528000

137104/280790184

data 0a.23 0a 1 7 FC:A - FCAL 10000 136000/278528000

137104/280790184

data 0a.24 0a 1 8 FC:A - FCAL 10000 136000/278528000

137104/280790184

data 0b.36 0b 2 4 FC:A - FCAL 10000 136000/278528000

137422/281442144

data 0a.37 0a 2 5 FC:A - FCAL 10000 136000/278528000

137104/280790184

data 0b.27 0b 1 11 FC:A - FCAL 10000 136000/278528000

137104/280790184

nas3020a*> aggr options aggr1 raidsize 4 设置随后加入aggr1中的盘,由4块盘组成一个raid组,但是不影响前面已创建好的raid组

nas3020a*> aggr add aggr1 4 然后再往aggr1中增加4块盘

nas3020a*> aggr status aggr1 -r 再次查看aggr1的信息,发现aggr1中增加了一个4块盘组成的raid组

Aggregate aggr1 (online, raid_dp) (block checksums)

Plex /aggr1/plex0 (online, normal, active)

RAID group /aggr1/plex0/rg0 (normal)

RAID Disk Device HA SHELF BAY CHAN Pool Type RPM Used (MB/blks)

Phys (MB/blks)

--------- ------ ------------- ---- ---- ---- ----- -------------- --------------

dparity 0a.20 0a 1 4 FC:A - FCAL 10000 136000/278528000

137104/280790184

parity 0a.21 0a 1 5 FC:A - FCAL 10000 136000/278528000

137104/280790184

data 0a.22 0a 1 6 FC:A - FCAL 10000 136000/278528000

137104/280790184

data 0a.23 0a 1 7 FC:A - FCAL 10000 136000/278528000

137104/280790184

data 0a.24 0a 1 8 FC:A - FCAL 10000 136000/278528000

137104/280790184

data 0b.36 0b 2 4 FC:A - FCAL 10000 136000/278528000

137422/281442144

data 0a.37 0a 2 5 FC:A - FCAL 10000 136000/278528000

137104/280790184

data 0b.27 0b 1 11 FC:A - FCAL 10000 136000/278528000

137104/280790184

RAID group /aggr1/plex0/rg1 (normal)

RAID Disk Device HA SHELF BAY CHAN Pool Type RPM Used (MB/blks)

Phys (MB/blks)

--------- ------ ------------- ---- ---- ---- ----- -------------- --------------

dparity 0b.37 0b 2 5 FC:A - FCAL 10000 136000/278528000

139072/284820800

parity 0a.38 0a 2 6 FC:A - FCAL 10000 136000/278528000

137104/280790184

data 0b.28 0b 1 12 FC:A - FCAL 10000 136000/278528000

137104/280790184

data 0a.27 0a 1 11 FC:A - FCAL 10000 136000/278528000

137104/280790184

nas3020a*> aggr add aggr1 5 如果指定加入aggr1中的盘数是5,则会提示不是所有的盘都会用到,因为之前已经定义了raidsize=4

Not all disks used

Note: preparing to add 2 data disks and 2 parity disks.

Continue? ([y]es, [n]o, or [p]review RAID layout) y

....

nas3020a*> aggr status aggr1 -r 然后可以看到虽然指定加入aggr1的盘是5块,但是实际只增加了一个4块盘的raid组

Aggregate aggr1 (online, raid_dp) (block checksums)

Plex /aggr1/plex0 (online, normal, active)

RAID group /aggr1/plex0/rg0 (normal)

......

RAID group /aggr1/plex0/rg1 (normal)

......

RAID group /aggr1/plex0/rg2 (normal)

RAID Disk Device HA SHELF BAY CHAN Pool Type RPM Used (MB/blks)

Phys (MB/blks)

--------- ------ ------------- ---- ---- ---- ----- -------------- --------------

dparity 0a.39 0a 2 7 FC:A - FCAL 10000 136000/278528000

137104/280790184

parity 0b.40 0b 2 8 FC:A - FCAL 10000 136000/278528000

137104/280790184

data 0a.28 0a 1 12 FC:A - FCAL 10000 136000/278528000

137104/280790184

data 0b.29 0b 1 13 FC:A - FCAL 10000 136000/278528000

137422/281442144

nas3020a*> aggr add aggr1 3 如果指定加入aggr1中的盘是3块,则虽然指定的raidsize是4,也只会加入3块盘组成的raid组

Note: preparing to add 1 data disk and 2 parity disks.

Continue? ([y]es, [n]o, or [p]review RAID layout) y

......

nas3020a*> aggr status aggr1 -r 新加入的是一个3块盘组成的raid组

......

RAID group /aggr1/plex0/rg3 (normal)

RAID Disk Device HA SHELF BAY CHAN Pool Type RPM Used (MB/blks)

Phys (MB/blks)

--------- ------ ------------- ---- ---- ---- ----- -------------- --------------

dparity 0a.40 0a 2 8 FC:A - FCAL 10000 136000/278528000

137104/280790184

parity 0b.42 0b 2 10 FC:A - FCAL 10000 136000/278528000

137104/280790184

data 0a.29 0a 1 13 FC:A - FCAL 10000 136000/278528000

137104/280790184

补充:aggr创建后,其默认raidsize=16(aggr status aggr_name -v命令可以查看),假设创建了原始aggrN中包含了14块磁盘,使用aggr add aggrN 8命令往aggrN中增加8块磁盘,则结果会先往aggrN中原来的rg里增加2块数据盘,然后再用剩下的6块盘创建一个新的rg(4块数据,2块校验),而系统则会提示“增加6块数据盘和2块校验盘”(如果是RAID

DP)。-g选项可以改变这个规则。

2.4 拷贝aggr

aggr copy命令用法:

nas3020a> aggr help copy

aggr copy start [-p {inet|inet6}] [-S | -s ]

- execute aggregate copying from to

aggr copy {abort | status | throttle} [all | ]

- control aggregate copying for all operations, or (if specified)

The following commands are available; for more information

type "aggr help copy "

abort start status throttle

2.5 删除aggr(先offline,在destroy)

nas3020a*> aggr offline aggr1

Aggregate 'aggr1' is now offline.

nas3020a*> aggr status

Aggr State Status Options

aggr2 online raid_dp, aggr

aggr1 offline raid_dp, aggr raidsize=4,

lost_write_protect=off

aggr0 online raid_dp, aggr root

nas3020a*> aggr destroy aggr1

Are you sure you want to destroy this aggregate? y

Wed Jan 5 08:23:05 GMT [nas3020a: yed:info]: Aggregate 'aggr1'

destroyed.

Aggregate 'aggr1' destroyed.

删除aggr1后,原aggr1中的磁盘的状态会是“not zeroed”(执行sysconfig -r可看到该信息),再次使用这些磁盘的时候会自动进行zeroing,如下:

nas3020a*> aggr create aggr1 5 初始创建的aggr1的5块盘和之前的盘不同,所以不需要zeroing

nas3020a*> aggr add aggr1 8

nas3020a*> aggr status

Aggr State Status Options

aggr1 online raid_dp, aggr

growing #growing,而不是立即扩展成功的

aggr2 online raid_dp, aggr

aggr0 online raid_dp, aggr root

nas3020a*> aggr status aggr1 -r #查看aggr1详细信息可发现,新加入的磁盘在做zeroing的动作。

Aggregate aggr1 (online, raid_dp, growing) (block checksums)

Plex /aggr1/plex0 (online, normal, active)

RAID group /aggr1/plex0/rg0 (normal)

RAID Disk Device HA SHELF BAY CHAN Pool Type RPM Used (MB/blks)

Phys (MB/blks)

--------- ------ ------------- ---- ---- ---- ----- -------------- --------------

dparity 0a.41 0a 2 9 FC:A - FCAL 10000 136000/278528000

137104/280790184

parity 0b.43 0b 2 11 FC:A - FCAL 10000 136000/278528000

137104/280790184

data 0a.42 0a 2 10 FC:A - FCAL 10000 136000/278528000

137104/280790184

data 0b.44 0b 2 12 FC:A - FCAL 10000 136000/278528000

137104/280790184

data 0a.43 0a 2 11 FC:A - FCAL 10000 136000/278528000

137104/280790184

Targeted to traditional volume or aggregate but not yet assigned to a raid group

RAID Disk Device HA SHELF BAY CHAN Pool Type RPM Used (MB/blks)

Phys (MB/blks)

--------- ------ ------------- ---- ---- ---- ----- -------------- --------------

pending 0a.20 0a 1 4 FC:A - FCAL 10000 136000/278528000

137104/280790184 (zeroing, 6% done)

pending 0a.21 0a 1 5 FC:A - FCAL 10000 136000/278528000

137104/280790184 (zeroing, 6% done)

pending 0a.37 0a 2 5 FC:A - FCAL 10000 136000/278528000

137104/280790184 (zeroing, 5% done)

pending 0a.38 0a 2 6 FC:A - FCAL 10000 136000/278528000

137104/280790184 (zeroing, 5% done)

pending 0b.16 0b 1 0 FC:A - FCAL 10000 136000/278528000

137104/280790184 (zeroing, 5% done)

pending 0b.17 0b 1 1 FC:A - FCAL 10000 136000/278528000

137104/280790184 (zeroing, 5% done)

pending 0b.36 0b 2 4 FC:A - FCAL 10000 136000/278528000

137422/281442144 (zeroing, 6% done)

pending 0b.37 0b 2 5 FC:A - FCAL 10000 136000/278528000

139072/284820800 (zeroing, 5% done)

2.6 通过手工fail一块磁盘,显示换盘的过程

nas3020a*> disk fail 0b.32 #手工把ob.32磁盘fail

*** You are about to prefail the following file system disk, ***

*** which will eventually result in it being failed ***

Disk /aggr2/plex0/rg0/0b.32

RAID Disk Device HA SHELF BAY CHAN Pool Type RPM Used (MB/blks)

Phys (MB/blks)

--------- ------ ------------- ---- ---- ---- ----- -------------- --------------

data 0b.32 0b 2 0 FC:A - FCAL 10000 136000/278528000

137104/280790184

***

Really prefail disk 0b.32? y

disk fail: The following disk was prefailed: 0b.32

Disk 0b.32 has been prefailed. Its contents will be copied to a

replacement disk, and the prefailed disk will be failed out.

nas3020a*> aggr status aggr2 -r #从0b.32到spare磁盘(0a.44,该磁盘原不属于aggr2)开始copy

Aggregate aggr2 (online, raid_dp) (block checksums)

Plex /aggr2/plex0 (online, normal, active)

RAID group /aggr2/plex0/rg0 (normal)

RAID Disk Device HA SHELF BAY CHAN Pool Type RPM Used (MB/blks)

Phys (MB/blks)

--------- ------ ------------- ---- ---- ---- ----- -------------- --------------

dparity 0b.25 0b 1 9 FC:A - FCAL 10000 136000/278528000

137104/280790184

parity 0a.35 0a 2 3 FC:A - FCAL 10000 136000/278528000

137104/280790184

data 0b.32 0b 2 0 FC:A - FCAL 10000 136000/278528000

137104/280790184 (prefail, copy in progress)

-> copy 0a.44 0a 2 12 FC:A - FCAL 10000 136000/278528000

137104/280790184 (copy 0% completed)

data 0a.25 0a 1 9 FC:A - FCAL 10000 136000/278528000

137104/280790184

data 0b.26 0b 1 10 FC:A - FCAL 10000 136000/278528000

137104/280790184

data 0a.36 0a 2 4 FC:A - FCAL 10000 136000/278528000

137104/280790184

data 0b.35 0b 2 3 FC:A - FCAL 10000 136000/278528000

137104/280790184

data 0a.26 0a 1 10 FC:A - FCAL 10000 136000/278528000

137104/280790184

nas3020a*> sysconfig -r #0b.32磁盘被标记为"Broken disks"

......

Broken disks

RAID Disk Device HA SHELF BAY CHAN Pool Type RPM Used (MB/blks)

Phys (MB/blks)

--------- ------ ------------- ---- ---- ---- ----- -------------- --------------

admin failed 0b.32 0b 2 0 FC:A - FCAL 10000 136000/278528000

137104/280790184

nas3020a*> disk unfail 0b.32 #把0b.32磁盘恢复正常

......

三、如何标识磁盘

nas3020a*> sysconfig -r

Aggregate aggr1 (online, raid_dp) (block checksums)

Plex /aggr1/plex0 (online, normal, active)

RAID group /aggr1/plex0/rg0 (normal)

RAID Disk Device HA SHELF BAY CHAN Pool Type RPM Used (MB/blks)

Phys (MB/blks)

--------- ------ ------------- ---- ---- ---- ----- -------------- --------------

dparity 0a.41 0a 2 9 FC:A - FCAL 10000 136000/278528000

137104/280790184

parity 0b.43 0b 2 11 FC:A - FCAL 10000 136000/278528000

137104/280790184

data 0a.42 0a 2 10 FC:A - FCAL 10000 136000/278528000

137104/280790184

data 0b.44 0b 2 12 FC:A - FCAL 10000 136000/278528000

137104/280790184

......

其中,0a.41即为Disk ID(磁盘标识),Disk ID由path_id和deivce_id组成,即path__id

的形式,通过Disk ID可快速定位磁盘的位置。

path_id - 指适配卡所在的槽位,和该适配器上的端口号,例如0a表示slot0上的适配器的a口

slot0一般是主板上集成的,slot0上一般有a、b、c、d共4个端口;可在其他slot上附加适配卡,附加的适配卡一般是双端口的(a和b口)

device_id - 指磁盘的loop id或者scsi id号,由磁盘柜的类型、磁盘柜的ID号和该磁盘在磁盘柜中的位置(第几个bay)来决定。

另外,从sysconfig -r列出的磁盘信息:HA表示path_id;SHELF表示盘柜的编号;BAY表示该磁盘在盘柜中的位置。

四、Volume的管理

4.1 磁盘、RG组、plex与aggr的关系

RAID组由一块或多块数据磁盘加上一块或多块数据校验盘组成,

plex是一个或多个RG组的集合。

一个aggr是一个或多个plex的集合,如果RG组做镜像了,则一个aggr包含两个plex,否则只包含一个plex。

Aggr用来管理plex和RAID组,因为这些实体只能作为aggr的一部分存在。

一个卷就依赖aggr,因为它是实际物理存储。而卷是逻辑的存储实体,用来保存用户数据,卷可以通过多种协议来进行访问。

4.2 卷的定义,传统卷和灵活卷

传统卷:只能在一个aggregate中,只能通过添加整个新硬盘的容量来扩容,不能减小,一个RG上只能有一个传统卷

灵活卷:可以只包含某个RG的一部分

4.3 root卷和/vol

每个netapp存储都必须有且只有一个root volume,存储启动的时候要读取在它上面保存的数据。一般是第一个shlef的前三块盘组成root卷,缺省是做成Raiddp

如果root卷不能访问了,存储依然可以从其它volume启动并提供持续服务

root卷是唯一具有root属性的卷,而它里面的/etc目录保存的是配置信息。它与其它vol差不多,只不过这个vol还存放ontap的配置信息、日志、firmware等等东西。

目录名是由/vol开头的:

/vol/vol0 是volume名。

/vol/user/cheryl 是/vol/usr卷上的一个目录。

注意:/vol不是一个目录,它是一个特殊的虚拟root路径,存储用它来mount其它目录。你不能通过Mount /vol来看其它卷,只能是mount每个卷单独的,所以一定注意/vol并不是一个根mount点

4.4 创建volume

nas3020a*> vol #输入vol回车,会列出vol可用的命令

The following commands are available; for more information

type "vol help " #查看某个命令的帮助信息

add destroy options scrub

autosize lang raidlabel size

clone media_scrub read_fsid split

container migrate rename status

copy mirror restrict verify

create offline rewrite_fsid wafliron

decompress online

nas3020a*> vol help status #查看vol的status命令的详细帮助信息

vol status [] [-d | -r | -v | -l | -c | -b | -s | -f | -m | -w | -?]

- print the status of volume (or all volumes)

(Only -v, -l, -b, and -? are available in a vfiler context)

创建卷的步骤:

nas3020a*> aggr status #先查看当前有哪些aggr

nas3020a*> aggr show_space -h aggr1 #查看aggr1当前空间使用情况,包括有哪些卷等

nas3020a*> aggr status aggr1 -r #查看aggr1当前状态(有几个rg?包括那些磁盘等)

nas3020a*> vol create wytest aggr1 800m #在aggr1上创建一个800MB的卷(这是灵活卷),

创建卷后,可再次执行aggr show_space -h aggr1查看aggr1内卷的信息

nas3020a*> vol size wytest #查看卷wytest的大小

vol size: Flexible volume 'wytest' has size 800m.

nas3020a*> vol status wytest #查看卷wytest的状态(具体参数可参考vol help status输出信息)

Volume State Status Options

wytest online raid_dp, flex

Containing aggregate: 'aggr1'

4.5 扩展和减小volume的空间

nas3020a*> vol size wytest +200m #扩展200MB

vol size: Flexible volume 'wytest' size set to 1000m.

nas3020a*> vol size wytest -300m #减小300MB

vol size: Flexible volume 'wytest' size set to 700m.

4.6 删除volume

nas3020a*> vol offline wytest #删除volume前要先offline

Thu Jan 6 03:07:40 GMT [nas3020a: e:info]: Volume 'wytest' has been set

temporarily offline

Volume 'wytest' is now offline.

nas3020a*> vol status wytest #查看volume的状态

Volume State Status Options

wytest offline raid_dp, flex

Containing aggregate: 'aggr1'

nas3020a*> vol destroy wytest #删除volume

Are you sure you want to destroy this volume? y

Thu Jan 6 03:08:04 GMT [nas3020a: yed:info]: Volume wytest destroyed.

Volume 'wytest' destroyed.

五、NFS配置管理

5.1 /etc/exports文件配置注意事项:

1、使用rdfile命令打开/etc/exports文件,拷贝到文本中,完成编辑后,执行全拷贝

2、使用wrfile命令打开/etc/exports文件,将编辑好的内容拷贝进来后,一定要先回车(让光标移动到最后空行的位置),然后按ctrl+c结束。

3、最后,执行exportfs -a命令

5.2 对/etc/exports文件不同配置的测试:

nas3020a*> rdfile /etc/exports

#/vol/vol0 -sec=sys,rw,anon=0,nosuid

/vol/vol0/home -sec=sys,rw,nosuid

/vol/vol0 -sec=sys,rw,root=100.232.31.44

/vol/vol1 -sec=sys,rw,root=100.130.43.75 #可以mount,有读写权限

/vol/vol2 -sec=sys,rw=100.130.43.75 #可以mount,但是没有权限

/vol/vol3 -sec=sys,rw=100.130.43.75,root=100.130.43.75 #可以mount,有读写权限,推荐使用这种配置方式

/vol/vol4 -sec=sys,rw,anon=0 #可以mount,有读写权限

[root@weiy /]# df -h

文件系统 容量 已用 可用 已用% 挂载点

/dev/mapper/VolGroup00-LogVol00

8.6G 6.1G 2.1G 75% /

/dev/sda1 99M 12M 82M 13% /boot

tmpfs 233M 0 233M 0% /dev/shm

100.232.31.205:/vol/vol1 640M 64K 640M 1% /wytest

100.232.31.205:/vol/vol2 800M 64K 800M 1% /wytest2

100.232.31.205:/vol/vol3 400M 64K 400M 1% /wytest3

100.232.31.205:/vol/vol4 1.6G 64K 1.6G 1% /wytest4

[root@weiy /]# touch /wytest/aaa1

[root@weiy /]# touch /wytest2/aaa2

touch: 无法触碰 “/wytest2/aaa2”: 权限不够

[root@weiy /]# touch /wytest3/aaa3

[root@weiy /]# touch /wytest4/aaa4

5.3 exportfs命令

exportfs [-aiuv] [-I opton] [pathname]

exportfs -a #输出/etc/exports文件里面的全部条目,exportfs -av显示过程

exportfs -i -o #相当于命令行输出资源

exportfs -i -o ro=host1 /vol/vol0/home

exportfs -u #不输出/etc/exports文件里面的条目exports -u /vol/vol0/sales

exportfs -ua #不输出/etc/exports文件里面的所有条目

tan> exportfs -p /vol/vol0 #相当于在/etc/exports里面加上这个条目

/vol/vol0 -sec=sys,rw

举例如下:

1、使用exportfs命令往/etc/exports文件中添加一条记录(这种方式更安全),不需要执行exportfs -a即可使用,如下:

(配置写入/etc/exports文件,重启也生效)

1)、先创建一个卷

nas3020a*> vol create vol5 aggr1 200m

Creation of volume 'vol5' with size 200m on containing aggregate

'aggr1' has completed.

2)、查看/etc/exports文件中,自动生成了vol5的一条配置

nas3020a*> rdfile /etc/exports

#/vol/vol0 -sec=sys,rw,anon=0,nosuid

/vol/vol0/home -sec=sys,rw,nosuid

/vol/vol0 -sec=sys,rw,root=100.232.31.44

/vol/vol1 -sec=sys,rw,root=100.130.43.75

/vol/vol2 -sec=sys,rw=100.130.43.75

/vol/vol3 -sec=sys,rw=100.130.43.75,root=100.130.43.75

/vol/vol4 -sec=sys,rw,anon=0

/vol/vol5 -sec=sys,rw,nosuid

3)、使用exportfs命令添加配置

nas3020a*> exportfs -p sec=sys,rw=100.130.43.75,root=100.130.43.75 /vol/vol5

4)、再次查看,原先的vol5的配置被#注释了,并产生了一条新的配置

nas3020a*> rdfile /etc/exports

#/vol/vol0 -sec=sys,rw,anon=0,nosuid

/vol/vol0/home -sec=sys,rw,nosuid

/vol/vol0 -sec=sys,rw,root=100.232.31.44

/vol/vol1 -sec=sys,rw,root=100.130.43.75

/vol/vol2 -sec=sys,rw=100.130.43.75

/vol/vol3 -sec=sys,rw=100.130.43.75,root=100.130.43.75

/vol/vol4 -sec=sys,rw,anon=0

#/vol/vol5 -sec=sys,rw,nosuid

/vol/vol5 -sec=sys,rw=100.130.43.75,root=100.130.43.75

2、使用exportfs -i -o命令(当前生效,配置不写入/etc/exports文件,重启恢复)

1)、查看当前/etc/exports文件,内容如下:

nas3020a*> rdfile /etc/exports

#/vol/vol0 -sec=sys,rw,anon=0,nosuid

/vol/vol0/home -sec=sys,rw,nosuid

/vol/vol0 -sec=sys,rw,root=100.232.31.44

/vol/vol1 -sec=sys,rw,root=100.130.43.75

/vol/vol2 -sec=sys,rw=100.130.43.75

/vol/vol3 -sec=sys,rw=100.130.43.75,root=100.130.43.75

/vol/vol4 -sec=sys,rw,anon=0

#/vol/vol5 -sec=sys,rw,nosuid

/vol/vol5 -sec=sys,rw=100.130.43.75,root=100.130.43.75

/vol/vol6 -sec=sys,rw,nosuid

2)、执行exportfs命令如下:

nas3020a*> exportfs

/vol/vol0/home -sec=sys,rw,nosuid

/vol/vol0 -sec=sys,rw,root=100.232.31.44

/vol/vol1 -sec=sys,rw,root=100.130.43.75

/vol/vol2 -sec=sys,rw=100.130.43.75

/vol/vol3 -sec=sys,rw=100.130.43.75,root=100.130.43.75

/vol/vol4 -sec=sys,rw,anon=0

/vol/vol5 -sec=sys,rw=100.130.43.75,root=100.130.43.75

/vol/vol6 -sec=sys,rw,nosuid

3)、执行exportfs -i -o命令:

nas3020a*> exportfs -i -o rw=100.130.43.75,root=100.130.43.75 /vol/vol6

4)、查看/etc/exports文件中,关于vol6的配置没有变化

nas3020a*> rdfile /etc/exports

#/vol/vol0 -sec=sys,rw,anon=0,nosuid

/vol/vol0/home -sec=sys,rw,nosuid

/vol/vol0 -sec=sys,rw,root=100.232.31.44

/vol/vol1 -sec=sys,rw,root=100.130.43.75

/vol/vol2 -sec=sys,rw=100.130.43.75

/vol/vol3 -sec=sys,rw=100.130.43.75,root=100.130.43.75

/vol/vol4 -sec=sys,rw,anon=0

#/vol/vol5 -sec=sys,rw,nosuid

/vol/vol5 -sec=sys,rw=100.130.43.75,root=100.130.43.75

/vol/vol6 -sec=sys,rw,nosuid

5)、执行exportfs命令,发现vol6的配置已经改变了

nas3020a*> exportfs

/vol/vol0/home -sec=sys,rw,nosuid

/vol/vol0 -sec=sys,rw,root=100.232.31.44

/vol/vol1 -sec=sys,rw,root=100.130.43.75

/vol/vol2 -sec=sys,rw=100.130.43.75

/vol/vol3 -sec=sys,rw=100.130.43.75,root=100.130.43.75

/vol/vol4 -sec=sys,rw,anon=0

/vol/vol5 -sec=sys,rw=100.130.43.75,root=100.130.43.75

/vol/vol6 -sec=sys,rw=100.130.43.75,root=100.130.43.75

此时,客户端可挂载/vol/vol6,并具有root和读写权限,说明配置生效了。

3、重启设备,确认配置是否有变化

1)、执行重启:

nas3020a*> reboot

Thu Jan 6 09:37:11 GMT [nas3020a: wn:notice]: System shut down because :

"reboot".

2)、查看/etc/exports文件内容,并执行exportfs命令,结果发现

a、/vol/vol6恢复到了执行exportfs -i -o命令之前的的配置,说明exportfs -i -o不是永久的

b、/vol/vol5的配置没变,说明exportfs -p命令是永久生效的

nas3020a> rdfile /etc/exports

#/vol/vol0 -sec=sys,rw,anon=0,nosuid

/vol/vol0/home -sec=sys,rw,nosuid

/vol/vol0 -sec=sys,rw,root=100.232.31.44

/vol/vol1 -sec=sys,rw,root=100.130.43.75

/vol/vol2 -sec=sys,rw=100.130.43.75

/vol/vol3 -sec=sys,rw=100.130.43.75,root=100.130.43.75

/vol/vol4 -sec=sys,rw,anon=0

#/vol/vol5 -sec=sys,rw,nosuid

/vol/vol5 -sec=sys,rw=100.130.43.75,root=100.130.43.75

/vol/vol6 -sec=sys,rw,nosuid

nas3020a> exportfs

/vol/vol0/home -sec=sys,rw,nosuid

/vol/vol0 -sec=sys,rw,root=100.232.31.44

/vol/vol1 -sec=sys,rw,root=100.130.43.75

/vol/vol2 -sec=sys,rw=100.130.43.75

/vol/vol3 -sec=sys,rw=100.130.43.75,root=100.130.43.75

/vol/vol4 -sec=sys,rw,anon=0

/vol/vol5 -sec=sys,rw=100.130.43.75,root=100.130.43.75

/vol/vol6 -sec=sys,rw,nosuid

此时,客户端对/vol/vol6没有了读写的权限

5.4 主机端如何mount资源

试验发现linux和solaris只允许root用户来mount网络资源。

在NFS服务器设定好了之后,我们可以先测试一下NFS连接情况,就是利用 showmount

这个指令来查看:

1、showmount命令

[root@linux ~]# showmount [-ae] [hostname|IP]

参数:

-a :显示目前主机与客户端的 NFS 连接分享的状态;

-e :显示某部主机的 /etc/exports 所分享的目录资料。

2、rpcinfo命令查看存储设备注册的端口信息

[root@weiy wytest2]# rpcinfo -p 100.232.31.205

程序 版本 协议 端口

100011 1 udp 4049 rquotad

100024 1 tcp 4047 status

100024 1 udp 4047 status

100021 4 tcp 4045 nlockmgr

100021 3 tcp 4045 nlockmgr

100021 1 tcp 4045 nlockmgr

100021 4 udp 4045 nlockmgr

100021 3 udp 4045 nlockmgr

100021 1 udp 4045 nlockmgr

100005 3 tcp 4046 mountd

100005 2 tcp 4046 mountd

100005 1 tcp 4046 mountd

100005 3 udp 4046 mountd

100005 2 udp 4046 mountd

100005 1 udp 4046 mountd

100003 3 tcp 2049 nfs

100003 2 tcp 2049 nfs

100003 3 udp 2049 nfs

100003 2 udp 2049 nfs

100000 2 tcp 111 portmapper

100000 2 udp 111 portmapper

3、/etc/fstab文件设置开机自动mount

六、用户管理命令

nas3020a> useradmin

Usage:

useradmin whoami

user add [options]

modify [options]

delete

list [options]

group add [options]

modify [options]

delete [options]

list [options]

role add [options]

modify [options]

delete [options]

list [options]

domainuser add [options]

delete [options]

list [options]

load

For more detailed information about each subcommand, use:

useradmin help { user | group | role | domainuser }

2、组管理

创建组

nas3020a> useradmin group add wygroup

默认role为none,如下:

nas3020a> useradmin group list

...

Name: wygroup

Info:

Rid: 131077

Roles: none

...

查看管理组的帮助:

nas3020a> useradmin help group

Usage:

useradmin group add

[-c "comments"]

[-r [,,...,]]

useradmin group delete

useradmin group modify [-f]

[-c "comments"]

[-g "new group_name"]

[-r [,,...,]]

useradmin group list [group_name [-u]]

更改组的role:

nas3020a> useradmin group modify wygroup -r power

当然,也可以在创建组的时候指定role:

nas3020a> useradmin group add groupa -r power

删除组:

nas3020a> useradmin group delete wygroup

3、用户管理

查看用户:

nas3020a> useradmin user list

Name: root

Info: Default system administrator.

Rid: 0

Groups:

Name: wy

Info:

Rid: 131076

Groups: agroup

创建用户(指定组为wygroup):

nas3020a> useradmin user add wytest -g wygroup

New password:

Retype new password:

User added.

4、更改密码

nas3020a> passwd

Login: wytest #需要更改的用户

New password:

Password validation failed. Password must have at least 8 characters

New password:

Retype new password:

5、查看当前登录用户

nas3020a> useradmin whoami


本文标签: 磁盘 信息 配置 查看