且构网

分享程序员开发的那些事...
且构网 - 分享程序员编程开发的那些事

full decommisson of GDC

更新时间:2022-09-27 15:50:15

先说5个路经的作用:

 1)/omni_shared/script/JP ->里面是job code, 例如GRW01A,这里面的内容有需要调用哪个datalist,主机名,load+mode, load有low,medium,high,备份mode有full还是incremtal,如下图:full decommisson of GDC

JDC相对应的是:prod/dss/run/bin

2)/omni_shared/etc_opt_omni_server/datalist ->这里面就是datalist,里面描述了备份哪个raw disk device,用哪个driver,以及是physical 带库还是vtl带库。 ./cs |grep [datalist]


JDC对应的是:etc/opt/omni/server/datalist

3) /opt/omni/lbin/SHELL/conf ->这里面是data list的信息,cat的话里面是DG信息,如下图:


full decommisson of GDC

JDC对应的是:/opt/omni/lbin/SHELL/conf   与GDC/DRC一样

4)/omni_shared/script/conf -> 这里面也是datalist信息,cat的话里面是load+mode信息,如下图:

full decommisson of GDC

5)/usr/local/admin/bc/jp ->这下面是server的名字,确定server的名字可以去上面3)路径下查DG,看DG前缀就是server name,然后cd进【server name】,下面是syn和split的job code,这些job syn/split上面3)路径下的所有DG


Decomm的话,dummy1 的job code. 2 3 4 删除, dummy 5里面关于DG的内容。

****************************************************************************************

full decommisson 的操作集中在三个平台,

                          1 backup server

                          2  VMAX GUI

                          3 FC switch


先说一下总体的思路:


volume首先bound进一个pool -> map进一个SG -> mount给主机。

volume的SG,主机的HBA卡光纤口IG,存储的FA端口PG组成 masking view.

switch -> edge switch -> core switch -> storage ,edge交换机上的zoneset上的成员是IG的PPWN与PG的WWPN(当然也可以按port来配)。

STD挂给production server, BCV挂给backup server,


1)首先需要在bankup server上中止std 与 bcv的clone关系; 

      

      symdg list |grep "server name"   如果dg name显示不完整,用下面两条来查;

            /home/work/./cs 50 |grep "server name"

             omnidb -sess [session ID] -report

      symdg show [dg name] (注意是dg name 不是device name, 要删掉device name 后面的_*)

      symclone -g [dg name] terminate que (check if it is copied)

      symclone -g [dg name] terminate (if p and s are copied) 


2)在vmx GUI上删除masking view;

3)  在vmx GUI上删除MV下的IG, PG;

4)在vmx GUI上删除fast policy, 如果分配了;


      fast policy是一个algorithm,能够monitor与server之间的I/O, lun来自于pool,pool是由不同的disk构成的,sata is less, fc 中等。fast policy能够分配哪块disk被用。


5)在vmx GUI上removeSG下的volume; (unmap, 切断vlume 与 FA port的关联,但是数据还在,利用率不变,volume仍然与pool bound着。)


   volume从SG中被remove并不是unmap,只是把disk从sg拿走了,不属于这个sg了,while we add a STD or BCV device to a SG, and add SG to masking view that device will be mapped to front and back end ports,unmap是解除与port的联系,unmap后其实还是和pool bound着的,而且里面的数据可还都存在,使用率没有变化,可以用下面的命令来查:

                           symdev -sid 0055 show 0B4A

               上面的命令可以查看0B4A的信息,与哪块盘bound着。


6)在vmx GUI上remove SG; 

7)在vmx GUI上unbind volume from pool; (volume的数据会被擦除,利用率会降到0%)


       unmap之后数据还在,unbind后是使用率就清零了,数据都被擦除。


8)在vmx GUI上把volume重新bind回原来的pool。


以上是std盘,对于bcv盘,除了一步以外,所有步骤都是一样的:

                                  bcv盘的SG是一个大的SG,不要删除。

查看BCV盘所属的pool,用以下命令:

                               symsg -sid 0055 list |grep -i GEPBKP*

                               symsg -sid 0055 show [dg name ] |grep -i 0B4A

BCV devices 属于backup storage, backup storage一共三个,第二个命令是确定究竟哪一个。


9)在backupserver上删除STD/BCV device, STD dg;

                            

                                     symclone -g [dg name] remove [0b4A]

                                     symbcv -g [dg name] remove ld [0c5c]

                                     symdg -delete [dg name] -force


10)完成上一步之后,重新ioscan的话会与新的NO-HW的path出现,删除这些path;


                                    ioscan -fnNkC disk |grep -i NO_HW

                                       rmsf -H []

11)在backupserver上 insf -e重建device表;


                                         insf -e


12)删除/var/adm/dev/下的server 文件夹,删除设备软链接;

13)在backupserver01 02上面删除datalist和conf下的备份脚本;

14)在backupserver07上dummy JP文件夹下的sync/splitjob code的dg内容;

15)在backupserver01上dummy 备份的job code;

16)在fabric manager上删除server所属的zoneset,zone,alias(按这个顺序);

                    

                        在FM上先选core 或 edge sw


        一个fabric里面有几个zoneset,zoneset的成员叫做member,就是一个zone,一个zone的成员是两个alias,是server上的wwpn和存储FA面板的port wwpn,zone和zoneset都是加入的vsan,vsan的成员是port,可以通过show interface看到,edge的port连接的server的wwpn,core的port连接的是存储的portwwpn,zone规定了server与storage之间的IO流向,不同vsan之间不能通信,一个port可以加入多个zone,一个zone只能加入一个vsan。


17)active change;

18)在edge switch 的 device manager上down 掉server port,把port所属的zone替换成vsan1;

              server -> edge switch -> core switch -> storage

                        storage的FA port还被其他server用,不能删。


server上的两个HBA,HBA0和HBA1,一个连edgeSW1,一个连edgeSW2,在SW1上能看到HBA0的zone,SW2上看到HBA1的,coreswitch的alias是存储的wwpn,zone的成员分别是HBA的WWPN和storage的WWPN.


19)save configure

20)finish.

        




    本文转自UVN2015  51CTO博客,原文链接:http://blog.51cto.com/10851095/1773109,如需转载请自行联系原作者