H3C Cloud云学院-校园网盘安装指导-5W100

手册下载

H3C Cloud云学院

校园网盘安装指导

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

资料版本:V1.3-20190806

产品版本:H3C Cloud_Learning_Space_3.0(E0508)及以后版本

 

Copyright © 2019 新华三技术有限公司 版权所有,保留一切权利。

非经本公司书面许可,任何单位和个人不得擅自摘抄、复制本文档内容的部分或全部,并不得以任何形式传播。

除新华三技术有限公司的商标外,本手册中出现的其它公司的商标、产品标识及商品名称,由各自权利人拥有。

本文档中的信息可能变动,恕不另行通知。


修订记录

日期

修订版本

描述

作者

2018-12-4

V1.0

完成初稿

郭晔晖

2019-1-8

V1.1

增加Bond操作附录

陈亿

2019-1-15

V1.2

增加产品背景及相关格式修改

陈亿

2019-8-6

V1.3

根据E0508版本刷新并修改文档格式

廖海珉

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 



背景

高校中教师在课堂布置的作业很多时候在当堂课程中无法完成,学生需要在课后才能完成,为了方便学生及老师将作业或者重要的文件存放到校园网内能够获取的地方,且保证自己作业或文件的私密性,于是新华三云学院推出了校园网盘产品。

 

校园网盘与云学院属于非关联产品,校园网盘可独立部署,将校园网盘接入校园网后,老师及学生能够通过网页的形式上传、下载以及分享文件。

 

校园网盘拓扑如下图所示:

图1 校园网盘拓扑图

 

建议配置如下表所示:

表1 校园网盘建议配置表

硬件需求

硬件配置

CPUGHz/Core

2.1GHz /2*10Core

内存

64GB

磁盘

SAS 10K以上或SSD

网卡

2*10000MB

阵列卡

Cache2GB

 

安装配置CloudOS环境

2.1.1  安装CloudOS系统

由于校园网盘的开发基于容器,所以需要安装ClouOS系统作为基础系统,安装过程如下:

(1)     通过服务器HDM启动服务器并挂载CloudOS安装镜像。

(2)     进入安装界面,选择Install H3Cloud,如下图所示。

图2 选择Install H3Cloud

1.PNG

 

(3)     若存在多个盘符,进入盘符选择界面,选择“sda”。

图3 选择sda盘符

2.PNG

 

(4)     进入INSTALLATION SUMMARY界面,选择SOFTWARE SELECTION”。

图4 选择SOFTWARE SELECTION

 

 

(5)     选择H3Cloud Master Node”后,单击<Done>按钮,返回INSTALLATION SUMMARY界面。

图5 选择H3Cloud Master Node

4.PNG

 

(6)     选择NETWORK & HOST NAME”。

图6 选择NETWORK & HOST NAME

 

(7)     选择需要使用的网卡,修改Host name名字,确保不为localhost单击<apply>按钮。再单击<Configure>按钮,进入详细配置界面

图7 进入网络详细配置界面

 

(8)     选择General选项卡,勾选Automatically connect to this network when it available项。

图8 配置General选项卡

 

(9)     IPv4 Settings选项卡中,设置Method为“Manual,添加待配置的IP,勾选Require IPv4 addressing for this connection to complete”,单击<Save>保存配置后,单击<Done>按钮,返回初始界面

图9 配置IPv4选项卡

 

(10)     <Begin Installation>按钮,进入安装进度展示界面,开始安装

图10 开始安装

 

图11 安装进度条

11.PNG

 

(11)     安装完成后,服务器自动重启。重启完成后进入如下界面。

图12 重启后进入如下界面

12.PNG

 

2.1.2  配置CloudOS

(1)     启动浏览器,在地址栏输入http://<h3cloudos_ip_address>:9090打开“H3Cloud OS安装部署服务”登录页面。

图13 进入Matrix登录页面

13.PNG

 

(2)     输入缺省的用户名和密码:admin/admin,单击<登录>按钮进入安装部署服务首页,单击云图标启动部署向导。

图14 单击云图标启动部署

14.PNG

 

(3)     选择单机模式,单击<下一步>开始部署。

图15 选择单击模式

15.PNG

 

(4)     选择需安装的服务,单击<下一步>按钮。

图16 选择需安装的服务

16.PNG

 

(5)     单击<开始部署>按钮,进入安装部署进度展示界面,进行部署。

图17 开始部署

17.PNG

 

图18 正在安装部署

18.PNG

 

(6)     安装部署成功后,单击<完成>按钮。

图19 安装部署成功

19.PNG

 

2.2  安装校园网盘

2.2.1  安装包上传并解压

将安装包上传到环境中,使用tar –zxvf xxx.tar.gz将安装包解压。解压后文件夹下有四个文件:

·     athena-package.tar.gz

·     athena-package.tar.gz.md5

·     nextcloud.tar.gz

·     nextcloud.tar.gz.md5

2.2.2  安装athena-package

(1)     单击右上角齿轮图标,选择组件部署。

图20 选择组件部署

20.PNG

 

(2)     填写组件路径即athena-package.tar.gz的路径,单击<下一步>按钮。请确保md5文件也在同一目录下。

图21 填写组件路径

22.PNG

 

(3)     确认服务组件信息后,单击<下一步>按钮。

图22 确认组件信息

23.PNG

 

(4)     信息确认后,单击<开始安装>按钮,进入安装进度展示界面。

图23 开始安装

24.PNG

 

图24 安装部署中

25.PNG

 

(5)     部署扩展组件成功后,单击<完成>按钮。

图25 组件部署成功

26.PNG

 

2.2.3  初始化网盘

(1)     登录超级管理员账户:输入网址:“服务器IP”,页面跳转校园网盘登录页面,输入超级管理员默认账号admin和默认密码admin,登录系统。

图26 登录校园网盘服务器系统

 

(2)     配置服务器IP地址:登录进系统之后,进入参数配置页面,配置服务器IP地址,单击<应用>按钮。

图27 配置服务器IP地址

 

(3)     配置存储卷磁盘分区和磁盘空间大小

a.     单击<选择磁盘分区>按钮,在弹出的复选框中,选择要使用的磁盘分区,单击<确定>按钮。

b.     输入分配给个人网盘的磁盘空间大小,单击<应用>按钮。后台会根据选择的磁盘分区依次创建物理卷、卷组、逻辑卷。将所有已选磁盘分区放入一个卷组,将逻辑卷挂载到个人网盘文件存放的路径。

图28 配置存储卷磁盘分区与磁盘空间

 

2.2.4  安装nextcloud

安装方法与athena-package包类似,请参见2.2.2  安装athena-package。其中,安装路径输入nextcloud.tar.gz的路径。

2.3  升级

校园网盘的升级步骤与安装步骤相同。若需升级,请使用新版本按照安装步骤重新安装一遍即可。

2.4  卸载

(1)     单击右上角的系统组件信息按钮。

图29 单击系统组件信息按钮

 

(2)     找到校园网盘服务后,单击操作列的删除图标。

图30 单击删除图标

 

(3)     单击<确定>按钮,完成卸载。

图31 确定卸载组件

 


FAQ

3.1  H3C CloudOS如何配置双网卡绑定?

解答:CloudOS的后台操作系统为CentOS 7.2,用户可使用Linux的网卡绑定命令进行网卡绑定操作。

 

说明

需要在CloudOS安装部署完成后再进行MasterCluster节点的网卡绑定配置。

 

(1)     使用SSH客户端或控制台登录到MasterCluster点中。

(2)     Master节点中使用以下命令停CloudOS务。

[root@masternode ~]# for rc in `/opt/bin/kubectl --server 127.0.0.1:8888 get rc |grep

-v CONTROLLER | awk -F ' ' '{print $1}'| tr -d '\r'`;do /opt/bin/kubectl --server

127.0.0.1:8888 scale --replicas=0 rc $rc;done

Error from server: replicationcontrollers "NAME" not found

replicationcontroller "alert-collectorrc" scaled

replicationcontroller "alert-portalrc" scaled

replicationcontroller "alert-servicerc" scaled

replicationcontroller "api-kinton-service-rc" scaled

replicationcontroller "aquarius-core-rc" scaled

<省略部分输出>

(3)     使用以下命令创建逻辑网卡bond0的配置文件。

[root@masternode ~]# vim /etc/sysconfig/network-scripts/ifcfg-bond0

(4)     在配置文件中输入下列内容配置bond0参数说明如表2所述。

DEVICE=bond0

IPADDR=172.10.10.140

NETMASK=255.255.0.0

GATEWAY=172.10.0.1

ONBOOT=yes

BOOTPROTO=none

USERCTL=no

NM_CONTROLLED=no

BONDING_OPTS="miimon=100 mode=4"

 

表2 参数说明

参数名称

参数说明

IPADDR

根据实际情况填写当前节点中对应网络的IP地址,此例中复用管理、集群和存储网卡,IP地址为172.10.10.140

NETMASK

根据实际情况填写以上IP地址的掩码,此例中为255.255.0.0

GATEWAY

根据实际情况配置当前节点的网关,此例中为172.10.0.1

BONDING_OPTS

根据实际情况和需求配置网卡绑定模式(mode)。本例中miimon=100表示系统。

100ms检测一次链路连接状态;mode=4表示选择动态链路聚合模式进行网卡绑定,需要交换机支持。

 

说明

在复用管理网卡和集群网卡的场景中,如需另行对存储网卡进行双网卡绑定操作时,需注意只有一个逻辑网卡中配置网关参数(GATEWAY)。

 

(5)     使用以下命令创建目录,并且备份两个待绑定网卡的网卡配置文件,本例中两个待绑定网卡的名称eth0eth1

[root@masternode ~]# mkdir /root/net_bak/

[root@masternode ~]# cp /etc/sysconfig/network-scripts/ifcfg-eth0 /root/net_bak/

[root@masternode ~]# cp /etc/sysconfig/network-scripts/ifcfg-eth1 /root/net_bak/

 

说明

如果是物理服务器的网卡,其网卡名称可能是eno或者是ens开头,请根据实际网卡名称备份配置文件。

 

(6)     使用以下命令配置待绑定网卡的配置文件。

[root@masternode ~]# vim /etc/sysconfig/network-scripts/ifcfg-eth0

TYPE=Ethernet

DEVICE=eth0

BOOTPROTO=none

ONBOOT=yes

MASTER=bond0

SLAVE=yes

USERCTL=no

NM_CONTROLLED=no

[root@masternode ~]# vim /etc/sysconfig/network-scripts/ifcfg-eth1

TYPE=Ethernet

DEVICE=eth1

BOOTPROTO=none

ONBOOT=yes

MASTER=bond0

SLAVE=yes

USERCTL=no

NM_CONTROLLED=no

 

说明

如果是物理服务器的网卡,其网卡名称可能是eno或者是ens开头,请根据实际网卡名称修改配置文件。

 

(7)     使用以下命令在系统模块中添加网卡绑定系统配置文件。

[root@masternode ~]# echo "alias netdev-bond0 bonding" >> /etc/modprobe.d/bonding.conf

 

说明

在复用管理网卡和集群网卡的场景中,如需另行对存储网卡进行双网卡绑定操作时,同样需在系统模块中添加相应的网卡绑定系统配置文件。例如绑定了存储网卡的逻辑网卡名称为bond1,需再次执行echo "alias netdev-bond1 bonding" >> /etc/modprobe.d/bonding.conf命令。

 

(8)     使用以下命令查看网卡绑定系统配置文件。

[root@masternode ~]# cat /etc/modprobe.d/bonding.conf

alias netdev-bond0 bonding

(9)     使用以下命令重启Network服务。

[root@masternode ~]# service network restart

Restarting network (via systemctl): [ OK ]

(10)     如果Network服务重启失败或者绑定未生效,请先检查网卡配置是否正确,然后在控制台中执行如下命令。

[root@masternode ~]# ifdown bond0

[root@masternode ~]# ifup bond0

[root@masternode ~]# service network restart

Restarting network (via systemctl): [ OK ]

 

说明

有时候会报连接某个网卡的报错,此时再次执行一次 service network restart 命令即可解决。

 

(11)     使用以下命令查看已配置的网卡绑定模式是否生效。本例中为动态链路聚合模式(mode=4)。

[root@masternode ~]# cat /sys/class/net/bond0/bonding/mode

802.3ad 4

(12)     使用以下命令查看网卡绑定状态。

[root@masternode ~]# cat /proc/net/bonding/bond0

Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

Bonding Mode: IEEE 802.3ad Dynamic link aggregation

Transmit Hash Policy: layer2 (0)

MII Status: up

MII Polling Interval (ms): 100

6-10

Up Delay (ms): 0

Down Delay (ms): 0

802.3ad info

LACP rate: slow

Min links: 0

Aggregator selection policy (ad_select): stable

Active Aggregator Info:

Aggregator ID: 1

Number of ports: 1

Actor Key: 13

Partner Key: 1

Partner Mac Address: 00:00:00:00:00:00

Slave Interface: ens192

MII Status: up

Speed: 10000 Mbps

Duplex: full

Link Failure Count: 0

Permanent HW addr: 00:50:56:8d:e6:0e

Slave queue ID: 0

Aggregator ID: 1

Actor Churn State: none

Partner Churn State: churned

Actor Churned Count: 0

Partner Churned Count: 1

details actor lacp pdu:

system priority: 65535

port key: 13

port priority: 255

port number: 1

port state: 77

details partner lacp pdu:

system priority: 65535

oper key: 1

port priority: 255

port number: 1

port state: 1

Slave Interface: ens256

MII Status: up

Speed: 10000 Mbps

Duplex: full

Link Failure Count: 0

Permanent HW addr: 00:50:56:8d:22:14

Slave queue ID: 0

Aggregator ID: 2

Actor Churn State: churned

6-11

Partner Churn State: churned

Actor Churned Count: 1

Partner Churned Count: 1

details actor lacp pdu:

system priority: 65535

port key: 13

port priority: 255

port number: 2

port state: 69

details partner lacp pdu:

system priority: 65535

oper key: 1

port priority: 255

port number: 1

port state: 1

(13)     使用以下命令查看路由表,确认逻辑网卡bond0对应的配置是否正确。

[root@masternode ~]# route

Kernel IP routing table

Destination Gateway Genmask Flags Metric Ref Use Iface

default 172.10.0.1 0.0.0.0 UG 0 0 0 bond0

10.101.0.0 0.0.0.0 255.255.0.0 U 0 0 0 flannel.1

10.101.17.0 0.0.0.0 255.255.255.0 U 0 0 0 docker0

link-local 0.0.0.0 255.255.0.0 U 1061 0 0 bond0

172.10.0.0 0.0.0.0 255.255.0.0 U 0 0 0 bond0

(14)     对两个Cluster节点重复执行步骤(3)至步骤(13)。

(15)     Master点中使用以下命令修改kube-flanneld置文件。

[root@masternode ~]# vim /etc/sysconfig/kube-flanneld

# /etc/sysconfig/kube-flanneld

KUBE_LOGTOSTDERR=true

KUBE_LOG_LEVEL=4

KUBE_MASTER=http://172.10.10.140:2379

KUBE_IFACE=bond0

(16)     使用以下命令重启kube-flannelddocker 服务。

[root@masternode ~]# systemctl restart kube-flanneld.service

[root@masternode ~]# systemctl restart docker.service

(17)     对两个Cluster节点重复执行步骤(15)至步骤(16)。

(18)     Master节点中执行以下命令启动Cloud OS服务。

[root@masternode ~]# for rc in `/opt/bin/kubectl --server 127.0.0.1:8888 get rc |grep

-v CONTROLLER | awk -F ' ' '{print $1}'| tr -d '\r'`;do /opt/bin/kubectl --server

127.0.0.1:8888 scale --replicas=1 rc $rc;done

Error from server: replicationcontrollers "NAME" not found

replicationcontroller "alert-collectorrc" scaled

replicationcontroller "alert-portalrc" scaled

replicationcontroller "alert-servicerc" scaled

replicationcontroller "api-kinton-service-rc" scaled

replicationcontroller "aquarius-core-rc" scaled

7-12

<省略部分输出>

(19)     使用/opt/bin/kubectl --server=127.0.0.1:8888 get pod -o wide命令查看服务状态。

联系我们