-
ModelArts支持调用shell脚本,可以使用python调用“.sh”。具体操作步骤如下:上传“.sh”脚本至OBS桶,例如“.sh”所在存储位置为 “ /bucket-name/code/test.sh”。在本地创建“.py”文件,例如“test.py”。由于后台会自动将代码目录下载至容器的“/home/work/user-job-dir/”目录下,因此您可以在启动文件“test.py”中通过如下方式调用“.sh”文件:import os os.system('bash /home/work/user-job-dir/code/test.sh')3.将“test.py”文件上传至OBS中,则该文件存储位置为“/bucket-name/code/test.py”。4.创建训练作业时,指定的代码目录为“/bucket-name/code/”,启动文件目录为“/bucket-name/code/test.py”。训练作业创建完成之后就可以使用python调用“.sh”文件。
-
Linux source命令:通常用法:source filepath 或 . filepath功能:使当前shell读入路径为filepath的shell文件并依次执行文件中的所有语句,通常用于重新执行刚修改的初始化文件,使之立即生效,而不必注销并重新登录。例如,当我们修改了/etc/profile文件,并想让它立刻生效,而不用重新登录,就可以使用source命令,如source /etc/profile。source命令(从 C Shell 而来)是bash shell的内置命令;点命令(.),就是个点符号(从Bourne Shell而来)是source的另一名称。这从用法中也能看出来。 source filepath 与 sh filepath 、./filepath的区别:1、当shell脚本具有可执行权限时,用sh filepath与./filepath是没有区别的。./filepath是因为当前目录没有在PATH中,所有"."是用来表示当前目录的。2、sh filepath 会重新建立一个子shell,在子shell中执行脚本里面的语句,该子shell继承父shell的环境变量,但子shell是新建的,其改变的变量不会被带回父shell,除非使用export。3、source filename其实只是简单地读取脚本里面的语句依次在当前shell里面执行,没有建立新的子shell。那么脚本里面所有新建、改变变量的语句都会保存在当前shell里面。 举例说明:1、新建一个test.sh脚本,内容为:A=1;2、修改其可执行权限:chmod +x test.sh;3、运行sh test.sh后,echo $A,显示为空,因为A=1并未传回给当前shell;4、运行./test.sh后,也是一样的效果;5、运行source test.sh 或者 . test.sh,然后echo $A,则会显示1,说明A=1的变量在当前shell中。转自:https://www.cnblogs.com/pkufork/p/linux_source.html
-
超时后,直接退回到CloudIDE的页面重新进入,还需要继续从控制台-》ECS-》远程登录,不太方便。
-
启动脚本:start_upload.sh123#!/bin/shnohup java -jar UploadSchedule.jar >> /usr/local/tomcat9/webapps/upload-to-oss/nohup_upload.out 2>&1 &echo $! > /var/run/UploadSchedule.pid 启动脚本说明:1、开启后台执行,并将程序产生的日志文件写入out文件;2、将当前进程id写入/var/run/UploadSchedule.pid,以供在停止脚本中使用此pid来停止当前进程。停止脚本:stop_upload.sh123#!/bin/shPID=$(cat /var/run/UploadSchedule.pid)kill -9 $PID 停止脚本说明:1、首先获取进程id;2、然后杀掉该进程。文件切分:split_nohup.sh程序不中断,一直在后台运行,那么产生的log也会持续输出到out问价,导致out文件越来越大。当需要根据out文件进行一些日志查找的时候,非常不方便。所以定期对out文件进行切分,按日期将当日out文件切分成若干小文件,从而方便处理及错误查找定位。12345678910#!/bin/bashlog_path=/usr/local/tomcat9/webapps/upload-to-oss if [ -f "$log_path/nohup_upload.out" ];thencurrent_date=`date -d "-1 day" "+%Y%m%d"`cp $log_path/nohup_upload.out $log_path/nohup_upload_${current_date}.outcat /dev/null > $log_path/nohup_upload.outsplit -b 5242880 -d -a 4 $log_path/nohup_upload_${current_date}.out $log_path/nohup_upload_${current_date}_rm -rf $log_path/nohup_upload_${current_date}.outfi切分脚本说明:1、如果out文件存在,将nohup_upload.out文件复制一份,命名为nohup_upload_当前日期(比如nohup_upload_20200328.out);2、将nohup_upload.out文件清空;3、对nohup_upload_20200328.out文件进行切分,切分后的文件命名格式为nohup_upload_20200328_0001,nohup_upload_20200328_0002;-b 指定每个小文件的大小(单位byte)-d 以数字作为后缀-a 指定后缀的长度4、将原文件(nohup_upload_20200328.out)删除。执行开启/停止命令12345# 启动./start_upload.sh # 停止./stop_upload.sh一些后台运行的小知识&和nohup区别:&的意思是在后台运行。意思是说, 当你在执行 ./start_upload.sh & 的时候, 即使你用Ctrl + C, 那么start_upload.sh照样运行(因为对SIGINT信号免疫)。 但是要注意, 如果你直接关掉Shell后, 那么, start_upload.sh进程同样消失。 因为对SIGHUP信号不免疫。nohup的意思是忽略SIGHUP信号, 所以当运行nohup ./start_upload.sh的时候, 关闭Shell,start_upload.sh进程还是存在的(对SIGHUP信号免疫)。 但是如果你直接在Shell中用Ctrl + C, 那么,start_upload.sh进程也是会消失的(因为对SIGINT信号不免疫)所以,要让进程真正不受Shell中Ctrl + C和Shell关闭的影响, 就用nohup和&同时用。
-
【问题现象】:AD CPU占用率90%以上,检查进程是powershell.exe【问题分析】:1、查看AD任务管理器发现CPU占用率很高,一般服务器进程没有占用这么高内存的powershell.exe进程,怀疑是系统中病毒。2、使用processMonitor,按processName=”powershell.exe”抓取状态,可以看到该进程执行参数如下:3、单独过滤出网络连接信息,发现该AD一直在和37.59.54.205(法国)、185.234.217.139(波兰)的80端口进行通信,基本确信已经中病毒。4、安装360进行病毒扫描也能看出。【问题解决】:1、 AD不要暴露到公网,ad做dns转发,只需要和公网dns的TCP/UDP 53端口通信。2、 开启系统防火墙,并开放部分业务需要使用的端口,参考通信矩阵文档。3、 用户虚拟机需要安装好杀毒软件,打上最新病毒补丁文件。转自:https://forum.huawei.com/enterprise/zh/thread-520939.html
-
CentOS虚拟机断电或强制关机,再开机出现问题:找出问题出现在哪:这里的 journalctl 是查看系统的日志信息;直接输入此命令查看,日志内容可能很多,快速翻页或者直接定位到最新的日志信息,发现有标红的,说明此处出现错误。错误原因:failed to mount /sysroot.Dependency failed for Initrd root File System.Dependency failed for Reload configuration from the Real Root.解决问题:输入命令:xfs_repair -v -L /dev/dm-0-L 选项指定强制日志清零,强制xfs_repair将日志归零,即使它包含脏数据(元数据更改)。转自:linux 开机错误 Entering emergency mode. Exit the shell to continue.
-
今天是远程办公的第4天,渐渐的找到了一点在家办公的节奏了,改了几个shell脚本,在改动过程中,发现还有一些知识点需要巩固,这里写出来,加深下印象。 关于$符号,大家肯定都不陌生,在shell脚本中,$的作用还是比较大多的,这里将所有的$组合都列出来,大家可以看下效果。 $组成的命令大概有下面几个:$0,$1...$?,$!,$$,$*,$#,$@下面分别看看这些意思是什么:1.$0,$1$0和$1比较好理解,他们的意思,分别是脚本名称和脚本的第一个参数,我们举个例子来看:123456789jwfyyzdembp:tmp jwfyyz$ cat test.shecho '$0的含义是':$0echo '$1的含义是':$1jwfyyzdembp:tmp jwfyyz$ ./test.sh yeyz$0的含义是:./test.sh$1的含义是:yeyzjwfyyzdembp:tmp jwfyyz$ sh test.sh yeyz$0的含义是:test.sh$1的含义是:yeyz 需要注意一点,当使用./test.sh的方法来运行脚本的时候,$0的值是./test.sh,而不是test.sh2.$?$?指的是最后运行的命令的执行返回码,执行成功,则返回0,否则返回1,举例如下:123456789101112131415jwfyyzdembp:tmp jwfyyz$ cat test.sh echo '$0的含义是':$0echo '$1的含义是':$1ls -l a.txtecho '$?的结果是'$?ls -l test.shecho '$?的结果是'$? jwfyyzdembp:tmp jwfyyz$ sh test.sh yeyz$0的含义是:test.sh$1的含义是:yeyzls: a.txt: No such file or directory$?的结果是1-rwxr-xr-x 1 jwfyyz wheel 124 2 7 20:32 test.sh$?的结果是0 可以看到,第一次运行ls -l a.txt的时候,由于我们的目录中没有a.txt这个文件,所以返回是1,第二次由于test.sh文件是存在的,所以返回的结果是03.$$ $$指的是脚本运行的当前进行id号,举例如下:1234567891011jwfyyzdembp:tmp jwfyyz$ cat test.sh pwdecho $$sleep 10 jwfyyzdembp:tmp jwfyyz$ sh test.sh &[1] 60658 jwfyyzdembp:tmp jwfyyz$ ps -ef|grep test 501 60658 60529 0 8:36下午 ttys000 0:00.01 sh test.sh 501 60661 60529 0 8:36下午 ttys000 0:00.00 grep test 我们在test.sh脚本后面设置了sleep 10的命令,脚本运行完会睡眠10s,脚本中打印出来了值60658,此时我们查看当前脚本的进程号,发现子进程的进程id是606584.$*和$@ 这两个放在一起,主要是因为他们都代表引用的所有参数,单独打印出来结果,都是一样的,但是循环打印他们的内容,则会看出区别,举例如下:1234567891011121314151617181920212223jwfyyzdembp:tmp jwfyyz$ cat test.sh echo '$*的结果是':$*echo '$@的结果是':$@echo "-- \$* 演示 ---"for i in "$*"; do echo $idone echo "-- \$@ 演示 ---"for i in "$@"; do echo $idone jwfyyzdembp:tmp jwfyyz$ sh test.sh yeyz 1 2 3$*的结果是:yeyz 1 2 3$@的结果是:yeyz 1 2 3-- $* 演示 ---yeyz 1 2 3-- $@ 演示 ---yeyz123 可以看到,循环打印的时候,$@ 5.$# $#容易理解,它的意思是参数的个数。举例:123456789jwfyyzdembp:tmp jwfyyz$ cat test.sh echo '$*的结果是':$*echo '$@的结果是':$@echo '$#的结果是':$# jwfyyzdembp:tmp jwfyyz$ sh test.sh yeyz 1 2 3$*的结果是:yeyz 1 2 3$@的结果是:yeyz 1 2 3$#的结果是:46.$! 该命令是显示shell脚本中上一个后台执行命令的进程id号,如下:12345678910111213141516171819jwfyyzdembp:tmp jwfyyz$ cat test.sh echo '$*的结果是':$*echo '$@的结果是':$@echo '$#的结果是':$#sleep 10 &echo '$!的结果是':$!sleep 10 jwfyyzdembp:tmp jwfyyz$ sh test.sh yeyz 1 2 3 &[1] 61237$*的结果是:yeyz 1 2 3$@的结果是:yeyz 1 2 3$#的结果是:4$!的结果是:61238 jwfyyzdembp:tmp jwfyyz$ ps -ef|grep sleep 501 61238 61237 0 9:12下午 ttys000 0:00.00 sleep 10 501 61239 61237 0 9:12下午 ttys000 0:00.00 sleep 10 501 61241 60529 0 9:12下午 ttys000 0:00.00 grep sleep 在test.sh中,我们使用了sleep 10这样的命令在后台执行,然后我们可以看到,$!返回的值是61238,当我们ps -ef命令去查询进程信息的时候,可以看到,61238这个进程对应的命令就是sleep 10,注意和$$区分开来,$$反应的是当前脚本执行的进程号,$!反应的是脚本中某个命令的进程号。
-
背景在Hbase使用过程中,使用的Hbase集群经常会因为某些原因需要数据迁移。大多数情况下,可以跟用户协商用离线的方式进行迁移,迁移离线数据的方式就比较容易了,将整个Hbase的data存储目录进行搬迁就行,但是当集群数据量比较多的时候,文件拷贝的时间很长,对客户的业务影响时间也比较长,往往在客户给的时间窗口无法完成,本文给出一种迁移思路,可以利用Hbase自身的功能,对集群进行迁移,减少集群业务中断时间。简介大家都知道Hbase有snapshot快照的功能,利用快照可以记录某个时间点表的数据将其保存快照,在需要的时候可以将表数据恢复到打快照时间时的样子。我们利用Hbase的snapshot可以导出某个时间点的全量数据。因为用户的业务还在不停的写入表中,除了迁移快照时间点之前的全量数据,我们还需要将快照时间点后源源不断的增量数据也迁移走,这里如果能采用双写的方式,将数据写入两个集群就好了,但是用户的业务不会这样做,如果这样做还得保证双写的事务一致性。于是可以利用Hbase的replication功能,replication功能本身就是保留了源集群的WAL日志记录,去回放写入到目的集群,这样一来用户业务端->原始集群->目的集群便是个串形的数据流,且由Hbase来保证数据的正确性。所以这个迁移的方法就是利用snapshot迁移全量数据,利用replication迁移增量数据。迁移步骤上图给出了迁移的整个时间线流程,主要有这么5个时间点。T0: 配置好老集群A集群到新集群B的Replication关系,Replication的数据由A集群同步到集群B,将表设置成同步,从此刻开始新写入A集群表的数据会保留在WAL日志中;T1: 生成该时间点的全量数据,通过创建快照,以及导出快照数据的方式将该时间点的数据导出到新集群B;T2: 新集群B将T1时刻的快照数据导入,此时新集群B中会由快照创建出表,此时老集群A集群上设置的Replication的关系会自动开始将T0时刻保留的WAL日志回放至新集群B的表中,开始增量数据同步。T3: 由于从T0-T3之间的操作会花费一段时间,此时会积累很多WAL日志文件,需要一定的时间来同步至新集群,这里需要去监控一下数据同步情况,等老集群WAL被逐渐消费完,此时可以将老集群的写业务停止一下并准备将读写业务全部切到新集群B。T4: T3-T4之间应该是个很短的时间,整个迁移也只有这个时间点会有一定中断,此时是让用户将业务完全切到新集群B,至此迁移完成。操作涉及的命令1.设置集群A和集群B的peer关系在源集群Hbase shell中, 设定peeradd_peer 'peer_name','ClusterB:2181:/Hbase'2.在集群A的表中设置replication属性假设目标表名为Student,先获取Family=f进入Hbase shell中,alter 'Student',{NAME => 'f',REPLICATION_SCOPE => '1'}3.给集群A的表创建快照在Hbase shell中snapshot 'Student','Student_table_snapshot'4.在A集群中导出快照Hbase org.apache.hadoop.Hbase.snapshot.ExportSnapshot -snapshot Student_table_snapshot -copy-to /snapshot-backup/Student5.将快照数据放置到集群B的对应的目录下上面命令会导出2个目录,一个是快照元数据,一个是原始数据将元数据放到/Hbase/.Hbase-snapshot中,将原始数据放到/Hbase/archive目录中由于Hbase的archive目录会有个定时清理,这里可以提前将集群B的master的Hbase.master.cleaner.interval值设置大点,避免拷贝过程中发生碰巧发生了数据清理。如果集群B中没有对应的目录,可以提前创建hdfs dfs -mkdir -p /Hbase/.Hbase-snapshothdfs dfs -mkdir -p /Hbase/archive/data/default/移动导出的snapshot文件到snapshot目录hdfs dfs -mv /snapshot-backup/Student/.Hbase-snapshot/Student_table_snapshot /Hbase/.Hbase-snapshot/hdfs dfs -mv /snapshot-backup/Student/archive/data/default/Student /Hbase/archive/data/default/6.在新集群B中恢复表的快照进入Hbase shellrestore_snapshot 'Student_table_snapshot'恢复完成后,记得将集群B的hmaster中Hbase.master.cleaner.interval的值调整回来。
-
问题求助: 1. 根据如下安装指南安装ExaGearhttps://support.huaweicloud.com/ug-exagear-kunpengdevps/kunpengexagear_06_0009.html 2. host OS为CentOS 7.6 PAGE_SIZE为64K 根据如下章节正常部署ExaGear文档首页 > 鲲鹏开发套件 > 指令动态翻译> 用户指南(ExaGear)> ExaGear for Server> 安装ExaGear for Server> 安装ExaGear Server for CentOS with 64kB page size3. 运行exagear命令,进入guest shell,安装epel-release和golang yum install epel-release yum install golang-bin4. exagear运行go 出错请问如何解决?背景:1. 开源软件monkey使用了两条86机器指令(https://github.com/bouk/monkey/blob/master/monkey_amd64.go),如下package monkey// Assembles a jump to a function valuefunc jmpToFunctionValue(to uintptr) []byte {return []byte{0x48, 0xBA,byte(to),byte(to >> 8),byte(to >> 16),byte(to >> 24),byte(to >> 32),byte(to >> 40),byte(to >> 48),byte(to >> 56), // movabs rdx,to0xFF, 0x22, // jmp QWORD PTR [rdx]}}2.直接在arm上运行,会出现异常 3. 想尝试使用ExaGear解决以上问题
-
Linux Shell CentOS 写一个输出命令 支持颜色1、代码#!/usr/bin/env bash# ---------------------------------------------# 使用说明# 格式 prt "hello world" red 0# 格式 prt -h 打开帮助# ---------------------------------------------# 输出的消息MSG=$1# 指定颜色COLOR=$2# 是否开启背景色,1开启,0 不开始BG=$3# 改变字体显示模式为高亮模式echo -n -e "\033[31m\033[1m"if [ -z "$MSG" ]; then echo -e "\033[31m 参数不能为空 \033[1m" echo -e "\033[31m see prt -h \033[1m" # 恢复下一行的颜色为正常模式 echo -n -e "\033[31m\033[0m" exit 1fiif [ "$MSG" == "-h" ]; then echo -e "\033[32m prt [message][color:-green][background:-0] \033[1m" echo -e "\033[32m red = 红色 \033[1m" echo -e "\033[32m green = 绿色 \033[1m" echo -e "\033[32m yellow = 黄色 \033[1m" echo -e "\033[32m blue = 蓝色 \033[1m" echo -e "\033[32m purple = 紫色 \033[1m" echo -e "\033[32m skyblue = 天蓝色 \033[1m" # 恢复下一行的颜色为正常模式 echo -n -e "\033[31m\033[0m" exit 1fiif [ -z "$COLOR" ]; then COLOR=greenfiif [ -z "$BG" ]; then BG=0fiMSG="$MSG"case $COLOR in"red") if [ $BG == 1 ]; then echo -e "\033[41;37m $MSG \033[1m" else echo -e "\033[31m $MSG \033[1m" fi ;;"green") if [ $BG == 1 ]; then echo -e "\033[42;37m $MSG \033[1m" else echo -e "\033[32m $MSG \033[1m" fi ;;"yellow") if [ $BG == 1 ]; then echo -e "\033[43;37m $MSG \033[1m" else echo -e "\033[33m $MSG \033[1m" fi ;;"blue") if [ $BG == 1 ]; then echo -e "\033[44;37m $MSG \033[1m" else echo -e "\033[34m $MSG \033[1m" fi ;;"purple") if [ $BG == 1 ]; then echo -e "\033[45;37m $MSG \033[1m" else echo -e "\033[35m $MSG \033[1m" fi ;;"skyblue") if [ $BG == 1 ]; then echo -e "\033[46;37m $MSG \033[1m" else echo -e "\033[36m $MSG \033[1m" fi ;;*) echo -e "\033[31m see prt -h \033[1m" ;;esac# 恢复下一行的颜色为正常模式echo -n -e "\033[31m\033[0m"1234567891011121314151617181920212223242526272829303132333435363738394041424344454647484950515253545556575859606162636465666768697071727374757677787980818283848586878889909192939495969798注册脚本为命令参考 Linux - 如何把一个脚本注册为命令,成为系统的新命令2、演示转载:https://blog.csdn.net/qq_15071263/article/details/109198050?utm_medium=distribute.pc_category.none-task-blog-hot-4.nonecase&depth_1-utm_source=distribute.pc_category.none-task-blog-hot-4.nonecase&request_id=W--wangzhiqiang 发表于2020-10-23 11:23:18 2020-10-23 11:23:18 最后回复 W--wangzhiqiang 2020-10-23 11:23:185412 0
-
【功能模块】SFTP【操作步骤&问题现象】1、xshell可以连接2、xftp连接不上,国庆前是可以用的【截图信息】xftp错误提示信息:sshd_config:使用Subsystem sftp /usr/libexec/openssh/sftp-server:使用 Subsystem sftp internal-sftp时信息:
-
ModelArts集成了基于开源的Jupyter Notebook,无需安装配置,在创建Notebook实例后,打开实例即可进行开发。ModelArts上暂不开放用户root权限,因此暂不能使用apt-get安装操作系统软件,不能使用conda安装第三方python包,可以支持大部分的shell命令,可以执行shell脚本。Notebook Kernel是一个IPython运行环境,可以理解是增强版本的Python Shell。在ipynb文件中,使用”!“加上Linux shell 命令就可以执行。此外,notebook中也可以新建一个terminal窗口,同样可以执行shell命令。1、查看工作环境所在的目录,python的安装位置和版本2、notebook中查看、安装python第三方库使用!pip install package_name==package_version 即可安装python依赖包3、执行shell脚本
-
【问题影响】vLB服务不可用,TC/SC用户无法登录用户计算机。【可能原因】IP地址存在冲突。IP发生变化,该IP产生的告警需要手工清除。WI服务异常。vLB服务器没有正常运行。网络问题。产生告警的vLB服务器的HA服务异常。主备vLB服务器的HA服务均异常。【处理步骤】1、在“FusionAccess > 监控 > 告警”上查看是否同时存“HA主备间心跳故障”告警且该告警的附加信息中显示的“对端IP地址”与当前vLB服务器异常的服务器IP地址一致。是,排除产生告警的vLB服务器的HA服务故障。否,执行步骤 3。2、在“FusionAccess > 监控 > 告警”上查看告警是否还存在?是,执行步骤 3。否,处理完毕。3、在“FusionAccess > 监控 > 告警”上查看是否同时存对端vLB的“ vLB服务器异常”告警。是,排除主备vLB服务器的HA服务故障。否,执行步骤 5。4、在“FusionAccess > 监控 > 告警”上查看告警是否还存在?是,执行步骤 5。否,处理完毕。5、使用管理员帐号登录产生告警的服务器,运行arping -c 3 -f -D -I eth0 产生告警的服务器IP,查看是否有IP冲突。是,执行步骤 6。否,执行步骤 8。返回信息类似如下所示,则无IP冲突。ARPING 192.168.162.11 from 0.0.0.0 eth0 Sent 3 probes (3 broadcast(s)) Received 0 response(s) (注:以上IP仅为举例,应以实际IP为准) 返回信息类似如下所示,则存在IP冲突。ARPING 192.168.162.11 from 0.0.0.0 eth0 Unicast reply from 192.168.162.11 [12:6E:D4:AB:CD:EF] 1.022ms Sent 1 probes (1 broadcast(s)) Received 1 response(s) (注:以上IP和MAC地址仅为举例,应以实际IP和MAC为准) 6、登录造成IP冲突的机器,关闭该机器或更换其IP。在产生告警的服务器上再次运行arping -c 3 -f -D -I eth0 产生告警的服务器IP,查看是否还存在IP冲突。是,联系技术支持处理。否,执行步骤 7。7、在“FusionAccess > 监控 > 告警”上查看告警是否还存在?是,执行步骤 8。否,处理完毕。8、使用gandalf帐号登录ITA服务器,查看与vLB服务器的网络是否正常。输入ping -c 3 vLB服务器的IP,查看通信是否正常。是,执行步骤 11。否,执行步骤 9。返回信息类似如下所示,则通信正常。PING 192.168.190.2 (192.168.190.2) 56(84) bytes of data. 64 bytes from 192.168.190.2: icmp_seq=1 ttl=64 time=0.047 ms 64 bytes from 192.168.190.2: icmp_seq=2 ttl=64 time=0.057 ms 64 bytes from 192.168.190.2: icmp_seq=3 ttl=64 time=0.058 ms (注:以上IP仅为举例,应以实际IP为准) 9、根据现场具体情况定位和排除网络故障。10、在“FusionAccess > 监控 > 告警”上查看告警是否还存在?是,执行步骤 11。否,处理完毕。11、查看vLB配置的WI服务的状态是否正常。使用管理员帐号登录WI服务器,调用shell命令service WIService status查看WI服务状态是否正常(结果为normal的时候为正常)。是,执行步骤 13。否,执行步骤 12。12、使用管理员帐号登录WI服务器,调用shell命令service WIService restart重启WI服务。13、查看vLB服务的状态是否正常。使用管理员帐号登录vLB服务器,调用shell命令service HAProxy status查看vLB服务状态是否正常(结果为HAProxy is running的时候为正常)。是,执行步骤 15。否,执行步骤 14。14、使用管理员帐号登录vLB服务器,调用shell命令service HAProxy restart重启vLB服务。15、在“FusionAccess > 监控 > 告警”上查看告警是否还存在?是,联系技术支持处理。否,处理完毕。
上滑加载中
推荐直播
-
华为AI技术发展与挑战:集成需求分析的实战指南
2024/11/26 周二 18:20-20:20
Alex 华为云学堂技术讲师
本期直播将综合讨论华为AI技术的发展现状,技术挑战,并深入探讨华为AI应用开发过程中的需求分析过程,从理论到实践帮助开发者快速掌握华为AI应用集成需求的框架和方法。
去报名 -
华为云DataArts+DWS助力企业数据治理一站式解决方案及应用实践
2024/11/27 周三 16:30-18:00
Walter.chi 华为云数据治理DTSE技术布道师
想知道数据治理项目中,数据主题域如何合理划分?数据标准及主数据标准如何制定?数仓分层模型如何合理规划?华为云DataArts+DWS助力企业数据治理项目一站式解决方案和应用实践告诉您答案!本期将从数据趋势、数据治理方案、数据治理规划及落地,案例分享四个方面来助力企业数据治理项目合理咨询规划及顺利实施。
去报名
热门标签