• [openEuler] 基于openEuler操作系统上部署redis-6.0.0
    一、【环境要求】和 架构信息(软件版本信息)确认CPU架构:x86_64/aarch64OS版本:openEuler20.03-LTS-SP1kernel version:4.19.90   命令确认:cat /etc/os-release uname -i二、安装Redis-6.0.0步骤Redis部署方式主要分为三种,分别为:yum源、rpm包、源码编译安装。本部署文档以源码编译安装Redis-6.0.0。下载Redis-6.0.0源码包#下载redis-6.0.0源码 wget https://download.redis.io/releases/redis-6.0.0.tar.gz解压源码包tar -xzvf redis-6.0.0.tar.gz安装依赖yum -y install gcc gcc-c++ kernel-devel本机系统已经安装过,所以不用安装了。如果确认安装过依赖,可以忽略这个步骤进入redis-6.0.0目录,编译redis,耐心等待,需要一点时间编译cd redis-6.0.0 make安装redis到指定目录make PREFIX=/usr/local/redis install三、测试验证 启动测试/usr/local/redis/bin/redis-server & # 查看redis进程 ps -ef|grep redis查看redis-server及redis-cli版本/usr/local/redis/bin/redis-server -v /usr/local/redis/bin/redis-cli -v登入redis客户端,创建测试key-value至此,在openEuler-20.03-LTS-SP1上面源码编译安装redis-6.0.0完成
  • [openEuler] 基于openEuler操作系统上部署Apache Hadoop 2.6.0 [伪分布式安装]
    一、【环境要求】和 架构信息(软件版本信息)确认uname -i cat /etc/os-release先决条件必须安装Java:Hadoop是利用java开发的开源软件,所以需要安装java。java -versionssh:必须安装ssh,并且sshd必须正在运行才能使用管理远程Hadoop守护程序的Hadoop脚本。说明:什么是伪分布式安装?hadoop有三种模式的安装,分别为独立安装、伪分布式安装、全分布式安装。独立安装是最简单安装,即将hadoop安装在一台机器上,伪分布式安装是在独立安装的基础上进行相应的配置而成,所谓伪分布式安装就是在一台机器上模拟一个小规模的集群,相较于独立模式,伪分布式模式下可以使用yarn、HDFS等。目前就只有一台虚拟机器,所以就搭建伪分布模式的hadoop,接下来就介绍怎么以伪分布模式安装hadoop。二、安装伪分布式详细步骤1、在 /root/software 目录下载 hadoop-2.6.0.tar.gz【如果没有此目录,则自己创建】,利用tar -zxvf 解压下载的包。[root@localhost ~]# cd /root [root@localhost ~]# mkdir software [root@localhost ~]# cd software/ [root@localhost software]# wget http://archive.apache.org/dist/hadoop/common/hadoop-2.6.0/hadoop-2.6.0.tar.gz[root@localhost software]# tar -zvxf hadoop-2.6.0.tar.gz 2、启动Hadoop     编辑hadoop-env.sh文件,进入解压好的hadoop文件夹,在etc/hadoop路径下(即全路径:/root/software/hadoop-2.6.0/etc/hadoop)找到hadoop-env.sh文件,打开hadoop-env.sh文件,找到export JAVA_HOME=${JAVA_HOME},修改为java安装的根目录【根据自己系统的java安装目录自行调整】。vi /root/software/hadoop-2.6.0/etc/hadoop/hadoop-env.sh退回到hadoop目录下,即/root/software/hadoop-2.6.0路径下,使用命令bin/hadoop,若出现以下提示,则hadoop安装成功:[root@localhost hadoop-2.6.0]# cd /root/software/hadoop-2.6.0 [root@localhost hadoop-2.6.0]# ./bin/hadoop3、配置core-site.xml和hdfs-site.xml    配置core-site.xml:该配置文件在etc/hadoop路径下,即/root/software/hadoop-2.6.0/etc/hadoop路径下,在<configuration>节点下添加如下内容:<property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property>[root@localhost hadoop-2.6.0]# vi /root/software/hadoop-2.6.0/etc/hadoop/core-site.xml 4、配置hdfs-site.xml:该配置文件在etc/hadoop路径下,即/root/software/hadoop-2.6.0/etc/hadoop路径下,在<configuration>节点下添加如下内容: <property> <name>dfs.replication</name> <value>1</value> </property>这是设置存储到HDFS文件系统中的文件需要复制的份数,在全分布模式下,每上传一个文件到HDFS文件系统中,HDFS都会根据设置的复制份数把文件复制对应的份数并分散存储到不同的节点上,这种机制保证了HDFS文件的容灾性、容错性,一般在全分布模式下设置为3份,由于我们目前是伪分布模式,只有一个节点(一台机器),所以存储一份即可。[root@localhost hadoop-2.6.0]# vi /root/software/hadoop-2.6.0/etc/hadoop/hdfs-site.xml 5、安装ssh     先检查一下Linux系统上是否安装了ssh,使用以下命令查看本地是否已经安装ssh:     ssh     如果安装ssh,会出现如下图所示:    检查ssh到本地是否需要密码,使用如下命令:如果不需要输入密码,则ssh配置成功    ssh localhost   如果使用ssh localhost需要输入密码,执行以下命令配置sshssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys chmod 0600 ~/.ssh/authorized_keys  如上命令执行成功之后,再执行ssh localhost命令,如果不需要密码且出现以下提示,则ssh配置成功:  6、配置MapReduce    格式化文件系统并启动NameNode守护进程和DataNode守护进程[root@localhost ~]# cd /root/software/hadoop-2.6.0/ [root@localhost hadoop-2.6.0]# bin/hdfs namenode -format [root@localhost hadoop-2.6.0]# sbin/start-dfs.sh   执行上述命令之后,在浏览器中输入http://IP:50070,IP是你安装hadoop机器的IP,出现如下图界面,代表MapReduce配置成功:7、在单节点上配置yarn:以下的步骤在上述所有操作都执行成功的前提下进行。     配置mapred-site.xml:mapred-site.xml文件同样存放在/root/software/hadoop-2.6.0/etc/hadoop路径下,默认该路径下并不存在mapred-site.xml文件,而是存在mapred-site.xml.template文件,复制一份mapred-site.xml.template文件,并改名为mapred-site.xml即可,在<configuration>节点下添加如下内容:<property> <name>mapreduce.framework.name</name> <value>yarn</value> </property>[root@localhost hadoop-2.6.0]# cd /root/software/hadoop-2.6.0/etc/hadoop [root@localhost hadoop]# cp mapred-site.xml.template mapred-site.xml [root@localhost hadoop]# vi mapred-site.xml     配置yarn-site.xml:yarn-site.xml文件同样存放在/root/software/hadoop-2.6.0/etc/hadoop路径下,在<configuration>节点下添加如下内容: <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property>    vi yarn-site.xml    使用如下命令启动ResourceManager守护程序和NodeManager守护程序[root@localhost ~]# cd /root/software/hadoop-2.6.0 [root@localhost hadoop-2.6.0]# sbin/start-yarn.sh    在浏览器地址栏输入地址:http://IP:8088,如果出现如下界面,代表配置单节点yarn成功:至此,伪分布式hadoop安装成功
  • [openEuler] openEuler20.03 LTS sp1操作系统下发布Apache ZooKeeper 3.6.3
    一、架构信息和软件版本信息 : cat /etc/os-release       uname -i                     二、切换目录并下载软件包到该目录 cd /usr/local/wget https://downloads.apache.org/zookeeper/zookeeper-3.6.3/apache-zookeeper-3.6.3-bin.tar.gz 三、解压之后修改目录名称并创建 data 文件夹tar -zxvf apache-zookeeper-3.6.3-bin.tar.gz   mv apache-zookeeper-3.6.3-bin zookeeper-3.6.3cd zookeeper-3.6.3mkdir data四、进入 conf 目录,修改 zoo_sample.cfg 名称为 zoo.cfg,编辑 zoo.cfg ,修改 dataDir为上面创建的 data 的路径为  /usr/local/zookeeper-3.6.3/datacd conf/mv zoo_sample.cfg zoo.cfg vi zoo.cfg五、进入 bin 目录启动zookpeer      cd /usr/local/zookeeper-3.6.3/bin      ./zkServer.sh start启动成功六、zookeeper节点的增删改查./zkCli.sh下面是zk的一些命令测试,如果需要尝试可以查更多资料了解。[zk: localhost:2181(CONNECTED) 1] ls /   [zookeeper][zk: localhost:2181(CONNECTED) 2] create /node_1 openeuler1334Created /node_1[zk: localhost:2181(CONNECTED) 3] create -s /node_1/node_1_1 openeuler666Created /node_1/node_1_10000000000[zk: localhost:2181(CONNECTED) 4] get /node_1openeuler1334[zk: localhost:2181(CONNECTED) 5] stat /node_1cZxid = 0x2ctime = Fri Jul 30 23:23:04 CST 2021mZxid = 0x2mtime = Fri Jul 30 23:23:04 CST 2021pZxid = 0x3cversion = 1dataVersion = 0aclVersion = 0ephemeralOwner = 0x0dataLength = 13numChildren = 1[zk: localhost:2181(CONNECTED) 6] set /node_1 updated[zk: localhost:2181(CONNECTED) 7] get /node_1updated[zk: localhost:2181(CONNECTED) 8] ls /[node_1, zookeeper][zk: localhost:2181(CONNECTED) 9] delete /node_1/node_1_10000000000[zk: localhost:2181(CONNECTED) 10] delete /node_1 [zk: localhost:2181(CONNECTED) 11] ls /[zookeeper][zk: localhost:2181(CONNECTED) 12] 
  • [openEuler] 基于openEuler-20.03-LTS-SP1安装部署Apache Hadoop 3.3.1
    1、查看操作系统版本及CPU架构cat /etc/os-realease uname -i2、安装Java8Hadoop3.3.*对Java版本的最低要求从Java7增加到Java8创建java目录,解压jdk,配置环境变量mkdir /usr/java tar zxf jdk-8u301-linux-x64.tar.gz -C /usr/java/ vim /etc/profile/etc/profile文件中添加以下内容export JAVA_HOME=/usr/java/jdk1.8.0_301 export PATH=$JAVA_HOME/bin:$PATH export CLASSPATH=.$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar刷新配置文件使其生效,查看java版本source /etc/profile java -version3、安装openssh和rsyncopenEuler一般都会默认安装openssh和rsync,检查是否安装yum list all openssh yum list all rsync若显示未安装,使用yum install openssh/yum install rsync安装即可4、添加Hadoop运行用户groupadd -g 1000 hadoop useradd -g 1000 -u 1000 hadoop passwd Hadoop // 输入要设置的密码并记住5、配置主节点登录自己和其他节点不需要输入密码退出登录,使用hadoop用户重新登录至主机配置sshssh-keygen -t rsa -P ''ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop@localhost此时可以使用hadoop直接本地登录,无需输入密码6、切换到root用户登录,解压Hadoophadoop3.3.1载地址:http://archive.apache.org/dist/hadoop/core/hadoop-3.3.1/hadoop-3.3.1.tar.gzwget -P /usr/local/ http://archive.apache.org/dist/hadoop/core/hadoop-3.3.1/hadoop-3.3.1.tar.gz cd /usr/local tar zxf hadoop-3.3.1.tar.gz创建软链接ln -sv hadoop-3.3.1 hadoop7、配置Hadoop环境变量vim /etc/profile添加以下内容# Hadoop HADOOP_HOME=/usr/local/hadoop PATH=$HADOOP_HOME/bin:$PATH export HADOOP_HOME PATH刷新配置文件,查看Hadoop版本source /etc/profile hadoop version修改/usr/local/hadoop的属主和属组为hadoopchown -R hadoop.hadoop /usr/local/hadoop/8、配置单机(本地)模式并测试切换为hadoop用户登录主机进入hadoop目录,创建input文件夹,将etc/hadoop/目录下的所有xml文件复制到input目录下cd /usr/local/hadoop-3.3.1 mkdir input cp etc/hadoop/*.xml input测试hadoop命令bin/hadoop运行 grep 例子,将 input 文件夹中的所有文件作为输入,筛选当中符合正则表达式 dfs[a-z.]+ 的单词并统计出现的次数,最后输出结果到 output 文件夹中bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.1.jar grep input output 'dfs[a-z.]+'查看运行结果cat output/*至此,openEuler-20.03-LTS-SP1安装部署并本地测试Apache Hadoop 3.3.1完成。
  • [openEuler] 基于openEuler-20.03-LTS-SP1安装部署Apache Hadoop 2.9.2
    1、查看操作系统版本及CPU架构cat /etc/os-release uname -i2、安装Java1.7jdk下载地址:https://www.oracle.com/java/technologies/javase/javase7-archive-downloads.htmlHadoop2.7之后的版本依赖Java1.7创建java目录,解压jdk,配置环境变量mkdir /usr/java tar zxf jdk-7u80-linux-x64.tar.gz -C /usr/java/ vim /etc/profile再profile中添加:export JAVA_HOME=/usr/java/jdk1.7.0_80 export PATH=$JAVA_HOME/bin:$PATH export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar刷新配置文件使其生效,查看java版本source /etc/profile java -version3、安装openssh和rsyncopenEuler一般都会默认安装openssh和rsync,检查是否安装yum list all openssh yum list all rsync若显示未安装,使用yum install openssh/yum install rsync安装即可4、添加Hadoop运行用户groupadd -g 1000 hadoop useradd -g 1000 -u 1000 hadoop passwd Hadoop // 输入要设置的密码并记住5、配置主节点登录自己和其他节点不需要输入密码退出登录,使用hadoop用户重新登录至主机配置sshssh-keygen -t rsa -P ''执行过程中询问保存的目标文件时直接回车即可ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop@localhost此时可以使用hadoop直接本地登录,无需输入密码6、切换到root用户登录shell,解压Hadoophadoop2.9.2载地址:http://archive.apache.org/dist/hadoop/core/hadoop-2.9.2/hadoop-2.9.2.tar.gzcd /usr/local tar zxf hadoop-2.9.2.tar.gz创建软链接7、配置Hadoop环境变量vim /etc/profile再文件中添加以下内容# Hadoop HADOOP_HOME=/usr/local/hadoop PATH=$HADOOP_HOME/bin:$PATH export HADOOP_HOME PATH刷新配置文件,查看Hadoop版本source /etc/profile hadoop version修改/usr/local/hadoop的属主和属组为hadoopchown -R hadoop.hadoop /usr/local/hadoop/8、配置单机(本地)模式并测试切换为hadoop用户登录主机进入hadoop目录,创建input文件夹,将etc/hadoop/目录下的所有xml文件复制到input目录下cd /usr/local/hadoop-2.9.2 mkdir input cp etc/hadoop/*.xml input测试hadoop命令bin/hadoop运行 grep 例子,将 input 文件夹中的所有文件作为输入,筛选当中符合正则表达式 dfs[a-z.]+ 的单词并统计出现的次数,最后输出结果到 output 文件夹中sudo bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.9.2.jar grep input output 'dfs[a-z.]+'查看运行结果cat output/*至此,openEuler-20.03-LTS-SP1安装部署并本地测试Apache Hadoop 2.9.2完成。
  • [应用安全] 【漏洞通告】Apache Dubbo多个高危漏洞(CVE-2021-25641等)
    漏洞描述:Apache Dubbo是一款应用广泛的Java RPC分布式服务框架。2021年6月24日,国外安全研究人员披露Apache Dubbo多个高危漏洞详情:CVE-2021-25641 中,攻击者可利用其他协议绕过Hessian2黑名单造成反序列化。CVE-2021-30179 中,Apache Dubbo Generic filter存在过滤不严,攻击者可构造恶意请求调用恶意方法从而造成远程代码执行。 CVE-2021-32824 中,Apache Dubbo Telnet handler在处理相关请求时,允许攻击者调用恶意方法从而造成远程代码执行。CVE-2021-30180中,Apache Dubbo多处使用了yaml.load,攻击者在控制如ZooKeeper注册中心后可上传恶意配置文件从而造成了Yaml反序列化漏洞。 CVE-2021-30181中,攻击者在控制如ZooKeeper注册中心后可构造恶意请求注入Nashorn脚本,造成远程代码执行。 应急响应中心提醒 Apache Dubbo 用户尽快采取安全措施阻止漏洞攻击。漏洞评级:CVE-2021-25641 Apache Dubbo Hessian2 协议反序列化漏洞 高危 CVE-2021-30179 Apache Dubbo Generic filter 远程代码执行漏洞 高危 CVE-2021-32824 Apache Dubbo Telnet handler 远程代码执行漏洞CVE-2021-30180 Apache Dubbo YAML 反序列化漏洞 高危 CVE-2021-30181 Apache Dubbo Nashorn 脚本远程代码执行漏洞 高危漏洞细节漏洞PoC漏洞EXP在野利用公开公开公开未知影响版本:Apache Dubbo < 2.7.10Apache Dubbo < 2.6.10安全版本:Apache Dubbo 2.7.10Apache Dubbo 2.6.10安全建议:1、升级 Apache Dubbo 至最新版本。2、利用安全组功能设置Apache Dubbo 相关端口仅对可信地址开放。相关链接:https://securitylab.github.com/advisories/GHSL-2021-034_043-apache-dubbo/
  • [问题求助] 【鲲鹏Taishan 200 2280产品】【Hadoop Apache】按照指导书部署Hadoop,livenode显示为0
    【功能模块】 鲲鹏BoostKit大数据使能套件 > 部署指南(Apache)> Hadoop集群 部署指南(CentOS 7.6)【操作步骤&问题现象】1、按照此指导书,部署了ZooKeeper后,再部署Hadoop4个节点hadoop01、hadoop02、hadoop03、hadoop04hadoop02、hadoop03、hadoop04部署了ZooKeeper。hadoop01作为server节点。【截图信息】无【日志信息】(可选,上传日志内容或者附件)无日志,通过jps获取节点状态如下:[root@hadoop01 sbin]# jps7600 SecondaryNameNode8289 Jps6710 NameNode7895 ResourceManager[root@hadoop02 sbin]# jps7283 NodeManager7412 Jps7174 DataNode7050 JournalNode6671 QuorumPeerMain[root@hadoop03 sbin]# jps7040 DataNode6915 JournalNode6570 QuorumPeerMain7149 NodeManager7293 Jps[root@hadoop04 sbin]# jps6689 QuorumPeerMain6997 JournalNode7240 NodeManager7384 Jps7131 DataNode但通过网页查看hadoop是否部署成功时,网页显示如下:Configured Capacity:0 BConfigured Remote Capacity:0 BDFS Used:0 B (100%)Non DFS Used:0 BDFS Remaining:0 B (0%)Block Pool Used:0 B (100%)DataNodes usages% (Min/Median/Max/stdDev):0.00% / 0.00% / 0.00% / 0.00%Live Nodes0 (Decommissioned: 0, In Maintenance: 0)Dead Nodes0 (Decommissioned: 0, In Maintenance: 0)Decommissioning Nodes0Entering Maintenance Nodes0Total Datanode Volume Failures0 (0 B)Number of Under-Replicated Blocks0Number of Blocks Pending Deletion0Block Deletion Start TimeWed Jun 23 10:58:16 +0800 2021Last Checkpoint TimeWed Jun 23 10:59:23 +0800 2021
  • [应用安全] Apache APISIX Dashboard 访问控制绕过漏洞公告(CVE-2021-33190)
    问题描述:在 Apache APISIX Dashboard 2.6 中,存在两个配置项: 1. conf.listen.host 的配置项,用于指定 ManagerAPI 在启动时监听哪个 IP 地址,它的默认值为 0.0.0.0 (默认监听外部网络请求); 2. conf.allow_list 的配置项,用于进行访问控制,默认只允许 127.0.0.1 (即本地网络)进行访问。 由于程序通过获取请求头 X-Forwarded-For 的值来进行访问控制判断,导致攻击者在调用 API 请求时,只需篡改该请求头即可实现访问控制绕过攻击。 影响版本:Apache APISIX 2.6.0解决方案:该问题已在 2.6.1 版本中解决,请尽快更新至最新版本,并在部署程序后修改默认用户名与密码。漏洞详情:漏洞公开时间:2021 年 6 月 8 日CVE 详细信息:https://nvd.nist.gov/vuln/detail/CVE-2021-33190
  • [网络安全] Apache Shiro历史高危反序列化漏洞预警 (shiro-550、shiro-721)
    一、概要近期,华为云安全运营中心监测到多起外部攻击者利用Apache Shiro历史反序列化高危漏洞(shiro-550、shiro-721)进行攻击入侵的事件,并且可能有上升趋势。经分析,均是由于shiro组件中不安全的AES加密密钥被爆破,进而利用反序列化漏洞(shiro-550、shiro-721)入侵。从版本维度:Shiro <= 1.2.4 :存在shiro-550反序列化漏洞;1.2.5 <= Shiro  < 1.4.2 :存在shiro-721反序列化漏洞;Shiro > = 1.4.2 :如果用户使用弱密钥(互联网已公开/已泄露),即使升级至最新版本,仍然存在反序列化漏洞入口。shiro-550、shiro-721均是Apache在2016年披露出来的历史高危漏洞。目前互联网早已出现较为成熟的漏洞检测和利用工具,华为云提醒使用Apache Shiro的用户及时安排自检并做好安全加固。参考链接:https://issues.apache.org/jira/browse/SHIRO-550https://issues.apache.org/jira/browse/SHIRO-721二、威胁级别威胁级别:【严重】(说明:威胁级别共四级:一般、重要、严重、紧急)三、漏洞影响范围影响版本:shiro-550 :Shiro < = 1.2.4shiro-721:1.2.5 <= Shiro  < 1.4.2(注:shiro >= 1.4.2 ,如果密钥泄露,攻击者可利用shiro反序列化入口进行攻击)四、漏洞处置受影响的shiro用户请参考如下几点进行排查和加固:1、更换shiro组件中的AES密钥,不要使用网上已公开的密钥,使用shiro官方提供的方法随机生成自己的密钥,并妥善保管好该密钥;官方密钥生成方法:org.apache.shiro.crypto.AbstractSymmetricCipherService#generateNewKey()2、对外提供服务的和能够被远程访问的进程,如Web服务,不应使用“root”或属于root用户组中的用户;3、及时更新补丁或升级系统,使用最新最稳定的安全版本。当前Apache-shiro最新版本为1.7.1;下载地址:https://shiro.apache.org/4、做好网络访问控制,管理好主机的访问公网能力以及对公网开放的端口,做好精细化访问控制。注:修复漏洞前请将资料备份,并进行充分测试。
  • [整体安全] 【漏洞通告】Apache Solr 任意文件删除漏洞
    漏洞名称 : Apache Solr 任意文件删除漏洞组件名称 : Apache Solr影响范围 : Apache Solr <= 8.8.2漏洞类型 : 任意文件删除利用条件 : 1、用户认证:不需要用户认证2、触发方式:远程综合评价 : <综合评定利用难度>:容易,无需授权即可删除任意文件。<综合评定威胁等级>:高危,可删除服务器任意文件。漏洞分析:1 组件介绍Apache Solr是一个开源的搜索服务器。具有高度可靠、可伸缩和容错的,提供分布式索引、复制和负载平衡查询、自动故障转移和恢复、集中配置等功能。Solr为世界上许多最大的互联网站点提供搜索和导航功能。Solr 使用 Java 语言开发,主要基于 HTTP 和 Apache Lucene 实现。Apache Solr 中存储的资源是以 Document 为对象进行存储的。每个文档由一系列的 Field 构成,每个 Field 表示资源的一个属性。Solr 中的每个 Document 需要有能唯一标识其自身的属性,默认情况下这个属性的名字是 id,在 Schema 配置文件中使用:<uniqueKey>id</uniqueKey>进行描述。2 漏洞描述安全团队监测到一则Apache Solr组件存在任意文件删除漏洞的信息,漏洞编号:暂无,漏洞威胁等级:高危。该漏洞出现在默认配置的PingRequestHandler中,攻击者可利用该漏洞在未授权的情况下,构造恶意数据,删除服务器任意文件。3 漏洞复现搭建Apache Solr组件8.8.2版本环境,复现该漏洞,效果如下:影响范围:全球约有一万多台服务器使用了Apache Solr组件,在国内可能受Apache Solr任意文件删除漏洞影响的资产主要分布于浙江、北京、上海、广东等省市。目前受影响的Apache Solr版本:Apache Solr < = 8.8.2解决方案:1 如何检测组件系统版本访问默认路径http://ip:port/solr/,进入Web主界面,查看对应版本:2 官方修复建议当前官方暂未发布相关安全通告,请及时关注官方最新安全通告或最新版本。链接如下:https://solr.apache.org/downloads.html3 临时修复建议该临时修复建议存在一定风险,建议用户可根据业务系统特性审慎选择采用临时修复方案:1、将Apache Solr组件部署在内网场景,禁止暴露在外部。2、增加用户权限控制在security.json中配置身份校验插件, 代码示例如下:{ "authentication" : {"class": "class.that.implements.authentication" }, "authorization": { "class": "class.that.implements.authorization" }}SolrCloud模式时,需将对应文件security.json上传到ZooKeeper。以下命令在上传文件时可将其写入文件:>server/scripts/cloud-scripts/zkcli.sh -zkhost localhost:2181 -cmd put /security.json '{"authentication":{"class":"org.apache.solr.security.KerberosPlugin"}}'独立模式时,需将创建好的security.json放置在$SOLR_HOME安装目录中生效。
  • [网络安全] Apache OFBiz 反序列化远程代码执行漏洞预警(CVE-2021-29200、CVE-2021-30128)
    一、概要近日,华为云关注到Apache OFBiz官方发布安全公告,披露在17.12.07之前的版本中存在两处反序列化远程代码执行漏洞(CVE-2021-29200、CVE-2021-30128),远程攻击者可以通过构造恶意请求触发漏洞,实现在目标系统上执行任意代码。Apache OFBiz是一个开源的企业资源计划(ERP)系统,华为云提醒使用Apache OFBiz的用户及时安排自检并做好安全加固。参考链接:https://www.mail-archive.com/announce@apache.org/msg06506.htmlhttps://www.mail-archive.com/announce@apache.org/msg06507.html二、威胁级别威胁级别:【严重】(说明:威胁级别共四级:一般、重要、严重、紧急)三、漏洞影响范围影响版本:Apache OFBiz < 17.12.07安全版本:Apache OFBiz 17.12.07四、漏洞处置目前官方已在新版本中修复了该漏洞,请受影响的用户及时升级至安全版本:https://ofbiz.apache.org/download.html#vulnerabilities注:修复漏洞前请将资料备份,并进行充分测试。 
  • [生态对接] 【FI集群】【 apache atlas】FI集群有对应的apache atlas安装包吗
    背景:元数据管理,【功能模块】如题,在自建的FI集群中,搭建apache atlas服务,想通过FI集群安装atlas服务,【操作步骤&问题现象】1、2、【截图信息】【日志信息】(可选,上传日志内容或者附件)
  • 10款常见的软件测试工具推荐
    1、BugfreeBugFree是借鉴微软的研发流程和Bug管理理念,使用PHP+MySQL独立写出的一个Bug管理 系统。简单实用、免费并且开放源代码(遵循GNU GPL)。 命名BugFree 有两层意思:一是希望软件中的缺陷越来越少直到没有,Free嘛;二是表示它是免费且开放源代码的,大家可以自由使用传播。  2、bugzillaBugzilla 是一个开源的缺陷跟踪系统(Bug-Tracking System),它可以管理软件开发中缺陷的提交(new),修复(resolve),关闭(close)等整个生命周期。  3、TestlinkTestLink用于进行测试过程中的管理,通过使用TestLink提供的功能,可以将测试过程从测试需求、测试设计、到测试执行完整的管理起来,同时,它还提供了好多种测试结果的统计和分析,使我们能够简单的开始测试工作和分析测试结果。  4、manTIsTMantis是一个基于PHP技术的轻量级的缺陷跟踪系统,其功能与前面提及的JIRA系统类似,都是以Web操作的形式提供项目管理及缺陷跟踪服务。在功能上可能没有JIRA那么专业,界面也没有JIRA漂亮,但在实用性上足以满足中小型项目的管理及跟踪。  5、QTPQTP是一个B/S系统的自动化功能测试的利器,软件程序测试工具。Mercury的自动化功能测试软件QuickTest Professional ,可以覆盖绝大多数的软件开发技术,简单高效,并具备测试用例可重用的特点。Mercury QuickTest Pro 是一款先进的自动化测试解决方案,用于创建功能和回归测试。它自动捕获、验证和重放用户的交互行为。 Mercury QuickTest Pro为每一个重要软件应用和环境提供功能和回归测试自动化的行业最佳解决方案  6、seleniumselenium-core 是使用HTML的方式来编写测试脚本,你也可以使用 Selenium-IDE来录制脚本,但是目前Selenium-IDE只有 FireFox 版本。  7、weblnjectWebInject 是一个自动化测试工具,主要适合Web应用和Web服务。可以通过它来测试基于HTTP接口的系统组件,还可以用它来进行服务器监控。  8、maxqMaxQ是一个Web功能测试工具。它包括一个记录测试脚本的HTTP代理,一个用于重放测试的命令行实用程序。代理记录器自动存储提交到表单的变量,那么你无需用手书写它们。  9、jmeterApache JMeter是Apache组织开发的基于Java的压力测试工具。用于对软件做压力测试,它最初被设计用于Web应用测试,但后来扩展到其他测试领域。 它可以用于测试静态和动态资源,例如静态文件、Java 小服务程序、CGI 脚本、Java 对象、数据库、FTP 服务器, 等等。  10、undefinedOpenSTA 是专用于B/S结构的、免费的性能测试工具。它的优点除了免费、源代码开放的优点外,还能对录制的测试脚本进行,按指定的语法进行编辑。在录制完测试脚本后,可以对测试脚本进行编辑,以便进行特定的性能指标分析。其较为丰富的图形化测试结果大大提高了测试报告的可阅读性。
  • [网络安全] Apache Druid 远程代码执行漏洞 (CVE-2021-26919)
    一、概要近日,华为云关注到Apache Druid官方发布最新0.20.2版本,披露在Apache Druid 0.20.2之前的版本中存在一处远程代码执行漏洞(CVE-2021-26919)。由于MySQL JDBC驱动程序支持某些属性,攻击者可以在Druid服务器进程中从黑客控制的恶意MySQL服务器执行任意代码。Apache Druid是一款开源分布式数据存储系统。Druid旨在快速获取大量事件数据,并在数据之上提供低延迟查询。华为云提醒使用Apache Druid的用户及时安排自检并做好安全加固。参考链接:https://seclists.org/oss-sec/2021/q1/273二、威胁级别威胁级别:【严重】(说明:威胁级别共四级:一般、重要、严重、紧急) 三、漏洞影响范围影响版本:Apache Druid < 0.20.2安全版本:Apache Druid 0.20.2四、漏洞排查及处置目前,官方已发布新版本修复了该漏洞,请受影响的用户升级到安全版本:https://github.com/apache/druid/releases/tag/druid-0.20.2注:修复漏洞前请将资料备份,并进行充分测试。
  • [问题求助] 移植相关问题apache Kylin 和ClouderaManager 能不能移植
    apache Kylin   和ClouderaManager   能不能移植 ,大家们清楚不
总条数:97 到第
上滑加载中