-
【功能模块】hadoop apache 移植【操作步骤&问题现象】1、重新编译lz4-1.2.0.jar失败【截图信息】无【日志信息】(可选,上传日志内容或者附件)install-cpptasks:[ivy:cachepath] :: resolving dependencies :: ant-contrib#cpptasks-caller;working[ivy:cachepath] confs: [default][ivy:cachepath] found ant-contrib#cpptasks;1.0b5 in public[ivy:cachepath] found ant#ant;1.6.5 in public[ivy:cachepath] found xerces#xercesImpl;2.8.1 in public[ivy:cachepath] found xml-apis#xml-apis;1.3.03 in public[ivy:cachepath] downloading https://repo1.maven.org/maven2/ant-contrib/cpptasks/1.0b5/cpptasks-1.0b5.jar ...[ivy:cachepath] ........................ (354kB)[ivy:cachepath] .. (0kB)[ivy:cachepath] [SUCCESSFUL ] ant-contrib#cpptasks;1.0b5!cpptasks.jar (751ms)[ivy:cachepath] downloading https://repo1.maven.org/maven2/ant/ant/1.6.5/ant-1.6.5.jar ...[ivy:cachepath] ................................................................... (1009kB)[ivy:cachepath] .. (0kB)[ivy:cachepath] [SUCCESSFUL ] ant#ant;1.6.5!ant.jar (904ms)[ivy:cachepath] downloading https://repo1.maven.org/maven2/xerces/xercesImpl/2.8.1/xercesImpl-2.8.1.jar ...[ivy:cachepath] .............................................................................. (1184kB)[ivy:cachepath] .. (0kB)[ivy:cachepath] [SUCCESSFUL ] xerces#xercesImpl;2.8.1!xercesImpl.jar (939ms)[ivy:cachepath] downloading https://repo1.maven.org/maven2/xml-apis/xml-apis/1.3.03/xml-apis-1.3.03.jar ...[ivy:cachepath] ............. (190kB)[ivy:cachepath] .. (0kB)[ivy:cachepath] [SUCCESSFUL ] xml-apis#xml-apis;1.3.03!xml-apis.jar (709ms)[ivy:cachepath] :: resolution report :: resolve 8935ms :: artifacts dl 3307ms --------------------------------------------------------------------- | | modules || artifacts | | conf | number| search|dwnlded|evicted|| number|dwnlded| --------------------------------------------------------------------- | default | 4 | 4 | 4 | 0 || 4 | 4 | ---------------------------------------------------------------------generate-headers: [mkdir] Created dir: /opt/lz4-java-1.2.0/build/jni-headersBUILD FAILED/opt/lz4-java-1.2.0/build.xml:152: javah does not exist under Java 10 and higher, use the javac task with nativeHeaderDir insteadTotal time: 1 minute 5 seconds
-
【功能模块】【mrs.6.5.1 】【flink 引入第三方jar包 】flink 怎么配置第三方jar包? flink 版本1.7.2 commit id:3ff30be【操作步骤&问题现象】1、2、【截图信息】【日志信息】(可选,上传日志内容或者附件)
-
jar文件听说过吗,没有?或者陌生!好,没关系,这就是我们的第一站:打包发布。 为什么会有这个玩意呢,首先,这是jar的全称:JavaTM Archive (JAR) file,是的,就是java存档文件。这有点类似zip文件,想一想它是干什么的用的呢,压缩!?没错就是要压缩,将我们原先零散的东西放到一下,重新组织,所有这些目的只有一个:方便!好了,不用管他是怎么压缩的,我们的重点是哪些是我们要压缩的(输入),还有压缩成了什么(输出),进而将它发布(部署)。 那我们的输入(要压缩的东西)主要是class文件,还有辅助的资源(这其中可能有图片,jsp文件,html文件等等)。Jar技术在jdk1.1版本中就已存在,在1.2中又有了增强。接下来说说jar的好处吧,这是官方的描述:安全,快速下载,压缩,猎取包,版本化包,可携。 说了这么多,我们现在开始实施。 先打开命令提示符(win2000或在运行框里执行cmd命令,win98为DOS提示符),输入jar Chelp,然后回车(如果你盘上已经有了jdk1.1或以上版本),看到什么: 用法:jar {ctxu}[vfm0Mi] [jar-文件] [manifest-文件] [-C 目录] 文件名 ... 选项: -c 创建新的存档 -t 列出存档内容的列表 -x 展开存档中的命名的(或所有的〕文件 -u 更新已存在的存档 -v 生成详细输出到标准输出上 -f 指定存档文件名 -m 包含来自标明文件的标明信息 -0 只存储方式;未用zip压缩格式 -M 不产生所有项的清单(manifest〕文件 -i 为指定的jar文件产生索引信息 -C 改变到指定的目录,并且包含下列文件: 如果一个文件名是一个目录,它将被递归处理。 清单(manifest〕文件名和存档文件名都需要被指定,按'm' 和 'f'标志指定的相同顺序。 示例1:将两个class文件存档到一个名为 'classes.jar' 的存档文件中: jar cvf classes.jar Foo.class Bar.class 示例2:用一个存在的清单(manifest)文件 'mymanifest' 将 foo/ 目录下的所有文件存档到一个名为 'classes.jar' 的存档文件中: jar cvfm classes.jar mymanifest -C foo/ . 来个小例子试试看: 我们只有一个HelloWorld,如下: public class HelloWorld{ public static void main(String[ ] args){ System.out.println(“Hi, Hello World!”); } } 将这个java文件存到C盘跟目录下,ok,接下来, 在先前打开的命令提示符下(跳转到C盘提示符下),我们输入javac HelloWorld.java,然后继续输入:jar cvf hello.jar HelloWorld.class,回车后去你的C盘看看,多了什么,没错 hello.jar 。 基本的步骤我们现在都知道了,你可以自己去尝试一下随着jar后面的参数的不同,结果有什么变化。 紧接着我们看看如何运行我们的jar包。
-
如图所示,在jar包运行过程中报该错误。看了下产品文档里面的错误码:通过对比同逻辑的执行模块,发现两边调用的SQL唯一的区别就是成功的只传入了一个where in (value)的值。如上图报错的则传入了多个value值。也是就select ... from table where a in ('string')和select ... from table where a in ('string1','string2','string3',...)。奇怪的是在库内直接执行报错模块的查询SQL,能正确返回目标数值。但一到虚机上运行jar包就会报如上图的错误,费解。了解到java代码里in(value)中的字符串是通过value(String)传递的,并以逗号做分割。怀疑是传参占位符有问题。求助dalao们,有没有遇到过类似问题的。
-
没法拼接参数.这个是怎么回事啊.
-
## sigar-lib-1.6.4.jar编译指导 测试环境:centos7.6和openEuler20.03 1. ### 扫描依赖包 当我们不知道java项目是否包含native依赖的时候,可以使用工具扫描整个war或者jar包。 鲲鹏代码迁移工具:https://www.hikunpeng.com/developer/devkit/porting-advisor 以下是扫描结果: ![image.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202105/06/172126xswzlklcjlov534h.png) 2. ### 分析扫描结果 sigar-lib-1.6.4.jar包调用了native的动态库libsigar-x86-linux.so,且该动态库未在已有的白名单里,故不能通过工具直接下载,需要手动编译。 3. ### 编译libsigar-aarch64-linux.so 1. ### 安装依赖 ```bash yum install -y wget gcc gcc-c++ make cmake libtool autoconf automake ant unzip java-1.8.0-openjdk java-1.8.0-openjdk-devel maven ``` 2. #### 下载源码并解压 ```bash #下载 wget https://github.com/hyperic/sigar/archive/refs/tags/sigar-1.6.4.tar.gz #解压 tar zxvf sigar-1.6.4.tar.gz ``` 3. #### 编译 ```bash #进入工程目录 cd sigar-sigar-1.6.4/bindings/java/ #修改ArchNameTask.java 79行-m64为-mabi=lp64 vi ./hyperic_jni/src/org/hyperic/jni/ArchNameTask.java ``` ![image-20210506164110139.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202105/06/172142flxiouuv5y8lbldv.png) ```bash #在openEuler操作系统中,需在linux_sigar.c文件中引入头文件sys/sysmacros.h cd ../../src/os/linux/linux_sigar.c ``` ![image-20210506164947446.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202105/06/172157qvcwre2vzr4mcb7s.png) 编译: ```bash ant ``` ![image-20210506165042520.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202105/06/172212bw3rcxnxbprhya5l.png) ![image-20210506165109683.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202105/06/172223j6vk5jsilzwfcmpy.png) 4. ### 编译sigar-lib-1.6.4.jar ```bash #下载 wget https://github.com/gridkit/sigar-lib/archive/sigar-lib-1.6.4.tar.gz #解压 tar zxvf sigar-lib-1.6.4.tar.gz #进入工程目录 cd sigar-lib-sigar-lib-1.6.4/ #拷贝libsigar-aarch64-linux.so cp /root/dev/sigar-sigar-1.6.4/bindings/java/sigar-bin/lib/libsigar-aarch64-linux.so . #编译 mvn package ``` ![image-20210506171903511.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202105/06/1722410sysxtmnxzx6c9ky.png) 5. ### FAQ 1. [cc] gcc: 错误:unrecognized command line option ‘-m64’ ##### 问题截图: ![image-20210506162532237.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202105/06/172254y8mnlwcfsibvjsnx.png) ##### 问题描述:鲲鹏平台不支持-m64编译选项 ##### 解决思路:将鲲鹏平台对应的编译选项设置为-mabi=lp64 ![image-20210506164110139.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202105/06/172307rfcwgitblf8gqsm7.png) 2. /root/dev/sigar-sigar-1.6.4/src/os/linux/linux_sigar.c:1148:22: 错误:called object ‘major’ is not a function or function pointer ##### 问题截图: ![image-20210506163316301.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202105/06/172322gylullqvyg1k5tjv.png) ##### 问题描述: 进入sigar-sigar-1.6.4/src/os/linux/linux_sigar.c,查看1148和1149行代码,major和minor函数未找到,可能缺少头文件。 ```c 1148 #define ST_MAJOR(sb) major((sb).st_rdev) 1149 #define ST_MINOR(sb) minor((sb).st_rdev) ``` ##### 解决思路: 在系统头文件路径下搜索关键字major和minor,查看头文件名。 ```bash grep -r "major(" /usr/include/ grep -r "minor(" /usr/include/ ``` ![image-20210506164727936.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202105/06/172334bt74l6n0etwogzlu.png) 将文件sigar-sigar-1.6.4/src/os/linux/linux_sigar.c中,引入头文件sys/sysmacros.h ![image-20210506164947446.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202105/06/172342itbuynij50e53tyb.png)
-
jar文件听说过吗,没有?或者陌生!好,没关系,这就是我们的第一站:打包发布。 为什么会有这个玩意呢,首先,这是jar的全称:JavaTM Archive (JAR) file,是的,就是java存档文件。这有点类似zip文件,想一想它是干什么的用的呢,压缩!?没错就是要压缩,将我们原先零散的东西放到一下,重新组织,所有这些目的只有一个:方便!好了,不用管他是怎么压缩的,我们的重点是哪些是我们要压缩的(输入),还有压缩成了什么(输出),进而将它发布(部署)。 那我们的输入(要压缩的东西)主要是class文件,还有辅助的资源(这其中可能有图片,jsp文件,html文件等等)。Jar技术在jdk1.1版本中就已存在,在1.2中又有了增强。接下来说说jar的好处吧,这是官方的描述:安全,快速下载,压缩,猎取包,版本化包,可携。 说了这么多,我们现在开始实施。 先打开命令提示符(win2000或在运行框里执行cmd命令,win98为DOS提示符),输入jar Chelp,然后回车(如果你盘上已经有了jdk1.1或以上版本),看到什么: 用法:jar {ctxu}[vfm0Mi] [jar-文件] [manifest-文件] [-C 目录] 文件名 ... 选项: -c 创建新的存档 -t 列出存档内容的列表 -x 展开存档中的命名的(或所有的〕文件 -u 更新已存在的存档 -v 生成详细输出到标准输出上 -f 指定存档文件名 -m 包含来自标明文件的标明信息 -0 只存储方式;未用zip压缩格式 -M 不产生所有项的清单(manifest〕文件 -i 为指定的jar文件产生索引信息 -C 改变到指定的目录,并且包含下列文件: 如果一个文件名是一个目录,它将被递归处理。 清单(manifest〕文件名和存档文件名都需要被指定,按'm' 和 'f'标志指定的相同顺序。 示例1:将两个class文件存档到一个名为 'classes.jar' 的存档文件中: jar cvf classes.jar Foo.class Bar.class 示例2:用一个存在的清单(manifest)文件 'mymanifest' 将 foo/ 目录下的所有文件存档到一个名为 'classes.jar' 的存档文件中: jar cvfm classes.jar mymanifest -C foo/ . 来个小例子试试看: 我们只有一个HelloWorld,如下: public class HelloWorld{ public static void main(String[ ] args){ System.out.println(“Hi, Hello World!”); } } 将这个java文件存到C盘跟目录下,ok,接下来, 在先前打开的命令提示符下(跳转到C盘提示符下),我们输入javac HelloWorld.java,然后继续输入:jar cvf hello.jar HelloWorld.class,回车后去你的C盘看看,多了什么,没错 hello.jar 。 基本的步骤我们现在都知道了,你可以自己去尝试一下随着jar后面的参数的不同,结果有什么变化。 紧接着我们看看如何运行我们的jar包。 在进入正题之前,你要先打开我们刚刚做好的jar包看看,多了什么呢,META-INF目录?再看看里面是什么,还有一个MANIFEST.MF文件是不是?用文本编辑器(我这里是UltraEdit)打开它看看: Manifest-Version: 1.0 Created-By: 1.4.2 (Sun Microsystems Inc.) 就是这样。这里我们对它进行修改,加一句:Main-Class: HelloWorld (在第三行)。这个就是我们之前写的那个类,也就是我们的入口类。也即, Manifest-Version: 1.0 Created-By: 1.4.2 (Sun Microsystems Inc.) Main-Class: HelloWorld 接下来,我们在命令提示符里执行: jar umf MANIFEST.MF app.jar (应该是hello.jar吧) 这样我们使用了我们自己的MANIFEST.MF文件对原来默认的进行了更新。你不妨可以再进去看看是不是添上了Main-Class: HelloWorld这一句。 (是吗,我怎么没试出来,提示java.io.FileNotFoundException:MANIFEST.MF(系统找不到指定的文件)怎么回事?) Ok,这个最后的一步了,来验证我们做的一切,在命令提示符中输入: java -jar hello.jar(执行) 出现了什么, Hi, Hello World! 我们再来看看jar文件在tomcat中发布,注意:在tomcat中我们就不能再用jar这种格式,而改war格式,它是专门用于web应用的,其实整个过程下来基本上和jar是类似的: 先准备我们要打包的资源。 找到存放tomcat的webapps目录,进到其中,新建一个文件夹,这里命名为hello,再进去新建WEB-INF文件夹,再进去新建classes文件夹,此时我们也将我们唯一的servlet,HelloWorld.java放到这里,在与classes目录同级下建立一文件web.xml。Ok,目前我们初步建立了一个简单的web应用。 这是HelloWorld.java: import java.io.*; import javax.servlet.*; import javax.servlet.http.*; public class HelloWorld extends HttpServlet { public void doGet(HttpServletRequest req, HttpServletResponse res) throws ServletException, IOException { res.setContentType("text/html"); PrintWriter out = res.getWriter(); out.println(""); out.println(""); out.println(""); out.println("Hello, World!"); out.println(""); } }//end here! 对它编译。下面是web.xml: <?xml version="1.0" encoding="UTF-8"?> <!DOCTYPE web-app PUBLIC "-//Sun Microsystems, Inc.//DTD Web Application 2.3//EN" "http://java.sun.com/dtd/web-app_2_3.dtd"> <web-app> <servlet> <servlet-name>hello</servlet-name> <servlet-class>HelloWorld</servlet-class> </servlet> <servlet-mapping> <servlet-name>hello</servlet-name> <url-pattern>/HelloWorld</url-pattern> </servlet-mapping> </web-app> 在命令提示符下进到先前创制的hello目录下,执行 jar cvf hello.war * ,我们便得到hello.war。将它拷贝至webapps目录下,ok,来看最后一步,打开tomcat的目录conf中的server.xml,加入: <Context path="/hello" docBase="hello.war" debug="0" reloadable="true"/> 大功告成!运行它,启动tomcat,后在浏览器中输入http://localhost:8080/hello/HelloWorld,有了吗? 最后,如果你想用ant来完成以上的打包活动,下面就告诉你: 对于jar来说。在build.xml中, <target name="jar"> <jar destfile="${app_home}/hello.jar"> <fileset dir="${dest}" includes="**"/> <!--fileset dir="${dest}" includes="**/action.properties"/--> </jar> </target> 对于war, <war warfile="hello.war" webxml="./WEB-INF/web.xml"> <fileset dir="html"/> <lib dir="lib/"> <exclude name="oracle*.jar"/> </lib> <classes dir="build/servlets"> <include name="**/*.class"/> </classes> </war> 好了,就这么多,希望对你有点帮助。:) 补充: jar基本操作: 1. 创建jar文件 jar cf jar-file input-file(s) c---want to Create a JAR file. f---want the output to go to a file rather than to stdout. eg: 1)jar cf myjar.jar query_maintain_insert.htm 2)jar cvf myjar.jar query_maintain_insert.htm v---Produces verbose(详细的) output. 3)jar cvf myjar.jar query_maintain_insert.htm mydirectory 4)jar cv0f myjar.jar query_maintain_insert.htm mydirectory 0---don't want the JAR file to be compressed. 5)jar cmf MANIFEST.MF myjar.jar yahh.txt m---Used to include manifest information from an existing manifest file. 6)jar cMf MANIFEST.MF myjar.jar yahh.txt M---the default manifest file should not be produced. 7)jar cvf myjar.jar * *---create all contents in current directory. 2. 察看jar文件 jar tf jar-file t---want to view the Table of contents of the JAR file. eg: 1)jar vft yahh.jar v---Produces verbose(详细的) output. 3. 提取jar文件 jar xf jar-file [archived-file(s)] x---want to extract files from the JAR archive. eg: 1)jar xf yahh.jar yahh.txt(仅提取文件yahh.txt) 2)jar xf yahh.jar alex/yahhalex.txt(仅提取目录alex下的文件yahhalex.txt) 3)jar xf yahh.jar(提取该jar包中的所有文件或目录) 4. 修改Manifest文件 jar cmf manifest-addition jar-file input-file(s) m---Used to include manifest information from an existing manifest file. 5. 更新jar文件 jar uf jar-file input-file(s) u---want to update an existing JAR file.
-
【功能模块】版本信息BASE 6.5.1 ( 补丁 6.5.1.7 )Flink 6.5.1 ( 补丁 6.5.1.7 )Porter 6.5.1 ( 补丁 6.5.1.7 )Spark2x 6.5.1 ( 补丁 6.5.1.7 )HD 6.5.1 ( 补丁 6.5.1.7 )Elasticsearch 6.5.1 ( 补丁 6.5.1.7 )在flink客户端下执行 命令如下bin/flink run --class com.huawei.bigdata.flink.examples.WriteIntoKafka /opt/client/flinkStreamKafka.jar --topic Auto_Agreement --bootstrap.servers ip:21007 --security.protocol SASL_PLAINTEXT --sasl.kerberos.service.name kafka --kerberos.domain.name hadoop.hadoop.combin/flink run --class com.huawei.bigdata.flink.examples.WriteIntoKafka /opt/tmpdata/sou1yu/flinkStreamKafka.jar --topic Auto_Agreement --bootstrap.servers ip:21005【操作步骤&问题现象】1、正常导入项目 导入jar包2、source 过执行环境 kinit 过用户 3.在flink客户端下执行 命令如下 都不行(下面命令的ip也正确的 下面只是为了保护一下ip所以处理了一下)bin/flink run --class com.huawei.bigdata.flink.examples.WriteIntoKafka /opt/client/flinkStreamKafka.jar --topic Auto_Agreement --bootstrap.servers ip:21007 --security.protocol SASL_PLAINTEXT --sasl.kerberos.service.name kafka --kerberos.domain.name hadoop.hadoop.combin/flink run --class com.huawei.bigdata.flink.examples.WriteIntoKafka /opt/tmpdata/sou1yu/flinkStreamKafka.jar --topic Auto_Agreement --bootstrap.servers ip:21005【截图信息】【日志信息】(可选,上传日志内容或者附件)SLF4J: Class path contains multiple SLF4J bindings.SLF4J: Found binding in [jar:file:/opt/client/Flink/flink/lib/logback-classic-1.2.3.jar!/org/slf4j/impl/StaticLoggerBinder.class]SLF4J: Found binding in [jar:file:/opt/client/Flink/flink/lib/flink-dist_2.11-1.7.2.jar!/org/slf4j/impl/StaticLoggerBinder.class]SLF4J: Found binding in [jar:file:/opt/client/HDFS/hadoop/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.SLF4J: Actual binding is of type [ch.qos.logback.classic.util.ContextSelectorStaticBinder]Starting execution of programuse command as: ./bin/flink run --class com.huawei.bigdata.flink.examples.WriteIntoKafka /opt/test.jar --topic topic-test -bootstrap.servers xxx.xxx.xxx.xxx:21005./bin/flink run --class com.huawei.bigdata.flink.examples.WriteIntoKafka /opt/test.jar --topic topic-test -bootstrap.servers xxx.xxx.xxx.xxx:21007 --security.protocol SASL_PLAINTEXT --sasl.kerberos.service.name kafka./bin/flink run --class com.huawei.bigdata.flink.examples.WriteIntoKafka /opt/test.jar --topic topic-test -bootstrap.servers xxx.xxx.xxx.xxx:21008 --security.protocol SSL --ssl.truststore.location /home/truststore.jks --ssl.truststore.password huawei./bin/flink run --class com.huawei.bigdata.flink.examples.WriteIntoKafka /opt/test.jar --topic topic-test -bootstrap.servers xxx.xxx.xxx.xxx:21009 --security.protocol SASL_SSL --sasl.kerberos.service.name kafka --ssl.truststore.location /home/truststore.jks --ssl.truststore.password huawei******************************************************************************************<topic> is the kafka topic name<bootstrap.servers> is the ip:port list of brokers******************************************************************************************------------------------------------------------------------ The program finished with the following exception:org.apache.flink.client.program.ProgramInvocationException: Could not retrieve the execution result. (JobID: 1a0dc0071081418158fbb38a8326a920) at org.apache.flink.client.program.rest.RestClusterClient.submitJob(RestClusterClient.java:261) at org.apache.flink.client.program.ClusterClient.run(ClusterClient.java:490) at org.apache.flink.streaming.api.environment.StreamContextEnvironment.execute(StreamContextEnvironment.java:66) at org.apache.flink.streaming.api.environment.StreamExecutionEnvironment.execute(StreamExecutionEnvironment.java:1510) at com.huawei.bigdata.flink.examples.WriteIntoKafka.main(WriteIntoKafka.java:32) at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:498) at org.apache.flink.client.program.PackagedProgram.callMainMethod(PackagedProgram.java:529) at org.apache.flink.client.program.PackagedProgram.invokeInteractiveModeForExecution(PackagedProgram.java:421) at org.apache.flink.client.program.ClusterClient.run(ClusterClient.java:430) at org.apache.flink.client.cli.CliFrontend.executeProgram(CliFrontend.java:814) at org.apache.flink.client.cli.CliFrontend.runProgram(CliFrontend.java:288) at org.apache.flink.client.cli.CliFrontend.run(CliFrontend.java:213) at org.apache.flink.client.cli.CliFrontend.parseParameters(CliFrontend.java:1051) at org.apache.flink.client.cli.CliFrontend.lambda$main$11(CliFrontend.java:1127) at java.security.AccessController.doPrivileged(Native Method) at javax.security.auth.Subject.doAs(Subject.java:422) at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1729) at org.apache.flink.runtime.security.HadoopSecurityContext.runSecured(HadoopSecurityContext.java:41) at org.apache.flink.client.cli.CliFrontend.main(CliFrontend.java:1127)Caused by: org.apache.flink.runtime.client.JobSubmissionException: Failed to submit JobGraph. at org.apache.flink.client.program.rest.RestClusterClient.lambda$submitJob$8(RestClusterClient.java:391) at java.util.concurrent.CompletableFuture.uniExceptionally(CompletableFuture.java:870) at java.util.concurrent.CompletableFuture$UniExceptionally.tryFire(CompletableFuture.java:852) at java.util.concurrent.CompletableFuture.postComplete(CompletableFuture.java:474) at java.util.concurrent.CompletableFuture.completeExceptionally(CompletableFuture.java:1977) at org.apache.flink.runtime.concurrent.FutureUtils.lambda$retryOperationWithDelay$5(FutureUtils.java:203) at java.util.concurrent.CompletableFuture.uniWhenComplete(CompletableFuture.java:760) at java.util.concurrent.CompletableFuture$UniWhenComplete.tryFire(CompletableFuture.java:736) at java.util.concurrent.CompletableFuture.postComplete(CompletableFuture.java:474) at java.util.concurrent.CompletableFuture.completeExceptionally(CompletableFuture.java:1977) at org.apache.flink.runtime.concurrent.FutureUtils$Timeout.run(FutureUtils.java:795) at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511) at java.util.concurrent.FutureTask.run(FutureTask.java:266) at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.access$201(ScheduledThreadPoolExecutor.java:180) at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.run(ScheduledThreadPoolExecutor.java:293) at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149) at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624) at java.lang.Thread.run(Thread.java:748)Caused by: java.util.concurrent.TimeoutException ... 8 more
-
【功能模块】使用java性能分析工具过程中报错“无法安装Guardian:JDK版本是1.8,但是缺少tools.jar文件”,在安装工具的时候有制定JDK15,查找tools.jar文件也是存在的, 工具版本是Hyper-Tuner-2.2.T2.SPC100,请问该问题应该如何解决【操作步骤&问题现象】1、2、【截图信息】【日志信息】(可选,上传日志内容或者附件)
-
项目开发的痛点1.不同的IDE的java工程无法兼容2.无IDE环境下如何对软件工程进行编译和打包3.工程中的各种框架的jar文件容易冲突为解决以上软件工程的痛点,maven为java项目提供了工艺的构建和管理方式,是业界标准。maven是基于项目对象模型(pom.xml)来管理软件工程。IntelliJ idea开发环境默认自带maven,可以自己下载最新的版本更新设置。如果我们想要在工程中引入某个jar 包,只需要在pom.xml 中引入其jar包的坐标即可。jar包的坐标可以在search.maven.org搜索组件的坐标。Maven 通过groupId、artifactId与version三个向量来定位Maven 仓库其jar 包所在的位置,并把对应的jar 包引入到工程中来。依赖的原则:最短路径优先原则:如果A 依赖于B,B 依赖于C,在B 和C 中同时有某个组件的依赖,并且版本不一致,那么A中会引入B的依赖。路径相同先声明原则:如果在A 同时依赖于B 和C,B 和C 没有依赖关系,并且都有某组件的依赖,且版本不一致,那么需要在A中事先声明组件特定版本。如果需要排除某一版本的依赖,可以使用exclusion来进行排除。
-
【功能模块】【sophon-ml-kernel_2.11-1.1.0.aarch_64.jar包】不能下载【操作步骤&问题现象】机器学习算法软件包中介绍的sophon-ml-kernel_2.11-1.1.0.aarch_64.jar包,没有下载权限,不能下载https://support.huaweicloud.com/fg-kunpengbds/kunpengbdsspark_06_0005.html【截图信息】【日志信息】(可选,上传日志内容或者附件)
-
接着上一个还是 FusionInsight/client/Flink的版本[ERROR] Flink SQL Client JAR file 'flink-sql-client*.jar'这个报错是?./bin/sql-client.sh embedded[ERROR] Flink SQL Client JAR file 'flink-sql-client*.jar' neither found in classpath nor /opt directory should be located in /xxxx/xxxFusionInsightxxx/xxclient/Flink/flink/opt.还要额外放入jar包. 才能跑起来吗?
-
【问题描述】编译netty 4.0.0.Beta1、4.0.0.Beta2、4.0.0.Beta3等版本执行mvn install时报karaf-maven-plugin:jar:3.0.0-SNAPSHOT is missing等错误,详细报错如下:The POM for org.apache.karaf.tooling:karaf-maven-plugin:jar:3.0.0-SNAPSHOT is missing, no dependecy information available[ERROR] [ERROR] Some problems were encountered while processing the POMs:【解决方法】修改testsuite-osgi/testsuite-osgi-deps/pom.xml文件:将karaf-maven-plugin的依赖版本号从3.0.0-SNAPSHOT修改为3.0.1:【注】:在netty的4.0.0.Beta1、4.0.0.Beta2、4.0.0.Beta3等3个版本需要修改testsuite-osgi/testsuite-osgi-deps/pom.xml文件中karaf-maven-plugin的依赖版本号;
上滑加载中
推荐直播
-
华为AI技术发展与挑战:集成需求分析的实战指南
2024/11/26 周二 18:20-20:20
Alex 华为云学堂技术讲师
本期直播将综合讨论华为AI技术的发展现状,技术挑战,并深入探讨华为AI应用开发过程中的需求分析过程,从理论到实践帮助开发者快速掌握华为AI应用集成需求的框架和方法。
去报名 -
华为云DataArts+DWS助力企业数据治理一站式解决方案及应用实践
2024/11/27 周三 16:30-18:00
Walter.chi 华为云数据治理DTSE技术布道师
想知道数据治理项目中,数据主题域如何合理划分?数据标准及主数据标准如何制定?数仓分层模型如何合理规划?华为云DataArts+DWS助力企业数据治理项目一站式解决方案和应用实践告诉您答案!本期将从数据趋势、数据治理方案、数据治理规划及落地,案例分享四个方面来助力企业数据治理项目合理咨询规划及顺利实施。
去报名
热门标签