• [问题求助] 【Taishan200 2280产品】【大数据迁移】hadoop依赖的lz4-1.2.0.jar在毕昇JDK环境下编译失败
    【功能模块】hadoop apache 移植【操作步骤&问题现象】1、重新编译lz4-1.2.0.jar失败【截图信息】无【日志信息】(可选,上传日志内容或者附件)install-cpptasks:[ivy:cachepath] :: resolving dependencies :: ant-contrib#cpptasks-caller;working[ivy:cachepath]         confs: [default][ivy:cachepath]         found ant-contrib#cpptasks;1.0b5 in public[ivy:cachepath]         found ant#ant;1.6.5 in public[ivy:cachepath]         found xerces#xercesImpl;2.8.1 in public[ivy:cachepath]         found xml-apis#xml-apis;1.3.03 in public[ivy:cachepath] downloading https://repo1.maven.org/maven2/ant-contrib/cpptasks/1.0b5/cpptasks-1.0b5.jar ...[ivy:cachepath] ........................ (354kB)[ivy:cachepath] .. (0kB)[ivy:cachepath]         [SUCCESSFUL ] ant-contrib#cpptasks;1.0b5!cpptasks.jar (751ms)[ivy:cachepath] downloading https://repo1.maven.org/maven2/ant/ant/1.6.5/ant-1.6.5.jar ...[ivy:cachepath] ................................................................... (1009kB)[ivy:cachepath] .. (0kB)[ivy:cachepath]         [SUCCESSFUL ] ant#ant;1.6.5!ant.jar (904ms)[ivy:cachepath] downloading https://repo1.maven.org/maven2/xerces/xercesImpl/2.8.1/xercesImpl-2.8.1.jar ...[ivy:cachepath] .............................................................................. (1184kB)[ivy:cachepath] .. (0kB)[ivy:cachepath]         [SUCCESSFUL ] xerces#xercesImpl;2.8.1!xercesImpl.jar (939ms)[ivy:cachepath] downloading https://repo1.maven.org/maven2/xml-apis/xml-apis/1.3.03/xml-apis-1.3.03.jar ...[ivy:cachepath] ............. (190kB)[ivy:cachepath] .. (0kB)[ivy:cachepath]         [SUCCESSFUL ] xml-apis#xml-apis;1.3.03!xml-apis.jar (709ms)[ivy:cachepath] :: resolution report :: resolve 8935ms :: artifacts dl 3307ms        ---------------------------------------------------------------------        |                  |            modules            ||   artifacts   |        |       conf       | number| search|dwnlded|evicted|| number|dwnlded|        ---------------------------------------------------------------------        |      default     |   4   |   4   |   4   |   0   ||   4   |   4   |        ---------------------------------------------------------------------generate-headers:    [mkdir] Created dir: /opt/lz4-java-1.2.0/build/jni-headersBUILD FAILED/opt/lz4-java-1.2.0/build.xml:152: javah does not exist under Java 10 and higher, use the javac task with nativeHeaderDir insteadTotal time: 1 minute 5 seconds
  • [其他] 【mrs.6.5.1 】【flink 引入第三方jar包 】flink 怎么配置第三方jar包?
    【功能模块】【mrs.6.5.1 】【flink 引入第三方jar包 】flink 怎么配置第三方jar包? flink 版本1.7.2   commit  id:3ff30be【操作步骤&问题现象】1、2、【截图信息】【日志信息】(可选,上传日志内容或者附件)
  • [技术干货] java打包
    jar文件听说过吗,没有?或者陌生!好,没关系,这就是我们的第一站:打包发布。     为什么会有这个玩意呢,首先,这是jar的全称:JavaTM Archive (JAR) file,是的,就是java存档文件。这有点类似zip文件,想一想它是干什么的用的呢,压缩!?没错就是要压缩,将我们原先零散的东西放到一下,重新组织,所有这些目的只有一个:方便!好了,不用管他是怎么压缩的,我们的重点是哪些是我们要压缩的(输入),还有压缩成了什么(输出),进而将它发布(部署)。     那我们的输入(要压缩的东西)主要是class文件,还有辅助的资源(这其中可能有图片,jsp文件,html文件等等)。Jar技术在jdk1.1版本中就已存在,在1.2中又有了增强。接下来说说jar的好处吧,这是官方的描述:安全,快速下载,压缩,猎取包,版本化包,可携。    说了这么多,我们现在开始实施。     先打开命令提示符(win2000或在运行框里执行cmd命令,win98为DOS提示符),输入jar Chelp,然后回车(如果你盘上已经有了jdk1.1或以上版本),看到什么:     用法:jar {ctxu}[vfm0Mi] [jar-文件] [manifest-文件] [-C 目录] 文件名 ...     选项:     -c 创建新的存档  -t 列出存档内容的列表  -x 展开存档中的命名的(或所有的〕文件  -u 更新已存在的存档  -v 生成详细输出到标准输出上  -f 指定存档文件名  -m 包含来自标明文件的标明信息  -0 只存储方式;未用zip压缩格式  -M 不产生所有项的清单(manifest〕文件  -i 为指定的jar文件产生索引信息  -C 改变到指定的目录,并且包含下列文件:    如果一个文件名是一个目录,它将被递归处理。     清单(manifest〕文件名和存档文件名都需要被指定,按'm' 和 'f'标志指定的相同顺序。     示例1:将两个class文件存档到一个名为 'classes.jar' 的存档文件中:  jar cvf classes.jar Foo.class Bar.class    示例2:用一个存在的清单(manifest)文件 'mymanifest' 将 foo/ 目录下的所有文件存档到一个名为 'classes.jar' 的存档文件中:  jar cvfm classes.jar mymanifest -C foo/ .    来个小例子试试看:  我们只有一个HelloWorld,如下:     public class HelloWorld{   public static void main(String[ ] args){   System.out.println(“Hi, Hello World!”);   }   }     将这个java文件存到C盘跟目录下,ok,接下来,  在先前打开的命令提示符下(跳转到C盘提示符下),我们输入javac HelloWorld.java,然后继续输入:jar  cvf  hello.jar  HelloWorld.class,回车后去你的C盘看看,多了什么,没错 hello.jar 。  基本的步骤我们现在都知道了,你可以自己去尝试一下随着jar后面的参数的不同,结果有什么变化。      紧接着我们看看如何运行我们的jar包。   
  • [问题求助] libtensorflow_jni 有没有ARM架构的jar包,求助
        <dependency>      <groupId>org.tensorflow</groupId>      <artifactId>libtensorflow_jni</artifactId>      <version>1.9.0</version>    </dependency>
  • [开发应用] jar包运行时,报SQL State [XX008]
    如图所示,在jar包运行过程中报该错误。看了下产品文档里面的错误码:通过对比同逻辑的执行模块,发现两边调用的SQL唯一的区别就是成功的只传入了一个where in (value)的值。如上图报错的则传入了多个value值。也是就select ... from table where a in ('string')和select ... from table where a in ('string1','string2','string3',...)。奇怪的是在库内直接执行报错模块的查询SQL,能正确返回目标数值。但一到虚机上运行jar包就会报如上图的错误,费解。了解到java代码里in(value)中的字符串是通过value(String)传递的,并以逗号做分割。怀疑是传参占位符有问题。求助dalao们,有没有遇到过类似问题的。
  • [问题求助] 使用DLI Flink Jar作业看不到日志输出
    【功能模块】DLI Flink【操作步骤&问题现象】1、使用DLI Flink Jar作业看不到日志输出2、从转储的日志来看,日志全输出到.err日志文件中,没有输出到.log文件中【截图信息】【日志信息】(可选,上传日志内容或者附件)
  • [问题求助] 【华为会议】【创建会议】引入jar包,bean属性缺失,创建,查询会议,request对象中AT属性根本就没有
    没法拼接参数.这个是怎么回事啊.
  • [技术干货] 【编译指导】sigar-lib-1.6.4.jar编译指导
    ## sigar-lib-1.6.4.jar编译指导 测试环境:centos7.6和openEuler20.03 1. ### 扫描依赖包 当我们不知道java项目是否包含native依赖的时候,可以使用工具扫描整个war或者jar包。 鲲鹏代码迁移工具:https://www.hikunpeng.com/developer/devkit/porting-advisor 以下是扫描结果: ![image.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202105/06/172126xswzlklcjlov534h.png) 2. ### 分析扫描结果 sigar-lib-1.6.4.jar包调用了native的动态库libsigar-x86-linux.so,且该动态库未在已有的白名单里,故不能通过工具直接下载,需要手动编译。 3. ### 编译libsigar-aarch64-linux.so 1. ### 安装依赖 ```bash yum install -y wget gcc gcc-c++ make cmake libtool autoconf automake ant unzip java-1.8.0-openjdk java-1.8.0-openjdk-devel maven ``` 2. #### 下载源码并解压 ```bash #下载 wget https://github.com/hyperic/sigar/archive/refs/tags/sigar-1.6.4.tar.gz #解压 tar zxvf sigar-1.6.4.tar.gz ``` 3. #### 编译 ```bash #进入工程目录 cd sigar-sigar-1.6.4/bindings/java/ #修改ArchNameTask.java 79行-m64为-mabi=lp64 vi ./hyperic_jni/src/org/hyperic/jni/ArchNameTask.java ``` ![image-20210506164110139.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202105/06/172142flxiouuv5y8lbldv.png) ```bash #在openEuler操作系统中,需在linux_sigar.c文件中引入头文件sys/sysmacros.h cd ../../src/os/linux/linux_sigar.c ``` ![image-20210506164947446.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202105/06/172157qvcwre2vzr4mcb7s.png) 编译: ```bash ant ``` ![image-20210506165042520.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202105/06/172212bw3rcxnxbprhya5l.png) ![image-20210506165109683.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202105/06/172223j6vk5jsilzwfcmpy.png) 4. ### 编译sigar-lib-1.6.4.jar ```bash #下载 wget https://github.com/gridkit/sigar-lib/archive/sigar-lib-1.6.4.tar.gz #解压 tar zxvf sigar-lib-1.6.4.tar.gz #进入工程目录 cd sigar-lib-sigar-lib-1.6.4/ #拷贝libsigar-aarch64-linux.so cp /root/dev/sigar-sigar-1.6.4/bindings/java/sigar-bin/lib/libsigar-aarch64-linux.so . #编译 mvn package ``` ![image-20210506171903511.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202105/06/1722410sysxtmnxzx6c9ky.png) 5. ### FAQ 1. [cc] gcc: 错误:unrecognized command line option ‘-m64’ ##### 问题截图: ![image-20210506162532237.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202105/06/172254y8mnlwcfsibvjsnx.png) ##### 问题描述:鲲鹏平台不支持-m64编译选项 ##### 解决思路:将鲲鹏平台对应的编译选项设置为-mabi=lp64 ![image-20210506164110139.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202105/06/172307rfcwgitblf8gqsm7.png) 2. /root/dev/sigar-sigar-1.6.4/src/os/linux/linux_sigar.c:1148:22: 错误:called object ‘major’ is not a function or function pointer ##### 问题截图: ![image-20210506163316301.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202105/06/172322gylullqvyg1k5tjv.png) ##### 问题描述: 进入sigar-sigar-1.6.4/src/os/linux/linux_sigar.c,查看1148和1149行代码,major和minor函数未找到,可能缺少头文件。 ```c 1148 #define ST_MAJOR(sb) major((sb).st_rdev) 1149 #define ST_MINOR(sb) minor((sb).st_rdev) ``` ##### 解决思路: 在系统头文件路径下搜索关键字major和minor,查看头文件名。 ```bash grep -r "major(" /usr/include/ grep -r "minor(" /usr/include/ ``` ![image-20210506164727936.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202105/06/172334bt74l6n0etwogzlu.png) 将文件sigar-sigar-1.6.4/src/os/linux/linux_sigar.c中,引入头文件sys/sysmacros.h ![image-20210506164947446.png](https://bbs-img.huaweicloud.com/data/forums/attachment/forum/202105/06/172342itbuynij50e53tyb.png)
  • [技术干货] Java进阶学习:jar打包详解
    jar文件听说过吗,没有?或者陌生!好,没关系,这就是我们的第一站:打包发布。     为什么会有这个玩意呢,首先,这是jar的全称:JavaTM Archive (JAR) file,是的,就是java存档文件。这有点类似zip文件,想一想它是干什么的用的呢,压缩!?没错就是要压缩,将我们原先零散的东西放到一下,重新组织,所有这些目的只有一个:方便!好了,不用管他是怎么压缩的,我们的重点是哪些是我们要压缩的(输入),还有压缩成了什么(输出),进而将它发布(部署)。     那我们的输入(要压缩的东西)主要是class文件,还有辅助的资源(这其中可能有图片,jsp文件,html文件等等)。Jar技术在jdk1.1版本中就已存在,在1.2中又有了增强。接下来说说jar的好处吧,这是官方的描述:安全,快速下载,压缩,猎取包,版本化包,可携。    说了这么多,我们现在开始实施。     先打开命令提示符(win2000或在运行框里执行cmd命令,win98为DOS提示符),输入jar Chelp,然后回车(如果你盘上已经有了jdk1.1或以上版本),看到什么:     用法:jar {ctxu}[vfm0Mi] [jar-文件] [manifest-文件] [-C 目录] 文件名 ...     选项:     -c 创建新的存档  -t 列出存档内容的列表  -x 展开存档中的命名的(或所有的〕文件  -u 更新已存在的存档  -v 生成详细输出到标准输出上  -f 指定存档文件名  -m 包含来自标明文件的标明信息  -0 只存储方式;未用zip压缩格式  -M 不产生所有项的清单(manifest〕文件  -i 为指定的jar文件产生索引信息  -C 改变到指定的目录,并且包含下列文件:    如果一个文件名是一个目录,它将被递归处理。     清单(manifest〕文件名和存档文件名都需要被指定,按'm' 和 'f'标志指定的相同顺序。     示例1:将两个class文件存档到一个名为 'classes.jar' 的存档文件中:  jar cvf classes.jar Foo.class Bar.class    示例2:用一个存在的清单(manifest)文件 'mymanifest' 将 foo/ 目录下的所有文件存档到一个名为 'classes.jar' 的存档文件中:  jar cvfm classes.jar mymanifest -C foo/ .    来个小例子试试看:  我们只有一个HelloWorld,如下:     public class HelloWorld{   public static void main(String[ ] args){   System.out.println(“Hi, Hello World!”);   }   }     将这个java文件存到C盘跟目录下,ok,接下来,  在先前打开的命令提示符下(跳转到C盘提示符下),我们输入javac HelloWorld.java,然后继续输入:jar  cvf  hello.jar  HelloWorld.class,回车后去你的C盘看看,多了什么,没错 hello.jar 。  基本的步骤我们现在都知道了,你可以自己去尝试一下随着jar后面的参数的不同,结果有什么变化。      紧接着我们看看如何运行我们的jar包。   在进入正题之前,你要先打开我们刚刚做好的jar包看看,多了什么呢,META-INF目录?再看看里面是什么,还有一个MANIFEST.MF文件是不是?用文本编辑器(我这里是UltraEdit)打开它看看:  Manifest-Version: 1.0   Created-By: 1.4.2 (Sun Microsystems Inc.)    就是这样。这里我们对它进行修改,加一句:Main-Class: HelloWorld (在第三行)。这个就是我们之前写的那个类,也就是我们的入口类。也即,  Manifest-Version: 1.0   Created-By: 1.4.2 (Sun Microsystems Inc.)   Main-Class: HelloWorld    接下来,我们在命令提示符里执行:  jar  umf  MANIFEST.MF  app.jar  (应该是hello.jar吧)   这样我们使用了我们自己的MANIFEST.MF文件对原来默认的进行了更新。你不妨可以再进去看看是不是添上了Main-Class: HelloWorld这一句。    (是吗,我怎么没试出来,提示java.io.FileNotFoundException:MANIFEST.MF(系统找不到指定的文件)怎么回事?) Ok,这个最后的一步了,来验证我们做的一切,在命令提示符中输入:  java -jar hello.jar(执行)    出现了什么, Hi, Hello World!    我们再来看看jar文件在tomcat中发布,注意:在tomcat中我们就不能再用jar这种格式,而改war格式,它是专门用于web应用的,其实整个过程下来基本上和jar是类似的:   先准备我们要打包的资源。     找到存放tomcat的webapps目录,进到其中,新建一个文件夹,这里命名为hello,再进去新建WEB-INF文件夹,再进去新建classes文件夹,此时我们也将我们唯一的servlet,HelloWorld.java放到这里,在与classes目录同级下建立一文件web.xml。Ok,目前我们初步建立了一个简单的web应用。    这是HelloWorld.java:     import java.io.*;   import javax.servlet.*;   import javax.servlet.http.*;   public class HelloWorld extends HttpServlet {   public void doGet(HttpServletRequest req, HttpServletResponse res)   throws ServletException, IOException {   res.setContentType("text/html");   PrintWriter out = res.getWriter();   out.println("");   out.println("");   out.println("");   out.println("Hello, World!");   out.println("");   }   }//end here!    对它编译。下面是web.xml:   <?xml version="1.0" encoding="UTF-8"?>   <!DOCTYPE web-app PUBLIC "-//Sun Microsystems, Inc.//DTD Web Application 2.3//EN" "http://java.sun.com/dtd/web-app_2_3.dtd">   <web-app>   <servlet>   <servlet-name>hello</servlet-name>   <servlet-class>HelloWorld</servlet-class>   </servlet>   <servlet-mapping>   <servlet-name>hello</servlet-name>   <url-pattern>/HelloWorld</url-pattern>   </servlet-mapping>   </web-app>  在命令提示符下进到先前创制的hello目录下,执行 jar cvf hello.war * ,我们便得到hello.war。将它拷贝至webapps目录下,ok,来看最后一步,打开tomcat的目录conf中的server.xml,加入:  <Context path="/hello" docBase="hello.war" debug="0" reloadable="true"/>   大功告成!运行它,启动tomcat,后在浏览器中输入http://localhost:8080/hello/HelloWorld,有了吗?   最后,如果你想用ant来完成以上的打包活动,下面就告诉你:   对于jar来说。在build.xml中,  <target name="jar">   <jar destfile="${app_home}/hello.jar">   <fileset dir="${dest}" includes="**"/>   <!--fileset dir="${dest}" includes="**/action.properties"/-->   </jar>   </target>     对于war,  <war warfile="hello.war" webxml="./WEB-INF/web.xml">   <fileset dir="html"/>   <lib dir="lib/">   <exclude name="oracle*.jar"/>   </lib>   <classes dir="build/servlets">   <include name="**/*.class"/>   </classes>   </war>     好了,就这么多,希望对你有点帮助。:)  补充:   jar基本操作:     1. 创建jar文件    jar cf jar-file input-file(s)   c---want to Create a JAR file.   f---want the output to go to a file rather than to stdout.   eg: 1)jar cf myjar.jar query_maintain_insert.htm   2)jar cvf myjar.jar query_maintain_insert.htm   v---Produces verbose(详细的) output.  3)jar cvf myjar.jar query_maintain_insert.htm mydirectory   4)jar cv0f myjar.jar query_maintain_insert.htm mydirectory   0---don't want the JAR file to be compressed.   5)jar cmf MANIFEST.MF myjar.jar yahh.txt   m---Used to include manifest information from an existing manifest file.   6)jar cMf MANIFEST.MF myjar.jar yahh.txt   M---the default manifest file should not be produced.   7)jar cvf myjar.jar *   *---create all contents in current directory.   2. 察看jar文件     jar tf jar-file   t---want to view the Table of contents of the JAR file.   eg: 1)jar vft yahh.jar   v---Produces verbose(详细的) output.    3. 提取jar文件    jar xf jar-file [archived-file(s)]   x---want to extract files from the JAR archive.   eg: 1)jar xf yahh.jar yahh.txt(仅提取文件yahh.txt)  2)jar xf yahh.jar alex/yahhalex.txt(仅提取目录alex下的文件yahhalex.txt)    3)jar xf yahh.jar(提取该jar包中的所有文件或目录)    4. 修改Manifest文件    jar cmf manifest-addition jar-file input-file(s)   m---Used to include manifest information from an existing manifest file.    5. 更新jar文件    jar uf jar-file input-file(s)   u---want to update an existing JAR file.
  • [二次开发] 【Flink产品】【flink功能】样例代码flink生产数据到kafka打jar包执行报错
    【功能模块】版本信息BASE    6.5.1    ( 补丁  6.5.1.7 )Flink    6.5.1    ( 补丁  6.5.1.7 )Porter    6.5.1    ( 补丁  6.5.1.7 )Spark2x    6.5.1    ( 补丁  6.5.1.7 )HD    6.5.1    ( 补丁  6.5.1.7 )Elasticsearch    6.5.1    ( 补丁  6.5.1.7 )在flink客户端下执行  命令如下bin/flink run --class com.huawei.bigdata.flink.examples.WriteIntoKafka /opt/client/flinkStreamKafka.jar --topic Auto_Agreement --bootstrap.servers ip:21007 --security.protocol SASL_PLAINTEXT --sasl.kerberos.service.name kafka --kerberos.domain.name hadoop.hadoop.combin/flink run --class com.huawei.bigdata.flink.examples.WriteIntoKafka /opt/tmpdata/sou1yu/flinkStreamKafka.jar --topic Auto_Agreement --bootstrap.servers ip:21005【操作步骤&问题现象】1、正常导入项目 导入jar包2、source 过执行环境  kinit 过用户 3.在flink客户端下执行  命令如下 都不行(下面命令的ip也正确的 下面只是为了保护一下ip所以处理了一下)bin/flink run --class com.huawei.bigdata.flink.examples.WriteIntoKafka /opt/client/flinkStreamKafka.jar --topic Auto_Agreement --bootstrap.servers ip:21007 --security.protocol SASL_PLAINTEXT --sasl.kerberos.service.name kafka --kerberos.domain.name hadoop.hadoop.combin/flink run --class com.huawei.bigdata.flink.examples.WriteIntoKafka /opt/tmpdata/sou1yu/flinkStreamKafka.jar --topic Auto_Agreement --bootstrap.servers ip:21005【截图信息】【日志信息】(可选,上传日志内容或者附件)SLF4J: Class path contains multiple SLF4J bindings.SLF4J: Found binding in [jar:file:/opt/client/Flink/flink/lib/logback-classic-1.2.3.jar!/org/slf4j/impl/StaticLoggerBinder.class]SLF4J: Found binding in [jar:file:/opt/client/Flink/flink/lib/flink-dist_2.11-1.7.2.jar!/org/slf4j/impl/StaticLoggerBinder.class]SLF4J: Found binding in [jar:file:/opt/client/HDFS/hadoop/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.SLF4J: Actual binding is of type [ch.qos.logback.classic.util.ContextSelectorStaticBinder]Starting execution of programuse command as: ./bin/flink run --class com.huawei.bigdata.flink.examples.WriteIntoKafka /opt/test.jar --topic topic-test -bootstrap.servers xxx.xxx.xxx.xxx:21005./bin/flink run --class com.huawei.bigdata.flink.examples.WriteIntoKafka /opt/test.jar --topic topic-test -bootstrap.servers xxx.xxx.xxx.xxx:21007 --security.protocol SASL_PLAINTEXT --sasl.kerberos.service.name kafka./bin/flink run --class com.huawei.bigdata.flink.examples.WriteIntoKafka /opt/test.jar --topic topic-test -bootstrap.servers xxx.xxx.xxx.xxx:21008 --security.protocol SSL --ssl.truststore.location /home/truststore.jks --ssl.truststore.password huawei./bin/flink run --class com.huawei.bigdata.flink.examples.WriteIntoKafka /opt/test.jar --topic topic-test -bootstrap.servers xxx.xxx.xxx.xxx:21009 --security.protocol SASL_SSL --sasl.kerberos.service.name kafka --ssl.truststore.location /home/truststore.jks --ssl.truststore.password huawei******************************************************************************************<topic> is the kafka topic name<bootstrap.servers> is the ip:port list of brokers******************************************************************************************------------------------------------------------------------ The program finished with the following exception:org.apache.flink.client.program.ProgramInvocationException: Could not retrieve the execution result. (JobID: 1a0dc0071081418158fbb38a8326a920)        at org.apache.flink.client.program.rest.RestClusterClient.submitJob(RestClusterClient.java:261)        at org.apache.flink.client.program.ClusterClient.run(ClusterClient.java:490)        at org.apache.flink.streaming.api.environment.StreamContextEnvironment.execute(StreamContextEnvironment.java:66)        at org.apache.flink.streaming.api.environment.StreamExecutionEnvironment.execute(StreamExecutionEnvironment.java:1510)        at com.huawei.bigdata.flink.examples.WriteIntoKafka.main(WriteIntoKafka.java:32)        at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)        at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)        at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)        at java.lang.reflect.Method.invoke(Method.java:498)        at org.apache.flink.client.program.PackagedProgram.callMainMethod(PackagedProgram.java:529)        at org.apache.flink.client.program.PackagedProgram.invokeInteractiveModeForExecution(PackagedProgram.java:421)        at org.apache.flink.client.program.ClusterClient.run(ClusterClient.java:430)        at org.apache.flink.client.cli.CliFrontend.executeProgram(CliFrontend.java:814)        at org.apache.flink.client.cli.CliFrontend.runProgram(CliFrontend.java:288)        at org.apache.flink.client.cli.CliFrontend.run(CliFrontend.java:213)        at org.apache.flink.client.cli.CliFrontend.parseParameters(CliFrontend.java:1051)        at org.apache.flink.client.cli.CliFrontend.lambda$main$11(CliFrontend.java:1127)        at java.security.AccessController.doPrivileged(Native Method)        at javax.security.auth.Subject.doAs(Subject.java:422)        at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1729)        at org.apache.flink.runtime.security.HadoopSecurityContext.runSecured(HadoopSecurityContext.java:41)        at org.apache.flink.client.cli.CliFrontend.main(CliFrontend.java:1127)Caused by: org.apache.flink.runtime.client.JobSubmissionException: Failed to submit JobGraph.        at org.apache.flink.client.program.rest.RestClusterClient.lambda$submitJob$8(RestClusterClient.java:391)        at java.util.concurrent.CompletableFuture.uniExceptionally(CompletableFuture.java:870)        at java.util.concurrent.CompletableFuture$UniExceptionally.tryFire(CompletableFuture.java:852)        at java.util.concurrent.CompletableFuture.postComplete(CompletableFuture.java:474)        at java.util.concurrent.CompletableFuture.completeExceptionally(CompletableFuture.java:1977)        at org.apache.flink.runtime.concurrent.FutureUtils.lambda$retryOperationWithDelay$5(FutureUtils.java:203)        at java.util.concurrent.CompletableFuture.uniWhenComplete(CompletableFuture.java:760)        at java.util.concurrent.CompletableFuture$UniWhenComplete.tryFire(CompletableFuture.java:736)        at java.util.concurrent.CompletableFuture.postComplete(CompletableFuture.java:474)        at java.util.concurrent.CompletableFuture.completeExceptionally(CompletableFuture.java:1977)        at org.apache.flink.runtime.concurrent.FutureUtils$Timeout.run(FutureUtils.java:795)        at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511)        at java.util.concurrent.FutureTask.run(FutureTask.java:266)        at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.access$201(ScheduledThreadPoolExecutor.java:180)        at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.run(ScheduledThreadPoolExecutor.java:293)        at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149)        at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624)        at java.lang.Thread.run(Thread.java:748)Caused by: java.util.concurrent.TimeoutException        ... 8 more
  • [问题求助] 鲲鹏性能分析工具使用报错,“无法安装Guardian:JDK版本是1.8,但是缺少tools.jar文件”
    【功能模块】使用java性能分析工具过程中报错“无法安装Guardian:JDK版本是1.8,但是缺少tools.jar文件”,在安装工具的时候有制定JDK15,查找tools.jar文件也是存在的, 工具版本是Hyper-Tuner-2.2.T2.SPC100,请问该问题应该如何解决【操作步骤&问题现象】1、2、【截图信息】【日志信息】(可选,上传日志内容或者附件)
  • Maven使用
    项目开发的痛点1.不同的IDE的java工程无法兼容2.无IDE环境下如何对软件工程进行编译和打包3.工程中的各种框架的jar文件容易冲突为解决以上软件工程的痛点,maven为java项目提供了工艺的构建和管理方式,是业界标准。maven是基于项目对象模型(pom.xml)来管理软件工程。IntelliJ idea开发环境默认自带maven,可以自己下载最新的版本更新设置。如果我们想要在工程中引入某个jar 包,只需要在pom.xml 中引入其jar包的坐标即可。jar包的坐标可以在search.maven.org搜索组件的坐标。Maven 通过groupId、artifactId与version三个向量来定位Maven 仓库其jar 包所在的位置,并把对应的jar 包引入到工程中来。依赖的原则:最短路径优先原则:如果A 依赖于B,B 依赖于C,在B 和C 中同时有某个组件的依赖,并且版本不一致,那么A中会引入B的依赖。路径相同先声明原则:如果在A 同时依赖于B 和C,B 和C 没有依赖关系,并且都有某组件的依赖,且版本不一致,那么需要在A中事先声明组件特定版本。如果需要排除某一版本的依赖,可以使用exclusion来进行排除。
  • [问题求助] 【机器学习算法软件包产品】【sophon-ml-kernel_2.11-1.1.0.aarch_64.jar包】不能下载
    【功能模块】【sophon-ml-kernel_2.11-1.1.0.aarch_64.jar包】不能下载【操作步骤&问题现象】机器学习算法软件包中介绍的sophon-ml-kernel_2.11-1.1.0.aarch_64.jar包,没有下载权限,不能下载https://support.huaweicloud.com/fg-kunpengbds/kunpengbdsspark_06_0005.html【截图信息】【日志信息】(可选,上传日志内容或者附件)
  • [问题求助] [ERROR] Flink SQL Client JAR file &apos;flink-sql-client*.jar&apos;这个报错是?
     接着上一个还是   FusionInsight/client/Flink的版本[ERROR] Flink SQL Client JAR file 'flink-sql-client*.jar'这个报错是?./bin/sql-client.sh embedded[ERROR] Flink SQL Client JAR file 'flink-sql-client*.jar' neither found in classpath nor /opt directory should be located in /xxxx/xxxFusionInsightxxx/xxclient/Flink/flink/opt.还要额外放入jar包.  才能跑起来吗?   
  • [技术干货] 编译netty报karaf-maven-plugin:jar:3.0.0-SNAPSHOT is missing错误解决方法
    【问题描述】编译netty 4.0.0.Beta1、4.0.0.Beta2、4.0.0.Beta3等版本执行mvn install时报karaf-maven-plugin:jar:3.0.0-SNAPSHOT is missing等错误,详细报错如下:The POM for org.apache.karaf.tooling:karaf-maven-plugin:jar:3.0.0-SNAPSHOT is missing, no dependecy information available[ERROR] [ERROR] Some problems were encountered while processing the POMs:【解决方法】修改testsuite-osgi/testsuite-osgi-deps/pom.xml文件:将karaf-maven-plugin的依赖版本号从3.0.0-SNAPSHOT修改为3.0.1:【注】:在netty的4.0.0.Beta1、4.0.0.Beta2、4.0.0.Beta3等3个版本需要修改testsuite-osgi/testsuite-osgi-deps/pom.xml文件中karaf-maven-plugin的依赖版本号;
总条数:98 到第
上滑加载中