- Hive报错记录——林子雨教材 Hive报错记录——林子雨教材
- 执行MapReduce的Jar包报错:Exception in thread main ExitCodeException exitCode=1 执行MapReduce的Jar包报错:Exception in thread main ExitCodeException exitCode=1
- 使用Maven构建Hadoop工程并实现词频统计案例(详细篇) 使用Maven构建Hadoop工程并实现词频统计案例(详细篇)
- CentOS7.5配置伪分布式环境 CentOS7.5配置伪分布式环境
- 启动hdfs报错:hadoop100 Permission denied (publickey,gssapi-keyex,gssapi-with-mic,password) 启动hdfs报错:hadoop100 Permission denied (publickey,gssapi-keyex,gssapi-with-mic,password)
- HDFS 自定义实现函数将文件追加到末尾的问题:Failed to replace a bad datanode the existing pipeline to no more good datanodes begin g available to try HDFS 自定义实现函数将文件追加到末尾的问题:Failed to replace a bad datanode the existing pipeline to no more good datanodes begin g available to try
- flume报错记录:java.net.ConnectException:拒绝连接; For more details see: http://wiki.apache.org/hadoop/ConnectionRefused flume报错记录:java.net.ConnectException:拒绝连接; For more details see: http://wiki.apache.org/hadoop/ConnectionRefused
- 一键安装hadoop测试环境 一键安装hadoop测试环境
- 环境说明:系统:Centos7 在VM中安装的hadoop版本:2.7.7JDK:1.8注意:Hadoop需要Java环境的。记得安装Java环境PS:Centos JDK安装 mkdir /data1:上传jdk的tar.解压2:修改/etc/proflie,把Javahome环境变量配置上:记住:在修改前,先备份在文件最后添加:export JAVA_HOME=/data/jdk1.8.... 环境说明:系统:Centos7 在VM中安装的hadoop版本:2.7.7JDK:1.8注意:Hadoop需要Java环境的。记得安装Java环境PS:Centos JDK安装 mkdir /data1:上传jdk的tar.解压2:修改/etc/proflie,把Javahome环境变量配置上:记住:在修改前,先备份在文件最后添加:export JAVA_HOME=/data/jdk1.8....
- 本文分享EC技术原理及个推的EC实践,带大家一起玩转Hadoop3.0! 本文分享EC技术原理及个推的EC实践,带大家一起玩转Hadoop3.0!
- 确认集群不要了,可执行以下信息强制清理rm -rf /opt/huawei/Bigdata/rm -rf /var/log/Bigdatauserdel -rf ommps -u 2000 | grep -v "PID" | awk '{print $1}' | xargs kill -9判断是否卸载干净的方法:1. /opt/huawei/Bigdata目录不存在2. /srv/Bigda... 确认集群不要了,可执行以下信息强制清理rm -rf /opt/huawei/Bigdata/rm -rf /var/log/Bigdatauserdel -rf ommps -u 2000 | grep -v "PID" | awk '{print $1}' | xargs kill -9判断是否卸载干净的方法:1. /opt/huawei/Bigdata目录不存在2. /srv/Bigda...
- spark ml性能优化思路 spark ml性能优化思路
- 使用https://github.com/colinmarc/hdfs/库,代码见附件前提需要安装MRS客户端代码会读取环境变量中的HADOOP_HOME下的配置,所以需要先source bigdata_envkerberos认证用的是cache文件,所以需要执行kinit生成krb5,cache文件执行上面两步骤后,执行附件代码(先导入依赖) 使用https://github.com/colinmarc/hdfs/库,代码见附件前提需要安装MRS客户端代码会读取环境变量中的HADOOP_HOME下的配置,所以需要先source bigdata_envkerberos认证用的是cache文件,所以需要执行kinit生成krb5,cache文件执行上面两步骤后,执行附件代码(先导入依赖)
- pydoop pydoop
- 本篇博客主要介绍hadoop中mapreduce类型的作业日志是如何生成的。主要介绍日志生成的几个关键过程,不涉及太过细节性的内容。 通过本篇博客你会了解到: 1-mapreduce模块代码的基本结构; 2-mapreduce模块的基本功能构成; 3-mapreduce作业日志的生成的几个关键阶段以及日志在多个存储路径之间是如何变化的。 本篇博客主要介绍hadoop中mapreduce类型的作业日志是如何生成的。主要介绍日志生成的几个关键过程,不涉及太过细节性的内容。 通过本篇博客你会了解到: 1-mapreduce模块代码的基本结构; 2-mapreduce模块的基本功能构成; 3-mapreduce作业日志的生成的几个关键阶段以及日志在多个存储路径之间是如何变化的。
上滑加载中
推荐直播
-
昇腾AI算法挑战赛-核心算子如何优化?专家带你深度解析2025/11/17 周一 16:00-17:00
王老师 华为算子专家
昇腾AI算法挑战赛进阶赛战鼓催征!本期直播间,我们特邀华为算子专家王老师,为你深度剖析Matmul、wholereducesum等核心算子的底层原理与优化技巧,直击赛题核心。想提升代码效率、冲击更高排名?锁定直播,带你破局!
回顾中 -
AI编码实干派,“码”力全开2026/02/26 周四 15:00-16:30
谈宗玮/于邦旭/丁俊卿/陈云亮/王一男
【中国,深圳,2026年2月26日】,以“AI编码实干派,码力全开”为主题的华为云码道(CodeArts)代码智能体新春发布会在线上成功召开。华为云码道公测版正式发布,为开发者和企业提供具备工程化能力的智能编码解决方案。
回顾中 -
华为云码道-玩转OpenClaw,开启在线养虾模式2026/03/11 周三 19:00-20:00
刘昱,华为云高级工程师/谈心,华为云技术专家/李海仑,上海圭卓智能科技有限公司CEO
OpenClaw 火爆开发者圈,华为云码道最新推出 Skill ——开发者只需输入一句口令,即可部署一个功能完整的「小龙虾」智能体。直播带你玩转华为云码道,玩转OpenClaw
回顾中
热门标签