-
Q:analyze_sample_mode这个参数的描述上提到了一个蓄水池采样模型和range采样模型,这两者有何区别? A:蓄水池采样算法是个标准算法,是一种用于从大数据流中随机抽取样本的算法。当内存无法加载全部数据时,该算法可以从包含未知大小的数据流中随机选取k个数据,并且保证每个数据被抽取到的概率相等。该算法每次只处理一个数据,通过随机选择的方式确保每个数据被选中的概率相同;range采样模型是针对列存表自研的采样算法,仅列存表有range采样,总共的CU个数是已知的。总量已知情况下,进行均匀采样。先随机选取页面,将其逻辑上划分成一个个样本区间,每个区间选1个样本。Q:DWS 8.2.1版本仅收集子分区上的统计信息(例如analyze sc_temp.tmp_test_part_stat partition(p1993);)不会影响整个分区表(例如sc_temp.tmp_test_part_stat)的统计信息,这种是否属于正常情况?A:正常Q:对于分区表而言统计信息存在两个概念,一个是整个分区表(例如sc_temp.tmp_test_part_stat)上的统计信息,还有就每个子分区(例如p1990~p1993)上的统计信息。这两类统计信息分别存储在哪里?DWS SQL优化器在分区表上生成执行计划时是参考子分区(例如p1990~p1993)上的统计信息还是参考整个表(例如sc_temp.tmp_test_part_stat)上的统计信息?A:整表的统计信息在pg_class和pg_statistic表中, 分区在pg_partition和pg_statistic中。 查询的时候一般通过视图pg_stats查询,查询整表使用tablename即可,查询子分区可以使用tablename+partname组合查询。生成执行计划时,根据SQL的条件来判断使用哪种统计信息;如果可以分区剪枝到1个分区,则使用子分区的统计信息;反之,使用整表的统计信息。 Q:DWS 8.2.1版本子分区上的统计信息与整个分区表上的统计信息不联动,主要问题有: (1)收集整个分区表上的统计信息时,不会触发子分区上的统计信息收集。 (2)收集子分区的统计信息时,不会触发整个分区表统计信息的增量更新。 由于“生成执行计划时,根据SQL的条件来判断使用哪种统计信息;如果可以分区剪枝到1个分区,则使用子分区的统计信息;否则,使用整表的统计信息。”子分区上的统计信息和整个分区表上的统计信息都是会被用到的,目前均比较重要。 如果对整个分区表做analyze时不更新子分区的统计信息,就比较不理想,需要一个分区一个分区的单独做analyze收集统计信息。 另外整个分区表的统计信息其实可以根据子分区统计信息推导出来(例如整个分区表的relpages和reltuples是所有子分区relpages和reltuples只和),子分区单独做analyze时整个分区表的统计信息应该增量更新,如果这样的话,体积较大的分区表统计信息维护起来效率就比较高。A:这个现象在当前版本8.2.1.2是存在的,我们在9.1.0版本已经实现两者的联动。原理:对整表收集统计信息时,会检测子分区的数据是否有变化,如果有变化则对子分区也进行统计信息收集,然后,合并生成整个分区表的统计信息;即子分区的统计信息和整表的统计信息同时进行了刷新。生成执行计划时,与上文答复一样:根据SQL的条件来判断使用哪种统计信息;如果可以分区剪枝到1个分区,则使用子分区的统计信息; 反之,使用整表的统计信息。1. 统计信息推算 enable_extrapolation_stats = on --开启统计信息推算random_function_version = 1 --使用随机性更好的random函数2. 统计信息锁定数据特征基本不变的大表场景,先按高采用率收集统计信息,然后锁定。alter table lineitem set (analyze_mode='frozen'); --设置表禁止做所有形式的analyze推荐阅读材料:cid:link_0
-
Q:DWS上的行存和列存表是否都要定期运行vaccum freeze防止表的事务序号绕回?A:DWS使用64为xid,理论上不会存在绕回的问题,所以不需要客户自己做vacuumfreeze。Q:按照PostgreSQL的工作原理,vacuum freeze会将整个表的所有数据块重新写出一遍,引起的磁盘IO较多。DWS上是运行vacuum freeze是否也会将整个表的所有数据块重新写一遍?A:DWS运行vacuum freeze也会将表重写一遍,目的是将可以被freeze的tuple进行标记,一是简化后续可见性判断,二是回收clog文件。Q1:期望将vacuum freeze安排在系统闲时分期、分批次运行,并且只针对事务序号距离当前活跃事务序号较远的表(即将发生事务序号绕回)的表来运行vacuum freeze,有什么方法可以查询出这些表?在PostgreSQL上,可以通过age函数来找出即将要发生事务编号绕回的表,例如select age(relfrozenxid) from pg_class where relkind ='r' and age(relfrozenxid)>300000000,在DWS上是否也存在类似的方法来发现即将发生事务号绕回的表?A1:没有必要特别关注vacuum freeze,DWS中pg_class表中描述表的frozenxid的列为relfrozenxid64,DWS没有提供age函数,可以使用txid_current()-relfrozenxid64来代替age的逻辑,上述SQL可改写为:select relname,txid_current()::text::bigint-relfrozenxid::text::bigint from pg_class where relkind ='r' and age(relfrozenxid64)>300000000;Q2:为了减少autovacuum对系统产生的随机影响,可否关闭autovacuum(产品文档提示关闭这个参数后,系统在故障恢复时无法自动清理两阶段事务),采用库外作业的方式来调度VACUUM工作?A2:可以关闭autovacuum改为自己调度,但是自己调度可能存在一些弊端,比如调度不及时或者调度不完整导致某些表的脏数据没有及时清理,引发磁盘占用上涨等问题。Q:在DWS上的列存表/行存表有没有FreeSpace Map机制?目前PostgreSQL的HEAP表有个FreeSpace Map机制,做VACUUM可以标记表数据文件中的哪些空闲区段以便重用,新数据原地重用空闲空间。作以下推测:DWS行存表和PG一样有FreeSpaceMap机制来标记文件中可以重复使用的块,能够做到原地重用空闲空间;列存表没有freeSpace Map机制只能通过整体重写来回收已经分配的文件空间。以上推测是正确的吗?A:这个说法没有问题。Q:在列存表上执行VACUUM和VACUUM FULL实现机制上有什么区别?行存表上执行VACUUM和VACUUM FULL实现机制上有什么区别?需要重点关注原地清理,还是整体重写到另外的文件中?A:VACUUM和VACUUM FULL机制上的区别如下VACUUM:如果删除的记录位于表的末端,其所占用的空间将会被物理释放并归还操作系统。而如果不是末端数据,会将表中或索引中dead tuple(死亡元组)所占用的空间置为可用状态,从而复用这些空间。VACUUM FULL:不论被清理的数据处于何处,这些数据锁占用的空间将被物理释放并归还于操作系统。当再有数据插入后,分配新的磁盘页面使用。VACUUM为原地清理,VACUUM FULL为整体重写入另外的文件 。VACUUM 只做脏页清理,VACUUM FULL脏页清理,回收磁盘空间Q1:autovacuum和autostats这两个功能是否都是由pg_stat_object这个系统表中的tuples_inserted,tuples_updates,tuples_deleted,n_live_tuples等表上的统计指标是否满足阈值来驱动?A1:autovacuum和autostats这两个功能是在内存中维护的表的live、dead等条数信息来驱动Q2:pg_stat_object这个系统表中的数据是否是持久化的?集群重启后是否会归零?pg_stat_object系统表是否不会包含public这个schema下的表的信息?目前发现表在public这个schema下创建后,在pg_stat_object系统表里面用relid查不到表相关的记录。A2:pg_stat_object是内存数据的持久化,集群重启不会归零。pg_stat_object系统表包含public这个schema下的表的信息,具体异常情况可以单独把具体场景拿出来单独看下。Q3:为了能够详细观察这个autovacuum功能的行为,如果log_autovacuum_min_duration这个参数设置为0,记录所有的autovacuum操作到日志开销是否较大?是否推荐这样做?A3:日志开销较大,一般不推荐。Q1:autovacuum功能在分区表上的表现怎样?分区表的多个子分区是否是各自单独判断是否满足autovacuum条件,然后在子分区上单独触发自动VACUUM的?目前在pg_stat_object系统表中除了relid字段还有有一个partid字段,分区表的不同子分区的tuples_inserted,tuples_updates,tuples_deleted,n_live_tuples等字段是单独统计的。A1:autovacuum功能在分区表上默认是打开的,使用的各个局点都是比较符合预期的;分区表的多个子分区是各自单独判断是否满足autovacuum条件,然后在子分区上单独触发自动VACUUM?Q2:分区表统计信息在哪里?测试发现对于分区表PG_CLASS系统表里的relpages,reltuples字段有记录,但是PG_STATISTIC中找不到对应记录。A2:分区表的统计可以查询pg_stats视图,根据partname查询对应的分区。
-
【问题版本】 HCS831【问题描述】 下发集群失败报DWS.6021【问题影响】 创建集群失败【问题根因】 租户桶已存在,每个租户只创建一个桶【定位过程】1、创建集群报:DWS.6021创建集群失败[ResTenantTask][onFailedAfterExecute]ResTenantTask execute failed:xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxx;2、拿jobid查controller日志报创建obs桶报错返回409;(如下日志信息)2024-11-07 07:59:11,478 0d892xxxxxxxxxxxxxxx3702f5|WARN|0xxxxxxxxxxxxxxxxxxxx0|Request failed,Response code: 409;Request ID: 0000xxxxxxxxxxxxxxxx30c9;Request path: htttps://rdsbucket.data-domain-o1.dws.51xxxxxxxxxxxxxxxxxx3317.obsv3.data-domain-01.dsj.fj/sun.reflect.GeneratedMethodAccessor2331.invoke(nul1:-1)2024-11-07 07:59:11,479 0d892xxxxxxxxxxxxxxx3702f5|WARN|0xxxxxxxxxxxxxxxxxxxx0|Storage|1|HTTP+XLfCrCaToBucket||||2024-11-07 07:59 11/2024-11-07 07:59:11 ||409]|sun.reflect.GeneratedMethodAccessor2331.invoke(null: 1)...|ERROR|09xxxxxxxxxxxx82d6e|obsClient creatoBucket exception|com.luawei.hclouds.dbs.executor.service.ObsServiceIapl.createObsBucketwithPolicy(ObsServiceImpl.java:105)com.obs.services.exception.ObsException: Error messago:Request Error.OBS service Error Message.2、给OBS同事建关联单咨询,说是409是桶名存在,但是他们不能删除更改,让自己处理;3、怀疑是之前交付创建后在库里删除导致残留数据,查询rms数据库手动在桶里创建桶,并修改rms数据库信息后,重新下发成功;【规避方法】1)对比已有租户(可以创建出集群的租户)创建的桶对比rds_restenant信息,登OBS客户端创建一个一模一样的桶,桶名类似rdsbucket.cn-global-1.dws.{新租户名},就桶名不一样其他的桶策略都保持一致;2)rms数据库更新现有租户的桶名信息;select * from rds_restenant where realDomainId='{新租户的父租户名console界面可查}';update rds_restenant set obsBucket='{新创建的桶名}' where realDomainId='{新租户的父租户名console界面可查}';
-
【问题版本】 HCS821【问题描述】 下发集群报错DWS.6018【问题影响】 下发集群失败【问题根因】 BMS设置traffic gateway时,有的机器存在该网关static路由,导致添加冲突。【定位过程】1、(DWS.6018) 创建集群失败,报错[RdsInitInstanceTask][execute]execute failed! instanceId:[6cfad6ca-8559-49f0-a98b-8980b0c8d0cb] initDb exception:null2、查CN-1节点/home/Ruby/log/cloud-dws-deploy.log日志报四个节点Failed to verify chroot on these nodes无法在这些节点上验证chroot,去登四个节点发现对应deploy日志为空;[ERROR][2xx56][2814xxxxxx55296][prepareConfigFile.py 562][Failed to execute commands if [ 'ip route list table 100 | grep -w default | wc -l' -eq 0]; then /usr/sbin/ip raute add 0/0 via xx.xx.xx.254 table 100; fi >/dev/null 2>&1.Error:.][INFO][2xx56][2814xxxxxx55296][prepareConfigFile.py 560][Execute command if [ip route list table 100 | grep -w default | wc -l-eq 0 ]; then /usr/sbin/ip route add 0/0 via xx.xx.xx.254 table 100; fi >/dev/null 2>&1][ERROR][2xx56][2814xxxxxx55296][prepareConfigFile.py 562][Failed to execute commands if [ 'ip route list table 100 | grep -w default | wc -l' -eq 0]; then/usr/sbin/ip raute add 0/0 via xx.xx.xx.254 table 100; fi >/dev/null 2>&1.Error:.][ERROR]2xx56]2814xxxxxx55296][prepareConfigFile.py 712][set router info paramter failed][ERROR][2xx56][2814xxxxxx55296][prepareConfigFile.py 813][init os failed.]4、ip route 对比好的节点有一条是不一样的;报错节点:xx.xx.xx.0/24 via xx.xx.xx.254 dev bond0.xxxx proto static未报错节点:xx.xx.xx.0/24 dev bond0.xxxx scope4、BMS物理机的路由添加方法不正确,导致偶现路由添加失败,到节点找到类似/var/chroot/opt/dws/download_package/8.2.1-guestAgent-c628855d-2a827a7e-20240626210151.tar.gz解压;5、修改prepareConfigFile.py重新压缩上传到swift后,重新下发集群;6、已反馈下发成功,告知后期影响,只要不替换该包,扩容就不影响,长期升级到已修复版本(待版本规划);【规避措施】解压节点上的修改prepareConfigFile.py删了os_set_trafficip_router_parameters这个方法下的713行 return FAILED重新压缩上传到swift替换原来的包;1)在失败的节点上找:/var/chroot/opt/dws/download_package/8.2.1-guestAgent-c628855d-2a827a7e-20240626210151.tar.gz2)找到后包解压进去再把8.2.1-mgntAgent解压,一共解压两层,找到如下文件;8.2.1-guestAgent-3b7a0477-fddc2a23-20230106100035/8.2.1-mgntAgent/mgntAgent/prepareConfigFile.py3)修改prepareConfigFile.py后原路压缩回去,并上传到swift替换原来的guestAgent包;具体删除os_set_trafficip_router_parameters这个方法下return FAILED(大概在713行,如下),然后保存,原路压缩回去; except BaseException: LOG.error("add %s to router error", trafficGateway) return FAILED4)删除失败集群,重新下发集群;
-
DWS 写自定义函数CREATE FUNCTION 的能否指定language为plpython
-
一、背景客户在执行业务sql产生报错:GAUSS-02832: "a negative number raised to a non-integer power yields a complex result",sql内容是在执行开多少多少次方。二、原因这个报错全称是:将负数提高到非整数幂会产生复杂的结果已经非常明确了,就是,sql过程数据存在负数的非整数幂这怎么会报错呢,思考,(-2)^(0.5)=?,明显,-2开根号在实数中不存在。我想,数据库没考虑到虚数问题,故产生此类报错。三、解决最好能筛选掉负数在进行开方运算。
-
华为云数据仓库GaussDB(DWS),历经13年的技术磨砺,已成为国产数据仓库中的佼佼者,是中国唯一获得数仓类CC安全认证的产品。华为云GaussDB(DWS)一站式全场景云数据仓库,提供PB级数据分析能力、多模分析和实时处理能力,以统一内核提供公有云、混合云等部署形态,用户体验一致。在金融、泛政府、电信、能源、交通、医疗、物流、电商等领域,帮助1700+大客户规模商用。未来,GaussDB(DWS)将继续深耕云原生Serverless化、实时分析、湖仓一体、数智融合、HTAP等国产数仓核心技术,引领数据产业,创新构建开放融合、云化、实时、全场景、智慧的数据底座!《GaussDB(DWS)技术原理解析》为了让用户一站式掌握GaussDB(DWS)核心架构的技术原理,我们联合GaussDB(DWS)的技术专家、技术爱好者重磅推出《GaussDB(DWS)技术原理解析》电子书,为您带来优化器、执行器、存储引擎、事务处理、集群通信等方面的技术原理解析与实践。《GaussDB(DWS)用户运维指南》《GaussDB(DWS)用户运维指南》从业务管控实践、业务开发规范、运维监控及业务应急预案4个方面,深入介绍了GaussDB(DWS)熔断策略、负载均衡、业务开发规范、业务设计最佳实践、TOPSQL配置、集群健康检查、业务高并发/业务排队/锁等待场景的应急预案等内容。帮助用户系统掌握GaussDB(DWS)运维的方法和操作流程,提高GaussDB(DWS)的使用效率。《GaussDB(DWS)备份容灾》《GaussDB(DWS)备份恢复》汇集数据备份、集群容灾、细粒度备份三方面内容, 详细介绍了增量备份、全量备份、物理细粒度备份恢复、容灾的概念及细粒度容灾原理与 应用案例,帮助您一站式掌握备份恢复的理论与应用方法。《GaussDB(DWS)性能调优手册》《GaussDB(DWS)性能调优手册》分为基础篇和实战篇,基础篇通过 Analyze 统计 信息、Explain 分布式计划、分布式计划详解三个方面,详细介绍了我们为什么需要性能调 优?性能调优的基础条件有哪些?在实战篇中,通过坏味道 SQL 识别、表定义、SQL 改 写、路径干预、Plan hint 运用、GUC 参数调优,将基础篇的理论与实际应用结合,帮助 用户更好地进行性能调优,提高 GaussDB(DWS)使用效率。《GaussDB(DWS)资源管控》《GaussDB(DWS)资源管控》汇集资源管控架构、资源管控、资源监控三方面内容,详细介绍了资源管控技术原理、资源隔离管控能力、熔断垃圾SQL语句、schema空间管控、资源管控排队问题以及监控工具,帮助您一站式掌握资源管控的理论和应用方法。
-
GaussDB(DWS)开发者门户2.0升级版全新上线啦!板块划分升级,内容更丰富:提供全链路学习路径,从入门到精通;一站式问题求助渠道,产品使用无忧;整合DWS技术资源,打通知识触达“最后一公里”还有更多功能等您探索>>>传送门板块介绍:📍01入门路径:开启DWS开发者的学习之旅从0到1带您入门华为云数仓GaussDB(DWS),详解数仓发展史及GaussDB(DWS)使用流程。📍02数据分析实验室为数据仓库的试用者和开发者提供华为云官方实验平台,可以一键创建数据仓库,实践和验证典型场景。📍03问题百宝箱:故障案例库、小D、论坛问题求助为业务开发人员和运维DBA提供问题解答渠道,帮助您获取优质故障案例、进行自助或互动答疑。📍04技术资源货架:书架、视频库帮助初学者、开发者进行能力提升的体系化技术资源货架,包含电子书、技术博文、视频教程等内容。📍05开发者认证HCCDP华为云数仓官方认证,培养具有数仓开发和运维能力的高级工程师,对数仓相关领域人员进行技能提升培训。📍06开发者活动:活动日历面向开发者的线上、线下活动,为开发者们提供交流平台和渠道。
-
小D机器人以华为云对话机器人服务(CBS)为后端引擎,采用业界领先算法,致力于解决您在使用GaussDB(DWS)过程中可能遇到的高频问题,能处理SQL语法、特性知识、常见Top问题、解决方案需求等咨询问题。小D作为GaussDB(DWS)知识的聚合入口,通过语义分析问题,基于模型处理在后台12000+语料中进行精准匹配,返回华为云帮助中心、华为云论坛、博客和内部知识wiki的URL跳转,帮助您解决知识不易获取,难检索等问题。一、小D实践文章汇总(持续更新中....):🔴第一弹:《索引篇》 小D机器人《使用实践战第一弹--索引篇》来咯! 欢迎收藏、转发给有需要的友友~🟣第二弹:《磁盘篇》 小D机器人《使用实践战第二弹--磁盘篇》来咯! 磁盘问题一网打尽,数据倾斜专题调优,一篇覆盖99%的使用场景! 欢迎收藏、转发给有需要的友友~🔵第三弹:《审计日志篇》 小D机器人《使用实践战第三弹--审计日志篇》来咯! 合理管理审计日志,问题回溯有迹可循!一文掌握审计日志管理全流程~ 欢迎收藏、转发给有需要的友友~🟠第四弹:《分区表篇》 小D机器人《使用实践战第四弹--分区表篇》来咯! 从创建到自动管理,关于分区表的一切都整理在这里啦 欢迎收藏、转发给有需要的友友~🟢第五弹:《资源负载&ccn排队篇》 小D机器人《使用实践战第五弹--资源负载&ccn排队篇》来咯! 全面了解CPU管控,让你的SQL跑得高效! 欢迎收藏、转发给有需要的友友~🟡第六弹:《表信息篇》 小D机器人《使用实践战第六弹--表信息篇》来咯! 覆盖建表、查表、改表全场景,哪里不会点哪里! 欢迎收藏、转发给有需要的友友~🟤第七弹:《analyze篇》 小D机器人《使用实践战第六弹--表信息篇》来咯! 如何自动化收集统计信息,你一定不能错过~ 欢迎收藏、转发给有需要的友友~🔴第八弹:《存储过程》 小D机器人《使用实践战第八弹--存储过程篇》来咯! 创建指导,调用函数,执行慢,关于存储过程的一切都在这里了! 欢迎收藏、转发给有需要的友友~🔵第九弹:《vacuum》 小D机器人《使用实践战第九弹--vacuum篇》来咯! vacuum全知全解,不容错过~ 欢迎收藏、转发给有需要的友友~二、唤醒方法:PC端使用1. 提问入口:cid:link_22. 选择大数据—数据仓库服务,即可开启提问。
-
gds支持外表文件设置到管道文件,linux的管道文件缓冲数据内容大小有限制,会对写入性能有影响,如果场景是必须要利用管道去边写入,边装载,能有什么办法能优化效率吗?
-
select oid,relfilenode,relname from pg_class where relname ='teacher'; oid | relfilenode | relname -------+-------------+--------- 17530 | 17542 | teacher然而在操作系统里面,只找到17542这个文件,没有像_vm,_fsm这些文件[Ruby@gauss-dis-134 base]$ find ./ -name 17542* ./17325/17542像在postgresql,openGauss,都是有_fsm,_vm的文件的
-
在postgresql或者openGauss中,数据文件目录的base目录下,名称和oid都是一一对弈对应的,如:openGauss=# select oid,datname from pg_database; oid | datname -------+------------- 1 | template1 16398 | db_web_data 15649 | template0 16400 | db_test2 16399 | db_test1 15654 | postgres 16405 | db_test123对应着文件系统的目录[omm@txy base]$ ls -ls total 120 20 drwx------ 2 omm dbgrp 20480 Oct 12 10:15 1 16 drwx------ 2 omm dbgrp 16384 Oct 12 10:15 15649 16 drwx------ 2 omm dbgrp 16384 Nov 3 23:24 15654 16 drwx------ 2 omm dbgrp 16384 Oct 16 15:44 16398 16 drwx------ 2 omm dbgrp 16384 Oct 23 17:03 16399 16 drwx------ 2 omm dbgrp 16384 Oct 23 17:03 16400 16 drwx------ 2 omm dbgrp 16384 Oct 23 17:25 16405 4 drwx------ 2 omm dbgrp 4096 Oct 12 10:14 pgsql_tmp但是在gaussdb,我发现并不是一样的gaussdb=> select oid,datname from pg_database; oid | datname -------+------------ 1 | template1 14942 | template0 17325 | db_ora 17457 | db_conn10w 17458 | db_default 14948 | postgres 16809 | test在文件目录里面反而是这些?[Ruby@gauss-dis-133 base]$ ls -lsa total 160 4 drwx------ 10 Ruby Ruby 4096 Nov 9 14:29 . 4 drwx------ 22 Ruby Ruby 4096 Nov 9 14:51 .. 16 drwx------ 2 Ruby Ruby 16384 Nov 9 08:18 1 16 drwx------ 2 Ruby Ruby 16384 Nov 9 08:18 14942 24 drwx------ 2 Ruby Ruby 20480 Nov 9 08:18 14948 20 drwx------ 2 Ruby Ruby 20480 Nov 9 08:18 16763 20 drwx------ 2 Ruby Ruby 20480 Nov 9 08:18 25211 20 drwx------ 2 Ruby Ruby 20480 Nov 9 08:18 25294 20 drwx------ 2 Ruby Ruby 20480 Nov 9 08:18 25295新建一个数据库gaussdb=> create database db_newdb; gaussdb=> select oid,datname from pg_database; oid | datname -------+------------ 1 | template1 14942 | template0 17325 | db_ora 17457 | db_conn10w 17458 | db_default 14948 | postgres 16809 | test 17521 | db_newdb很明显会发现多了33483这个目录,可是我新建这个db_newdb的oid是17521啊,为什么对不上呢?[Ruby@gauss-dis-133 base]$ ls -lsa total 160 4 drwx------ 10 Ruby Ruby 4096 Nov 9 14:29 . 4 drwx------ 22 Ruby Ruby 4096 Nov 9 14:51 .. 16 drwx------ 2 Ruby Ruby 16384 Nov 9 08:18 1 16 drwx------ 2 Ruby Ruby 16384 Nov 9 08:18 14942 24 drwx------ 2 Ruby Ruby 20480 Nov 9 08:18 14948 20 drwx------ 2 Ruby Ruby 20480 Nov 9 08:18 16763 20 drwx------ 2 Ruby Ruby 20480 Nov 9 08:18 25211 20 drwx------ 2 Ruby Ruby 20480 Nov 9 08:18 25294 20 drwx------ 2 Ruby Ruby 20480 Nov 9 08:18 25295 16 drwx------ 2 Ruby Ruby 16384 Nov 9 14:29 33483```
-
以下是我在三节点分布式gaussdb上面查询到的结果:### cn里面也有数据文件 [root@gauss-dis-134 cn]# du -sh base 123M base [root@gauss-dis-134 cn]# du -sh global 514M global ### dn的大小 [root@gauss-dis-134 dn_6002]# du -sh base 255M base [root@gauss-dis-134 dn_6002]# du -sh global 514M global我的问题是:这是在同一个机器上面,为什么在cn目录下面也有base、global这些文件(里面是数据文件) 官方文档的描述里面不是说,由datanode负责数据的存储,cn只负责协调吗?如果同一台机器,cn和dn都存一样的数据,不会浪费空间吗?
-
1、这两种不同模式的容灾RPO和RTO能力能达到多少?2、温备机制现在能够做到自动化吗?从节点故障的识别到温备节点的完成数据恢复提供业务能力需要多久?3、DWS集群现在能够支持跨库查询吗?效率如何?4、DRS和DSC工具目前可以支持线下部署模式吗?我接触大都是线下部署DWS集群的,数据从Oracle、TD、OB搬迁到DWS,其实很多客户是愿意华为能够提供一套完整的数据迁移+同步的解决方案。
-
使用方式1:1、PC端访问:链接2、选择大数据-数据仓库服务 DWS,即可开启小D智能客服问答;3、输入需要查询的问题,如:数据怎么导入DWS,点击查看全部查看相关内容。使用方式2:1、登录DWS管理控制台;2、右上角点击小D助手,进入提问;3、所有页面均可咨询,即时答疑;4、对于小D的回答,不能解决问题,可以再页面上点击“无帮助”进行反馈,工作人员会优化回答。
上滑加载中
推荐直播
-
在昇腾云上部署使用DeepSeek
2025/02/14 周五 16:30-18:00
Hao-资深昇腾云解决方案专家
昇腾云上有多种方法部署DeepSeek,讲师一步步演示,解析配置参数的含义和推荐的选择。学完一起动手搭建自己的DeepSeek环境吧!
回顾中
热门标签