-
在数据分析和商业智能领域,指标和维度是两个至关重要的概念。它们各自扮演着不同的角色,但又相互关联,共同构成了数据分析的基础框架。一、指标的概念与特点指标是一个量化的度量,用于衡量业务性能或目标的实现情况。它是具体的数值,可以被追踪和比较。指标的特点主要包括以下几点:可量化:指标通常是数字,可以进行数学计算,如求和、平均、比例等。可比较:指标可以在不同时间段或不同条件下进行比较,以评估业务性能的变化或差异。可追踪:指标可以随时间变化被追踪,以观察趋势和模式。常见的指标包括销售额、用户数、增长率、转化率、满意度等。这些指标能够直观地反映业务的运营状况,为决策者提供有力的数据支持。二、维度的概念与特点维度是数据集中的一个属性,用于描述数据的分类或分组方式。它是数据的分类属性,用于分类和分组数据,以便更深入地分析业务性能。维度的特点主要包括以下几点:描述性:维度是对数据的描述,而不是量化的度量。它提供了观察数据的不同角度和分类方式。分类性:维度用于将数据分组,如时间、地点、产品类型等。通过维度,可以将数据划分为更小的子集,以便进行更详细的分析。可过滤:维度可以用来过滤数据,以便更详细地查看特定部分的数据。这有助于聚焦关注重点,排除无关信息。常见的维度包括时间、地区、产品类别、用户类型等。这些维度能够帮助分析师从不同的角度和层次上分析业务性能,揭示数据背后的规律和趋势。三、指标与维度的关系在数据分析中,指标和维度通常是相辅相成的。它们之间的关系可以概括为以下几点:指标基于维度计算:指标通常是基于度量(如销售额、用户数等)和维度(如时间、地区等)计算得出的。例如,销售额是一个度量,而月销售额则是一个基于时间维度的指标。维度用于分组和聚合数据:维度用于对度量进行分组和聚合,以计算指标。例如,可以按地区聚合销售额来计算各地区的销售指标。指标和维度共同构成数据模型:在构建数据报告或仪表板时,通常会根据业务需求选择合适的维度和度量来计算和展示指标。这些指标和维度共同构成了数据模型的基础框架。四、实际应用中的注意事项在实际应用中,需要注意以下几点来更好地理解和运用指标和维度:明确业务需求:在选择指标和维度时,首先要明确业务需求和分析目的。这有助于确定需要关注的指标和维度,以及它们之间的关系。合理设计数据模型:根据业务需求和分析目的,合理设计数据模型。确保所选的指标和维度能够全面、准确地反映业务性能,并便于后续的数据分析和可视化。注意数据质量和准确性:在收集和处理数据时,要注意数据的质量和准确性。确保数据的完整性、一致性和可靠性,以避免误导性的分析结果。综上所述,指标和维度是数据分析和商业智能领域中的两个核心概念。它们各自具有不同的特点和作用,但又相互关联、相辅相成。在实际应用中,需要明确业务需求、合理设计数据模型,并注意数据质量和准确性,以充分发挥指标和维度在数据分析中的作用。
-
PV、UV、VV、IP是网站分析中常见的基础指标,它们能够从宏观上概括性地衡量网站的整体运营状况。以下是这些指标的详细介绍及其关系与计算:一、PV(Page View)页面浏览量定义:PV即页面浏览量,指页面被浏览的次数,用以衡量网站用户访问的网页数量。计算方式:用户每次打开一个页面便记录1次PV,多次打开同一页面则浏览量累计。也就是说,PV值等于所有访问者在一定时间内(如24小时)浏览的页面总数。特点:PV与来访者的数量成正比,但PV并不直接决定页面的真实来访者数量。例如,同一个来访者通过不断的刷新页面,也可以制造出非常高的PV。二、UV(Unique Visitor)独立访客数定义:UV即独立访客数,指一天内访问某站点的人数。计算方式:以cookie为依据,1天内同一访客的多次访问只记录为一个访客。也就是说,UV值等于一天内不同cookie的数量(或不同用户的数量)。特点:UV是衡量网站用户数量的重要指标,能够更准确地反映网站的真实访问情况。三、VV(Visit View)访客访问次数定义:VV即访客访问次数,用以记录所有访客一天内访问网站的次数。计算方式:当访客完成所有的浏览并最终关掉该网站的所有页面时,便完成了一次访问。同一访客一天内可能有多次访问行为,访问次数累计。特点:VV能够反映访客对网站的粘性和活跃度。四、IP(Internet Protocol)独立IP数定义:IP即独立IP数,指一天内使用不同IP地址的用户访问网站的数量。计算方式:同一IP无论访问了几个页面,独立的IP数均为1。也就是说,IP值等于一天内不同IP地址的数量。特点:IP是衡量网站访问来源的重要指标之一,能够反映网站的访问范围和用户分布情况。五、关系与计算PV与UV的关系:PV与UV之间存在一定的正相关关系,即PV值越高,通常意味着UV值也越高。但PV并不直接决定UV,因为同一个UV可能通过刷新页面等方式产生多个PV。UV与IP的关系:UV和IP之间的数据通常不会有太大的差异,但UV量可能会比IP量高出一点。这是因为每个UV相对于每个IP更准确地对应一个实际的浏览者。在公用相同IP的场所(如网吧、学校、公司等)中,不同的用户或多种不同浏览器访问网站时,UV数会大于IP数。而在家庭中,由于大多数电脑使用ADSL拨号上网,同一个用户在家里不同时间访问网站时IP可能会不同(动态IP地址),但实际访客数唯一,因此会出现UV数小于IP数的情况。VV与UV、IP的关系:VV是访客访问网站的次数,与UV和IP之间存在一定的关联。一个UV可能产生多个VV(多次访问),而一个IP也可能对应多个VV(不同用户或不同时间段的访问)。但VV更多地反映了访客对网站的粘性和活跃度,而不是简单的用户数量或访问来源。综上所述,PV、UV、VV、IP是网站分析中不可或缺的基础指标。它们各自具有不同的特点和计算方式,能够从不同角度反映网站的整体运营状况。在实际应用中,需要根据具体需求和场景选择合适的指标进行分析和评估。
-
以下是关于持续集成(CI)、持续部署(CD,在此上下文中特指持续部署)和持续交付(CD,但在此处为区分,我们将称其为持续交付CD)的详细介绍:一、持续集成(CI,Continuous Integration)定义:持续集成是一种软件开发实践,它要求开发者在代码编写过程中,频繁地将新增或修改的代码提交到版本控制系统中,并自动进行构建(包括编译、链接、打包等过程)和测试(包括单元测试、集成测试、系统测试等)。目的:提高开发速度:通过持续集成,可以更快地将代码集成到主干分支,减少了代码的耦合度,使团队能够更快地进行开发和交付。减少软件缺陷:自动化测试环节能够更早地发现和解决潜在的问题,减少软件交付过程中的缺陷。提高软件质量:自动化测试能够更全面地检查代码是否符合预期和要求,帮助软件开发团队更好地保证代码的质量。促进团队合作和交流:团队成员频繁地提交代码并在版本控制系统中共享代码库,这促使团队成员更容易交流和合作,减少了代码冲突和集成问题的发生。实现方式:持续集成通常依赖于版本控制系统(如Git)、构建工具(如Maven、Gradle)、自动化测试工具(如JUnit、Selenium)以及持续集成服务器(如Jenkins、GitLab CI/CD)等工具和平台来实现。二、持续部署(CD,Continuous Deployment)定义:持续部署是持续集成流程的下一步,它指的是在代码经过自动化测试验证无误后,自动将其部署到生产环境的过程。目的:加速软件交付:通过自动化部署流程,缩短了软件的上线周期,能够更快速地响应用户的需求。降低风险:持续部署可以实时发现部署过程中的问题,及时进行修复,降低生产环境中的风险。增强产品质量:自动化测试和部署流程能够降低人为错误的风险,提升产品质量。实现方式:持续部署通常依赖于容器技术(如Docker)、容器编排平台(如Kubernetes)、自动化部署工具(如Ansible、Terraform)以及持续集成/持续部署(CI/CD)平台等工具和平台来实现。三、持续交付(CD,Continuous Delivery)定义:持续交付是一种软件工程手法,它让软件产品的产出过程在一个短周期内完成,以保证软件可以稳定、持续地保持在随时可以发布的状况。与持续部署不同的是,持续交付并不要求每次构建都自动部署到生产环境,而是确保软件可以随时被部署到生产环境。目的:提高交付效率:通过自动化构建、测试和打包流程,缩短了软件的交付周期。降低交付风险:自动化测试环节能够确保软件在发布前经过充分的验证和测试,降低了生产环境中的风险。增强业务灵活性:持续交付使得企业能够更快地响应市场变化和用户需求,增强了业务的灵活性。实现方式:持续交付的实现方式与持续集成和持续部署类似,都依赖于版本控制系统、构建工具、自动化测试工具以及CI/CD平台等工具和平台。但持续交付更注重于构建和测试流程的自动化以及软件包的版本管理等方面。综上所述,CI、CD(持续部署)和CD(持续交付)都是现代软件开发和部署过程中的重要实践。它们通过自动化构建、测试和部署流程,提高了软件开发的效率和质量,降低了生产环境中的风险,并增强了企业的业务灵活性。
-
这些术语是软件开发和部署过程中常见的环境类型。下面是对每个环境的详细解释:DEV(Development Environment)定义:开发环境是软件开发人员用于编写、调试和测试代码的地方。它是软件生命周期中最早期的环境,用于创建和修改软件。特点:通常是开发人员个人或团队的工作站。包含了所有必要的开发工具、库和依赖项。允许快速迭代和实验性更改。可能会包含一些调试工具和日志记录功能,以帮助开发人员定位和修复问题。FAT(Feature Acceptance Test Environment)定义:功能验收测试环境(有时也称为功能测试环境)是用于验证软件新特性或功能的测试环境。它确保软件的功能按照预期工作,并且满足业务需求。特点:类似于开发环境,但更接近于生产环境的配置。用于在软件发布之前进行详细的测试。测试人员会在这里执行测试用例,以验证软件功能的正确性和稳定性。UAT(User Acceptance Test Environment)定义:用户验收测试环境是用于模拟生产环境,以便最终用户或业务代表测试软件的环境。它确保软件在实际使用场景下满足用户的期望和需求。特点:尽可能与生产环境保持一致,包括硬件、软件、网络和安全配置。允许用户或业务代表执行实际的业务流程,以验证软件的可用性和实用性。测试结果通常作为软件是否可以发布到生产环境的决策依据。PRO(Production Environment)定义:生产环境是软件实际运行的环境,用于处理真实的业务数据和用户请求。它是软件生命周期中的最终阶段,也是最重要的阶段之一。特点:必须具有高可用性和可靠性,以确保业务连续性。安全性至关重要,需要实施严格的安全措施来保护数据和用户隐私。性能和可扩展性是关键因素,以应对不断变化的业务需求和用户负载。在软件开发和部署过程中,这些环境扮演着不同的角色,并相互协作以确保软件的质量和稳定性。每个环境都有其特定的用途和配置,以满足不同阶段的需求。
-
跳板机、堡垒机以及SSH隧道都是网络安全和远程访问中的重要概念,下面将分别进行详细介绍:一、跳板机定义:跳板机(Jump Server)是一种网络安全设备,用于在不直接连接到目标服务器的情况下,提供一个中间的访问点。它允许管理员或用户通过一个受控的安全通道访问内部网络中的其他服务器、设备或资源。功能:身份验证和授权:跳板机要求用户进行身份验证,以确保只有经过授权的用户才能访问内部资源。这通常通过用户名和密码、双因素认证(如短信验证码、硬件令牌等)或证书等方式实现。安全隧道:跳板机使用加密技术(如SSH)创建一个安全的隧道,将用户的请求转发到目标服务器。这样可以防止敏感数据在传输过程中被窃取或篡改。审计和监控:跳板机可以记录用户的活动日志,以便进行审计和监控。这对于追踪潜在的安全事件和合规性检查非常重要。访问控制:跳板机可以根据用户的角色和权限限制其对内部资源的访问。应用场景:跳板机通常用于多级安全架构中,作为一个中间节点,允许管理员从一个安全区域进入另一个更敏感的区域。二、堡垒机定义:堡垒机(又称运维审计系统)是一种专门设计用于强化网络安全管理的设备。堡垒机源于跳板机的概念,但提供了更为全面和先进的安全功能。功能:访问控制与权限管理:堡垒机通过设置严谨的访问规则和权限管理策略,能够确保只有经过授权的用户或IP地址才能访问内部网络资源。身份验证与授权:堡垒机配备了强大的身份验证和授权功能,用户需要通过多重身份验证才能登录堡垒机。操作审计与监控:堡垒机能够全面记录运维人员的所有操作行为,包括登录、命令执行、文件传输等,并实时监控用户的操作行为。数据加密与传输安全:堡垒机支持使用加密协议和隧道技术来保护数据传输的安全性。合规性与法规遵从:堡垒机有助于企业证明其对内部网络的访问控制符合相关法规要求。应用场景:堡垒机被部署在网络环境中,主要职责是监控和记录运维人员对网络内部的关键资产操作行为,这些关键资产包括服务器、网络设备、安全设备以及数据库等。三、SSH隧道定义:SSH隧道(SSH Tunneling),又称为SSH端口转发(SSH Port Forwarding),是一种利用SSH协议为其他协议或网络链接加密的方法。类型:本地端口转发:将本地端口的流量转发到SSH服务器,再由SSH服务器转发到目标服务器。远程端口转发:将SSH服务器端口的流量转发到本地计算机,再由本地计算机转发到目标服务器。动态端口转发:创建一个本地SOCKS代理服务器,应用程序通过配置使用这个SOCKS代理,而SSH客户端负责把流量通过SSH连接转发出去。应用场景:SSH隧道通常用于安全地传输未加密的网络流量,通过远程服务器转发到目标目的地,保证了数据传输的私密性和安全性。例如,通过SSH隧道可以访问内网的Web页面和数据库等。综上所述,跳板机、堡垒机和SSH隧道在网络安全和远程访问中都扮演着重要的角色。跳板机提供了一个中间的访问点,堡垒机则提供了更为全面和先进的安全功能,而SSH隧道则是一种利用SSH协议为其他协议或网络链接加密的方法。
-
在Web服务器架构中,动静分离是一种重要的设计策略,它通过将动态内容和静态内容分别处理和分发,带来了诸多好处。以下是动静分离的主要原因及其带来的具体好处:动静分离的主要原因性能优化:动态内容和静态内容在处理和分发上存在差异,将它们分离可以分别进行优化,从而提高整体性能。缓存管理:静态内容易于被缓存,而动态内容通常不适宜缓存或需要更精细的缓存控制。负载均衡:分离后,可以根据内容类型对资源进行优化分配,实现更有效的负载均衡。安全性增强:静态内容服务器通常不需要执行复杂的程序代码,因此攻击面较小,可以降低安全风险。架构灵活性提升:动静分离使得架构更加灵活,便于根据网站流量和内容更新频率进行独立扩展和优化。动静分离带来的好处降低Web服务器负载:静态内容(如图片、CSS、JavaScript文件等)可以由专门的静态资源服务器(如Nginx)直接处理和提供,显著减少对动态资源服务器(如应用服务器)的请求量,从而降低后者的负载。静态内容易于被浏览器和CDN(内容分发网络)缓存,通过合理设置缓存策略,可以减少对服务器的重复请求,进一步降低服务器负载。加快网站访问速度:静态内容可以被缓存到CDN或专门的静态资源服务器上,用户可以从离自己更近的服务器获取静态内容,减少网络延迟。动态内容则可以由主服务器处理,以保证动态交互的实时性。这种分工合作的方式使得整体网站访问速度得到提升。提高网站可扩展性和可维护性:动静分离后,可以根据静态资源的访问量和特点,针对性地增加静态资源服务器的数量和规模,以应对高并发的访问需求。由于静态内容不需要经常变动,可以更方便地进行缓存和更新,减少对主服务器的依赖和维护成本。同时,动态内容也可以根据需要进行独立的扩展和优化,如增加应用服务器的数量或采用更高效的动态内容处理技术。提升安全性:静态内容服务器通常不需要执行复杂的程序代码,因此攻击面较小,将其与执行动态代码的服务器分离可以降低潜在的安全威胁。通过合理的安全配置和监控措施,可以进一步确保静态内容服务器的安全性。降低运营成本:利用CDN等服务存储静态内容可以减少对原始服务器带宽和存储的需求。通过优化静态内容的分发和缓存策略,可以降低服务器的能耗和运维成本。综上所述,动静分离在Web服务器架构中起到了至关重要的作用。它不仅提高了Web应用的性能和用户体验,还增强了应用的可维护性和安全性,同时降低了运营成本。因此,在现代Web架构设计中,动静分离被视为一种重要的策略。
-
高内聚/低耦合是软件工程中的概念,主要用于程序的面向对象设计,是判断软件设计好坏的标准。以下是对高内聚和低耦合的详细解释:高内聚高内聚指的是一个模块或类内部各个元素之间的紧密度和相关性。具体来说,它表示模块的各个部分都紧密地围绕着一个单一的、明确的功能或目标工作。换句话说,高内聚的模块是自包含的、专注的,并且其所有组件都是为了实现相同的目的而协同工作的。高内聚的标志是一个模块内各个元素彼此结合的紧密程度,它是信息隐蔽和局部化概念的自然扩展。从功能角度来看,一个好的内聚模块应当恰好做一件事,描述的是模块内的功能联系。高内聚的好处包括:提高系统的可靠性和可维护性,因为高内聚的模块在内部紧密配合,对外部模块的影响和干扰相对较小。减少系统出现故障的概率,因为高内聚的模块更容易被测试和验证。低耦合低耦合指的是模块之间的依赖关系尽可能少,模块之间相互独立。换句话说,一个模块的改变不应该直接影响到其他模块。低耦合能够提高系统的灵活性和可扩展性,降低系统中某个模块发生变化对其他模块造成的影响,从而减少系统维护和扩展的难度。低耦合的好处包括:易于维护:因为模块之间的依赖性低,修改一个模块时不需要担心影响其他模块,降低了出错的概率。可重用性:低耦合的模块可以在不同的上下文中复用,而不需要太多的修改。易于测试:独立的模块更容易进行单元测试,可以单独测试每个模块的功能。灵活性:低耦合使得在项目需求变化时,能够更加灵活地替换或修改某个模块。实现高内聚/低耦合的方法在实践中,可以通过以下方法来实现高内聚和低耦合的目标:合理的模块划分:将功能紧密相关的代码划分到同一个模块中,确保每个模块都有明确的功能和职责。接口设计:定义清晰的接口来规范模块之间的交互,减少模块之间的直接依赖。使用设计模式:如MVC(Model-View-Controller)、策略模式等,这些设计模式可以帮助实现低耦合和高内聚。综上所述,高内聚和低耦合是相辅相成的设计原则。理想的系统设计应该同时遵循这两个原则,以提升系统的灵活性、可维护性和可扩展性,降低开发和维护成本,确保系统在不断变化的需求中能够稳定运行。
-
读写分离是一种数据库架构设计策略,主要解决数据库在高并发场景下的读写性能瓶颈问题。以下是读写分离的优缺点分析:优点提高数据库性能:读写分离通过将读操作和写操作分离到不同的服务器上,显著提高了数据库的并发处理能力。读操作的请求量通常远大于写操作,因此将读操作分配到多个从数据库上,可以充分利用服务器资源,提高整体数据库性能。节省技术成本:读写分离可以降低数据库的技术成本,使开发团队能够更集中精力于主库的性能优化和开发工作上。数据安全:读写分离能够显著降低主库的注入风险,提升数据库系统的安全性。增加可用性:读写分离可以有效避免主库出现故障而影响系统的可用性。当主库出现问题时,可以迅速切换到从库,保证系统的持续运行。提高数据库可扩展性:读写分离可以在多个从库中实现数据库的水平扩展,从而提高数据库的可扩展性。随着业务的发展,可以方便地增加从库的数量,以满足不断增长的读操作需求。简化系统架构设计:读写分离将读操作和写操作分离到不同的服务器上,降低了系统的复杂度,使开发人员可以更专注于业务逻辑的实现,提高开发效率。缺点数据同步延迟:在读写分离架构中,主数据库和从数据库之间存在数据同步的延迟。这种延迟可能导致数据不一致的问题,需要采用合适的数据同步策略和一致性保证机制来解决。故障切换复杂性:在读写分离架构中,如果主数据库出现故障,需要将写操作切换到从数据库上。这个过程需要保证数据的一致性和系统的可用性,实现故障切换的策略可能相对复杂。中间件依赖:在使用中间件实现读写分离时,需要依赖额外的软件组件。这增加了系统的复杂性和运维成本,同时需要确保中间件的稳定性和可靠性。开发成本:在应用层实现读写分离时,需要在应用程序中编写相应的逻辑。这增加了开发成本,并需要开发人员对数据库架构有一定的了解。适用场景限制:读写分离在某些特定场景下可能并不适用。例如,当写操作非常频繁且需要强一致性时,读写分离可能无法满足要求。综上所述,读写分离在提高数据库性能、节省技术成本、数据安全、增加可用性、提高数据库可扩展性以及简化系统架构设计等方面具有显著优势。然而,它也存在数据同步延迟、故障切换复杂性、中间件依赖、开发成本以及适用场景限制等缺点。因此,在采用读写分离架构时,需要综合考虑业务需求、系统复杂度以及运维成本等因素,以做出合适的选择。
-
CAP理论与BASE理论是分布式系统设计中两个重要的理论框架,它们各自强调了分布式系统中不同的属性和权衡。CAP理论CAP理论由Eric Brewer教授在2000年提出,并在2003年由MIT的Gilbert和Lynch正式证明。CAP理论指出,在一个分布式系统中,Consistency(一致性)、Availability(可用性)、Partition Tolerance(分区容错性)这三个属性最多只能同时满足两个。一致性(C):保证所有节点上的数据始终同步。在分布式系统中,所有节点在同一时刻具有同样的值、都是最新的数据副本。可用性(A):无论响应成功还是失败,每个请求都是有效的,并不会发生网络超时等情况。即使部分结点宕机,整个集群仍然能够对外提供服务。分区容错性(P):系统内部(某个节点的分区)中丢失消息,系统也应该可以继续提供服务。分布式系统要能容忍网络通信故障导致的分区情况。由于分布式系统的复杂性,CAP理论指出这三个属性无法同时满足。因此,在设计分布式系统时,需要在C、A、P之间做出权衡。BASE理论BASE理论是对CAP理论的延伸和补充,它提出了另一种分布式系统设计的思路。BASE理论的三要素是Basically Available(基本可用)、Soft State(软状态)和Eventually Consistent(最终一致性)。基本可用(BA):系统在出现故障或部分失效的情况下仍然可以保证基本的可用性。这意味着虽然系统可能无法保证100%的可用性,但是它仍然会尽力保证在任何时候都能够提供基本的服务。软状态(S):系统允许短暂的不一致性,即在某些时刻,系统可能会处于一种中间状态。这种中间状态不会影响系统整体可用性,并且最终会达到一致状态。最终一致性(E):系统中的所有数据副本在经过一定时间后,最终能够达到一致的状态。这个过程可能是异步的,因为各个节点之间的网络通信延迟和故障可能导致某些节点更新的延迟。BASE理论的核心思想是放弃强一致性(CAP中的一致性指的是强一致性),追求最终一致性。这种思路使得分布式系统能够在保证可用性和扩展性的同时,尽量满足一致性的要求。总结CAP理论和BASE理论为分布式系统设计提供了重要的指导思路。CAP理论强调了分布式系统中一致性、可用性和分区容错性之间的权衡关系;而BASE理论则提出了在放弃强一致性的前提下,通过基本可用、软状态和最终一致性来构建分布式系统。在实际应用中,需要根据具体的业务场景和需求来选择合适的理论框架和设计方案。
-
冷备和热备是备份和恢复方案中常见的术语,它们代表了不同的备份类型和级别,主要用于提高系统的可用性、可靠性和容错性。以下是关于冷备和热备的详细解释: 一、冷备(Cold Backup)定义:冷备是指在关闭系统或服务器后,将数据备份到存储介质中的一种备份方式。在备份过程中,系统或服务不可用。 特点: 离线状态:由于备份和恢复过程系统处于离线状态,因此冷备的恢复时间较长。 成本较低:由于不需要额外的硬件或软件支持,冷备的成本相对较低。 手动切换:冷备方案下,主机出现故障时备机不会自动接管,需要手动切换服务。 应用场景:冷备适用于对系统可用性要求不高的场景,如一些非关键性业务或数据备份。二、热备(Hot Backup)定义:热备指的是两台服务器之间一台为主机对外提供服务,另一台是备机不提供服务但保持开机状态。一旦主机故障,备机可以立即接管主机对外提供服务。 特点: 在线状态:热备过程中,系统或服务保持在线状态,因此恢复时间较短。 数据同步:热备需要重点关注主备机之间的数据同步机制,确保主备机之间数据一致。 自动切换:热备方案下,主机出现故障时备机可以自动接管服务,无需手动切换。 应用场景:热备适用于对系统可用性要求较高的场景,如一些关键性业务或需要持续在线的服务。综上所述,冷备和热备在备份方式、恢复时间、成本、手动/自动切换以及应用场景等方面存在显著差异。在选择备份方案时,需要根据实际需求和业务场景进行权衡和选择。
-
Nacos:微服务架构中的“超级英雄”,揭秘其原理与应用在微服务架构日益盛行的今天,Nacos以其强大的动态服务发现、配置管理和服务管理功能,成为了众多开发者的首选。本文将带你深入了解Nacos的原理及其在各个场景中的应用,让你对这个微服务架构中的“超级英雄”有更全面的认识。一、Nacos简介Nacos(前身为Alibaba的Dubbo Registry和Spring Cloud的Eureka)是一个开源的动态服务发现、配置管理和服务管理平台。它支持多种编程语言,包括Java、Go和Python等,并提供了丰富的特性,如动态服务发现、服务状态管理、动态配置管理、动态DNS服务和流量管理等。二、Nacos的原理服务注册与发现服务提供者将自己的服务实例信息注册到Nacos服务器,而服务消费者可以从Nacos服务器中获取服务实例的信息,从而进行服务调用。当一个服务启动时,它会向Nacos注册自己的实例信息。Nacos提供了RESTful API,服务可以通过HTTP请求向Nacos注册实例信息,包括服务名、IP地址、端口号等,同时还可以添加一些元数据信息,比如健康状态、权重等。另一方面,当服务需要调用其他服务时,它可以通过Nacos进行服务发现。服务可以发送查询请求给Nacos,根据服务名获取该服务的所有可用实例信息。Nacos会返回一个包含所有可用实例信息的响应,服务可以根据这些信息选择合适的实例进行调用。动态配置管理Nacos提供了统一的配置管理功能,可以让应用程序动态地获取配置信息并实时响应配置的变化。开发者可以将应用的配置信息存储在Nacos中,应用启动时从Nacos获取配置信息。Nacos支持配置的动态更新,当配置发生变化时,Nacos会通知相关的应用进行配置更新,从而实现配置的热加载。健康检查Nacos可以周期性地检测注册的服务是否健康,及时发现异常服务并剔除不健康的实例。如果某个服务实例出现故障或者不可用,Nacos会将其标记为不可用,同时通知其他服务实例避免将请求路由到该实例上。动态DNS解析与流量管理Nacos支持动态DNS解析,将服务名解析为具体的IP地址。同时,它还支持流量管理功能,如路由、流量分发等,为微服务架构中的流量调度提供了极大的便利。三、Nacos的应用微服务架构中的服务治理Nacos通过服务注册、发现、健康检查和配置管理,帮助开发者实现了微服务架构中的服务治理能力。它提供了简单易用的API接口和丰富的功能,可以帮助开发团队快速搭建和管理微服务架构,提高系统的可靠性和可维护性。动态配置更新在微服务架构中,配置信息的变更往往需要实时同步到各个服务实例中。Nacos的动态配置管理功能使得这一需求变得简单而高效。开发者只需在Nacos中更新配置信息,Nacos就会自动通知相关的服务实例进行配置更新,从而实现配置的实时同步。服务监控与告警通过Nacos的健康检查功能,开发者可以实时监控服务的运行状态。一旦发现异常服务,Nacos会立即将其标记为不可用,并通知其他服务实例进行路由调整。同时,Nacos还可以与监控和告警系统集成,实现服务的自动告警和故障恢复。多语言支持Nacos支持多种编程语言,这使得它在跨语言微服务架构中具有广泛的应用前景。无论是Java、Go还是Python等语言,都可以通过Nacos实现服务的注册、发现和配置管理等功能。
-
随着数字化转型步伐的提速,企业对云技术的应用日益广泛。在这过程中,运维不再仅仅是保障系统稳定运行的“幕后英雄”,而是成为推动企业数字化转型、提升业务连续性的核心力量。如何在云环境下,运用“确定性”的运维策略来有效应对各种“不确定性”因素,成为企业运维工作的关键课题。8月23日,由华为云主办的“数智先锋100·企业运维稳定性治理研讨会”在南京顺利举办。众多业界专家与企业代表齐聚,共同探讨运维稳定性治理、运维体系建设以及一站式运维平台部署等前沿议题,赋能企业提升运维能力,推动云上业务的高效发展。活动现场,华为云运维使能首席专家发表致辞,他指出,随着企业数字化转型的深入,运维及运营已成为生产力中不可或缺的部分。华为云基于对趋势的洞察及沉淀,提出“确定性运维”理念。经过两年多的发展,华为云确定性运维能力体系越来越完善,并总结出“1+N”的能力模型。其中,“1”是确定性运维能力的管理体系,包含运维组织、流程、工具;“N”是关键能力建设,包括高可用、持续交付、运维能力可信等。在下一阶段,他希望将大模型能力与运维相结合,开启确定性运维2.0大模型研究,将大模型能力低成本、高效率地应用于业务中,助力千行万业运维智能化升级。华为云运维使能首席专家传统企业数字化转型加速,波司登搭乘运维“快车”实现高效发展在数字化浪潮的驱动下,传统企业依托新兴技术进行革新已是必然趋势。波司登作为一家服装行业的领先者,于2023年年底启动了数智化转型,迈上了应用现代化改造之路。波司登股份有限公司运维总监单德宝在分享中提到,波司登在改造过程中,通过与华为云携手,以价值流的方式梳理了核心业务场景,并对40多个应用系统进行了重构,已于今年8月正式上线。波司登股份有限公司运维总监——单德宝在运维方面,波司登从基本运维阶段开始,通过标准化手段变更管理流程,着重于构建可观测运维能力,包括统一的监控平台、日志管理和调用链路跟踪等,建立了自上而下的监控体系,保障业务稳定、高效发展故障管理无小事,华为云确定性运维坚守业务运行“生命线”在企业运行过程中,故障管理是保障业务连续性和数据完整性的重要基石,成为企业稳定发展的生命线。华为云确定性运维故障管理专家聚焦“华为云确定性运维实践分享——故障管理”的主题,结合零售行业的成功实践展开分享。针对该零售企业在数字化转型过程中的变更流程不完善、故障频发、故障响应时间长等IT系统挑战,华为云运维团队在进行系统评估后,设计出三期改进方案——故障管理和混沌工程演练,构建可观测性和主动运维能力,实现初步确定性的运维状态。这些措施显著提升了系统稳定性和故障恢复速度,减少了故障数量并缩短了恢复时间,从而提升了客户体验。华为云确定性运维故障管理专家在具体实践中,专家重点介绍了基于容错视角的故障模式梳理方法,通过了解客户业务架构和资源部署,识别并梳理各种可能的故障模式,并利用故障快恢平台和韧性评估平台等工具快速定位问题并采取措施。混沌工程演练则通过模拟真实环境中的故障场景,暴露潜在问题,提高系统的恢复能力。同时还强调了质量文化、高可用架构及动态风险治理在故障管理中的重要性,为未来的运维工作提供了宝贵经验和指导。AI技术与企业场景深度融合,华为云轻量化AI应用开发助力数智升级在探讨华为云aPaaS在AI应用和运维领域的探索与实践时,不得不提到近期爆火的中国3A游戏《黑神话·悟空》,该游戏的成功背后,离不开GPU和深度学习等AI技术的应用所带来的加速效应。华为云AI原生应用引擎架构师表示:“AI在游戏行业的巨大潜力引发了我们思考如何将其与企业实际应用场景深度融合,以提升运维效率和客户体验。”华为云AI原生应用引擎架构师架构师介绍了华为云AI原生应用引擎架构在AGV企业智能客服的案例,分享了华为云轻量化AI应用开发的实践经验。该企业拥有超过1200台在线AGV小车,分布在仓储、制造、物流、医药等领域的600多家工厂。针对小车的故障运维难题,华为云依托AI原生应用引擎平台以及确定性运维实践经验,治理并集成了企业的售后知识、故障库知识、产品知识以及研发知识,形成企业AI大脑,并利用大、小模型结合、AI Agent快速编排等技术快速构建企业AI应用。根据实践数据显示,约70%的小车故障问题能够通过此方案得到及时解决;对于更复杂的问题,通过对话指导提取相关的日志并在对话中导入日志文件给出进一步问题解决策略,又额外解决了其中的50%。他提到,AI是一场涉及“流程+组织+数据+IT”的端到端变革。为此,华为云提出了一套方法论,结合“AI+业务”场景梳理来快速识别企业痛点业务,通过AI智能客服7*24小时在线服务,实现智能快速排障;从源头上梳理AI应用的数据治理策略,进行数据准备与标注,基于自然语言交互自动规划研发流程,从而降低门槛,使AI能够应用于千行万业的业务场景中,提升企业运维效率并降低成本,加速企业智能化转型。深化监控部署与资源保障,赞奇携手华为云构建高效运维新体验企业云端业务在运行过程中,实时监控、智能部署、资源优化、安全保障,四大要素构成了云运维全流程的坚固框架。江苏赞奇科技股份有限公司是华为云重要合作伙伴,会上,江苏赞奇科技股份有限公司运维总监曹晖以“构建高效云运维:监控部署与资源保障全流程实践分享”为题展开演讲。他表示,赞奇与华为云在过去的四年合作中,共同解决了在大规模资源调度和实时性要求高的云工作站及渲染服务方面的种种挑战。江苏赞奇科技股份有限公司运维总监——曹晖通过协同工作,赞奇基于华为云的资源保障和高性能存储能力,构建了一套能够实时监控系统状态、确保稳定性和提升用户体验的运维体系。同时,赞奇采用云原生监控解决方案如Prometheus,实现了自定义监控项的兼容,并通过标准化工作流程和自动化部署提高了运维效率。此外,赞奇还建立了知识库,将以往依赖个人经验的问题处理方式转变为基于服务的运维2.0模式,减少了故障排查次数,并提升了团队的整体能力。修复不拖延、资源不浪费,“一站式”运维平台全搞定在当前企业数字化转型加速的大环境下,一站式运维平台联合解决方案扮演着至关重要的角色。研讨会上,华为云集成运维服务专家以及上海观测未来信息技术有限公司观测云资深技术专家翁一磊分别结合华为云一站式运维平台联合解决方案进行了分享。华为云集成运维服务专家表示,华为云一站式运营中心(COC)旨在解决客户在运维过程中面临的监控分散、数据标准化不足、多云治理困难、故障定位难等一系列挑战。通过整合资源生命周期管理、确定性恢复、变更风险管控和服务韧性提升等四大场景能力,COC为不同角色的用户提供了一体化管理解决方案,包括决策支持的大屏展示、自动化运维作业以及故障快速恢复等功能。尤其值得一提的是,COC通过构建CMDB实现了资源与应用的关联,从而帮助客户在资源规划、发放、运维及运营等环节大大提升了工作效率。华为云集成运维服务专家翁一磊强调,观测云作为华为云的紧密合作伙伴,致力于为全球企业提供一体化的可观测监控平台。针对企业普遍存在的监控工具分散、缺乏全局视角等问题,观测云提供了一个统一的端到端可观测平台,支持SaaS和私有化部署模式,并且与华为云市场和云账单系统集成,方便用户使用和管理。观测云不仅能监控多云和本地资源,还支持多种日志采集与解析,提供从前端到后端的全面应用监控与可视化。通过集成现有的监控工具和CMDB平台,观测云帮助企业构建统一的观测平台,实现了降本增效。上海观测未来信息技术有限公司观测云资深技术专家——翁一磊凝结各界智慧与经验,企业数智化挑战迎刃而解本次研讨会上,专家与企业家们还围绕运维稳定性的挑战与机遇、运维技术的未来趋势等议题进行了深入的探讨和交流。与会者各抒己见,结合各自领域的实践经验与智慧,为未来的运维工作提供了诸多有益的启示和借鉴。可以说,当下正是企业数智化发展的黄金时期。在面对诸多机遇的同时,一些不确定性因素也将随之而来,要想保障业务的高效、长足发展,必要前提便是时刻确保系统的稳定运行。作为数字化领域的实践者与赋能者,华为云希望通过举办系列活动,凝聚行业中坚力量,打造畅所欲言的交流平台,碰撞出新点子、新思路、新方法以解决企业实际问题。未来,华为云“数智先锋100”系列研讨会还将开启更多前沿议题的探讨,走入更多地区,携手各领域精英企业,以云、AI等为技术底座,探寻企业高质量发展的成功密码,在云时代“先人一步”。转载自:凤凰新闻原文地址:cid:link_0
-
ExaGear for Server 为用户提供一个虚拟的x86 Linux OS环境,支持运行x86应用,部署运行在Arm64 Linux OS上。本章主要介绍ExaGear for Server的基本操作和使用,包括ExaGear for Server的获取、安装、运行、配置、升级和卸载, 以及x86应用程序在ExaGear上的安装和运行。 系统要求 Host系统需满足如下要求: CPU:Armv8架构; RAM:512 MB及以上; 磁盘空间:默认安装路径为/opt/exagear,需保证该目录所在磁盘的空余空间满足如下条件: 600 MB: 含x86系统库和基础文件系统,在ExaGear安装包中提供, 用户所运行的x86应用程序需要额外占用空间,包括依赖库文件和相关系统配置文件; 操作系统:64 位Linux操作系统(CentOS、Ubuntu),允许的虚拟地址长度至少为48bit。 开启动态二次优化功能,需要满足如下要求: CPU: Armv8.2架构具备且开启Statistical Profiling Extension(SPE)扩展功能; Linux内核版本4.16及以上; 用户权限检查 确保已获取执行后续操作所需的sudo权限或者以root用户完成后续操作。 安装前,检查host系统的/opt/exagear目录是否存在。如存在,用户可根据实际情况,选择在当前版本上进行升级,参见“升级ExaGear for Server on Ubuntu”,也可选择卸载当前已安装版本,参见“卸载ExaGear for Server on Ubuntu”,然后重新进行新版本的安装,新版本安装参见如下。 ExaGear for Server on Ubuntu发布件包含如下五个安装包: exagear-core-x32a64-<package_version>_arm64.deb exagear-core-x64a64-<package_version>_arm64.deb exagear-guest-for-ubuntu-<os_version>-x86_64-<package_version>_all.deb exagear-integration-<package_version>_all.deb exagear-utils-<package_version>_all.deb 执行以下命令安装exagear: sudo dpkg -i exagear-utils_<package_version>all.deb exagear-core-x64a64<package_version>arm64.deb exagear-core-x32a64<package_version>_arm64.deb exagear-guest-for-ubuntu-<os_version>-x86_64-<package_version>all.deb exagear-integration<package_version>_all.deb sudo apt-get install -f 上述命令中的<package_version>表示ExaGear包的版本号,例如1738。安装时需根据实际获取的安装包版本号执行操作,否则会提示失败。 上述命令中的<os_version>表示guest系统的版本号,安装时需根据实际获取的安装包版本号执行操作,否则会提示失败。此处<os_version>以for Ubuntu 18.04为例,则<os_version>为1804。 本文后续涉及<package_version>和<os_version>的描述同理,不再赘述。 至此,ExaGear的指令翻译引擎,x86运行环境,以及工具套件已完成部署安装,你可以开始使用ExaGear for Server提供的x86 OS环境,及安装和运行x86应用程序。 运行exagear命令,即可启动一个x86 shell,也称为guest shell,进入到虚拟的x86 OS环境。 exagear 显示:Starting the shell in the guest image /opt/exagear/images/ubuntu-<os_version>-x86_64 arch 显示:x86_64 至此,你已置身于x86运行环境,根目录在host系统上的绝对路径为:/opt/exagear/images/ubuntu-<os_version>-x86_64。 在这里,guest shell的运行情况和在x86机器上一样。 须知 用户帐号在host系统和guest系统之间是共享的。在guest系统中增加或删除用户时,host上也会自动进行相应的修改。/home目录也在host系统和guest系统之间共享(更多host和guest系统之间共享目录的详细信息,请参考配置ExaGear for Server on Ubuntu)。 运行exit命令即可退出guest会话。 exit 至此,你又回到了host系统。执行如下命令: arch 显示:aarch64。 说明 系统一般默认的是bash shell,调用ExaGear之前,用户还可以通过设置SHELL环境变量在guest系统中使用自己偏好的shell,比如csh,ksh等。 x86或x86_64应用程序以及依赖库的安装等,需要在guest环境中进行。推荐使用apt工具安装x86应用,首先要配置apt源,需要进入guest环境后进行配置,相关操作和在x86机器上的操作一样。 说明 如果你需要在本地网络中通过/etc/environment使用代理配置,确保你已经通过如下命令将配置复制到了guest系统(更多请参考“配置ExaGear for Server on Ubuntu”)。 sudo cp /etc/environment /opt/exagear/images/ubuntu-<os_version>-x86_64/etc/environment 运行exagear命令进入guest环境,以安装x86的nginx为例: exagear 显示:Starting the shell in the guest image /opt/exagear/images/ubuntu-<os_version>-x86_64 通过apt-get进行安装: sudo apt-get update sudo apt-get install nginx 在guest环境中安装x86应用程序,guest 环境中查看到的路径如果是/path/to/binary,则实际路径是:/opt/exagear/images/ubuntu-<os_version>-x86_64/path/to/binary。 比如,在guest环境中 nignx的路径为 /usr/sbin/nginx,在host 环境上的实际路径为/opt/exagear/images/ubuntu-<os_version>-x86_64/usr/sbin/nginx。 如果x86应用是以deb安装包方式提供的,需要将该安装包拷贝至guest系统可见的目录,推荐个人home目录“~/”,然后进入guest环境,通过apt-get进行安装,以安装x86 xxx.deb包为例: exagear 显示:Starting the shell in the guest image /opt/exagear/images/ubuntu-<os_version>-x86_64 通过apt-get进行安装: sudo apt-get install xxx x86应用程序安装完成后,在guest和host中均可运行。 你可以运行exagear命令启动guest shell,并运行任何x86应用程序,运行方式和在x86系统中一样。例如: exagear 显示:Starting the shell in the guest image /opt/exagear/images/ubuntu-<os_version>-x86_64 which nginx 显示:/usr/sbin/nginx /usr/sbin/nginx -h 在host会话中,你有如下两种选择: 在同一行中输入exagear – 命令和guest系统内部的x86应用程序路径。例如: exagear – /usr/sbin/nginx -h 输入x86应用程序二进制文件的完整路径。这个文件位于一个特定的目录下:/opt/exagear/images/ubuntu-<os_version>-x86_64,即x86运行环境。例如: /opt/exagear/images/ubuntu-<os_version>-x86_64/usr/sbin/nginx -h 默认配置下,x86应用程序只能访问x86运行环境中的文件,如果需要访问host系统上的某些文件,可以通过设置host与guest共享目录文件方式。详细配置方法请参考“配置ExaGear for Server on Ubuntu”中的host系统和guest系统共享的共享章节。 注: 对于脚本程序,推荐进入guest环境后运行,或者在host上运行该命令: exagear – /path/to/script 以test.sh脚本为例,脚本内容: #!/bin/bash if [ arch == ‘x86_64’ ] then echo “ok” else echo “fail” fi 运行结果对比: ./test.sh 显示:fail exagear – ./test.sh 显示:ok host系统和guest系统共享的目录 ExaGear Server整个文件系统对host系统应用程序可见,只有guest系统文件对Linux on x86应用程序可见。 图1 host系统和guest系统的文件系统(以Ubuntu 18为例) 配置文件/opt/exagear/images/ubuntu-<os_version>-x86_64/.exagear/vpaths-list包含了host系统和guest系统共享的一系列目录和文件。 cat /opt/exagear/images/ubuntu-<os_version>-x86_64/.exagear/vpaths-list 显示: /home/ /etc/adduser.conf /etc/deluser.conf … 以下文件及配置会在host系统和guest系统中共享使用: User accounts user groups user privileges /home directories host configurations system information provided by Linux kernel devices and disks sockets pidfiles mount points logs temporary files 如需创建一个在host系统和guest系统之间共享的目录或文件,可以选择如下两种方法: 方法1:修改vpaths-list配置文件。 修改vpaths-list配置文件的操作步骤如下: 确保host系统中存在所需的目录(或文件)。 在guest系统中创建同名的假目录(或文件)。 将目录(或文件)的完整路径另取一行添加到配置文件opt/exagear/images/ubuntu-<os_version>-x86_64/.exagear/vpaths-list中。 请注意,配置文件的目录应以“/”结尾 方法2:将host系统要共享的目录挂载到guest系统 以/newdir为例,使用coreutils中的mount实用程序将host系统要共享的目录挂载到guest系统: 在x86运行环境中创建挂载点: sudo mkdir /opt/exagear/images/ubuntu-<os_version>-x86_64/shareddir 将newdir挂载到shareddir挂载点下: sudo mount --bind /newdir /opt/exagear/images/ubuntu-<os_version>-x86_64/shareddir
-
简要介绍 Netty是一个基于NIO的客户、服务器端的编程框架,使用Netty 可以确保你快速和简单的开发出一个网络应用,例如实现了某种协议的客户、 服务端 应用。Netty相当于简化和流线化了网络应用的编程开发过程,例如:基于 TCP 和 UDP 的socket服务开发。 本实践使用鲲鹏DevKit应用迁移工具进行 软件迁移评估 ,帮助用户实现软件迁移前期分析需求。 语言:Java 开源协议:Apache-2.0 License 建议版本 鲲鹏DevKit工具版本:24.0.RC2 Netty源码包版本:4.1.34 硬件要求 根据各功能的平台依赖性,需要准备一套x86环境或一套鲲鹏环境。本文实际使用了如表1和表2两套环境中的鲲鹏平台环境。 表1 x86平台环境 项目 说明 服务器 x86虚拟机(KVM)环境 CPU Intel Xeon Processor (Skylake, IBRS) 2.1GHz OS CentOS 7.6/openEuler 20.03-LTS-SP1/openEuler 22.03 安装的工具 鲲鹏DevKit 24.0.RC2 表2 鲲鹏平台环境 项目 说明 服务器 TaiShan 200 2280 服务器(等同于其它基于鲲鹏920的服务器) CPU 鲲鹏920 96核处理器 OS CentOS 7.6/openEuler 20.03-LTS-SP1/openEuler 22.03 安装的工具 鲲鹏DevKit 24.0.RC2 软件要求 软件要求如表3所示。 表3 软件要求 项目 版本 获取地址 开源软件Netty Netty-all-4.1.34-Final.jar https://repo1.maven.org/maven2/io/netty/netty-all/4.1.34.Final/netty-all-4.1.34.Final.jar 前提条件 已在鲲鹏环境部署鲲鹏DevKit,并已安装应用迁移工具。 已获取Netty框架包。 已安装鲲鹏DevKit插件,并已配置远端服务器。 操作步骤 打开鲲鹏DevKit插件并登录鲲鹏DevKit工具,在页面左侧选择“应用迁移”,单击“软件迁移评估”进入软件迁移评估任务,单击“分析软件包”,上传“netty-all-4.1.34-Final.jar”源码包。如图1所示。 Netty包扫描结束后,会自动跳转至评估报告页面,Netty框架包的扫描报告如图2所示,此报告表明该JAR包中已存在于华为云镜像源中的鲲鹏Maven仓库中,用户可选择直接下载该JAR包进行使用。 本实践中,通过对分析扫描过程的完整模拟,覆盖了用户利用鲲鹏DevKit应用迁移工具对软件迁移进行前期分析的场景。 用户在其它软件的迁移任务中,可以参考本实践的思路和操作过程进行操作。
-
环境信息:ABC_20.3环境问题一句话总结:在进行ABC运行环境巡检时,发现下图的目录空间的使用率已达到100%,是否会影响业务系统的正常运行?此目录下的tmpfs是什么文件?能否删除?。问题现象截图:使用场景或目的:不涉及。操作步骤:无希望优化的地方或希望实现的效果:租户账号:nxx项目名称: 天津xx
上滑加载中
推荐直播
-
华为云码道-玩转OpenClaw,在线养虾2026/03/11 周三 19:00-21:00
刘昱,华为云高级工程师/谈心,华为云技术专家/李海仑,上海圭卓智能科技有限公司CEO
OpenClaw 火爆开发者圈,华为云码道最新推出 Skill ——开发者只需输入一句口令,即可部署一个功能完整的「小龙虾」智能体。直播带你玩转华为云码道,玩转OpenClaw
回顾中 -
华为云码道-AI时代应用开发利器2026/03/18 周三 19:00-20:00
童得力,华为云开发者生态运营总监/姚圣伟,华为云HCDE开发者专家
本次直播由华为专家带你实战应用开发,看华为云码道(CodeArts)代码智能体如何在AI时代让你的创意应用快速落地。更有华为云HCDE开发者专家带你用码道玩转JiuwenClaw,让小艺成为你的AI助理。
回顾中 -
Skill 构建 × 智能创作:基于华为云码道的 AI 内容生产提效方案2026/03/25 周三 19:00-20:00
余伟,华为云软件研发工程师/万邵业(万少),华为云HCDE开发者专家
本次直播带来两大实战:华为云码道 Skill-Creator 手把手搭建专属知识库 Skill;如何用码道提效 OpenClaw 小说文本,打造从大纲到成稿的 AI 原创小说全链路。技术干货 + OPC创作思路,一次讲透!
回顾中
热门标签