• [新手课堂] #应用数据库常见的数据切分方式
    应用数据库常见的数据切分方式数据切分简单来说,就是指通过某种特定的条件,将我们存放在同一个数据库中的数据分散存放到多个数据库(主机)上面,以达到分散单台设备负载的效果。垂直拆分数据的切分(Sharding)根据其切分规则的类型,可以分为两种切分模式。一种是按照不同的表(或者Schema)来切分到不同的数据库(主机)之上,这种切可以称之为数据的垂直(纵向)切分。垂直切分的最大特点就是规则简单,实施也更为方便,尤其适合各业务之间的耦合度非常低,相互影响很小,业务逻辑非常清晰的系统。在这种系统中,可以很容易做到将不同业务模块所使用的表分拆到不同的数据库中。根据不同的表来进行拆分,对应用程序的影响也更小,拆分规则也会比较简单清晰。一个数据库由很多表的构成,每个表对应着不同的业务,垂直切分是指按照业务将表进行分类,分布到不同的数据库上面,这样也就将数据或者说压力分担到不同的库上面下面来分析下垂直切分的优缺点:优点:拆分后业务清晰,拆分规则明确;系统之间整合或扩展容易;数据维护简单。缺点:部分业务表无法 join,只能通过接口方式解决,提高了系统复杂度;受每种业务不同的限制存在单库性能瓶颈,不易数据扩展跟性能提高;事务处理复杂。由于垂直切分是按照业务的分类将表分散到不同的库,所以有些业务表会过于庞大,存在单库读写与存储瓶颈,所以就需要水平拆分来做解决。水平拆分相对于垂直拆分,水平拆分不是将表做分类,而是按照某个字段的某种规则来分散到多个库之中,每个表中包含一部分数据。简单来说,我们可以将数据的水平切分理解为是按照数据行的切分,就是将表中的某些行切分到一个数据库,而另外的某些行又切分到其他的数据库中。对于应用程序来说,拆分规则本身就较根据表名来拆分更为复杂,后期的数据维护也会更为复杂一些。拆分数据就需要定义分片规则。关系型数据库是行列的二维模型,拆分的第一原则是找到拆分维度。比如: 从会员的角度来分析,商户订单交易类系统中查询会员某天某月某个订单,那么就需要按照会员结合日期来拆分,不同的数据按照会员 ID 做分组,这样所有的数据查询 join 都会在单库内解决; 如果从商户的角度来讲,要查询某个商家某天所有的订单数,就需要按照商户 ID 做拆分;但是如果系统既想按会员拆分,又想按商家数据,则会有一定的困难。如何找到合适的分片规则需要综合考虑衡量。几种典型的分片规则包括:按照用户 ID 求模,将数据分散到不同的数据库,具有相同数据用户的数据都被分散到一个库中;按照日期,将不同月甚至日的数据分散到不同的库中;按照某个特定的字段求摸,或者根据特定范围段分散到不同的库中。如图,切分原则都是根据业务找到适合的切分规则分散到不同的库,下面用用户 ID 求模举例:既然数据做了拆分有优点也就优缺点。优点:拆分规则抽象好,join 操作基本可以数据库做;不存在单库大数据,高并发的性能瓶颈;应用端改造较少;提高了系统的稳定性跟负载能力。缺点:拆分规则难以抽象;分片事务一致性难以解决;数据多次扩展难度跟维护量极大;跨库 join 性能较差。前面讲了垂直切分跟水平切分的不同跟优缺点,会发现每种切分方式都有缺点,但共同的特点缺点有:引入分布式事务的问题;跨节点 Join 的问题;跨节点合并排序分页问题;多数据源管理问题。针对数据源管理,目前主要有两种思路:A. 客户端模式,在每个应用程序模块中配置管理自己需要的一个(或者多个)数据源,直接访问各个数据库,在模块内完成数据的整合;B. 通过中间代理层来统一管理所有的数据源,后端数据库集群对前端应用程序透明;拆分原则第一原则:能不切分尽量不要切分。第二原则:如果要切分一定要选择合适的切分规则,提前规划好。第三原则:数据切分尽量通过数据冗余或表分组(Table Group)来降低跨库 Join 的可能。第四原则:由于数据库中间件对数据 Join 实现的优劣难以把握,而且实现高性能难度极大,业务读取尽量少使用多表 Join。
  • [技术干货] 浅谈大数据背景下数据库安全保障体系
           在大数据背景下,数据库安全保障体系的构建对于有效防范信息安全事件发生具有重要意义。该文首先分析了大 数据背景下数据库系统的安全威胁问题,然后介绍了几种网络安全的新技术,包括身份认证技术、访问控制技术等,最后 阐述了数据库安全保障体系的构建路径,希望为进一步解决大数据背景下的数据库安全问题提供支持。 现阶段大数据产业的快速发展创造了极大的经济效益,大数据的出现推动了社会经济发展,但是随之而来的数据库安全问题也引起了学者对大数据信息安全问题的反思。大数据时代下的信息与隐私安全问题已经成为全球性重点关注的问题,为了能够更有效地避免数据安全问题发生,需要相关人员积极构建数据库安全保障体系。1  数据库的安全威胁问题研究      数据库的信息安全问题得到了社会的普遍关注,从现有的数据库网络安全事件来看,其信息安全问题的风险具有范围广、影响大、突发性强等特征,并且可能产生严重的损失。与传统的攻击行为相比,数据库的网络安全问题呈现出以下特征:(1)高技术性与高智能性特征。例如部分不法分子为了能够盗取数据库中的资料,会采用各种手段穿越防火墙,通过不断地攻击数据库的安全防护体系或注入SQL等方法篡改数据,导致数据大量流失。(2)作案手段日益多样化。在大数据技术的支持下,不法分子威胁数据库的手段也呈现出了多样化的趋势,例如部分人员会运用程序的漏洞进行作案,甚至通过非法用户向管理人员非法授予操作权限的方法进行授权。(3)网络安全问题不受地域与时间因素的显示,不法分子可以随时远程攻击数据库。(4)数据库攻击的隐蔽性较强,收集证据的难度较大。文献认为,数据库作为一种特殊的信息存储结构,在大数据环境下所面临的信息安全隐患问题更加突出,表现为:(1)在网络方面,大部分数据库采用了TCP/IP  的协议通信方式,而该协议本身存在弊端,难以有效鉴别通信双方的身份,导致数据库无法正确识别攻击者的身份而遭到严重破坏。(2)在数据库管理系统上,大部分数据采用了DB2、SQL Server等商用数据库系统,这些数据库系统的技术条件成熟,但是在应用过程中,一些数据库的安全问题发生,例如关于SQL Server数据库的SQL  注入等。虽然现阶段各个厂商都在不断完善数据库等更新补丁包,但是大部分出于对数据库稳定性的考虑,通常会延后补丁的更新速度,最终导致数据库的漏洞难以第一时间被处理,最终成为安全隐患。2  大数据背景下数据库安全技术分析2.1  身份认证技术分析为实现数据库安全对用户的身份进行认证是其中的重点。现阶段常用的数据库普遍采用“ID+密码”的方式进行身份核实,即将用户的账号信息存储在数据字典等当用户产生连接需求之后,系统能够查询数据字典,并对用户的合法性进行判断。但是在大数据背景下,各种解密技术得到了快速的发展,导致  ID  认证方式面临挑战,因此鉴定人体信息的生物认证安全技术出现,通过语言识别、指纹识别的方法,对用户的身份进行判断。但从现有技术发展情况来看,身份认证技术尚未在数据库安全管理中得到运用,但是鉴于大数据的强大数据处理能力,可预见该技术在未来会具有广阔的发展前景。2.2  访问控制技术访问控制是数据库安全管理的核心内容,能够对规定主体的访问行为进行限制,避免出现任何不满足数据库安全的访问行为发生。2.2.1  自主访问控制目前自主访问控制是数据库信息安全中一种常见的访问控制技术,用户可结合自己的需求对系统的数据进行调整并判断哪些用户能够访问数据库。在此基础上,通过构建自主访问控制模型,能够对访问客体的权限做进一步界定,这样当用户的身份被系统识别后,则可以对客体访问数据库的行为进行监控,用户只能在系统允许的范围内完成操作。作为一种灵活的控制策略,自主访问控制能够保障用户自主地将自己所拥有的权限赋予其他用户,操作过程灵活简单,因此大部分的商业数据库都会采用这种访问控制技术。2.2.2  基于角色的访问控制在数据库安全管理中,基于角色的访问控制作为一种新的控制方法,其主要特征为:在该技术中权限并不是直接赋予指定用户的。所以当用户与特定角色绑定之后,则可以通过将基于角色的访问控制过程进行划分,实现对权限的分配。 2.3 数据加密技术数据加密技术主要包括库内加密与库外加密的方法,其中库内加密是在数据库内部设置加密模块,例如对数据内的相关列表进行加密,而库外加密则是通过特定的加密服务器完成加密与解密操作。在大数据环境下,大部分的数据库都能够提供数据加密功能,例如SQL Server数据库构建的多维度密钥保护与备份信息加密等。但是考虑到数据的特殊性,数据库所存储的信息量较大,在这种情况下可能对数据库的加密与加密的稳定性产生影响,因此用户可根据安全管理要求对数据库中的高度机密的数据做加密处理。3 大数据背景下的数据库安全保障策略分析在大数据背景下,应该围绕信息安全问题落实数据库安全管理方案,以大数据强大的数据处理能力结合数据库的功能诉求对数据库的安全保障方案进行改进。 3.1 角色访问控制策略分析受大数据的影响,数据库的访问人数会快速增加,导致数据库所面临的安全风险更高。因此为了能够进一步保障数据库安全,则需要基于角色访问模型的数据库访问控制,为用户分配数据库角色,最终使用户在数据库上获得相应的权限,进一步提高数据库安全质量。本文基于大数据的技术要求,在数据库安全保障体系的设置上提出了一种新的集中管理模式——基于应用的角色访问模型,该模型能够对数据库的信息安全问题进行有效识别,通过对应用数据库、安全中心的功能进行界定,进而明确数据库安全管理的角色与权限。在实施阶段,其中的重点内容包括: (1)应用方案。在大数据系统中的应用系统中往往会存在大量的账户与用户群,所以在数据库安全保障体系建设中能够将任意一个用户的信息注册到安全中心中,这样数据库可以收录用户权限的有用信息,包括名称、属性、创建时间、应用用途等。 (2)子应用。数据安全管理应用方案需要根据环境进行分类,将数据库中的自应用作为特定类用户的集合,可用于实现数据库的安全管理。例如在数据库安全的子应用中,将DBA作为数据库管理员集合。(3)数据库。这里所提到的数据库为特定数据库,为达到安全管理要求,将数据库注册到系统中并与相关安全软件相绑定,或者在特定的数据库环境下将对应的子应用创设到数据库中。(4)用户。用户的数据安全需要与数据库的账户相连接,在数据库安全管理制定用户所属的子应用,并划分相应的权限即可。 3.2 攻击检测大数据背景下的数据库安全形势严峻,数据库所承受的攻击数量巨大,通过开展攻击检测的方法能够发现滥用与异常的攻击行为。现阶段的大部分数据库都不具有攻击检测功能,所以在安全保障体系的构建中,本文根据技术数据挖掘与数据采集的要求,构建基于攻击检测的数据保全保障体系,通过该方法能够记录数据库被攻击情况,为实现数据库安全奠定基础。实时检测主要是针对各种已知的攻击方式,并将这种攻击以代码的形式存储在数据库中,按照数据库中所记录的数据判断系统是否遭受到攻击。该技术的具有较高的检测精度,但由于该技术无法对内部人员与未知攻击行为进行检测,所以本文在实时检测的基础上进一步完善了其中的功能,包括:(1)登录失败检测。当系统检测到在特定时间段内频繁地出现登录失败的情况,则需要对该IP的用户登录情况进行检测。(2)登录检测。若登录数据库的IP地址与以前登录过的地址不同,则需要警惕数据库安全问题。(3)操作失败检测。针对特定时间内检测到的操作失败次数,检测无访问权限对象的登录行为。(4)用户权限变更检测。其主要功能是检测用户的权限是否在满足规定的情况下进行变更。在该系统中,通过将关于系统安全的规则上传到数据库的审计中心中,再同步到各个数据中,由此实现对滥用规则的统一控制。在实时检测过程中,可在数据库添加两个触发器来完成对攻击的检测,包括:(1)通过DDL触发器来抓取数据库的事物,并检测用户权限变更等情况,作为SQLServer数据库中的一种特有触发器,当数据库发生安全事件的同时能够做出响应,在各种数据库安全事件发生之后快速地捕捉信息并分析安全攻击行为的发生间隔,判断攻击事件是否有效。(2)DML触发器具有跟踪审计信息的功能,针对数据库操作过程中的各种常见问题进行安全评估,包括操作失败事件、登录失败情况以及敏感用户对系统的访问等。当DML 检测到数据库遭受到攻击,则会退出攻击账户,保证数据库的安全。 3.3 数据库的安全防护机制在数据库的安全防护中,可利用虚拟化平台来实现数据库的安全管理,为能够达到有效的安全防护目的,可采用以下措施进行数据库安全管理。 3.3.1 数据库的安全备份数据备份的目的就是要为数据安全增添“第二把锁”,当前数据库的数据备份主要采用物理备份与逻辑备份相结合的方法,按照既定的时间要求对数据库中的数据进行存储。此时假设数据遭到攻击或者出现损害时,可以在原数据库的基础上调度备份数据,达到数据快速复原的目的。为实现该目的,可通过MySQL恢复工具、导出数据等方法并引入数据信息的变化,最终有助于实现二进制文件保存,避免备份数据的滥用。 3.3.2 数据库的防火墙设置防火墙是维护数据安全的关键,所以在设置防火墙期间,利用SQL数据库检测到的攻击痕迹将数据与数据库SQL语句运用到应用程序中,利用数据库防火墙的名单检测对任意一个针对数据库的操作行为进行检测,避免系统遭受注入攻击而造成数据损失。4 结束语在大数据背景下,数据库的安全保障管理更加复杂,为了能够更好地适应数据库管理要求,相关人员要充分发挥大数据技术优势,结合各种常见的数据库安全问题进行处置,这样才能有效降低数据库安全事件发生率,最终适应数据安全管理要求。来自:今日头条
  • [知识分享] 华为云数据治理生产线DataArts,让“数据‘慧’说话”
    【摘要】 数据治理生产线DataArts改变了传统“人拉肩抗”的数据处理方式,帮助提升效率;降低技术门槛,让“人人都是分析师”;让“数据‘慧’说话”,驱动高效决策。本文分享自华为云社区《【大厂内参】第15期:华为云数据治理生产线DataArts,让“数据‘慧’说话”》,作者: 华为云社区精选。当下我们已经进入到了数字经济时代。数据作为一种新型生产要素写入《中共中央国务院关于构建更加完善的要素市场化配置体制机制的意见》文件中,与土地、劳动力、资本、技术等传统要素并列为要素之一。数字经济已经渗透到各行各业,正在引领新经济发展,数字经济覆盖面广且渗透力强,与各行业融合发展,预计到2025年产业数字化机会将达到23万亿美元规模。所有的企业必须进行数字化转型,才能适用时代的发展。随着数字化转型的深入,数据作为核心资产要驱动业务和释放价值,需要:能进得来,各种大量、多样性、实时的数据源能被高效集成;能放得下,海量数据长期存储的性价比高,不用做各种模式转换,易于分析计算;能理得清,基于业界最佳实践建模,数据之间的关系清晰可见,含义简单易懂,质量问题及时发现;能找得快,迅速找到需要的是数据资产,能快速分析出价值;能用得好,数据价值显性化,快速响应业务需求,驱动经营完善。企业数字化转型升级的三大要求:数据智能体验、数据智能决策、数据智能流程。但是要想实现数据的智能化,企业也面临着非常多的挑战:数据治理难:从数据到支撑业务的资产,传统数据库、数仓建模和知识图谱等技术无法满足企业全业务流程分析和决策需求,导致难以管理和分析海量异构数据,治理好的数据也难以和应用有效融合;众多的系统和复杂的架构:随着业务成长,需要管理众多系统如湖、仓、AI等;技术门槛高:大多数企业缺乏大数据相关人员,研发效率低,维护成本高。为解决数据治理难、技术门槛高、众多的系统和复杂的架构三大挑战,让数据释放价值,华为云推出了 数据治理生产线DataArts。1.DataArts使能数据治理向自动化、智能化升级所谓数据生产线,顾名思义,就像生产线一样,把海量的复杂的无序的数据,生产成为清洁透明高质量的数据能源,输送给业务。华为云数据治理生产线DataArts可以帮助企业解决数据智能化面临的三大挑战,让数据发挥价值,并能完美契合企业数据治理的核心诉求。数据治理生产线​DataArts主要包含两大部分:DataArts LakeFormation:负责整合所有云原生数据湖的组建工作,统一管理一系列数据引擎的源数据,方便上层开发者使用。DataArts Studio:面向数据域的开发者、管理者、架构师,涵盖数据生产、处理、使用的全流程生命周期,帮助开发者系统管理和使用数据。数据治理生产线DataArts可以帮助企业的数据源进行:数据接入、数据开发、数据治理、数据资产、数据服务、数据安全、数据共享,最终转化成为数据应用。就像生产线一样,能够把海量复杂,无序数据,转化成为高质量的数据能源并输送给业务,实现数据驱动、实时决策。数据治理生产线DataArts能够帮助数据实时入湖,进行分析处理;具备AI能力,其中AutoETL能够实现数据的准备,自动化标准和质量稽核,实现智能数据治理;拥有全链路安全管理能力,能够保护好用户的隐私数据,对数据进行合规性审计;帮助企业沉淀数据资产,发挥数据价值,实现业务的创新与发展。总的来说,数据治理生产线DataArts改变了传统“人拉肩抗”的数据处理方式,帮助提升效率;降低技术门槛,让“人人都是分析师”;让“数据‘慧’说话”,驱动高效决策。在技术架构方面, DataArts不仅支持OLAP数据仓库及大数据分析平台,还支持OLTP事务性数据库。DataArts具备丰富的集成工具,支持将结构化、半结构化、非结构化的数据,即可以实时数据同步入湖,也支持高效的批量数据集成。DataArts的核心产品:DataArts Studio。 它是从数据集成到开发、治理、服务一站式端到端的平台。支持数据工程师高效数据开发,也支持不懂数据开发和数据分析的业务人员,通过No Code的方式进行数据的准备和处理。让数据治理成为全民都可以参与的数据工作。2.DataArts5大新特性面面观2.1 元数据自动发现和表格化存储数据入湖过程中,自动元数据发现和表格化存储,便于数据的搜索、计算和分析:支持OBS、HDFS/SFTP、Kafka、REST等数据存储上的文件、消息元数据自动发现;自定义分类器,支持CSV、JSON、文本、Parquet、ORC、Hudi等半结构化数据进行Schema自动模式推断和提取;构建表、字段、分区,并感知其变化等元数据信息,便于数据的搜索、计算和分析。2.2 智能增强的AutoETL能力智能增强的AutoETL能力,数据准备效率提升20%:融合code模式与no-code模式:支持No-code模式开发流/批数据处理作业,作业节点数量降低20%,数据作业开发效率由天级别降到小时/分钟级别;丰富的数据处理算子库:支持清洗、过滤、合并、Join等数据处理类别10+,算子数量200+。2.3 智能增强的数据异常检测智能增强的数据异常检测,万张表扫描速度提升5倍,提升数据质量稽核效率:通过模糊索引、模式挖掘等方法发现潜在重复数据区块;通过相似性对比检查数据的语法差异,以及领域知识库的实体解析检查数据的语义差异;支持实时采样计算数据质量预览,支持高性能扫描计算数据质量,万张表扫描速度提升5倍。2.4 企业级数据目录企业级数据目录,像搜索引擎一样搜索和管理数据资产:企业级数据目录 面向多云多Region逻辑数据湖的统一数据目录,技术元数据自动同步更新,并与业务元数据和管理元数据信息关联;自然语义搜索,智能推荐 支持以自然语言搜索数据资产,并智能给出搜索建议、资产推荐和排序;360全景“实体-关系”知识图谱 自动发现数据联系。智能导航,路径分析、社群分析等高级图分析,1W+点图分析响应时间200ms以内。2.5全链路数据安全保护全链路数据安全保护,中心化安全策略治理,智能识别隐私数据:中心化数据安全治理,支持企业实现企业数据安全策略统一管控;智能数据安全:内置GDPR安全规则库、支持数据访问权限控制、敏感数据自动识别,智能数据保护(加密、脱敏、水印);全链路数据安全保障,数据集成、传输、存储、数据架构设计、开发准备、资产搜索、服务开放等全链路都集成了数据安全能力。在生态开发方面,华为云的云原生集成数据管理生态产品将持续增强DataArts:面向生态开放,引入BI、主数据、数据建模、数据标签等数据管理行业TOP伙伴SaaS产品,并与数据治理生产线的DataArts Studio、Lakeformation等云原生服务集成,为客户提供一致性体验伙伴产品与华为云“联营联运”,支持客户一键购买开通,以及按需订阅消费目前, 数据治理生产线DataArts在华为内外部有丰富的实践。在内部,基于DataArts,华为生产出10多万个高质量的数据资产;在华为外部,DataArts服务了1000家以上的政企客户,每天有千万级数据任务在云上DataArts运行。3.华为云DataArts帮助企业快速构建数字化运营能力安永主要有审计、咨询、税务和战略与交易四大核心业务,其中咨询服务提供从业务规划、解决方案设计与实施,到业务运营的全方位端到端服务,以实现客户理念落地。华为&安永联合解决方案融合了华为数字技术的优势和安永对业务洞察的深入理解。基于先进的华为云平台和健全的数据管理体系,实现数据资产化、完善数据运营体系,为多业务场景赋能,提供数字化转型支撑。安永基于联合解决方案在为某集团数字化生产中心提供服务的过程中,通过完成生产关键设备数据、环境信息的采集、基于ROMA实现各系统间数据分发,实现结构化、非结构化、实时、离线数据集成并构建大数据平台,通过DataArts Studio和DWS实现各类数据的整合处理,形成企业级数据底座。基于大数据平台数据实时分析能力,实现生产实时预警及监控,基于大数据平台支持BI企业综合营运分析和领导决策支持。数据使能技术架构为了让用户更好的体验一站式数据治理服务,DataArts Studio接下来将会有新特性发布,主要体现在:编辑器优化、团队协作增强、调度引擎升级、图形化运维。编辑器优化:更丰富的语法联想、快速补全SQL,自动格式优化;异常关闭脚本可恢复,防止代码丢失;支持全库代码检索。团队协作增强:作业和脚本的多版本管理,生产与开发环境隔离审核;多人开发抢锁、解锁机制,防止意外覆盖;跨空间依赖,方便多部门协作。调度引擎升级:调度机制优化,支持自然周期核心调度;调度性能升级,支持千万级/日任务调度。图形化运维:作业依赖关系自动解析,图形化展示作业依赖树;DAG图形化运维,集中查看上下游的作业和运行结果、日志提高问题定位效率。最后面对数字化时代大潮,制造企业数据资产越来越重要,数字化转型迫在眉睫。但数字化转型道阻且长,而且数据繁多不好处理,制造业亟需上云构建企业数据资产,华为云数据治理生产线DataArts利用已有的策略、技术和经验,将持续赋能制造企业实现数据治理和资产沉淀,为制造业数字化转型和智能化升级提速。
  • [整体安全] 【云小课】安全第12课 DSC:数据资产地图,俯瞰您的云上数据资产
    关键词:华为云 数据安全中心 数据资产地图 风险监控和预警摘要:华为云数据安全中心(Data Security Center,简称DSC)提供数据资产地图,帮助客户建立数据资产的全景视图,可视化呈现数据资产分布、数据敏感程度、当前的风险级别。华为云DSC的数据资产地图具有以下亮点:梳理云上数据资产:自动扫描并梳理云上数据资产,地图化展示资产分布,帮助用户解决数据在哪里的问题。敏感数据展示:基于DSC的三层数据识别引擎、预置合规规则、自然语义识别技术、文件相似度检测技术,对数据资产进行分类分级。对数据资产按照“风险VPC数”、“风险安全组数”、“风险主机数”、“风险RDS数”、“风险OBS数”进行分类展示。每类资产按照“高危”、“中危”、“低危”、“未识别风险”对敏感数据进行分级定位。风险监控和预警:基于风险识别引擎,对数据资产进行风险监控,展示每类资产的风险分布,并预警。跟随小课的脚本,小课教您如何搭建数据资产地图,轻松梳理云上数据资产并进行风险监控~~资产地图搭建及大屏展示步骤 1 开启数据安全中心服务后,进入DSC管理控制台。步骤 2 完成云资产委托授权。在左侧导航树中选择“资产列表”,单击页面右上角的“云资产委托授权”。授权访问“OBS”、“数据库”、“大数据”、“数据安全总览”。步骤 3 添加资产。在OBS资产列表右上角,单击“批量添加”,添加OBS、数据库和大数据资产。步骤 4 在左侧导航树中选择“数据安全总览”,进入数据安全总览页面,查看云服务全景图,即资产地图模块。步骤 5 单击数据资产图标,在界面的右侧弹框中可详细查看该资产的“基本信息”、“风险信息”或者“风险安全组规则”等信息。----结束更多关于DSC的功能,戳这里进行了解吧~~
  • [整体安全] 【云小课】| 安全第7课 DSC帮您管数据,保障您的云上数据安全
    关键词:华为云 数据安全中心 数据 全生命周期 可视化管理随着信息技术日新月异,科学技术磅礴发展,数据已经具有和水、电等日常所需物资同等重要的战略地位,是企业的核心资产和赖以生存的命脉。2020年3月,国标GB/T 37988-2019《信息安全技术 数据安全能力成熟度模型》明确指出数据安全的管理需要基于以数据为中心的管理思路,从组织机构业务范围内的数据生命周期的角度出发,结合组织机构各类数据业务发展后所体现出来的安全需求,开展数据安全保障。随着国家大数据战略的不断推动和深化,做好数据安全治理势在必行,同时也存在一些挑战。挑战一:我们很难在繁多的数据安全能力中去构建适合自己的安全体系,业界也缺乏具有建设指导意义的数据安全产品。挑战二:云上的数据安全能力一直是分散在各个服务之中,例如VPN、安全组、SSL证书以及诸如ECS、RDS、OBS等集成的加密能力,导致数据安全能力不集中。因此,数据安全中心致力于汇总分散的数据安全能力,从租户角度出发提供统一视角,构建数据安全全生命周期,实现数据的统一管理。跟随小课的脚步,一起学习如何通过DSC服务实现数据的全方位管理吧~~添加资产到DSC,实现数据全生命周期管理使用DSC前,您需要购买DSC,戳这里~~步骤 1 购买数据安全中心后,进入DSC管理控制台。步骤 2 完成云资产委托授权。在左侧导航树中选择“资产列表”,单击页面右上角的“云资产委托授权”。授权访问“OBS”、“数据库”、“大数据”、“数据安全总览”。步骤 3 添加资产。在OBS资产列表右上角,单击“批量添加”,添加OBS、数据库和大数据资产。步骤 4 在左侧导航树中选择“数据安全总览”,进入数据安全总览页面,监控数据全生命周期各个阶段的实时状态。   ----结束更多关于DSC的功能,戳这里,进行了解吧~~。安全无小事,时刻需警惕。2021,华为云普惠云安全,为您的网站、主机、数据提供免费云体检,还有一站式过等保贴心指导,赶紧戳这里,了解详情吧!
  • [内容拦截申诉] 【论坛】+资讯|绿盟科技四款核心数据安全产品同时获得鲲鹏Validated认证
    内容所属频道:鲲鹏论坛内容标题名称:资讯|绿盟科技四款核心数据安全产品同时获得鲲鹏Validated认证内容链接:https://bbs.huaweicloud.com/forumreview/thread-194209-1-1.html
  • [新手课堂] 资讯|绿盟科技四款核心数据安全产品同时获得鲲鹏Validated认证
    近日,绿盟科技四款数据安全核心产品:绿盟科技数据脱敏系统、绿盟科技数据库审计系统、绿盟科技数据库防火墙、绿盟科技数据泄露防护系统 获得鲲鹏Validated认证。绿盟科技与江苏“鲲鹏+昇腾”生态创新中心基于鲲鹏基础架构,联合打造绿盟科技数据脱敏-鲲鹏版、绿盟科技数据库审计-鲲鹏版、绿盟科技数据库防火墙-鲲鹏版、绿盟科技数据泄露防护-鲲鹏版。四款定向能力增强版本,使用鲲鹏应用使能套件BoostKit,基于鲲鹏软硬件底座进行全栈优化。与传统数据安全产品相比性能大幅度提升,与传统数据安全产品相比性能大幅度提升,平台核心性能翻倍提升,其中在数据脱敏速率方面提升200%。性能上的显著提升,有效的帮助用户满足其等保、数据等合规建设要求。同时,更好的提升用户数据安全监管、防护效率,充分的落实其数据监督管理机制,最大限度消除数据安全风险。 【认证证书】【产品介绍】绿盟数据脱敏系统(NSFOCUS DMS)-鲲鹏版基于鲲鹏硬件产品、BiSheng JDK,采用鲲鹏BoostKit加速套件在多个维度进行了深度调优。利用对脱敏后的数据进行重标识风险度量,实现敏感数据可用不可见、集脱敏数据风险评估、动态脱敏、静态脱敏能力于一体。绿盟数据库审计系统(NSFOCUS DAS)-鲲鹏版基于鲲鹏硬件产品、BiSheng JDK,采用鲲鹏BoostKit加速套件在多个维度进行了深度调优。利用数据库网络流量采集,数据库协议解析与还原技术,通过对访问数据库行为进行记录与多角度分析,对异常行为进行告警通知、审计记录和事后追踪分析。绿盟数据库防火墙(NSFOCUS  DAS-FW)-鲲鹏版基于鲲鹏硬件产品、BiSheng JDK,采用鲲鹏BoostKit加速套件在多个维度进行了深度调优。利用数据库协议分析与行为控制技术,实现数据库权限访问控制、行为分析与审计以及数据保护。通过主动防御机制,实现数据库的访问行为控制、危险操作阻断和可疑行为跟踪。绿盟数据泄露防护系统(NSFOCUS DLP)基于鲲鹏硬件产品、BiSheng JDK,采用鲲鹏BoostKit加速套件在多个维度进行了深度调优。利用机器学习、关联分析、密码技术、访问控制、数据标识等多种技术。实现对数据生命周期中的各种泄密途径进行全方位检测防护,起到对敏感数据泄露行为的事前发现,事中拦截以及事后溯源。【性能提升展示】拥抱鲲鹏计算产业,共创行业新价值!关于绿盟科技绿盟科技集团股份有限公司成立于2000年4月,总部位于北京。绿盟科技在国内设有50余个分支机构,为政府、金融、运营商、能源、交通、科教文卫等行业用户与各类型企业用户,提供全线网络安全产品、全方位安全解决方案和体系化安全运营服务。绿盟科技高度重视安全研究和技术创新,在数据安全、云安全、工业互联网、物联网安全、5G安全领域进行积极探索,为绿盟科技的核心竞争力和持续创新能力提供了有力的保障。转自华为计算公众号
  • [下午茶时光] raid0、raid1、raid5、raid10这四种硬盘阵列的特点和区别
    Raid 0:至少2快硬盘优势:数据读取写入最快,最大优势提高硬盘容量,比如3快80G的硬盘做raid0 可用总容量为240G。速度是一样。缺点:无冗余能力,一块硬盘损坏,数据全无。建议:做raid0 可以提供更好的容量以及性能,推荐对数据安全性要求不高的使用。Raid 1:至少2快硬盘可做raid1优势:镜像,数据安全强,2快硬盘做raid一块正常运行,另外一块镜像备份数据,保障数据的安全。一块坏了,另外一块硬盘也有完整的数据,保障运行。缺点:性能提示不明显,做raid1之后硬盘使用率为50%.建议:对数据安全性比较看着,性能没有太高要求的人使用。Raid5:至少需要3块硬盘raid5优势:以上优势,raid5兼顾。任意N-1快硬盘都有完整的数据。缺点:只允许单盘故障,一盘出现故障得尽快处理。有盘坏情况下,raid5 IO/CPU性能狂跌,此时性能烂到无以复加。建议:盘不多,对数据安全性和性能提示都有要求,raid5是个不错选择,鉴于出问题的性能,盘多可考虑riad10Raid10:至少需要4快硬盘。raid10是2快硬盘组成raid1,2组raid1z组成raid0,所以必须需要4块硬盘。优势:兼顾安全性和速度。基础4盘的情况下,raid10允许对柜盘2块故障,随着硬盘数量的提示,容错量也会相对应提升。这是raid5无法做到的。缺点:对盘的数量要求稍高,磁盘使用率为一半。建议:硬盘数量足够的情况,建议riad10.不过raid最重要的指标是可靠性:4盘的raid5,只允许单盘故障,raid10,允许对柜盘2块g故障,可靠性高于raid5,且raid10 可随盘上升提高容错,raid就不行,而且IO和CPU的额外开销还涂增,从可靠性和冗余角度,达到同样的可靠性,raid10写能力高于raid5.特殊情况下:有坏盘,无热备radi5 CPU和IO性能狂跌。因为数据不完整,在某特殊软件下,实现即时重构数据进驻内存,保障业务运行,但此生raid5的性能已经烂到无以复加。raid10 是条带化+镜像,坏盘影响读性能,不影响写性能,而且无需重构。此时的raid10完爆raid5
  • [技术干货] 数据安全产品和企业有哪些
    网盾带你了解那些数据安全产品及企业什么是数据安全?《中华人民共和国数据安全法》中第三条,给出了数据安全的定义,是指通过采取必要措施,确保数据处于有效保护和合法利用的状态,以及具备保障持续安全状态的能力。要保证数据处理的全过程安全,数据处理,包括数据的收集、存储、使用、加工、传输、提供、公开等。数据安全包括两点:一是数据本身的安全,主要是指采用现代密码算法对数据进行主动保护,如数据保密、数据完整性、双向强身份认证等。二是数据防护的安全,主要是采用现代信息存储手段对数据进行主动防护,如通过磁盘阵列、数据备份、异地容灾等手段保证数据的安全,数据安全是一种主动的保护措施,数据本身的安全必须基于可靠的加密算法与安全体系,主要是有对称算法与公开密钥密码体系两种。数据处理的安全是指如何有效地防止数据在录入、处理、统计或打印中由于硬件故障、断电、死机、人为的误操作、程序缺陷、病毒或黑客等造成的数据库损坏或数据丢失现象,某些敏感或保密的数据可能不具备资格的人员或操作员阅读,而造成数据泄密等后果。而数据存储的安全是指数据库在系统运行之外的可读性。一旦数据库被盗,即使没有原来的系统程序,照样可以另外编写程序对盗取的数据库进行查看或修改。从这个角度说,不加密的数据库是不安全的,容易造成商业泄密,所以便衍生出数据防泄密这一概念,这就涉及了计算机网络通信的保密、安全及软件保护等问题。数据安全产品主要包括以下几类:数据库安全包含两层含义:第一层是指系统运行安全,系统运行安全通常受到的威胁如下,一些网络不法分子通过网络,局域网等途径通过入侵电脑使系统无法正常启动,或超负荷让机子运行大量算法,并关闭cpu风扇,使cpu过热烧坏等破坏性活动; 第二层是指系统信息安全,系统安全通常受到的威胁如下,黑客对数据库入侵,并盗取想要的资料。数据库系统的安全特性主要是针对数据而言的,包括数据独立性、数据安全性、数据完整性、并发控制、故障恢复等几个方面。数据库安全技术主要包括:数据库漏扫、数据库加密、数据库防火墙、数据脱敏、数据库安全审计系统、数据库泄露防护系统。数据泄露防护数据泄露防护是指通过特定的技术手段,对企业以违反安全策略规定的形式流出企业的指定数据或信息资产进行防护的一种策略。数据泄露防护的原理是通过加密控制,身份认证和使用日志的统计对内部文件进行控制。在组织网络中,通过流量牵引技术,对受控区域内的外发流量进行深度解析、内容恢复和敏感度扫描,及时发现受控区域内通过网络泄漏数据、传播数据的行为,并进行拦截、告警、审计等措施,能够根据网络环境和监控需求,进行灵活多变的部署。数据脱敏数据脱敏是指对某些敏感信息通过脱敏规则进行数据的变形,实现敏感隐私数据的可靠保护。在涉及客户安全数据或者一些商业性敏感数据的情况下,在不违反系统规则条件下,对真实数据进行改造并提供测试使用,如身份证号、手机号、卡号、客户号等个人信息都需要进行数据脱敏。像政府、医疗行业、金融机构、移动运营商是比较早开始应用数据脱敏的,因为他们所掌握的都是用户最核心的私密数据,如果泄露后果是不可估量的。电子文档管理与加密电子文档加密软件是指通过采用加密算法和各种加密技术对网络或计算机中的电子文档进行加密,防止电子文档非法外泄的技术。存储备份与恢复来源:https://baijiahao.baidu.com/s?id=1734875803833006483&wfr=spider&for=pc
  • [行业资讯] 医疗设备面临的网络与数据安全问题
    《中国数字医学》杂志曾发布相关研究分析,网络安全的本质是“攻防对抗”,从防护的维度看,安全建设的实质就是不断减少暴露面,医疗设备的安全建设同样如此,需综合考虑各个环节,从医疗设备终端安全、数据传输安全、业务层实现安全及感知监管安全等入手。因此,该问题并非单方面发力即可解决,而是需要从多角度考虑。例如对于医疗设备终端,上述研究显示医疗设备应具备五方面功能:第一,医疗设备应具有唯一网络身份标识,同时具备身份鉴别机制,证明其可信身份;第二,应禁用业务需求以外的通信端口,设置网络访问控制策略,限制对医疗设备的网络访问源;第三,针对医疗设备的操作系统用户也应有唯一标识,可进行身份鉴别,不同身份的系统用户所拥有的访问权限不同;第四,医疗设备应能控制数据的本地或远程访问,可设定医疗设备本身数据的读写访问权限,并在医疗设备应用层提供安全措施,限制对其的远程访问和管控。第五,对设备本身及其用户的全部行为进行审计,形成监管分析报告,避免未授权的用户伪装成已授权的用户通过医疗设备访问服务资源等。《研究报告》也显示,医疗物联网设备供应商在生产时,就应构建相应的安全防护能力。具体包括在出厂前应探索内置安全芯片和身份标识,实现设备身份认证与鉴全保护。在身份认证方面,可通过设备安全芯片,为所有接入的设备分配唯一可信ID标识,此ID需具备不可复制、不可篡改和破解的强安全特性——合法设备可以通过ID实现身份鉴别和授权,非法设备通过直接入网伪造身份,将会被快速识别并阻断。除了医疗设备生产端,相关部门和医院同样需要发力。《中国数字医学》杂志上述研究显示,我国原CFDA针对医疗设备本身制定了相关标准规范和认证检测机制,但针对医疗设备的安全检测多集中于医疗设备的医疗安全风险,而非网络及数据安全,信息化设备的测试技术和方法,由于标准的缺失没有在医疗设备领域得到有效应用。建议鼓励相关检测技术和标准的研究,制定我国医疗设备信息安全的检测和准入技术标准,定期发布医疗设备安全风险报告,建立网络安全漏洞召回机制,便于作为使用方的医疗机构及时获得相关信息,修订必要的管理策略。对于医院端,根据徐州市东方人民医院相关研究人员分析,医院信息化建设中影响网络数据安全的主要是人为因素以及技术因素——在实际操作的过程中,内部人员在连接医院内部网络和电脑时,一些病毒可能被带入系统中,也有部分工作人员利用职务便利,私自访问一些数据库,甚至更改或泄露数据,极大威胁了网络数据的安全性;技术层面的影响因素主要包括网络硬件方面的缺陷、系统所固有的安全隐患、系统配置不当引起的其他安全漏洞等。上述研究人员还表示,在整个医院的网络安全防护中,物理层面的有效维护较为高效,物理安全维护主要指对交换机、路由器等各种硬件设备进行防护,加强硬件设备的安全性。
  • [技术干货] 数据安全:数十亿市场,百亿潜在容量
    2020年开始,数据安全新技术迅猛增加,其中安全多方计算、同态加密、差分隐私等隐私计算技术在近两年发展势头强劲。欧盟GDPR与我国《个人信息保护法》等政策驱动,带动隐私保护合规的需求。从Gartner报告看,隐私管理工具(PMT)、隐私保护设计(PbD)、隐私影响评估(PIA)处于快速发展阶段。预计在未来五年内,数据与隐私安全数项技术会进行融合,包括数据治理和数据安全的集成,企业密钥管理(EKM)和云密钥管理即服务(KMaaS)的集成,数据监控和保护技术的集成,数据安全即服务(DSaaS)、数据安全平台、多云数据库活动监控(DAM)等新技术的出现。数据安全治理(DSG)、数据风险评估(DRA)、金融数据风险评估 (FinDRA)、PIA和数据泄露响应流程越来越需要执行一致的政策,特别是在数据驻留的影响和新的隐私法不断出台的情况下。(1)中国数据安全市场规模与容量:数十亿市场、百亿潜在容量我国当前数据安全市场规模达数十亿元。根据计世资讯数据2018-2021年平均年增长率约31.8%,如按照31.8%增速计算,2021年中国数据安全市场规模69亿+人民币。我国数据安全潜在市场容量或达数百亿至千亿元。根据中商产业研究院数据,2019年中国大数据市场产值达到8500亿元,2020年大数据产业规模有望突破10000亿元。根据信通院数据,2019年我国以云计算、大数据为基础的平台类运营技术服务收入达2.2万亿元,其中典型云服务和大数据服务收入达3284亿元,提供服务的企业2977家。(2)主要细分领域:18个细分领域,包括数据库安全、DLP、隐私计算等主要和热门领域数据安全目前主要有18个细分技术领域,包括数据安全治理、数据安全态势感知、数据服务、大数据安全管控与防护、API安全、数据库防火墙、数据库审计、数据库加密、数据库运维、数据库保密检查、文档加密、数据脱敏、DLP、数据水印、数据备份/恢复/销毁、APP隐私检测与保护、隐私计算、隐私管理 。其中热点领域包括:· 隐私计算2021年,全球隐私计算市场规模达15.7亿美元(来源:fortune business insights),预计到2028年达到177.5亿美元, 2021年~2028年的复合年增长率(CAGR)达41.5%。目前中国隐私计算市场达到上亿元规模,预计未来几年将形成数十亿规模的市场。乐观估计,未来3年将达100-200亿人民币的空间,甚至将撬动千亿级的数据平台运营收入空间(来源:腾讯《深潜数据蓝海:隐私计算行业研究报告》 )。· DLP类产品2021年全球DLP市场规模16.4亿美元。预计2023年将达到22.8亿美元,平均年增长率约18%。2021年中国DLP市场约13.7亿元,2019~2021平均年增长率18.7%。· 数据库安全产品2021年全球数据库安全市场规模63亿美元,预计到2026年将达到115亿美元年, 2021年至2026年的复合年增长率(CAGR)为12.6%(来源:marketsandmarkets)。2021年中国数据库安全市场规模超过29亿人民币,年增长率达23.9%(来源:计世资讯)。(3)发展趋势:数字经济和大数据产业带动数据安全快速发展“十四五”规划和2035年远景目标纲要明确提出,加强涉及国家利益、商业秘密、个人隐私的数据保护,加快推进数据安全、个人信息保护等领域基础性立法,强化数据资源全生命周期安全保护。数据安全成为数字经济的基础设施,数据安全是企业业务的基石。2020年中国数字经济规模为5.4万亿美元,同比增长9.6%,增速位居全球第一。放眼未来,数据安全与业务强关联,预计2024年市场规模达百亿级别。随着《数据安全法》等法规落地、数据交易市场快速发展,预计2023年国内数据安全技术服务有望达百亿规模。随IT架构走向云化,未来有望带来千亿级的数据安全SaaS运营收入。大数据产业发展带动隐私计算需求。“十四五”期间我国大数据市场总体规模预计达到5万亿元,数据交易安全投入占比按1%计算,“十四五”期间,我国数据交易安全市场规模预计达500亿元。文章来源:https://baijiahao.baidu.com/s?id=1730624029041509707&wfr=spider&for=pc
  • [其他] 【转载】【新闻资讯】5年30倍增长,这个涉及隐私的行业开始“卷”了?
    资讯来自亿欧网, 原文链接,供各位学习当前隐私计算行业的挑战:https://36kr.com/p/dp1675329170874115“落地”是今年隐私计算行业的主旋律。2022年隐私计算赛道依然在延续着去年的火热。整体上看,行业发展之快超乎预期,隐私计算从产品研发、项目验证测试到实际应用落地均在加速推进。不过,目前行业尚处于大规模商业化落地早期,底层商业逻辑还没有明确跑通,已有的项目收入也相对单薄。与此同时,政策带动加上市场催化,已经让赛道上挤满了包括互联网大厂、金融科技背景企业、隐私计算初创企业等选手,不止一家企业表示:市场竞争已十分激烈。这等于说:还没开始盈利,就已经先“卷”了起来。进入2022年,能否“落地”成为存亡关键。在市场教育有待加强、技术性能尚待提升、行业规范还需完善的情况下,谁能顺利破解未富先“卷”的困局?落地!落地!“落地”无疑是今年隐私计算行业的主旋律。隐私计算企业们的对外言论中,“落地”是被提及最多的词汇之一。比如,富数科技智能决策分析部负责人吴海斌在接受媒体采访时就反复强调2022年“落地”的关键性;蓝象智联创始人童玲在对外发言中也对行业落地应用情况表示乐观,她提到,“2022年行业将会有更多现象级场景出现”。从2016年隐私计算概念在中国被正式提出,到2019年进入技术普及和市场教育阶段,再到2021年开始尝试规模化落地应用,隐私计算产业在中国市场发展速度之快,超过了此前的云计算、人工智能甚至区块链。除了技术本身的发展迭代外,数据价值愈发被重视以及全球范围内对数据安全和隐私保护的强调,共同推动了这场“加速度”的实现。在我国,数据在2020年就被归为与土地、劳动力、资本、技术等并列的生产要素,随着产业数字化进程的推进,数据流转应用越来越成为企业经营过程中不可或缺的环节。而数据价值的进一步发挥需要一种保障流通安全的技术。与此同时,随着各类隐私侵权事件的发生,我国自2020年以来陆续颁布了《民法典》《数据安全法》《个人信息保护法》等法律法规,对数据安全和隐私保护提出了严格的规范,从而催生了保障数据流通使用“过程安全”的需求。而隐私计算作为一项可以实现数据在流转过程中“可用不可见”的技术,其价值被快速发掘并放大,成为数据安全、数据保护市场的关注焦点。此外,2021年以来,行业里逐步推进的落地尝试,也让市场对隐私计算产品和解决方案的可行性和效果有了进一步验证,以金融、政务为代表的领域,相关需求也在增长。CIC灼识咨询报告预测,2020年中国隐私计算市场规模接近4.0亿元,到2025年将达到120.0亿元,2020年-2025年年复合增长率近100%。5年30倍增长的隐私计算市场,给技术服务商们带来的不仅是机遇也是挑战。这个前景广阔的赛道,在短短两三年内,已经站满了各式各样的玩家。过去一年里,背景不同的企业凭借自身优势,风风火火地“跑马圈地”,隐私计算相关产品也在倍速递增。根据信通院数据,截至2021年底,在信通院参与测试的企业中,已有88家发布了隐私计算技术相关产品;而从产品数量来看,2019年、2020年、2021年分别有15款、54款和105款,每年都在以一倍以上的速度递增。如今,随着行业开始步入规模化落地实战阶段,无论是互联网大厂的生态优势,金融科技背景服务商们的场景优势,还是创业团队们的高新技术基因优势,在某种程度上都被“抹平”。对隐私计算企业们而言,能拿出落得了地的产品才是关键。那么,2022年这一场“落地”之战,对企业们而言又将意味着什么?“不可能三角”目前,隐私计算已经在金融、医疗等领域有相应的落地推进成果。特别是在营销、风控等环节,隐私计算产品已成为不少金融类机构优先纳入考量的方案。不过,在推进隐私计算大规模落地应用的过程中,无论是供给端还是需求端,都存在不少限制因素。于隐私计算技术服务商们而言,要面对的不仅是技术和产品本身的问题,更有用户数据治理不达标、行业数据群岛等问题。“隐私计算安不安全?”这是诸多技术厂商在提供服务过程中,最高频的客户问题之一。用户们选择隐私计算产品的初衷,是为了保护数据在应用流转过程中的安全。然而,隐私计算技术本身的安全性也存在挑战。中国信通院《隐私计算白皮书》中指出,算法协议安全、开发应用安全和安全共识正成为当前隐私计算推广应用亟需面临的挑战。算法协议方面,由于各平台的隐私计算产品所使用的算法协议不同,各自的协议安全根基也不相通,难以形成统一的算法安全基础。与此同时,隐私计算产品安全协议所依赖的安全假设在实际中并不一定能完全成立,往往需要通过博弈论、现实约束等方法进行加强。安全性方面存在的挑战,也让需求方在考虑引入隐私计算产品时多了一些犹豫。除此之外,隐私计算性能或者说计算效率问题,也是应用落地过程中面临的主要矛盾。为了保证计算过程的安全性,“隐私”计算相较“明文”计算需要更大的计算和存储代价,比如同态计算的密文扩张规模可达1-4个数量级。同时,隐私计算又涉及到多个数据源或计算节点同步计算,一旦有一个环节性能受限,则会直接限制整个计算平台的性能。对此,亿欧智库分析师夏修齐指出:“目前,隐私计算与明文计算相比有1-2个数量级差距。‘隐私保护程度’、‘计算信任度’、‘计算效率’形成的隐私计算‘不可能三角’如何优化,未来将是一场长期攻坚战。”除了从技术供给端看存在的安全和性能问题外,需求端存在的市场教育问题和数据治理问题,也对隐私计算的大规模推广应用提出不小的挑战。亿欧智库《2021-2022中国金融数字化“新”洞察行业研究报告》指出:在实际推进业务过程,由于隐私计算涉及到多种技术算法、平台产品、专有名词,导致技术原理、解决方案等无法通俗解释,难以与客户形成高度同步。而这也使得用户在购买隐私计算服务时会有所犹疑,不利于业务开展。夏修齐认为:“接下来,提升市场对隐私计算的接受程度,关键是通过加强市场用户教育,化繁为简,填平‘黑盒’效应。”同时值得关注的是,隐私计算产品所基于的数据质量是否达到使用标准、数据来源是否合规,应用到具体的业务场景时,仍主要依赖于需求方。如果需求方本身数据治理水平不达标,必然会对隐私计算产品的落地造成障碍。而现实是,尽管数字化转型在我国已推进多年,但数据治理领域尚处于起步阶段,很多企业的数据治理水平尚不理想。此外,在行业发展过程中,由于隐私计算服务商各家算法存在差异性,且目前行业里闭源平台也较多,在隐私计算解决困扰行业已久的“数据孤岛”问题的同时,“数据群岛”问题也逐渐凸显。行业里出现的小范围、区域性、团体型数据抱团,不利于平台间数据的互联互通,增加了用户部署隐私计算产品的成本,不利于隐私计算应用落地的展开。总体来看,尽管隐私计算市场形势被广泛看好,但落地对企业而言依然是生死考验。谁能先在落地一环做出成效,谁就更有可能抢得更多市场份额。造血之困“隐私计算就像联合办公一样,接受服务的人很爽,但提供服务的人,活的并没有那么好。”在夏修齐看来,目前隐私计算行业的底层商业逻辑还没有完全跑通,不少腰部企业造血能力还很弱。目前来看,隐私计算行业的主要商业模式有四类:一是软件销售模式,即收取一次性的系统搭建费;二是技术服务模式,即向用户收取年度系统维护和服务费用;三是平台分润模式,前期先搭建计算软件系统,后续根据业务运营效果进行收益分成;四是数据调用模式,依据调用数据的情况收取数据使用费。其中,前两种是目前的主流模式。市场分析指出,从中长期来看,平台分润模式、数据调用模式将是未来趋势。不过,由于行业整体处于探索验证期,虽然市场需求在不断增多,但短期内,项目金额并不可观,因而对企业来说,能创造的收入规模也有限,不足以应对企业经营投入。对于很多隐私技术创业企业来说,融资是目前主要而直接的资金来源。但随着行业发展逐渐深入,只有把应用落地做好,才能得到更大的市场份额。虽然隐私计算技术已经在金融、政务、医疗等领域都有相关的应用落地,但各领域应用场景总体上比较单一。比如,金融领域主要集中在风控和营销,医疗领域集中在疫情防控、医保风控等,电子政务方面主要是促进政务数据安全共享开放,整体上,更多场景有待进一步挖掘。在场景挖掘之上,如何提炼客户需求共性,打造标准化产品或服务,也是隐私计算企业们仍在探索的问题。“技术深入产业、场景的know-how还在沉淀过程中。如何抽取客户的共性需求,转化为标准化产品,隐私计算企业还在摸索。”此前,星云Clustar创始人陈凯在接受媒体采访时也指出,现阶段行业缺乏标准化服务或商业模式。说到底,谁先把底层商业逻辑跑通,摆脱依赖融资的现状,谁就更有可能成为市场的王者。而落地能力关系到包括服务商对场景的理解能力、对需求的拆解能力以及解决需求的能力等。结语CIC灼识咨询报告预测,随着金融、医疗、政务等各个场景落地,中国隐私计算在2030年将有望达千亿市场规模。而这背后,是我国隐私计算技术研发实力的快速发展。3月16日,全球权威第三方知识产权机构IPRdaily与incoPat创新指数研究中心联合发布了2022年《全球隐私计算技术发明专利排行榜(TOP100)》。虽然以《数据安全法》《个人信息保护法》为代表的顶层设计文件已经出台,技术和应用相关标准化工作也已开展,但尚未形成兼顾权威性、适用性、科学性的标准。行业标准的缺失也导致企业在引入隐私技术服务的过程中,没有法律法规可依,一度泛滥的行业乱象,也压制了市场需求的积极性。眼下,隐私计算行业竞争格局未定,更多场景和杀手级应用也有待开发,对于隐私计算赛道上的企业来说,在广阔的市场前景面前,只有共同把行业盘子做大,才能避免未富先卷!正如洞见科技创始人、董事长姚明所说,“大家的角色如同连理之木,这是一个‘生态塘’,而并非‘角斗场’,大家都需要扮演好自己的角色定位,共建生态,共生共赢。”参考文献:1、中国信通院,《隐私计算白皮书》;2、零壹智库,《开启新纪元:隐私计算在金融领域应用发展报告(2021)》;3、毕马威、微众银行,《深潜数据蓝海隐私计算行业研究报告》;4、开源证券,《计算机行业深度报告:隐私计算,千亿蓝海市场加速开启》;5、腾讯网,《信通院闫树:隐私计算产品每年新增一倍以上,应用仍有不足》。
  • [华为动态] 华为获新加坡资媒局授予数据保护信任标志
    [新加坡, 2022年3月16日] 全球领先的ICT (信息与通信)基础设施和智能终端提供商华为在新加坡的子公司华为国际(Huawei International)近日获得新加坡资讯通信媒体发展局(IMDA)授予数据保护信任标志(Data Protection Trustmark,简称DPTM)。数据保护信任标志(DPTM)是面向企业的一项认证,用于认证已部署数据保护措施的企业,以证明其业务合规遵从新加坡个人数据保护法(PDPA)。截至目前,仅有超过80家企业获颁该认证。该标志的取得,印证了华为对保护客户隐私保护的承诺,向客户展现了华为健全和负责任的数据保护措施,增强了客户对华为收集、使用和披露个人数据过程的信赖。华为国际首席执行官符芳勇表示,“对于华为来说,个人数据保护合规不仅仅是法律的要求,也是华为作为ICT基础设施和智能终端提供商的社会责任。这项认证凸显了我们对隐私保护的承诺,我们的消费者、客户、供应商、合作伙伴、员工和其他相关实体可以放心,他们的个人数据得到了完善的保护。华为始终重视,并一直致力于我们在所有运营国家和地区均遵从适用的隐私保护及个人数据保护法律法规。此外,我们将隐私保护要求纳入了我们的日常业务流程,构筑并全面实施了端到端的全球网络安全与隐私保障体系。"20年来,华为与新加坡本地主流运营商紧密合作,帮助新加坡建设了世界一流的网络基础设施,使能新加坡企业数字化转型,亦为新加坡消费者带来了一系列领先的智能终端产品。随着云计算和大数据技术的成熟,成为网络基础设施的一部分,华为也为诸多本地企业提供了稳定、可信、安全、可持续的云服务,并在新加坡设立了企业和云业务的地区总部,专注推动本地企业数字化转型和国际化。特别值得一提的是,为应对气候变化,华为也通过其数字能源业务,助力新加坡低碳经济,实现绿色发电,高效用电,推动新加坡绿色发展蓝图的实现。网络安全方面,华为亦携手新加坡网络安全局,作为其网络安全伙伴项目(SG Cyber Safe Partnership Programme)的一员,帮助新加坡的企业和组织加强网络安全保护及提升网络安全意识。
  • [华为动态] 华为获新加坡资媒局授予数据保护信任标志
    [新加坡, 2022年3月16日] 全球领先的ICT (信息与通信)基础设施和智能终端提供商华为在新加坡的子公司华为国际(Huawei International)近日获得新加坡资讯通信媒体发展局(IMDA)授予数据保护信任标志(Data Protection Trustmark,简称DPTM)。数据保护信任标志(DPTM)是面向企业的一项认证,用于认证已部署数据保护措施的企业,以证明其业务合规遵从新加坡个人数据保护法(PDPA)。截至目前,仅有超过80家企业获颁该认证。该标志的取得,印证了华为对保护客户隐私保护的承诺,向客户展现了华为健全和负责任的数据保护措施,增强了客户对华为收集、使用和披露个人数据过程的信赖。华为国际首席执行官符芳勇表示,“对于华为来说,个人数据保护合规不仅仅是法律的要求,也是华为作为ICT基础设施和智能终端提供商的社会责任。这项认证凸显了我们对隐私保护的承诺,我们的消费者、客户、供应商、合作伙伴、员工和其他相关实体可以放心,他们的个人数据得到了完善的保护。华为始终重视,并一直致力于我们在所有运营国家和地区均遵从适用的隐私保护及个人数据保护法律法规。此外,我们将隐私保护要求纳入了我们的日常业务流程,构筑并全面实施了端到端的全球网络安全与隐私保障体系。"20年来,华为与新加坡本地主流运营商紧密合作,帮助新加坡建设了世界一流的网络基础设施,使能新加坡企业数字化转型,亦为新加坡消费者带来了一系列领先的智能终端产品。随着云计算和大数据技术的成熟,成为网络基础设施的一部分,华为也为诸多本地企业提供了稳定、可信、安全、可持续的云服务,并在新加坡设立了企业和云业务的地区总部,专注推动本地企业数字化转型和国际化。特别值得一提的是,为应对气候变化,华为也通过其数字能源业务,助力新加坡低碳经济,实现绿色发电,高效用电,推动新加坡绿色发展蓝图的实现。网络安全方面,华为亦携手新加坡网络安全局,作为其网络安全伙伴项目(SG Cyber Safe Partnership Programme)的一员,帮助新加坡的企业和组织加强网络安全保护及提升网络安全意识。
  • [技术干货] openGauss数据库安全指导手册
    简介本实验适用于 openGauss数据库,通过该实验可以顺利完成对数据库用户权限的控制及各种审计。内容描述本实验主要内容为用户权限控制(包括用户、角色、权限的授予、权限的回收)和各审计。前置条件openGauss数据库安全实验需要掌握openGauss数据库的基本操作和SQL语法,openGauss数据库支持SQL2003标准语法,数据库基本操作参见附录一。实验环境说明●组网说明本实验环境为华为云 ECS 服务器 + openGauss数据库。● 设备介绍为了满足数据库原理与实践课程实验需要,建议每套实验环境采用以下配置:设备名称、型号与版本的对应关系如下:设备明细表设备名称设备型号软件版本数据库openGaussopenGauss 1.1.0操作系统openEuleropenEuler 20.3LTS实验概览1 用户权限控制1.1 实验介绍1.1.1 关于本实验本实验主要描述用户的创建管理、角色的创建管理、Schema的创建管理、用户权限设置、用户安全策略设置。1.1.2 实验目的●掌握用户、角色、Schema的创建及管理;●掌握用户权限的授予各回收;● 掌握用户安全策略如何设置。1.2 用户通过CREATE USER创建的用户,默认具有LOGIN权限;通过CREATE USER创建用户的同时系统会在执行该命令的数据库中,为该用户创建一个同名的SCHEMA;其他数据库中,则不自动创建同名的SCHEMA;用户可使用CREATE SCHEMA命令,分别在其他数据库中,为该用户创建同名SCHEMA。1.2.1 创建、修改、删除用户步骤 1 启动服务器,再使用gsql客户端以管理员用户身份连接postgres数据库,假设端口号为26000。gsql -d postgres -p 26000 -r步骤 2 连接数据库后,进入SQL命令界面。创建用户jim,登录密码为Bigdata@123。postgres=# CREATE USER jim PASSWORD 'Bigdata@123'; CREATE ROLE说明:密码规则如下:● 密码默认不少于8个字符;● 不能与用户名及用户名倒序相同;● 至少包含大写字母(A-Z),小写字母(a-z),数字(0-9),非字母数字字符(限定为~!@#$%^&*()-_=+|[{}];:,<.>/?)四类字符中的三类字符;● 创建用户时,应当使用双引号或单引号将用户密码括起来。步骤 3 查看用户列表。postgres=# SELECT * FROM pg_user; usename | usesysid | usecreatedb | usesuper | usecatupd | userepl | passwd | valbegin | valuntil | respool | parent | spacelimit | useconfig | nodegroup | tempspacelimit | spillspacelimit ---------+----------+-------------+----------+-----------+---------+----------+--- omm | 10 | t | t | t | t | ******** | | | default_pool | 0 | | | | | jim | 16389 | f | f | f | f | ******** | | | default_pool | 0 | | | | | (2 rows)步骤 4 创建有“创建数据库”权限的用户,则需要加CREATEDB关键字。postgres=# CREATE USER dim CREATEDB PASSWORD 'Bigdata@123'; CREATE ROLE步骤 5 将用户jim的登录密码由Bigdata@123修改为Abcd@123。postgres=# ALTER USER jim IDENTIFIED BY 'Abcd@123' REPLACE 'Bigdata@123'; ALTER ROLE步骤 6 为用户jim追加有创建角色的CREATEROLE权限。postgres=# ALTER USER jim CREATEROLE; ALTER ROLE步骤 7 锁定jim帐户。postgres=# ALTER USER jim ACCOUNT LOCK; ALTER ROLE步骤 8 解锁jim帐户。postgres=# ALTER USER jim ACCOUNT UNLOCK; ALTER ROLE步骤 9 删除用户。postgres=# DROP USER jim CASCADE; DROP ROLE步骤 10 退出数据库。postgres=# \q1.3 角色角色是拥有数据库对象和权限的实体。在不同的环境中角色可以认为是一个用户,一个组或者兼顾两者。在数据库中添加一个新角色,角色无登录权限。创建角色的用户必须具备CREATE ROLE的权限或者是系统管理员。1.3.1 创建、修改、删除角色步骤 1 启动服务器,再使用gsql客户端以管理员用户身份连接postgres数据库,假设端口号为26000。gsql -d postgres -p 26000 -r步骤 2 创建一个角色,名为manager,密码为Bigdata@123。postgres=# CREATE ROLE manager IDENTIFIED BY 'Bigdata@123'; CREATE ROLE步骤 3 创建一个角色,从2021年1月1日开始生效,到2021年6月1日失效。postgres=# CREATE ROLE miriam WITH LOGIN PASSWORD 'Bigdata@123' VALID BEGIN '2021-01-01' VALID UNTIL '2021-06-01'; CREATE ROLE步骤 4 修改角色manager的密码为abcd@123。postgres=# ALTER ROLE manager IDENTIFIED BY 'abcd@123' REPLACE 'Bigdata@123'; ALTER ROLE步骤 5 修改角色manager为系统管理员。postgres=# ALTER ROLE manager SYSADMIN; ALTER ROLE步骤 6 删除角色manager。postgres=# DROP ROLE manager; DROP ROLE步骤 7 查看角色。postgres=# SELECT * FROM PG_ROLES; rolname | rolsuper | rolinherit | rolcreaterole | rolcreatedb | rolcatupdate | rolcanlogin | rolreplication | rolauditadmin | rolsystemadmin | rolconnlimit | rol password | rolvalidbegin | rolvaliduntil | rolrespool | rolparentid | roltabspace | rolconfig | oid | roluseft | rolkind | nodegroup | rolte mpspace | rolspillspace ---------+----------+------------+---------------+-------------+--------------+-------------+----------------+--------------- omm | t | t | t | t | t | t | t | t | t | -1 | *** ***** | | | default_pool | 0 | | | 10 | t | n | | | dim | f | t | f | t | f | t | f | f | f | -1 | *** ***** | | | default_pool | 0 | | | 16393 | f | n | | | miriam | f | t | f | f | f | t | f | f | f | -1 | *** ***** | 2020-07-01 00:00:00+08 | 2020-12-01 00:00:00+08 | default_pool | 0 | | | 16401 | f | n | | | (3 rows)步骤 8 退出数据库postgres=# \q1.4 SchemaSchema又称作模式。通过管理Schema,允许多个用户使用同一数据库而不相互干扰。每个数据库包含一个或多个Schema。在数据库创建用户时,系统会自动帮助用户创建一个同名Schema。1.4.1 创建、修改、删除Schema步骤 1 启动服务器,再使用gsql客户端以管理员用户身份连接postgres数据库,假设端口号为26000。gsql -d postgres -p 26000 -r步骤 2 创建模式ds。postgres=# CREATE SCHEMA ds; CREATE SCHEMA步骤 3 将当前模式ds更名为ds_new。postgres=# ALTER SCHEMA ds RENAME TO ds_new; ALTER SCHEMA步骤 4 创建用户jack。postgres=# CREATE USER jack PASSWORD 'Bigdata@123'; CREATE ROLE步骤 5 将DS_NEW的所有者修改为jack。postgres=# ALTER SCHEMA ds_new OWNER TO jack; ALTER SCHEMA步骤 6 查看Schema所有者。postgres=# SELECT s.nspname,u.usename AS nspowner FROM pg_namespace s, pg_user u WHERE s.nspowner = u.usesysid; nspname | nspowner --------------------+---------- pg_toast | omm cstore | omm dbe_perf | omm snapshot | omm pg_catalog | omm public | omm information_schema | omm dim | dim jack | jack ds_new | jack (10 rows)步骤 7 删除用户jack和模式ds_new。postgres=# DROP SCHEMA ds_new; DROP SCHEMA postgres=# DROP USER jack; DROP ROLE步骤 8 退出数据库postgres=# \q1.5 用户权限设置及回收使用GRANT命令进行用户授权包括以下三种场景:● 将系统权限授权给角色或用户。● 将数据库对象授权给角色或用户。● 将角色或用户的权限授权给其他角色或用户。1.5.1 将系统权限授权给用户或者角色步骤 1 启动服务器,再使用gsql客户端以管理员用户身份连接postgres数据库,假设端口号为26000。gsql -d postgres -p 26000 -r步骤 2 创建名为joe的用户,并将sysadmin权限授权给joe。postgres=# CREATE USER joe PASSWORD 'Bigdata@123'; CREATE ROLE postgres=# GRANT ALL PRIVILEGES TO joe; ALTER ROLE1.5.2 将数据库对象授权给角色或用户步骤 1 撤销joe用户的sysadmin权限,然后创建tpcds模式,并给tpcds模式下创建一张reason表。postgres=# REVOKE ALL PRIVILEGES FROM joe; ALTER ROLE postgres=# CREATE SCHEMA tpcds; CREATE SCHEMA postgres=# CREATE TABLE tpcds.reason ( r_reason_sk INTEGER NOT NULL, r_reason_id CHAR(16) NOT NULL, r_reason_desc VARCHAR(20) ); CREATE TABLE步骤 2 将模式tpcds的使用权限和表tpcds.reason的所有权限授权给用户joe。postgres=# GRANT USAGE ON SCHEMA tpcds TO joe; GRANT postgres=# GRANT ALL PRIVILEGES ON tpcds.reason TO joe; GRANT授权成功后,joe用户就拥有了tpcds.reason表的所有权限,包括增删改查等权限。步骤 3 将tpcds.reason表中r_reason_sk、r_reason_id、r_reason_desc列的查询权限,r_reason_desc的更新权限授权给joe。postgres=# GRANT select (r_reason_sk,r_reason_id,r_reason_desc),update (r_reason_desc) ON tpcds.reason TO joe; GRANT步骤 4 将数据库postgres的连接权限授权给用户joe,并给予其在postgres中创建schema的权限,而且允许joe将此权限授权给其他用户。postgres=# GRANT create,connect on database postgres TO joe WITH GRANT OPTION; GRANT步骤 5 创建角色tpcds_manager,将模式tpcds的访问权限授权给角色tpcds_manager,并授予该角色在tpcds下创建对象的权限,不允许该角色中的用户将权限授权给其人。postgres=# CREATE ROLE tpcds_manager PASSWORD 'Bigdata@123'; CREATE ROLE postgres=# GRANT USAGE,CREATE ON SCHEMA tpcds TO tpcds_manager; GRANT1.5.3 将用户或者角色的权限授权给其他用户或角色步骤 1 创建角色manager,将joe的权限授权给manager,并允许该角色将权限授权给其他人。postgres=# CREATE ROLE manager PASSWORD 'Bigdata@123'; CREATE ROLE postgres=# GRANT joe TO manager WITH ADMIN OPTION; GRANT ROLE步骤 2 创建用户senior_manager,将用户manager的权限授权给该用户。postgres=# CREATE ROLE senior_manager PASSWORD 'Bigdata@123'; CREATE ROLE postgres=# GRANT manager TO senior_manager; GRANT ROLE1.5.4 权限回收步骤 1 撤销权限,并清理用户。postgres=# REVOKE joe FROM manager; REVOKE ROLE postgres=# REVOKE manager FROM senior_manager; REVOKE ROLE postgres=# DROP USER manager; DROP ROLE postgres=# REVOKE ALL PRIVILEGES ON tpcds.reason FROM joe; REVOKE postgres=# REVOKE ALL PRIVILEGES ON SCHEMA tpcds FROM joe; REVOKE postgres=# REVOKE USAGE,CREATE ON SCHEMA tpcds FROM tpcds_manager; REVOKE postgres=# DROP ROLE tpcds_manager; DROP ROLE postgres=# DROP ROLE senior_manager; DROP ROLE postgres=# DROP USER joe CASCADE; DROP ROLE步骤 2 退出数据库postgres=# \q注意:实验完成后请尽量清理本实验的对象,以免影响与其它实验产生冲突。1.6 安全策略设置为了保证帐户安全,如果用户输入密码次数超过一定次数(failed_login_attempts),系统将自动锁定该帐户,默认值为10。次数设置越小越安全,但是在使用过程中会带来不便。当帐户被锁定时间超过设定值(password_lock_time),则当前帐户自动解锁,默认值为1天。时间设置越长越安全,但是在使用过程中会带来不便。1.6.1 设置账户安全策略步骤 1 启动服务器,再使用gsql客户端以管理员用户身份连接postgres数据库,假设端口号为26000。gsql -d postgres -p 26000 -r步骤 2 配置failed_login_attempts参数。查看已配置的参数。postgres=# SHOW failed_login_attempts; failed_login_attempts ----------------------- 10 (1 row)如果显示结果不为10,执行“\q”命令退出数据库。然后在操作系统 omm 用户下执行如下命令设置成默认值10。gs_guc reload -D /gaussdb/data/dbnode -c "failed_login_attempts=10"注意:/gaussdb/data/dbnode 指的是数据目录,要根据自己实际情况调整。比如数据目录/gaussdb/data/db1,执行结果如下。[omm@ecs-700c ~]$ gs_guc reload -D /gaussdb/data/db1 -c "failed_login_attempts=9" expected instance path: [/gaussdb/data/db1/postgresql.conf] gs_guc reload: failed_login_attempts=9: [/gaussdb/data/ecs-700c/postgresql.conf] server signaled Total instances: 1. Failed instances: 0. Success to perform gs_guc!步骤 3 配置password_lock_time参数。查看已配置的参数。[omm@ecs-c2f0 ~]$ gsql -d postgres -p 26000 -r gsql ((openGauss 1.0.0 build 0bd0ce80) compiled at 2020-06-30 18:19:23 commit 0 last mr ) Non-SSL connection (SSL connection is recommended when requiring high-security) Type "help" for help. postgres=# SHOW password_lock_time; password_lock_time -------------------- 1 (1 row)如果显示结果不为1,执行“\q”命令退出数据库。然后在操作系统 omm 用户下执行如下命令设置成默认值1。gs_guc reload -N all -I all -c "password_lock_time=1"执行结果如下:[omm@ecs-700c ~]$ gs_guc reload -N all -I all -c "password_lock_time=1" NOTICE: password_lock_time and failed_login_attempts must have positive for lock and unlock functions to work as. Begin to perform gs_guc for all datanodes. Total instances: 1. Failed instances: 0. Success to perform gs_guc!1.6.2 设置账号有效期创建新用户时,需要限制用户的操作期限(有效开始时间和有效结束时间)。不在有效操作期内的用户需要重新设定帐号的有效操作期。步骤 1 启动服务器,再使用gsql客户端以管理员用户身份连接postgres数据库,假设端口号为26000。gsql -d postgres -p 26000 -r步骤 2 创建用户并制定用户的有效开始时间和有效结束时间。postgres=# CREATE USER joe WITH PASSWORD 'Bigdata@123' VALID BEGIN '2020-07-10 08:00:00' VALID UNTIL '2022-10-10 08:00:00'; CREATE ROLE步骤 3 重新设定帐号的有效期。postgres=# ALTER USER joe WITH VALID BEGIN '2020-11-10 08:00:00' VALID UNTIL '2021-11-10 08:00:00'; ALTER ROLE步骤 4 退出数据库。postgres=# \q1.6.3 设置密码安全策略用户密码存储在系统表pg_authid中,为防止用户密码泄露,openGauss对用户密码可进行加密存储、密码复杂度设置、密码重用天数设置、密码有效期限设置等。步骤 1 启动服务器,再使用gsql客户端以管理员用户身份连接postgres数据库,假设端口号为26000。gsql -d postgres -p 26000 -r 步骤 2 配置的加密算法。查看已配置的参数。postgres=# SHOW password_encryption_type; password_encryption_type -------------------------- 2 (1 row)如果显示结果为0或1,执行“\q”命令退出数据库。然后在操作系统 omm 用户下执行如下命令将其设置为安全的加密算法。gs_guc reload -N all -I all -c "password_encryption_type=2"注意说明:● 当参数password_encryption_type设置为0时,表示采用md5方式对密码加密。md5为不安全的加密算法,不建议使用。● 当参数password_encryption_type设置为1时,表示采用sha256和md5方式对密码加密。其中包含md5为不安全的加密算法,不建议使用。● 当参数password_encryption_type设置为2时,表示采用sha256方式对密码加密,为默认配置。步骤 3 配置密码安全参数。查看已配置的参数。postgres=# SHOW password_policy; password_policy ----------------- 1 (1 row)如果显示结果不为1,执行“\q”命令退出数据库。然后在操作系统 omm下执行如下命令设置成默认值1。gs_guc reload -N all -I all -c "password_policy=1"注意说明:● 参数password_policy设置为1时表示采用密码复杂度校验,默认值;● 参数password_policy设置为0时表示不采用任何密码复杂度校验,设置为0会存在安全风险,不建议设置为0,即使需要设置也要将所有openGauss节点中的password_policy都设置为0才能生效。步骤 4 配置密码重用。查看不可重用天数已配置的参数。postgres=# SHOW password_reuse_time; password_reuse_time --------------------- 60 (1 row)如果显示结果不为60,执行“\q”命令退出数据库。然后在操作系统 omm下执行如下命令设置成默认值60。gs_guc reload -N all -I all -c "password_reuse_time=60"查看不可重用次数已配置的参数。postgres=# SHOW password_reuse_max; password_reuse_max 0 (1 row)如果显示结果不为0,执行“\q”命令退出数据库。然后在操作系统 omm下执行如下命令设置成默认值0。gs_guc reload -N all -I all -c "password_reuse_max = 0"注意说明:● 不可重用天数默认值为60天,不可重用次数默认值是0;● 这两个参数值越大越安全,但是在使用过程中会带来不便,其默认值符合安全标准,用户可以根据需要重新设置参数,提高安全等级。步骤 5 配置密码有效期限。数据库用户的密码都有密码有效期(password_effect_time),当达到密码到期提醒天数(password_notify_time)时,系统会在用户登录数据库时提示用户修改密码。配置password_effect_time参数。查看已配置的参数。postgres=# SHOW password_effect_time; password_effect_time ---------------------- 90 (1 row)如果显示结果不为90,执行“\q”命令退出数据库。然后在操作系统 omm下执行如下命令设置成默认值90(不建议设置为0)。gs_guc reload -N all -I all -c "password_effect_time = 90"● 配置password_notify_time参数。查看已配置的参数。postgres=# SHOW password_notify_time; password_notify_time ---------------------- 7 (1 row)如果显示结果不为7,执行“\q”命令退出数据库。然后在操作系统 omm下执行如下命令设置成默认值7(不建议设置为0)。gs_guc reload -N all -I all -c "password_notify_time = 7"用户权限控制实验结束。2 审计2.1 实验介绍2.1.1 关于本实验数据库安全对数据库系统来说至关重要,openGauss将用户对数据库的所有操作写入审计日志,数据库安全管理员可以利用这些日志信息,重现导致数据库现状的一系列事件,找出非法操作的用户、时间和内容等。本实验主要描述如何来设置数据库审计,主要包括审计开关、查看审计结果、维护审计日志。2.1.2 实验目的掌握如何设置数据库审计及审计日志的查看。2.2 审计开、关审计总开关audit_enabled支持动态加载。在数据库运行期间修改该配置项的值会立即生效,无需重启数据库。默认值为on,表示开启审计功能。除了审计总开关,各个审计项也有对应的开关。只有开关开启,对应的审计功能才能生效。各审计项的开关支持动态加载。在数据库运行期间修改审计开关的值,不需要重启数据库便可生效。步骤 1 审计总开关设置。启动服务器,再使用gsql客户端以管理员用户身份连接postgres数据库,假设端口号为26000。gsql -d postgres -p 26000 -r 查看已配置审计总开关参数。 postgres=# show audit_enabled; audit_enabled --------------- on (1 row)如果显示结果不为on,执行“\q”命令退出数据库。然后在操作系统 omm下执行如下命令设置成默认值on(不建议设置为off)。gs_guc reload -N all -I all -c "audit_enabled = on"步骤 2 审计项开关设置。查看已配置审计项参数。以下以数据库启动、停止、恢复和切换审计项为例。postgres=# show audit_database_process; audit_database_process ------------------------ 1 (1 row)如果显示结果不为1,执行“\q”命令退出数据库。然后在操作系统 omm下执行如下命令设置成默认值1。gs_guc reload -N all -I all -c " audit_database_process = 1"注意说明:● 用户登录、注销审计 。参数:audit_login_logout。默认值为7,表示开启用户登录、退出的审计功能。设置为0表示关闭用户登录、退出的审计功能。不推荐设置除0和7之外的值。● 数据库启动、停止、恢复和切换审计。参数:audit_database_process。默认值为1,表示开启数据库启动、停止、恢复和切换的审计功能。● 用户锁定和解锁审计 。参数:audit_user_locked。默认值为1,表示开启审计用户锁定和解锁功能。● 用户访问越权审计。参数:audit_user_violation。默认值为0,表示关闭用户越权操作审计功能。● 授权和回收权限审计 。参数:audit_grant_revoke。默认值为1,表示开启审计用户权限授予和回收功能。● 数据库对象的CREATE,ALTER,DROP操作审计。参数:audit_system_object。默认值为12295,表示只对DATABASE、SCHEMA、USER、DATA SOURCE这四类数据库对象的CREATE、ALTER、DROP操作进行审计。● 具体表的INSERT、UPDATE和DELETE操作审计。参数:audit_dml_state。默认值为0,表示关闭具体表的DML操作(SELECT除外)审计功能。● SELECT操作审计。参数:audit_dml_state_select。默认值为0,表示关闭SELECT操作审计功能。● COPY审计。参数:audit_copy_exec。默认值为0,表示关闭copy操作审计功能。● 存储过程和自定义函数的执行审计 。参数:audit_function_exec。默认值为0,表示不记录存储过程和自定义函数的执行审计日志。● SET审计 参数:audit_set_parameter。默认值为1,表示记录set操作审计日志。2.3 查看审计结果步骤 1 启动服务器,再使用gsql客户端以管理员用户身份连接postgres数据库,假设端口号为26000。gsql -d postgres -p 26000 -r步骤 2 查询审计记录。postgres=# SELECT time,type,result,username,object_name FROM pg_query_audit('2021-01-01 10:00:00','2021-08-15 09:47:33'); time | type | result | username | object_name ------------------------+---------------+--------+----------+----------------- 2020-07-10 10:00:59+08 | user_logout | ok | omm | postgres 2020-07-10 10:02:39+08 | user_logout | ok | omm | postgres 2020-07-10 10:08:35+08 | login_success | ok | omm | postgres 2020-07-10 10:08:35+08 | set_parameter | ok | omm | connection_info 2020-07-10 10:08:40+08 | user_logout | ok | omm | postgres 2020-07-10 10:08:42+08 | login_success | ok | omm | postgres 2020-07-10 10:08:42+08 | set_parameter | ok | omm | connection_info 2020-07-10 10:14:56+08 | login_success | ok | omm | postgres 2020-07-10 10:14:56+08 | set_parameter | ok | omm | connection_info 2020-07-10 10:16:33+08 | ddl_database | ok | omm | mydb 2020-07-10 10:22:42+08 | user_logout | ok | omm | postgres 2020-07-10 10:26:51+08 | user_logout | ok | omm | postgres 2020-07-10 10:29:08+08 | login_success | ok | omm | postgres 2020-07-10 10:29:08+08 | set_parameter | ok | omm | connection_info 2020-07-10 10:48:23+08 | user_logout | ok | omm | postgres 2020-07-10 10:55:02+08 | login_success | ok | omm | postgres 2020-07-10 10:55:02+08 | set_parameter | ok | omm | connection_info 2020-07-10 10:55:48+08 | login_success | ok | omm | postgres 2020-07-10 10:55:48+08 | set_parameter | ok | omm | connection_info 2020-07-10 11:17:25+08 | login_success | ok | omm | postgres 2020-07-10 11:17:25+08 | set_parameter | ok | omm | connection_info 2020-07-10 11:31:06+08 | user_logout | ok | omm | postgres 2020-07-10 11:34:05+08 | login_success | ok | omm | postgres 2020-07-10 11:34:05+08 | set_parameter | ok | omm | connection_info 2020-07-10 11:40:11+08 | login_success | ok | omm | postgres 2020-07-10 11:40:11+08 | set_parameter | ok | omm | connection_info步骤 3 退出数据库postgres=# \q2.4 维护审计日志设置自动删除审计日志。步骤 1 启动服务器,再使用gsql客户端以管理员用户身份连接postgres数据库,假设端口号为26000。gsql -d postgres -p 26000 -r步骤 2 配置审计文件占用磁盘空间的大小(audit_space_limit)。查看已配置的参数。postgres=# SHOW audit_space_limit; audit_space_limit ------------------- 1GB (1 row)如果显示结果不为1GB(1024MB),执行“\q”命令退出数据库。然后在操作系统 omm用户下执行如下命令设置成默认值1024MB。gs_guc reload -N all -I all -c "audit_space_limit=1024MB"步骤 3 配置审计文件个数的最大值(audit_file_remain_threshold)。查看已配置的参数。postgres=# SHOW audit_file_remain_threshold; audit_file_remain_threshold ----------------------------- 1048576 (1 row)如果显示结果不为1048576,执行“\q”命令退出数据库。然后在操作系统 omm用户执行如下命令设置成默认值1048576。gs_guc reload -N all -I all -c "audit_file_remain_threshold=1048576"审计实验结束。openGauss数据库安全指导手册就介绍到这里了,感谢您的阅读。