- 场景描述: 建议方案: 场景描述: 建议方案:
- 场景描述:我司作为代理商,通过API接口获取的收支明细中,给客户拨款的付款场景,收支明细中并未包含客户名称或者客户ID。 建议方案:通过API接口收支明细中希望包含客户ID号。 场景描述:我司作为代理商,通过API接口获取的收支明细中,给客户拨款的付款场景,收支明细中并未包含客户名称或者客户ID。 建议方案:通过API接口收支明细中希望包含客户ID号。
- 场景描述:在对接我司的CMDB资产中心,资产中心会记录资源基础配置信息,如:ID、名称、可用区、IP地址、企业项目、CPU、内存、存储容量、创建时间、订单、到期时间等。通过工具-API Explorer 产品,云搜索服务CSS ListClustersDetails接口可以获取CSS集群的列表清单,但是返回的数据中没有订单(order_id)和过期时间(expire_time),SFS Turbor ListShares接口也有同样的问题。 建议方案:“运营能力”中现有的查订单信息接口只支持“账期”查询,期望可以提供通过资源ID或集群ID查询订单支付信息的API接口。 场景描述:在对接我司的CMDB资产中心,资产中心会记录资源基础配置信息,如:ID、名称、可用区、IP地址、企业项目、CPU、内存、存储容量、创建时间、订单、到期时间等。通过工具-API Explorer 产品,云搜索服务CSS ListClustersDetails接口可以获取CSS集群的列表清单,但是返回的数据中没有订单(order_id)和过期时间(expire_time),SFS Turbor ListShares接口也有同样的问题。 建议方案:“运营能力”中现有的查订单信息接口只支持“账期”查询,期望可以提供通过资源ID或集群ID查询订单支付信息的API接口。
-
【产品缺陷】Flexus服务缺少相关API操作 预审不通过缺少Flexus相关API,无法自动化运维和管理Flexus服务,主要限制如下:1. 获取Flexus产品要从资源管理服务API获取,没有专门的API来处理此功能(从资源管理服务API获取的Flexus产品数据也不完整,比如产品到期日期)2. 没有API,导致购买,升配,续费不能自动化3. 无法监控服务器流量(针对Flexus L实例),只能使用第三方软件监控流量使用(第三方软件监控和实际流量使用会有较大出入)建议方案:如果可以,请设计Flexus API以供使用。 缺少Flexus相关API,无法自动化运维和管理Flexus服务,主要限制如下:1. 获取Flexus产品要从资源管理服务API获取,没有专门的API来处理此功能(从资源管理服务API获取的Flexus产品数据也不完整,比如产品到期日期)2. 没有API,导致购买,升配,续费不能自动化3. 无法监控服务器流量(针对Flexus L实例),只能使用第三方软件监控流量使用(第三方软件监控和实际流量使用会有较大出入)建议方案:如果可以,请设计Flexus API以供使用。
- 场景描述:伙伴中心api文档、获取客户订单后,没办法快捷通过第三方接口完成订单支付闭环 建议方案:建议开放伙伴中心客户订单代付支付功能api 场景描述:伙伴中心api文档、获取客户订单后,没办法快捷通过第三方接口完成订单支付闭环 建议方案:建议开放伙伴中心客户订单代付支付功能api
- 场景描述:已经工单处理几天,适配不了。请提级排查。 [图片][图片] 建议方案: 场景描述:已经工单处理几天,适配不了。请提级排查。 [图片][图片] 建议方案:
-
【用户体验】提供盘古llm的demo接口 预审不通过场景描述:目前没有在华为云找到可以的是盘古llm的测试接口,因此无法体验盘古llm的效果如何 建议方案:希望可以提供盘古llm的demo接口 场景描述:目前没有在华为云找到可以的是盘古llm的测试接口,因此无法体验盘古llm的效果如何 建议方案:希望可以提供盘古llm的demo接口
- 场景描述: 场景描述: 本期体验的是模型工具中的模型部署模块 这里全是语言类模型,现在“Qwen2 是阿里云最新推出的大语言模型系列,提供基础模型和指令调优版本,参数范围从 5 亿到 720 亿,其中包括一个 Mixture-of-Experts 模型。该模型已经在 Hugging Face 上开源了。”(引用) 现在人工智能在NLP上发展还是蛮快的。各大公司均推出自己的大模型。现在业界主流的有由OpenAI开发,基于Transformer架构的GPT-4;由Anthropic开发的Claude 3;由谷歌开发的Gemini;由Meta开发的LLM3;由LMSYSrg开发的Vicuna;由Mistral AI开发的Mistral 2。 国内比较常的通义千问 文心一言等。现在来测一下千问大模型 引用:Qwen2-72B 在针对预训练语言模型的评估中,对比当前最优的开源模型,Qwen2-72B 在包括自然语言理解、知识、代码、数学及多语言等多项能力上均显著超越当前领先的模型,如 Llama-3-70B 以及 Qwen1.5 最大的模型 Qwen1.5-110B。这得益于其预训练数据及训练方法的优化。 [图片] 模型体现效果还是不错的。本模型在代码和数学能力表现是很不错的。试了一下python的代码测试。可以辅助进行编程以及程序的学习。 [图片] 测试一下英文,至少也是英文来回答的,在语种之间是可以进行切换使用的。语言可以支持以下。 [图片] [图片] 这个参数不让手改0.8只能拖拉到0.8 top_k也是一样,应该是有限制禁止是0,这个算不算小BUG,可以修复一下。 [图片] [图片] 复杂一点的问题测试一下,还可以。 不过不同模型的结果是不一样的。 [图片] 模型调用也有详细的文档可以参考 [图片] 现在模型的使用免责声名也给出了,模型更多的是辅助使用。建议华为是不是可以推出自己的语言大模型进行开源使用。 [图片] [图片] 建议方案: 1、现在模型的使用免责声名也给出了,模型更多的是辅助使用。建议华为是不是可以推出自己的语言大模型进行开源使用。 2、现在大模型的应用技术走在了应用实践的前面,对于此有一个建议因为不同模型处理同一问题的结果不同,可以在同一界面中进行一下横向对比。可以看看模型的表现。 3、因为是现成的模型,在应用过程中BUG无法很好的发现,所有的表现都是模型的一个效果。 真正的模型要是在云上应用,对于算力资源的评估也是很重要的。一种是用算力还收费,一种是API调用来收费不知以后的策略是什么样的,可以给一个参考也评估。 4、有参数不让手改0.8只能拖拉到0.8 top_k也是一样,应该是有限制禁止是0,这个算不算小BUG,可以修复一下。 场景描述: 场景描述: 本期体验的是模型工具中的模型部署模块 这里全是语言类模型,现在“Qwen2 是阿里云最新推出的大语言模型系列,提供基础模型和指令调优版本,参数范围从 5 亿到 720 亿,其中包括一个 Mixture-of-Experts 模型。该模型已经在 Hugging Face 上开源了。”(引用) 现在人工智能在NLP上发展还是蛮快的。各大公司均推出自己的大模型。现在业界主流的有由OpenAI开发,基于Transformer架构的GPT-4;由Anthropic开发的Claude 3;由谷歌开发的Gemini;由Meta开发的LLM3;由LMSYSrg开发的Vicuna;由Mistral AI开发的Mistral 2。 国内比较常的通义千问 文心一言等。现在来测一下千问大模型 引用:Qwen2-72B 在针对预训练语言模型的评估中,对比当前最优的开源模型,Qwen2-72B 在包括自然语言理解、知识、代码、数学及多语言等多项能力上均显著超越当前领先的模型,如 Llama-3-70B 以及 Qwen1.5 最大的模型 Qwen1.5-110B。这得益于其预训练数据及训练方法的优化。 [图片] 模型体现效果还是不错的。本模型在代码和数学能力表现是很不错的。试了一下python的代码测试。可以辅助进行编程以及程序的学习。 [图片] 测试一下英文,至少也是英文来回答的,在语种之间是可以进行切换使用的。语言可以支持以下。 [图片] [图片] 这个参数不让手改0.8只能拖拉到0.8 top_k也是一样,应该是有限制禁止是0,这个算不算小BUG,可以修复一下。 [图片] [图片] 复杂一点的问题测试一下,还可以。 不过不同模型的结果是不一样的。 [图片] 模型调用也有详细的文档可以参考 [图片] 现在模型的使用免责声名也给出了,模型更多的是辅助使用。建议华为是不是可以推出自己的语言大模型进行开源使用。 [图片] [图片] 建议方案: 1、现在模型的使用免责声名也给出了,模型更多的是辅助使用。建议华为是不是可以推出自己的语言大模型进行开源使用。 2、现在大模型的应用技术走在了应用实践的前面,对于此有一个建议因为不同模型处理同一问题的结果不同,可以在同一界面中进行一下横向对比。可以看看模型的表现。 3、因为是现成的模型,在应用过程中BUG无法很好的发现,所有的表现都是模型的一个效果。 真正的模型要是在云上应用,对于算力资源的评估也是很重要的。一种是用算力还收费,一种是API调用来收费不知以后的策略是什么样的,可以给一个参考也评估。 4、有参数不让手改0.8只能拖拉到0.8 top_k也是一样,应该是有限制禁止是0,这个算不算小BUG,可以修复一下。
- 场景描述: 本期体验的是模型工具中的模型部署模块 这里全是语言类模型,现在“Qwen2 是阿里云最新推出的大语言模型系列,提供基础模型和指令调优版本,参数范围从 5 亿到 720 亿,其中包括一个 Mixture-of-Experts 模型。该模型已经在 Hugging Face 上开源了。”(引用) 现在人工智能在NLP上发展还是蛮快的。各大公司均推出自己的大模型。现在业界主流的有由OpenAI开发,基于Transformer架构的GPT-4;由Anthropic开发的Claude 3;由谷歌开发的Gemini;由Meta开发的LLM3;由LMSYSrg开发的Vicuna;由Mistral AI开发的Mistral 2。 国内比较常的通义千问 文心一言等。现在来测一下千问大模型 引用:Qwen2-72B 在针对预训练语言模型的评估中,对比当前最优的开源模型,Qwen2-72B 在包括自然语言理解、知识、代码、数学及多语言等多项能力上均显著超越当前领先的模型,如 Llama-3-70B 以及 Qwen1.5 最大的模型 Qwen1.5-110B。这得益于其预训练数据及训练方法的优化。 [图片] 模型体现效果还是不错的。本模型在代码和数学能力表现是很不错的。试了一下python的代码测试。可以辅助进行编程以及程序的学习。 [图片] 测试一下英文,至少也是英文来回答的,在语种之间是可以进行切换使用的。语言可以支持以下。 [图片] [图片] 这个参数不让手改0.8只能拖拉到0.8 top_k也是一样,应该是有限制禁止是0,这个算不算小BUG,可以修复一下。 [图片] 不同模型的同一问题处理结果不相同 [图片] 复杂一点的问题测试一下,还可以。 [图片] 模型调用也有详细的文档可以参考 [图片] 现在模型的使用免责声名也给出了,模型更多的是辅助使用。建议华为是不是可以推出自己的语言大模型进行开源使用。 [图片] [图片] 现在大模型的应用技术走在了应用实践的前面,对于此有一个建议因为不同模型处理同一问题的结果不同,可以在同一界面中进行一下横向对比。可以看看模型的表现。 因为是现成的模型,在应用过程中BUG无法很好的发现,所有的表现都是模型的一个效果。 真正的模型要是在云上应用,对于算力资源的评估也是很重要的。一种是用算力还收费,一种是API调用来收费不知以后的策略是什么样的,可以给一个参考也评估。 建议方案: 场景描述: 本期体验的是模型工具中的模型部署模块 这里全是语言类模型,现在“Qwen2 是阿里云最新推出的大语言模型系列,提供基础模型和指令调优版本,参数范围从 5 亿到 720 亿,其中包括一个 Mixture-of-Experts 模型。该模型已经在 Hugging Face 上开源了。”(引用) 现在人工智能在NLP上发展还是蛮快的。各大公司均推出自己的大模型。现在业界主流的有由OpenAI开发,基于Transformer架构的GPT-4;由Anthropic开发的Claude 3;由谷歌开发的Gemini;由Meta开发的LLM3;由LMSYSrg开发的Vicuna;由Mistral AI开发的Mistral 2。 国内比较常的通义千问 文心一言等。现在来测一下千问大模型 引用:Qwen2-72B 在针对预训练语言模型的评估中,对比当前最优的开源模型,Qwen2-72B 在包括自然语言理解、知识、代码、数学及多语言等多项能力上均显著超越当前领先的模型,如 Llama-3-70B 以及 Qwen1.5 最大的模型 Qwen1.5-110B。这得益于其预训练数据及训练方法的优化。 [图片] 模型体现效果还是不错的。本模型在代码和数学能力表现是很不错的。试了一下python的代码测试。可以辅助进行编程以及程序的学习。 [图片] 测试一下英文,至少也是英文来回答的,在语种之间是可以进行切换使用的。语言可以支持以下。 [图片] [图片] 这个参数不让手改0.8只能拖拉到0.8 top_k也是一样,应该是有限制禁止是0,这个算不算小BUG,可以修复一下。 [图片] 不同模型的同一问题处理结果不相同 [图片] 复杂一点的问题测试一下,还可以。 [图片] 模型调用也有详细的文档可以参考 [图片] 现在模型的使用免责声名也给出了,模型更多的是辅助使用。建议华为是不是可以推出自己的语言大模型进行开源使用。 [图片] [图片] 现在大模型的应用技术走在了应用实践的前面,对于此有一个建议因为不同模型处理同一问题的结果不同,可以在同一界面中进行一下横向对比。可以看看模型的表现。 因为是现成的模型,在应用过程中BUG无法很好的发现,所有的表现都是模型的一个效果。 真正的模型要是在云上应用,对于算力资源的评估也是很重要的。一种是用算力还收费,一种是API调用来收费不知以后的策略是什么样的,可以给一个参考也评估。 建议方案:
- 场景描述: 在调试容器镜像服务的API时,发现获取镜像老化规则列表(ListRetentions)等API,其中的repository好像不支持"/"符号, [图片] 我的镜像仓库名包含"/",如下所示: [图片] 建议方案:建议支持"/"符号,或者如果是我用的不对的话,建议更新文档说明 场景描述: 在调试容器镜像服务的API时,发现获取镜像老化规则列表(ListRetentions)等API,其中的repository好像不支持"/"符号, [图片] 我的镜像仓库名包含"/",如下所示: [图片] 建议方案:建议支持"/"符号,或者如果是我用的不对的话,建议更新文档说明
- 场景描述:API 编辑码表字段值接口 ,看不出是哪里的问题 [图片] 建议方案:报错不清晰 场景描述:API 编辑码表字段值接口 ,看不出是哪里的问题 [图片] 建议方案:报错不清晰
- 场景描述: CodeArts API不支持流式text/event-stream返回,像postman都支持,这样无法切到Codearts API使用。 建议方案: 支持流式返回 场景描述: CodeArts API不支持流式text/event-stream返回,像postman都支持,这样无法切到Codearts API使用。 建议方案: 支持流式返回
- 场景描述: https://connect.huaweicloud.com/courses/learn/Learning/sp:cloudEdu_?courseNo=C101705888047137001&courseType=1 建议方案: 场景描述: https://connect.huaweicloud.com/courses/learn/Learning/sp:cloudEdu_?courseNo=C101705888047137001&courseType=1 建议方案:
- 场景描述: 1、Headers需要有默认参数,现在得一个一个设置 2、不支持全局脚本设置 3、auth中Huawei IAM不能从输入aksk改成iam账号密码么?还得额外去创建aksk。而且不支持OAuth 2.0 直接获取访问令牌 4、环境变量限制长度太短了,token超限制设置不了 建议方案: 参考下postman,都有默认请求头,而且可以设置从目录设置前后置脚本 场景描述: 1、Headers需要有默认参数,现在得一个一个设置 2、不支持全局脚本设置 3、auth中Huawei IAM不能从输入aksk改成iam账号密码么?还得额外去创建aksk。而且不支持OAuth 2.0 直接获取访问令牌 4、环境变量限制长度太短了,token超限制设置不了 建议方案: 参考下postman,都有默认请求头,而且可以设置从目录设置前后置脚本
- 场景描述: Codearts API 不能记住session 每次都要重新登陆 我的手机号下有多个账号 这个流程就更加繁琐了 建议方案: 根据cookie记住session,建议session有效期能够提高到一周 场景描述: Codearts API 不能记住session 每次都要重新登陆 我的手机号下有多个账号 这个流程就更加繁琐了 建议方案: 根据cookie记住session,建议session有效期能够提高到一周
上滑加载中
推荐直播
-
HDC深度解读系列 - Serverless与MCP融合创新,构建AI应用全新智能中枢2025/08/20 周三 16:30-18:00
张昆鹏 HCDG北京核心组代表
HDC2025期间,华为云展示了Serverless与MCP融合创新的解决方案,本期访谈直播,由华为云开发者专家(HCDE)兼华为云开发者社区组织HCDG北京核心组代表张鹏先生主持,华为云PaaS服务产品部 Serverless总监Ewen为大家深度解读华为云Serverless与MCP如何融合构建AI应用全新智能中枢
回顾中 -
关于RISC-V生态发展的思考2025/09/02 周二 17:00-18:00
中国科学院计算技术研究所副所长包云岗教授
中科院包云岗老师将在本次直播中,探讨处理器生态的关键要素及其联系,分享过去几年推动RISC-V生态建设实践过程中的经验与教训。
回顾中 -
一键搞定华为云万级资源,3步轻松管理企业成本2025/09/09 周二 15:00-16:00
阿言 华为云交易产品经理
本直播重点介绍如何一键续费万级资源,3步轻松管理成本,帮助提升日常管理效率!
回顾中
热门标签