• 申请账号注意事项
    申请账号注意事项:AI百校计划的申请账号和代金券使用账号,不能用公司或学校的账号,必须要用申请个人的华为开发者账号 
  • [公告] 华为AI百校计划昇腾AI资源指导书
    华为AI百校计划昇腾AI资源指导书前置知识:额度、代金券、账号额度、代金券、主账号、一个或多个子账号关系:参考文档查询项目额度:参考文档账号欠费:参考文档第一步:额度转代金券额度转代金券:参考文档第二步:购买昇腾AI算力资源     前置条件:账号有代金券。如果没有,请进行第一步操作购买Notebook(按需)、ModelArts Studio(MaaS)、算力集群超节点 (Lite Server)(包月/包年):参考文档购买轻量算力集群 (Lite Cluster/ Lite Server)(包月/包年)-需在论坛求助或者社群找技术专家开通白名单:参考文档模型训练与开发新手快速入门:参考文档社区资源:参考文档AI Gallery使用流程:参考文档精度转换:参考文档发布 发布分享发布免费算法:参考文档发布免费模型:参考文档发布数据:参考文档部署在线服务场景介绍:参考文档部署模型为在线服务:参考文档删除资源删除资源:参考文档技术论坛(问题求助、技术干货):点击查看
  • [活动公告] 华为开发者布道师计划-开发板优惠券资助申请指导
    昇腾开发板:https://www.hiascend.com/developer/devboard鲲鹏开发板:https://www.hikunpeng.com/developer/devboard华为开发者布道师官网:cid:link_2身份认证地址:cid:link_1优惠券/华为开发者布道师计划地址:https://edu.hicomputing.huawei.com/profile/coupons?tab=discount&category=dev-advocate    身份认证地址:cid:link_1华为开发者布道师官网:cid:link_2优惠券/华为开发者布道师计划:https://edu.hicomputing.huawei.com/profile/coupons?tab=discount&category=dev-advocate优惠券/华为开发者布道师计划:https://edu.hicomputing.huawei.com/profile/coupons?tab=discount&category=dev-advocate优惠券/华为开发者布道师计划:https://edu.hicomputing.huawei.com/profile/coupons?tab=discount&category=dev-advocate优惠券/华为开发者布道师计划地址:https://edu.hicomputing.huawei.com/profile/coupons?tab=discount&category=dev-advocate   
  • [活动公告] 华为开发者布道师计划-开发板资助申请指导
    昇腾开发板:https://www.hiascend.com/developer/devboard鲲鹏开发板:https://www.hikunpeng.com/developer/devboard华为开发者布道师官网地址:cid:link_2身份认证地址:cid:link_1开发板/华为开发者布道师计划地址:https://edu.hicomputing.huawei.com/profile/coupons?tab=devBoard&category=dev-advocate  身份认证地址:cid:link_1华为开发者布道师官网地址:cid:link_2开发板/华为开发者布道师计划地址:https://edu.hicomputing.huawei.com/profile/coupons?tab=devBoard&category=dev-advocate  开发板/华为开发者布道师计划地址:https://edu.hicomputing.huawei.com/profile/coupons?tab=devBoard&category=dev-advocate  开发板/华为开发者布道师计划地址:https://edu.hicomputing.huawei.com/profile/coupons?tab=devBoard&category=dev-advocate  
  • [公告] 华为AI百校计划-开发板优惠券资助申请指导
    华为AI百校计划官网地址:cid:link_1实名认证/身份认证地址: https://edu.hicomputing.huawei.com/profile/identity优惠券/华为AI百校计划地址: cid:link_0 申报指南增加申请条件:1.         申请的开发板或开发板优惠券适用于高校教师和学生开发教学课件、实验案例、教学视频、大赛、大创课题、实践开发项目、毕业设计、论文发表等场景;2.         请在申请表单-申请理由按照模版描述清楚用途和预期结果:【过往在鲲鹏/昇腾领域取得的成果】【申请用途】【预期达成目标】【成果交付件】【成果应用方向】//比如开源、发布到鲲鹏/昇腾开发者社区、开设课程等,如果是开设课程,请在申请表单-附件上传课程大纲;如果是大赛、大创课题、实践开发项目等,请在申请表单-附件上传赛题/课题/项目介绍材料   华为AI百校计划官网地址:cid:link_1华为AI百校计划官网地址:cid:link_1华为AI百校计划官网地址:cid:link_1 实名认证: https://edu.hicomputing.huawei.com/profile/identity身份认证地址: https://edu.hicomputing.huawei.com/profile/identity华为AI百校计划官网地址:cid:link_1 优惠券/华为AI百校计划地址: cid:link_0优惠券/华为AI百校计划地址: cid:link_0优惠券/华为AI百校计划地址: cid:link_0 优惠券/华为AI百校计划地址: cid:link_0    
  • [公告] 华为AI百校计划-开发板资助申请指导
    昇腾开发板:https://www.hiascend.com/developer/devboard鲲鹏开发板:https://www.hikunpeng.com/developer/devboard华为AI百校计划官网地址:cid:link_1身份认证地址:cid:link_2开发板/百校计划地址:https://edu.hicomputing.huawei.com/profile/coupons?tab=devBoard&category=ai100申报指南增加申请条件:1.         申请的开发板或开发板优惠券适用于高校教师和学生开发教学课件、实验案例、教学视频、大赛、大创课题、实践开发项目、毕业设计、论文发表等场景;2.         请在申请表单-申请理由按照模版描述清楚用途和预期结果:【过往在鲲鹏/昇腾领域取得的成果】【申请用途】【预期达成目标】【成果交付件】【成果应用方向】//比如开源、发布到鲲鹏/昇腾开发者社区、开设课程等,如果是开设课程,请在申请表单-附件上传课程大纲;如果是大赛、大创课题、实践开发项目等,请在申请表单-附件上传赛题/课题/项目介绍材料  华为AI百校计划官网地址:cid:link_1华为AI百校计划官网地址:cid:link_1 华为AI百校计划官网地址:cid:link_1  实名认证地址:cid:link_2身份认证地址:cid:link_2华为AI百校计划官网地址:cid:link_1   开发板/百校计划地址:https://edu.hicomputing.huawei.com/profile/coupons?tab=devBoard&category=ai100  开发板/百校计划地址:https://edu.hicomputing.huawei.com/profile/coupons?tab=devBoard&category=ai100   
  • [热门活动] 【问卷有奖调研】开发者IP形象共创计划
    您好!为打造更懂开发者的IP形象,我们诚邀您共同参与设计优化!您的真实反馈将帮助我们打造更契合用户期待的IP形象。只需3-5分钟填写问卷,就有机会获得50元京东礼品卡的奖励!【参与方式】填写调研问卷 cid:link_0【调研奖励】50元京东礼品卡【抽奖条件】有效问卷数量﹥50份,抽取5名有效用户,每人50元京东礼品卡 请务必认真作答,抽奖仅从有效问卷中抽取!!!诚邀开发者参与调研,获奖名额有限,欢迎反馈~ 【隐私声明】为开展调研获取您对华为产品和服务的意见和建议,华为将处理您提供的个人数据(包括姓名、电话号码)用于与您发送问卷。您的个人数据将被严格保密。 有关如何处理您的数据的更多信息,请参阅隐私政策: 《华为客户及合作伙伴满意度调查隐私声明》cid:link_1  
  • [版主交流] 【华为云社区外部版主】2025年6月激励评比结果已公布!
    各位亲爱的版主们,大家好!经过大家一个月的努力角逐,6月外部版主激励评比结果已出炉,数据公示如下,请查看!(在新标签页打开图片可查看清晰大图/见附件)·外部版主激励规则:点击了解更多转正礼/基础任务/额外任务(在线时长15小时+,主题帖15+,回帖30+,技术长文5+/原创技术干货1+,合集1+,有效回复问题求助帖10+,话题互动1+,完成这4项指标可获对应价值的代金券/实物礼品)请完成任务获得激励的版主,点击填写激励发放意愿统计问卷反馈截止时间:2025年7月16日,以便小编进行相应的激励发放。  注:在线时长数据达标后,才会再去考察达标版主的三项任务完成情况;主题数+回帖数达标后,才会再去考察达标版主的技术长文数量情况。
  • [分享交流] 【分享交流】AI 大模型时代,开发者坚持写博客的「价值重估」与「破局之道」
    当 GPT-4 能瞬间生成技术文档、Code Interpreter 可自动补全代码逻辑,开发者在 AI 大模型浪潮中提笔写博客,究竟是坚守内容创作的「情怀」,还是仍存在不可替代的「刚需」?从知识沉淀到个人品牌构建,从技术思辨到职业成长,这场讨论早已超越「写与不写」的二元选择,转而指向更深层的命题:在 AI 重构信息生产逻辑的时代,开发者如何通过博客书写,锚定自身不可被算法替代的价值坐标?在 AI 大模型让知识获取变得「唾手可得」的今天,或许开发者博客的价值,正从「信息供给」转向「思想锻造」—— 它不再是简单的技术搬运工,而是成为对抗算法同质化、保留技术思考「人类痕迹」的重要场域。这场讨论,本质上是在追问:当 AI 成为生产力工具,人类独特的创造力、批判性思维与叙事能力,该以何种形式在数字世界中被记录、被连接、被传承?
  • [其他问题] 【AR502产品】关于容器到AR502,再到云主机的端口开通策略
    当前IP数据如下:云主机ip 172.17.0.2 .AR502: 172.27.144.70 AR502里面的容器A: 172.17.0.6容器A中启动了nginx,nginx对外暴露的监听端口是7080,在AR502配置了端口映射,由容器的7080映射到AR502的7080nft add rule dnat1 pre ip daddr 172.27.144.70 tcp dport 7080 iif GE4 dnat 172.17.0.6:7080在云主机 可以ping 通 172.27.144.70 ,但是访问http://172.27.144.70:7080 报502.有大神知道原因么,或者怎么解决么,感谢。
  • [版主交流] 【华为云社区外部版主】2025年5月激励评比结果已公布!
    各位亲爱的版主们,大家好!经过大家一个月的努力角逐,5月外部版主激励评比结果已出炉,数据公示如下,请查看!(在新标签页打开图片可查看清晰大图/见附件)·外部版主激励规则:点击了解更多转正礼/基础任务/额外任务(在线时长15小时+,主题帖15+,回帖30+,技术长文5+/原创技术干货1+,合集1+,有效回复问题求助帖10+,话题互动1+,完成这4项指标可获对应价值的代金券/实物礼品)请完成任务获得激励的版主,点击填写激励发放意愿统计问卷反馈截止时间:2025年6月16日,以便小编进行相应的激励发放。注:在线时长数据达标后,才会再去考察达标版主的三项任务完成情况;主题数+回帖数达标后,才会再去考察达标版主的技术长文数量情况。
  • 【分享交流】 关于HDC2025 ,哪些项目最让你感兴趣
    马上就要去东莞松山湖参加2025年的HDC了,很激动华为开发者大会 2025 将于 6 月 20 日至 22 日在东莞松山湖盛大举办。这是华为面向全球开发者的年度旗舰盛会,是一场汇聚前沿技术、创新理念与无限机遇的技术盛宴。​大会期间,你将有机会率先见证 HarmonyOS 6 的发布,感受其在系统流畅性、安全性及分布式能力上带来的显著提升。同时,备受瞩目的鸿蒙 PC 操作系统也可能首次亮相,为全场景智慧生活开启全新篇章。在 AI 领域,基于盘古大模型 5.0 的多模态 AI 能力将全方位展示,昇腾 AI 云服务与盘古大模型发布的行业推理模型,将为医疗、金融、制造等诸多行业的智能化转型注入强大动力。​现场还设有丰富的展区,你可以沉浸体验全球 TOP 100 鸿蒙应用案例,解锁 AI 应用的创意边界,亲身感受全球顶尖开发者的卓越成果。此外,大会安排了众多技术论坛,开发者们能够与技术大咖面对面交流大模型技术及行业应用、人工智能、鸿蒙、数字人、云端协同、低代码等 50 + 技术话题,拓展技术视野,碰撞思维火花。不仅如此,还有华为音乐之夜等精彩活动,让你在艺术与科技的交融中放松身心。​如果你渴望走在技术前沿,希望与全球优秀开发者交流合作,期待获取最前沿的技术资讯和丰富的开发资源,那么华为开发者大会 2025 绝对是你的不二之选!​别再犹豫,快来加入这场开发者的狂欢,一起用代码编织智慧时代的经纬,共同创造无限可能的未来!
  • [HDC2025] 【获奖名单已公布】【HDC 2025丨社区话题活动】代码初心:开发者之路的起点与旅程
    【HDC 2025丨社区话题活动】代码初心:开发者之路的起点与旅程获奖名单如下:有效回复楼层40层mitenkileeandyleung当时只道是寻常.胡琦tea_yearmadqfrog小草飞上天nukinsan恭喜以上8名开发者获奖,即日起请获奖者填写问卷收货信息cid:link_0,反馈截止时间2025年7月14日,18号前发货,逾期未提供有效收件信息,视为放弃活动领奖,感谢大家对华为云论坛的关注和支持~——————————————————————————————————————————————————————————在这个充满代码与创意的世界里,我们每个人都有自己独特的起点和旅程。今天,就让我们一起放慢脚步,回望来时的路,分享那些点燃你心中“开发者之梦”的瞬间。是什么让你第一次对编程产生兴趣?还是学生时代写下的第一行“Hello World”?也许是一次偶然的机会,一次惊艳的技术体验,或者是一位榜样的影响……无论原因大小,都值得被铭记。快来告诉我们,你最初的梦想是从哪里开始的。从入门到进阶,从学习到实践,这一路上一定有令你难忘的经历。是熬夜啃书的时光?是第一次成功跑通程序的喜悦?还是遇到 bug 时的抓狂与解决后的成就感?有没有哪一段经历特别想和大家分享?欢迎畅所欲言,你的故事可能会激励着在这条路上或即将踏上这条路的人! 在本活动帖下回帖,参与HDC话题互动 有机会获得开发者定制礼品 【参与方式】选取一个或多个角度,直接在此活动帖下方回帖相关话题内容PS:不要少于30字哦~ 【活动时间】2025年5月19日——6月24日 【获奖规则】有效回帖楼层超 20 层后逐级抽奖,最高可抽取 26 个幸运开发者获得礼品 【活动规则】1、本帖的回帖建议不少于30字,仅限于对该活动主题相关的内容,其他回帖内容不参与此次活动,否则将视为无效内容。2、本次活动将根据实际参与情况发放奖励,包括但不限于用户百分之百中奖或奖项轮空的情况;实物奖品具体发放视出库情况而定;3、活动预计于结束后七天内完成奖项公示,并于结束后15个工作日内完成邮寄。【温馨提示】1、请务必使用个人实名账号参与活动(IAM、企业账号等账号参与无效)。如一个实名认证对应多个账号,只有一个账号可领取奖励,若同一账号填写多个不同收件人或不同账号填写同一收件人,均不予发放奖励。2、所有获得奖品的获奖用户,请于获奖后3日内完成实名认证,否则视为放弃奖励。
  • [HDC2025] 【获奖名单已公布】【HDC 2025丨社区话题活动】HDC时光机,我与华为开发者大会的专属回忆打卡地
    【HDC 2025丨社区话题活动】HDC时光机,我与华为开发者大会的专属回忆打卡地活动获奖名单如下:有效回复楼层23层柠檬味拥抱yd_278223297hello word~/恭喜以上3名开发者获奖,即日起请获奖者填写问卷礼品收货信息cid:link_0,反馈截止时间2025年7月14日,18号前发货,逾期未提供有效收件信息,视为放弃活动领奖,感谢大家对华为云论坛的关注和支持~——————————————————————————————————————————————————————————一年一度的 华为开发者大会2025 又如期而至你是否曾在 HDC 的舞台上收获灵感?有没有哪一次演讲或展位让你印象深刻?也许你曾在这里结识了志同道合的朋友,或是通过参与活动解锁了新的技能……这一次,我们想听你说——“我与华为开发者大会的故事”!还记得你第一次参加 HDC 是什么时候吗?是被哪个主题吸引?又或者是因为某位嘉宾的一句话让你印象深刻?快来和我们一起重温那些年你的参会故事吧!在 HDC 的舞台上,有没有哪一场演讲、哪一个技术分享让你豁然开朗?有没有哪项技术、哪个产品发布或Demo演示让你眼前一亮?也许它改变了你对某个领域的理解,影响了你后续的学习或项目实践?在 HDC 现场上,你是否结识了志同道合的朋友或合作伙伴?是否有参与过有趣的现场互动、交流瞬间?欢迎来聊聊那些“线下相遇”的温暖瞬间!有没有拍下难忘的瞬间?比如一次动手实验的记录、一张展位打卡照……一起晒出你与 HDC 的独家记忆,分享照片背后的故事吧~ 在本活动帖下回帖,参与HDC话题互动 有机会获得开发者定制礼品 【参与方式】选取一个或多个角度,直接在此活动帖下方回帖相关话题内容PS:不要少于30字哦~ 【活动时间】2025年5月19日——6月24日 【获奖规则】有效回帖楼层超 20 层后抽奖,最高可抽取 26 个幸运开发者获得礼品 【活动规则】1、本帖的回帖建议不少于30字,仅限于对该活动主题相关的内容,其他回帖内容不参与此次活动,否则将视为无效内容。2、本次活动将根据实际参与情况发放奖励,包括但不限于用户百分之百中奖或奖项轮空的情况;实物奖品具体发放视出库情况而定;3、活动预计于结束后七天内完成奖项公示,并于结束后15个工作日内完成邮寄。【温馨提示】1、请务必使用个人实名账号参与活动(IAM、企业账号等账号参与无效)。如一个实名认证对应多个账号,只有一个账号可领取奖励,若同一账号填写多个不同收件人或不同账号填写同一收件人,均不予发放奖励。2、所有获得奖品的获奖用户,请于获奖后3日内完成实名认证,否则视为放弃奖励。
  • [技术干货] 基于昇腾服务器广告词生成案例手册
    1.1 第一步进入华为云:“华为云”——>”华为云全球云服务专场”在搜索框,输入华为云,点击华为云,点击华为云全球服务专场。、、1.2 第二步进入ModelArts:“搜索框”——>“ModelArts”——>“控制台”——>“控制台”——>“ModelArts界面”进入华为云界面之后,点击搜索框,输入ModelArts,下面会显示ModelArts直接点击AI开发平台ModelArts的控制台,进入ModelArts界面。1.3 选择西南贵阳一在选择区域,选择西南贵阳一区。公共镜像“pytorch_2.1.0-cann_8.0.rc1-py_3.9-euler_2.10.7-aarch64-snt9b”,磁盘规格100GB,点击立即创建。1.4 打开服务器等待创建完成后,单击后面的“打开”按钮将服务器打开。1.5 安装python版本的型号创建“python”版本的型号,点击上方的“+”,在展开的下拉菜单中选择“Notebook”将以下的代码放到代码行里面,点击运行按钮创建环境。conda create -n glm4 python==3.10 -y 1.6 安装openMind Hub Client和openMind Library切换到终端窗口,点击上方的“+”,在展开的下拉菜单中选择“Termianl”以下命令在终端运行,激活或者启动昇腾资源服务。source /usr/local/Ascend/ascend-toolkit/set_env.sh进入新建的python环境conda activate glm4安装“openMind Hub Client”(可能出现以下的错误,不影响下面的操作)pip install openmind_hub安装“openMind Library”,并安装“PyTorch”框架及其依赖(可能出现以下的错误,不影响下面的操作)pip install openmind[pt]按照和下载“LLaMa Factory”工具git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.gitcd LLaMA-Factorypip install -e ".[torch-npu,metrics]"pip install numpy==1.23.53.1 模型下载# 首先保证已安装“git-lfs”(https://git-lfs.com)pip install modelscopemodelscope download --model ZhipuAI/glm-4-9b-chat --local_dir ./glm4-9b-chat用户可以使用“LLaMa Factory”进行模型推理,以“GLM-4-9B-Chat”为例,具体如下:在“/LLaMa Factory/”目录在空白处右键点击——>点击“New File”——>“inference_glm4_9b_chat.py”复制进去创建文件新建推理脚本“inference_glm4_9b_chat.py”推理脚本内容为:(将以下代码复制到新建的文档里面,按下“Crtl”加上“s”键保存文件)import torchfrom transformers import AutoModelForCausalLM, AutoTokenizer # 检查是否支持NPU设备device = "npu" if torch.npu.is_available() else "cpu"print(f"Using device: {device}", flush=True) # 加载预训练模型和分词器tokenizer = AutoTokenizer.from_pretrained("glm4-9b-chat", trust_remote_code=True)model = AutoModelForCausalLM.from_pretrained(    "glm4-9b-chat",    torch_dtype=torch.bfloat16,    low_cpu_mem_usage=True,    trust_remote_code=True).to(device).eval() # 定义生成参数gen_kwargs = {    "max_length": 2500,    "do_sample": True,    "top_k": 1,    "temperature": 0.7,  # 可以调整温度来控制生成的多样性} # 初始化对话历史conversation_history = [] def generate_response(user_input):    # 将用户的输入添加到对话历史中    conversation_history.append({"role": "user", "content": user_input})     # 构建输入模板,包含所有对话历史    inputs = tokenizer.apply_chat_template(        conversation_history,        add_generation_prompt=True,        tokenize=True,        return_tensors="pt",        return_dict=True    )     # 将输入移动到 NPU 设备    inputs = inputs.to(device)     # 生成回复    with torch.no_grad():        outputs = model.generate(**inputs, **gen_kwargs)        outputs = outputs[:, inputs['input_ids'].shape[1]:]  # 去掉输入部分,只保留生成的回复     # 解码生成的回复    response = tokenizer.decode(outputs[0], skip_special_tokens=True)     # 将模型的回复添加到对话历史中    conversation_history.append({"role": "assistant", "content": response})     # 立即打印回复并刷新输出    print(f"Assistant: {response}", flush=True)     return response # 多轮对话循环print("开始多轮对话,输入 'exit' 结束对话。", flush=True)while True:    user_input = input("User: ")    if user_input.lower() == 'exit':        print("结束对话。", flush=True)        break     generate_response(user_input) # 如果有需要处理的异常,可以在主程序块中添加 try-exceptif __name__ == "__main__":try:        pass    except Exception as e:        print(f"An error occurred: {e}", flush=True)执行推理脚本:python inference_glm4_9b_chat.py输入以下问题:( “款型”#“衣服”每次输入大概使12.8w个token)  出现User是输入问题,Assistant是回复得答案              问题1:类型#上衣材质#牛仔布颜色#白色风格#简约图案#刺绣衣样式#外套衣款式#破洞              问题2:类型#裤风格#英伦风格#简约              问题3:类型#裙裙下摆#弧形裙腰型#高腰裙长#半身裙裙款式#不规则*裙款式#收腰              推理结果如下:按下“Ctrl”键加c键退出问答环节。3.2 数据集下载我们使用单张昇腾NPU,本次案例可以使用多卡进行微调,也可以使用单卡微调,基于LLaMa Factory框架,采用广告文案生成数据集进行Lora微调,让模型能够根据用户输入的商品关键字生成对应的广告文案。数据集广告文案数据集(AdvertiseGen)任务为根据输入(content)生成一段广告词(summary),分为训练集和验证集。其中,训练集大小为114K,验证集大小为1K。每个样本有”content”和”summary”两个键,分别保存商品关键字和商品文案。以下是部分示例:{    "content": "类型#上衣*版型#宽松*版型#显瘦*图案#线条*衣样式#衬衫*衣袖型#泡泡袖*衣款式#抽绳",    "summary": "这件衬衫的款式非常的宽松,利落的线条可以很好的隐藏身材上的小缺点,穿在身上有着很好的显瘦效果。领口装饰了一个可爱的抽绳,漂亮的绳结展现出了十足的个性,配合时尚的泡泡袖型,尽显女性甜美可爱的气息。"}下载“AdvertiseGen”数据集使用“Git”将数据集下载至“LLaMA-Factory”文件下。重复3.2小节重新创建个终端conda activate glm4cd LLaMA-Factory/git clone https://modelers.cn/AI-Research/AdvertiseGen.git 2.3 数据预处理在空白处右键点击——>点击“New File”——>“preprocess_adv_gen.py”复制进去创建文件。下载完成后,需要将“train.json” 和“dev.json” 两个文件的数据处理成“alpaca”数据格式。因此,在“LLaMA-Factory”文件下创建“preprocess_adv_gen.py”脚本,脚本内容具体如下:(按下“Ctrl”键加上“s”键保存文件)import jsonimport argparseimport osimport stat DEFAULT_FLAGS = os.O_WRONLY | os.O_CREATDEFAULT_MODES = stat.S_IWUSR | stat.S_IRUSR def parse_args():    parse = argparse.ArgumentParser()    parse.add_argument("--data_path", type=str)    parse.add_argument("--save_path", type=str)    args = parse.parse_args()    return args def read_data(data_path):    data = []    with open(data_path, "r", encoding="utf-8") as f:        lines = f.readlines()        for line in lines:            data.append(json.loads(line))        return data def convert_to_alpaca_format(data):    results = []    for sample in data:        example = {}        example["instruction"] = sample["content"]        example["output"] = sample["summary"]        results.append(example)    return results def save_data(data, save_path):    with os.fdopen(os.open(save_path, DEFAULT_FLAGS, DEFAULT_MODES), "w", encoding="utf-8") as f:        json.dump(data, f, indent=4, ensure_ascii=False) if __name__ == "__main__":    args = parse_args()    data = read_data(args.data_path)    data = convert_to_alpaca_format(data)save_data(data, args.save_path)通过以下命令执行脚本,将数据预处理的结果分别存为”adv_gen_train.json”和“adv_gen_dev.json“。python preprocess_adv_gen.py --data_path AdvertiseGen/train.json --save_path ./AdvertiseGen/adv_gen_train.jsonpython preprocess_adv_gen.py --data_path AdvertiseGen/dev.json --save_path ./AdvertiseGen/adv_gen_dev.json修改LLaMa Factory下的data/dataset_info.json文件,添加数据集描述:在空白处右键点击——>点击“New File”——>“shuju.py”——>“将以下代码复制到新建的文件里面”(将以下代码复制到新建的文档里面,按下“Crtl”加上“s”键保存文件)import json # 定义要添加的内容addition = {    "adv_gen_train": {        "file_name": "/home/ma-user/work/LLaMA-Factory/AdvertiseGen/adv_gen_train.json",        "columns": {            "prompt": "instruction",            "response": "output"        }    },    "adv_gen_dev": {        "file_name": "/home/ma-user/work/LLaMA-Factory/AdvertiseGen/adv_gen_dev.json",        "columns": {            "prompt": "instruction",            "response": "output"        }    }} # 读取现有的 dataset_info.json 文件with open('/home/ma-user/work/LLaMA-Factory/data/dataset_info.json', 'r') as file:    data = json.load(file) # 将新内容添加到现有数据中data.update(addition) # 写回 dataset_info.json 文件with open('/home/ma-user/work/LLaMA-Factory/data/dataset_info.json', 'w') as file:    json.dump(data, file, indent=2)    执行以下命令将路径写进dataset_info.json文件python shuju.py3.1 微调配置文件修改“ /home/ma-user/work/LLaMA-Factory/src/llamafactory/model”文件下的“loader.py”代码,在68、120、149行代码下面添加以下的代码。如图所示。(在“init_kwargs = _get_init_kwargs(model_args)”下一行添加以下代码)init_kwargs["trust_remote_code"] = True在“LLaMa Factory/ examples/train_lora/”路径下创建新的文件:在空白处右键点击——>点击“New File”——>“glm4_9b_chat_lora_sft.yaml”——>“将以下代码复制到新建的文件里面”(将以下代码复制到新建的文档里面,按下“Crtl”加上“s”键保存文件)### modelmodel_name_or_path: /home/ma-user/work/LLaMA-Factory/glm4-9b-chat/ # 当前仅支持本地加载,填写GLM-4-9B-Chat本地权重路径 ### methodstage: sftdo_train: truefinetuning_type: loralora_target: alllora_rank: 8lora_alpha: 32lora_dropout: 0.1 ### datasetdataset: adv_gen_traintemplate: glm4cutoff_len: 256preprocessing_num_workers: 16#可以根据自己需求修改模型输出的路径### outputoutput_dir: /home/ma-user/work/LLaMA-Factory/glm4-9b-lora/logging_steps: 10save_steps: 500plot_loss: trueoverwrite_output_dir: true ### trainper_device_train_batch_size: 16gradient_accumulation_steps: 1learning_rate: 5.0e-4max_steps: 1000lr_scheduler_type: cosinewarmup_ratio: 0.1bf16: trueddp_timeout: 180000000通过下面的命令启动微调:(在LLaMA-Factory路径下添加以下的命令)export ASCEND_RT_VISIBLE_DEVICES=0llamafactory-cli train examples/train_lora/glm4_9b_chat_lora_sft.yaml3.2 评估模型训练结束后,通过“LLaMa Factory”使用微调完成的权重在“adv_gen_dev.json”数据集上预测“BLEU”和“ROUGE”分数。在“LLaMa Factory/examples/train_lora/”路径下新建“glm4_9b_chat_lora_predict.yaml”评估配置文件,具体操作步骤如下:在空白处右键点击——>点击“New File”——>“glm4_9b_chat_lora_predict.yaml”——>“将以下代码复制到新建的文件里面”(将以下代码复制到新建的文档里面,按下“Crtl”加上“s”键保存文件)### modelmodel_name_or_path: /home/ma-user/work/LLaMA-Factory/glm4-9b-chat/ # 当前仅支持本地加载,填写GLM-4-9B-Chat本地权重路径#修改训练好模型的路径adapter_name_or_path: /home/ma-user/work/LLaMA-Factory/glm4-9b-lora/checkpoint-1000/ ### methodstage: sftdo_predict: truefinetuning_type: lora ### dataseteval_dataset: adv_gen_devtemplate: glm4cutoff_len: 256preprocessing_num_workers: 16 ### outputoutput_dir: /home/ma-user/work/LLaMA-Factory/glm4-9b-lora/predict/overwrite_output_dir: true ### evalper_device_eval_batch_size: 128predict_with_generate: true按下“Ctrl”键加上“s”键保存文件。通过下面的命令启动评估:export ASCEND_RT_VISIBLE_DEVICES=0llamafactory-cli train examples/train_lora/glm4_9b_chat_lora_predict.yaml3.2 推理微调结束后,在“LLaMa Factory”路径下新建“examples/inference/”路径下创建新的为:在空白处右键点击——>点击“New File”——>“glm4_9b_chat_lora_sft.yaml”——>”将以下代码复制到新建的文件里面(将以下代码复制到新建的文档里面,按下“Crtl”加上“s”键保存文件)model_name_or_path: /home/ma-user/work/LLaMA-Factory/glm4-9b-chat/  # 当前仅支持本地加载,填写GLM-4-9B-Chat本地权重路径adapter_name_or_path: /home/ma-user/work/LLaMA-Factory/glm4-9b-lora/checkpoint-1000/   #当前仅支持训练之后模型的权重路径template: glm4finetuning_type: lora通过下面的命令启动推理:出现User是输入问题,Assistant是回复得答案llamafactory-cli chat examples/inference/glm4_9b_chat_lora_sft.yaml3.4 效果对比提出以下类似的问题:问题1:类型#上衣材质#牛仔布颜色#白色风格#简约图案#刺绣衣样式#外套衣款式#破洞问题2:类型#裤风格#英伦风格#简约问题3:类型#裙裙下摆#弧形裙腰型#高腰裙长#半身裙裙款式#不规则*裙款式#收腰微调之前的效果:微调之后的效果,微调之后使广告词生成的内容更加符合选美:
总条数:764 到第
上滑加载中