• [技术干货] AI 助手全套开源解决方案,自带运营管理后台,开箱即用。
    方案介绍随着人工智能技术的不断发展和普及,越来越多的企业和个人开始关注和使用AI助手来提高工作效率和生活便利性。该解决方案基于 AI 大语言模型 API 实现的 AI 助手全套开源解决方案,自带运营管理后台,开箱即用。集成了 OpenAI, Azure, ChatGLM,讯飞星火,文心一言等多个平台的大语言模型。集成了 MidJourney 和 Stable Diffusion AI绘画、音乐生成功能。开始使用步骤 1 访问该促销活动购买页面,按照如下配置完成ChatPlus服务器的部署。(为避免网络波动影响导致方案部署失败,请选择2M带宽。)​​步骤 2 登录弹性云服务器控制台。选择购买的服务器,单击服务器名称进入详细页面,在新页面单击“安全组”。步骤 3 单击“配置规则”,选择“入方向规则”。步骤 4 按下图所示,修改放通8080端口。步骤 5 登录弹性云服务器控制台。选择购买的服务器,按如下图所示单击复制按钮,获取弹性公网IP地址。使用Linux连接工具登录服务器,或者在控制台单击“远程登录”。​步骤6 等待20分钟左右,登录用户名:root,初始密码:a123456789.  ,方案部署完成后请重置密码,进入服务器后,查看环境部署日志。输入命令:tail -f /tmp/install_docker_chatplus.log,如下图所示则表示基础环境部署成功(使用Ctrl+C按键即可退出查看日志界面)。步骤 6 打开浏览器,输入http://EIP:8080/admin,进入ChatPlus 管理界面,初始用户名:admin ,初始密码:admin123,单击“登录”。步骤 7 初次使用需要添加API KEY,按下图所示单击“API-KEY”新增添加聊天/绘画的API KEY。步骤 8 按下图所示,依次选择所属平台,填写名称,选择用途,按照页面提示填写API-KEY信息,激活启用状态,单击提交。步骤 9 打开浏览器,输入http://EIP:8080/chat,进入ChatPlus 前端界面,初始使用需要登录,输入体验账号:18575670125 密码:12345678。,单击“登录”(移动端登录会自动适配)。步骤 10 按下图所示,选择后端API类型并单击确定,在下面的对话框中,输入对话内容,单击发送按钮,即可获取对话结果。​更多玩法项目地址Github 地址:cid:link_2码云地址:cid:link_3详细使用教程:cid:link_4
  • 写一个chatgpt 安卓应用会被下架吗,需要满足什么条件才能不被下架?
    写一个chatgpt 安卓应用会被下架吗,需要满足什么条件才能不被下架?
  • [技术干货] GPT 和传统NLP模型的区别,以及今年GPT大火的原因探究
    GPT与传统NLP技术的区别GPT和传统NLP的区别主要体现在功能、应用场景、模型结构和技术等方面。首先,GPT旨在构建自然语言处理系统,而传统NLP则广泛用于各种实际场景中,如自动翻译、智能客服和智能搜索等。GPT更专注于生成自然流畅的文本,比如对话生成和文本摘要等。其次,GPT使用了Transformer模型,该结构采用了多头自注意力机制和残差连接等技术,可以有效地处理长文本输入,并学习到不同层次的语言表示。而传统的NLP模型通常使用基于词向量的表示方法,不能很好地处理长文本输入。Transformer模型是一种基于自注意力机制的深度学习模型,它由Google AI Language团队在2017年首次提出,并被广泛应用于自然语言处理(NLP)领域。Transformer模型主要由编码器和解码器组成,其中编码器用于对输入序列进行编码,解码器则基于编码器得到的表示向量来生成输出序列。Transformer模型的特点在于使用了自注意力机制,这种机制可以自动学习输入序列中不同位置之间的关系,从而更好地捕捉输入序列中的语义信息。此外,Transformer模型还使用了残差连接和多头自注意力机制等技术,这些技术可以帮助模型更好地处理长文本输入和不同层次的语言表示。由于Transformer模型在大规模语料库上进行了预训练,因此它能够很好地适应不同的自然语言处理任务,比如文本分类、文本生成、机器翻译等。此外,Transformer模型还可以通过微调来适应特定的任务,从而具有更广泛的应用价值。此外,GPT使用了大规模的语料库作为训练数据,在预训练阶段学习了大量的语言知识和规律,从而在后续任务中更好地适应和表达。而传统的NLP模型通常需要针对每个任务进行手工特征工程和模型设计,无法很好地处理不同的任务。最后,GPT采用了基于自回归模型的训练方式,即在预测下一个词时将前面所有的词作为已知条件进行预测。这种方法可以更好地捕捉文本中的语义信息,提高模型的性能。而传统的NLP模型通常采用基于词袋模型的训练方法,无法很好地捕捉文本中的语义信息。GPT大火的原因GPT之所以会火,是因为它采用了先进的深度学习技术和大规模的训练数据,可以更好地处理自然语言任务,比如文本分类、文本生成和问答系统等。此外,GPT还可以通过微调模型来适应不同的任务,从而具有更广泛的应用价值。另外,GPT的开源性和可扩展性也为它的广泛应用提供了便利。GPT与传统人工智能助手对比小米的小爱同学和苹果Siri都是人工智能语音助手,它们很早就有了。而ChatGPT是今年才出现的,却后来者居上。这是因为ChatGPT是一种更先进的自然语言处理技术,在处理自然语言任务方面比小爱同学和苹果Siri更厉害。首先,ChatGPT是一种基于Transformer模型的深度学习算法,它可以在大规模语料库上进行预训练,从而学习到自然语言的语法、语义和上下文信息。这种算法可以处理长文本输入,并捕捉文本中的语义信息,因此在文本分类、问答系统、对话生成等自然语言处理任务中表现优异。相比之下,小爱同学和苹果Siri是基于传统的语音识别和自然语言理解技术,它们主要针对语音交互进行优化,而不是针对文本处理。虽然它们可以完成一些简单的任务,如设置提醒、查询天气等,但它们在处理复杂的自然语言任务时往往不如ChatGPT表现得那么出色。另外,ChatGPT的强大之处还在于它可以生成高质量的自然语言文本。通过使用Transformer模型,ChatGPT可以生成流畅、连贯的文本,从而更好地满足用户的需求。这种能力使得ChatGPT在智能客服、聊天机器人、问答系统等领域具有广泛的应用前景。虽然小爱同学和苹果Siri都是优秀的人工智能语音助手,但ChatGPT在自然语言处理方面表现得更强大和先进,慢慢的也会吸收gpt的思想,变成更先进的人工智能产物。
  • [分享交流] AI绘画专栏之 SDXL 4G显存就能跑SDXL ?SD1.7或将对F8优化merge(46)
    关于SDXL的生态目前还未完全稳定,但是不得不提到的就是SDXL的在VAE,CLIP,UNET三大组件的巨大提升,其101亿的参数量是原本SD的N倍,那么对于SDXL的生态介绍我们再次重复一遍。4G的显存都能跑SDXL意味着将来大模型Lora将降低其大小,炼丹炉压力更小~添加描述SDXL为什么强?0.1参数训练量为101亿 其中BASE模型35 亿 加REFINER模型66亿 SD的8倍???0.2对Stable Diffusion原先的U-Net(XL Base U-Net 一共14个模块),VAE,CLIP Text Encoder三大件都做了改进。可以明显减少显存占用和计算量0.3增加一个单独的基于Latent(潜在)的Refiner(炼制)模型,来提升图像的精细化程度。【新增:对Base模型生成的图像Latent特征进行精细化,其本质上是在做图生图的工作。】0.4设计了很多训练Tricks(技巧)(这些Tricks都有很好的通用性和迁移性,能普惠其他的生成式模型),包括图像尺寸条件化策略,图像裁剪参数条件化以及多尺度训练等。0.5先发布Stable Diffusion XL 0.9测试版本,基于用户使用体验和生成图片的情况,针对性增加数据集和使用RLHF技术优化迭代推出Stable Diffusion XL 1.0正式版。0.6采样方法禁用DDIM (保留意见、非绝对),不需要开启CN,随着CN的支持,可以开启CN的XL版本。所有的环境需要都是XL的生态0.7直接出1024分辨率图片 1024 * 1024 起步添加描述 随之而来的就是对大显存的占用,但随着新的PR的提出,或将在4G的测试显存,并在一定的内存占用上解决!!!A big improvement for dtype casting system with fp8 storage type and manual cast一个很大的提升对于FP8的内存和手动转换在 pytorch 2.1.0 之后,pytorch 添加了 2 个新的 dtype 作为存储类型:float8_e5m2、float8_e4m3fn。1基于讨论使用 fp8 作为训练/使用 NN 模型的参数/梯度的论文。我认为值得对 fp8 格式进行一些优化。3此外,一些扩展也已经支持这个功能5速度提升由于将 FP8 与 FP16 一起使用,因此计算需要一些额外的操作来强制转换 dtype。它会降低速度(特别是对于较小的批量)批量大小768x768 标清1.x fp16768x768 标清1.x fp81024x1024 SDXL fp161024x1024 SDXL fp818.27 秒/秒7.85 秒/秒3.84 秒/秒3.67 秒/秒43.19 秒/秒3.08 秒/秒1.51 秒/秒1.45 秒/秒会降低质量吗?几乎不会什么是FP8 FP16?Fp16:意味模型用16位浮点数存,相对于Fp32更小更快,但是无法用于CPU,因为有的半浮点精度运算在CPU上不支持。通常为了更快的运算,在GPU上我们也会将Fp32转换成Fp16,这个可以在设置里配置。那么随之而来的一个params是8个byte(字节),FP32就是4个byte,FP8就是一个Byte,FP或者BF16相对已经是比较好的出图质量了。以下测试结果来自原PR作者琥珀青叶,如果你想要尝试,在源码中切换此PR即可首先SD1的时候FP16存下来是2G,SDXL因为参数变多了FP16也要5G,这样很多显卡就hold不住了。所以青叶做了个事情,就是load的时候用FP8放在显存里,这样SDXL存在显存是2.5G。但是在每一层运算的时候把对应的FP8转到FP16,所以整个计算流程看起来是是一致的。同时整个流程的显存占用也下来的。正常启动测试开启FP8并开启内存缓存优化XYZ测试关闭前后对比起初的静态内存占用为5.3运行后稳定在6.4左右开启前后对图片直连影响很小,有细微细节差距搭配LCM测试当前所有的PR审核已经通过,或将在测试后在1.7进行升级推出正式版本
  • [问题求助] chatgpt4.0发展
    随着chatgpt的发展,显然chatgpt3.5已有局限性,4.0又要收费,以后会不会改变
  • [技术干货] classpath类路径是什么-转载
     一、简介 classpath类路径在 Spring Boot 中既指程序在打包前的/java/目录加上/resource目录,也指程序在打包后生成的/classes/目录。两者实际上指的是同一个目录,里面包含的文件内容一模一样。 二、获取classpath路径 以下两种方式均可,但是并不能用于生产环境,因为当我们把程序打成jar包时,由于jar包本质是压缩文件,无法被直接打包,所以生成的路径中会含有感叹号!导致路径定位错误,例如:jar!/BOOT-INF/classes!/application.yml (No such file or directory) // 方式一: String path1 = ClassUtils.getDefaultClassLoader().getResource("").getPath(); // 方式二: String path2 = ResourceUtils.getURL("classpath:").getPath(); 此时,如果我们想要读取jar包内的文件,可以采取第 3 种方式不读取路径、直接读取文件流: // 方式 三 InputStream input = ClassUtils         .getDefaultClassLoader()         .getResourceAsStream("application.yml"); Reader reader = new InputStreamReader(input, "UTF-8"); 三、获取项目路径 上面介绍了如何获取classpath路径之后,其实有时候我们会发现自己只想获取当前程序所在路径或jar包所在路径,那么此时又应该如何获取呢?  // 方式一: File file = new File("."); File path1 = file.getAbsoluteFile();  // 方式二: String path2 = System.getProperty("user.dir"); 两者方式并无优劣之分,具体使用哪种取决于你的爱好~ ———————————————— 版权声明:本文为CSDN博主「ThinkStu」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。 原文链接:https://blog.csdn.net/qq_35760825/article/details/128727663 
  • [其他] 【可研】是否有必要/能够开发一款评价ChatGpt输出质量的软件?
    ChatGPT已经上岗做大学生作业辅导、问答博主、科普博主、智能客服...当然更出圈的是让人啼笑皆非的答复,听说有新媒体公司用chatGPT写文案,写一篇毙掉一篇。我相信,以ChatGPT目前的迭代速度,缓解“人性化”的问题指日可待,但始终缺乏人性和个性,反而对“人工”“润色”的需求有增无减。那么,如何对其输出进行品控?人工测评还是语言学分析抑或更多学科交叉?当前是否能够开发这样的软件?