-
中文互联网上还缺少和英文一样量级、开放且标准化的数据集语料。比如:中国几乎没有reddit、hackernews这类以出站链接和问答评论为主的社交媒体平台(这点好像不对)。现存的中文语料库,几乎都来自各大高校和科研机构,如北京语言大学BBC、清华大学0penSLR、北京大学CCL、南京农业大学NEPD、智源研究院wuDaoCorpora等。复旦大学发布Moss人工智能对话机器人时,就坦言自己完全是使用英文互联网世界的标准语料,并无特殊的中文数据。(蹭流浪地球热度的家伙)当ChatGPT要生成一段文本时,它会先看看已有的文本是什么类型和主题的,然后根据自己学习到的规律和特征,来预测下一个最合理的单词是什么。比如说,如果已有的文本是“今天天气真好",那么下一个最合理的单词可能是“我"“我们"“你”等。然后ChatGPT会把这个单词加到已有的文本后面,再重复这个过程,直到生成一段完整的文本。这就是ChatGPT的基本原理下一个问题,ChatGPT是怎么判断一个单词是否合理呢?ChatGPT的判断依据是它学习到的语言模型,也就是它对人类语言的规律和特征的统计和分析。它会根据已有的文本,计算出每个可能的单词出现在下一个位置的概率,然后选择概率最高的那个单词。比如说,如果已有的文本是“今天天气真好”,那么ChatGPT会根据它阅读过的所有文本,计算出“我”“我们"“你”等单词出现在下一个位置的概率。如果“我"这个单词出现在下一个位置的概率是0.8 “我们”是0.1“ 你”是0.05,其他单词都是0.01或更低,那么ChatGPT就会选择“我"这个单词,因为它有最高的概率。当然,这个概率并不是绝对准确的,因为它只能反映ChatGPT学习到的语言模型,而不一定能反映真实世界中人类语言的多样性和复杂性。所以有时候ChatGPT也会生成一些不合理或者错误的单词,比如说“今天天气真好猫"。但是这总是一个局部的推理。就好像输入法的自动联想,可以联想出一句话。 所以这个原理解释我是不信服的。
-
类试ChatGPT的LLM产品,比如 Meta公司的LLaMA、Google公司的Bard Anthropic公司的Claude 复旦大学的MOSS,斯探福大学的Alpaca、波克利的Vicuna 清华的ChatGLM,百度公司的ERNIE(文心一言)等。ChatGPT可能用到的训练数据集包括维基百科:ll.4GB 维基百科是世界著名的免费、多语种、在线百科全书,有超过30万名志愿者在贡献内容。 一般参与训练的是其中的英文版部分,包括662万篇文章,超过42亿个单词。这其中传记类占27.8%,地理类占17.7%,文化艺术类占15.8%,历史类占9.9%,生物医学占7.8%,体育类占6.5%,工商类占4.8%,理工和数学类占3.5%等等0penAI自身公开的训练数据分语种统计结果(languages_by_word_count.csv)中,训练数据集里英语单词占比92%。此外,法语占1.81%,德语占1.47%,其他语种均在1%以下,汉语比例为0.1%。但实际ChatGPT的各语种问答能力,远超OpenAI的预计。
-
近期网上大热的“AI 歌手”你听过吗?开发者用知名歌手的歌曲作为训练材料,演唱其他歌手的歌曲。这样的“AI歌手”们是否侵权呢?有的人认为AI未经授权使用了知名歌手的声音进行训练,属于侵权;有的人认为AI是学习歌手的声音,而不是直接复制,且AI演唱的并不是歌手本人的作品,属于学习后再创作,并没有侵权。1.AI生成的作品是否具备版权?如果具备,版权应该属于谁?2.AI 学习时如果使用版权材料(如文中提到的知名歌手的歌曲),是否属于侵权行为?为什么?3.如果AI可以使用版权材料进行学习,社会将会产生什么变化?
-
函数计算 3.0 版是产品的一个重大升级版本,在函数管理、函数执行引擎、自定义域名、函数授权及弹性伸缩规则方面进行了多项改进。新版具备以下优点:1、极简体验,更易集成,复杂度降低 40%。2. 技术升级,释放红利,资源成本减少 92%。3. 让 AI 应用开发更简单,AI 应用一键部署,上手难度降低 80%。1、 你如何看待本次函数计算的版本升级?2、版本升级后,将会在哪些场景方便你的使用,请举例说明。3、你会使用函数计算进行AI应用开发吗?请分享你的开发案例
-
《国产服务器操作系统发展报告(2023)》称操作系统已步入 2.0 时代,服务器操作系统与 AI 和云计算的结合已是大势所趋,你认为龙蜥开源操作系统在云+AI 的时代面临哪些挑战?对此你有什么看法?
-
写一个chatgpt 安卓应用会被下架吗,需要满足什么条件才能不被下架?
-
再来点更高级的。 Midjourney可以快速生成各种风格的人物照片,并且这些照片足以以假乱真,在镜头、光线和构图的使用上也可以做到专业级。 核心提示词使用规则,包含以下部分 人物主体描述 背景环境描述 人物外形描述 风格描述 设备/镜头参数 举例。 人物主体描述:21years Chinese girl 背景环境描述:in school 人物外形描述:beauty,long black hair 风格描述:sun light,insane detail,smooth light,real photography fujifilm superia,full HD 设备/镜头参数:taken on a Canon EOS R5 F1.2 IS0100 35mm 我们可以在Midjourney中转换为如下提示词: 21years Chinese girl,in school,beauty,long black hair,sun light,insane detail,smooth light,real photography fujifilm superia,full HD,taken on a Canon EOS R5 F1.2 1S0100 35mm --ar 4:3 MidJourney生成的UI/UX(User Interface用户界面)/(User eXperience 用户体验)图像虽然不能自接作为源文件使用,但是可以作为排版、配色、构图等视觉元素的参考素材,并且与传统素材比较起来更加直观和生动。核心提示词中的横纵比参数关乎实际产品的排版,比如移动端产品为9:16、计算机端产品为16:9。
-
提示词大致由3个部分构成:主体描述、环境背景、艺术风格。 如果你不指定,那就是随机。 比如:a cat 太简单,AI也会随意给你生成,反正是只cat就行。 所以我们做加法,变成 a cute cat sleeps on the eaves 这样就有了主体、环境信息了 AI就懂了很多,在做一个简单加法,加上艺术风格 a cute cat sleeps on the eaves, illustration 让AI生成插画风格 来个高级点的 https://abc/xyz Chinese boy,8k,3d style,cartoon character design,rich details, soft light, relaxed, OC rendering --iw 2 其中最后的--iw 2参数指的是提升图像的权重,权重越高,生成的结果和提供的参考照片(https里指定的)就越似,--iw 2是最高权重。 调整宽高比、放大倍数等参数可以改变生成图像的风格。为了更改这些参数,将它们添加到提示词的末尾。确保在提示词中准确地指定了所需的参数,并将参数按照正确的格式放置在提示词的最后。
-
Midjourney 可以将提示词(英文为Prompt)转化为视觉图像。它由旧金山的实验室Midjourney创建,采用了类似于OpenAI的DALL-E(一款人工智能图像生成器)和稳定扩散的算法,可以快速地将文字转换为图像。Midjourney提供了一种简单的方式来释放人工智能的创造力。你只需加入Discord服务器,向机器人发送消息,使用/imagine命令输入提示词即可获得一组图像。为设计师,这些可以激发想象力,可以更快、更准确地创造出高质量的设计作品。通过Midjourney快速地获得设计项目的视觉概念。它只提供有限次数的免费试用,然后需要付费按月订阅。Midjourney 有两大类模型,分别是MJ version和Niji version,MJversion主打通用型模型,后者主打二次元漫画型模型提示词(Prompt)是一种于引导人工智能生成模型输出的信息。它为模型提供了上下文和方向,以便生成适当的回应或文本。提示词的设计决定了模型生成的内容,因此它在确保生成结果的准确性、连贯性和可控性方面起着关踺的作用。提示词通常是文本短语:我们将其称为神奇咒语:用于指导模型生成特定风格、主题或内容的像。在处理提示词时,Midjourney Bot将其分解为更小的部分,称为标记,标记可以是单词、短语或句子中的一个成分。一个好的提示词应该具备以下特点。清晰明确 以确保模型能够准确理解和执行预期的图像生成任务。描述详细 包含足够的细节和描述,以帮助模型生成所需的图像特征、内容或情景。提供风格指导 如果需要生成特定风格的,以引导模型生成符合该风格要求的图像。匹配上下文 提示词应该与图像生成任务的上下文相匹配,以便模型可以理解所需的图像背景和环境。激发创造力 激发模型的创造力,鼓励其生成独特而令人惊喜的图像结果。Midjourney生成图像的过程非常简单:3步即可完成。在斜杠命令弹出窗囗中输入/imagine prompt在字段中输入要创建的图像的提示词发送消息
-
作者:有赞-刘龙链接:https://www.zhihu.com/question/569569613/answer/2982279409来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。设计界总是一波未平一波又起,从区块链到元宇宙,这轮风开始吹到AIGC,什么是AIGC?AIGC全称(AI Generated Content)是一种新型的内容创作方式。越来越多数字内容工作过程中,创作者需要不断地学习探索和创新,以满足不断变化的市场需求。(本篇文章只聚焦设计内容生成方向,不展开ChatGPT辅助研究能力)AI在有赞增长实验室实际设计业务中的应用探索M2L增长实验室(Marketing To Leads)包含了公域营销(增长工程、广告投放、渠道拓展)、内容营销(内容策划、内容运营、渠道分发)、社群运营(活动策划、私域营销、人群运营)、商机培育(需求探索、商机培育、线索转出)四个核心领域的工程,利用内容、数据、算法,驱动有赞通过搜索引擎、社交媒体等渠道展开精准营销,获得到有效的商家线索,探索用户需求,培育商机并输出给到各销售团队完成商家付费,带来有赞商家数的增长。随着技术不断发展为设计领域带来了许多变化和机遇,3月中旬我们团队开始了有赞经营场景AI图的打造,从可行性与推广性的角度出发,尝试AIGC在产品、品牌、营销、体验等多个领域应用与探索。市面上存在大量的AI绘画工具,每个工具擅长的画风也各有所长;例如基于Discord架构下的Midjourney,画面注重细节的构建和表达,Open AI的stable-Diffusion,画风更偏写实,Google的Disco Diffusion画风比较均衡,同时我们也发现每一类不同的模型也会有不同的风格效果,我们主要是使用当下人气最高的Midjourney展开落地。AI绘图的原理简要分析说到AI绘图,AI绘图的模型是基于GAN生成对抗网络(GenerativeAdversarialNets,GAN),是一种基于对抗学习的深度生成模型。信息可以是⽂字、图⽚、声⾳等等,编码器会把所有类型的信息都处理成低维度的 Latent,可以理解为开发人员从互联网数以万计的图片中抓取素材,每一张图片素材都会有对应的文字描述,AI通过识每一张像素点的文案,最终输出专属于你想要的图片。利用Midjourney垫图能力辅助设计官网头图AI绘图在电商中有多种应用:1、图片修饰和美化:通过使用AI绘图工具,可以对电商平台上的商品图片进行优化和美化,提升商品的视觉效果,吸引更多的消费者。2、3D渲染和展示:可以利用3D技术将商品进行全方位展示,为消费者提供更加真实、直观的商品体验,增加购买决策的可能性。3、自动化设计:自动生成商品的设计方案,帮助电商平台快速生成各种风格的设计作品,提高工作效率和创意水平。4、图像识别和智能推荐:通过对消费者的行为和偏好进行数据分析,AI绘图工具可以实现图像识别和智能推荐,向消费者推荐更符合其需求和兴趣的商品,提高销售转化率。我们计划进行把官网里面的图片,以图生图的形式,让AI帮助我们设计符合有赞风格调性的官网首图。在有赞官网实践案例:首先在创作内容前把你的需求简单描述,在Discord 中将参考图发给它,并结合意向的风格和ChatGPT中生成的关键词,就可以输出初步满足我们预期的图片,加上前提特征分析的描述,例如(主题+环境背景+构图版头+灯光+颜色+风格参考+质量&后缀)品牌传播与官网首图需要符合品牌特色和调性的图片,以往我们从海量的素材网站找图,往往很难找到和品牌完全匹配的风格,并且M2L在营销传播中经常会使用大量图片在SEM、广点通、小红书进行广告投放。现在我们通过MJ生成符合有赞风格调性的图像,可以节省很多拍摄时间和采购成本。按照以前官网真实照片通过垫底+描述的方式生出了新AI版本的三张图片,并落地在有赞官网,分别是:"做私域找有赞”、“做新零售找有赞”、“做生意找有赞”有赞600万商家,商家每年需要采购和拍摄⼤量商⽤版权图⽚⽤于营销素材(均价1500元/张)。现在使⽤ MJ ⼯具可⽆限生成的多样性素材。⼤幅降低图⽚采购成本,提⾼⽣产效率,下面是我们运用AIGC生成的图片,收集目前有赞商家高点击的模特,测试生成店铺主图,未来AI有着非常多的场景落地。4月10日有赞门罗春季发布会中,有赞发布了首个AI产品加我智能,目前已上线图文推广(为商品和页面生成更高转化率更被喜欢的推广图文)、活动策划(通过对话明确活动目标和方案并完成复杂的系统配置)两个场景,而在未来,加我智能还将会具备店铺设计、报告分析、销售加强、售后客服、商品制作等能力。AI对于有赞增长实验室的帮助1.辅助创意,视觉品质提升在我们历经一个月的探索中,通过使用AI辅助进行相关设计工作。使用AIGC辅助可以提升整个设计的品质,帮团队内设计师产出更高质量的设计,同时我们也储备了一定prompt作为设计资产,可作为图片素材库,为后续快速上线不同经营类目的落地页做准备。2.提升效率,快速出图业务需要做不同行业不同场景的设计图时,通过AIGC就可以让图片生出咖啡店、水果店、蛋糕店,能快速替换服饰箱包、蛋糕烘焙、茶饮酒水、鲜花果蔬风格的有赞生意经营场景图,下面是我们生成的一些案例图:展望未来,全新的设计模式已经出现未来,随着AI绘画技术的不断发展和应用,我们将看到更多的艺术作品、设计方案和数字媒体内容将会通过AI绘画技术的支持而得以创作。同时,AI绘画也将会促进艺术设计领域的创新和发展,推动人工智能技术与艺术设计的融合,创造出更多前所未有的艺术形式和体验。我们有理由相信,AI绘画将会为未来的设计和艺术带来更多的新机遇和无限可能,横放手机,一起来看看AI版有赞经营场景图吧!迎接AI的到来!转自 https://www.zhihu.com/question/569569613/answer/2982279409?utm_id=0
-
AIGC是什么?AIGC( AI Generated Content)是利用人工智能来生成你所需要的内容,GC的意思是创作内容。与之相对应的概念中,比较熟知的还有PGC,是专业人员用来创作内容;UGC是用户自己创造内容,顾名思义AIGC是利用人工智能来创造内容。2AIGC的技术原理?AIGC 是指利用GAN(生成对抗网络)、Transformer 模型、Diffusion 模型等基础生成算法模型、预训练模型以及 CLIP(跨模态学习模型)等 AI 技术,通过对既有数据的学习和发散,基于与人类交互所确定的主题,由 AI 算法模型完全自主、自动生成对应内容,从而帮助互联网、传媒、电商、影视、娱乐等行业进行文本、图像、音视频、代码、策略等多模态内容的单一生成或跨模态生成,以提升内容生产效率与多样性。AIGC 也是继 UGC、PGC 之后新型利用 AI 技术自动生成内容的生产方式,被认为是继专业生产内容(PGC)、用户生产内容(UGC)之后的新型内容创作方式。目前主要用在文字、图像、视频、音频、游戏以及虚拟人上等。3AIGC的功能?1)文字创作AIGC生成文字目前主要被应用于新闻的撰写、给定格式的撰写以及风格改写。比如用户可以通过输入一段对于目标文章的描述或者要求,系统会自动抓取数据,根据我们描述的指令进行创作。2)图像创作技术平台降低了艺术绘画创作的门槛,用户只需要通过输入文字描述,计算机将会自动生成一张作品。3)视频创作例如 Google 推出了 AI 视频生成模型 Phenaki 能够根据文本内容生成可变时长视频的技术,在公布的 DEMO 中,Phenaki 基于几百个单词组成一段前后逻辑连贯的视频只需两分钟。4)音频剪辑AIGC生成音频早被应用于我们的日常生活当中,比如常用的手机导航中的声音。更深层次的应用将会是虚拟人领域,AIGC 不仅可以生成虚拟人的声音,并可以创造出说的内容。5)游戏开发AIGC在游戏当中的应用可分为两方面,一方面用于场景和故事的搭建,另一方面玩家可以通过 AIGC 的平台工具来创建自己的虚拟人,可以用于游戏中的打金等活动。6)代码生成资料显示,2022 年 AIGC 发展速度惊人,迭代速度更是呈现指数级爆发,其中深度学习模型不断完善、开源模式的推动、大模型探索商业化的可能,成为 AIGC 发展的“加速度”。4AIGC的创作类型目前为止,与 AIGC 相关的创作类型主要有三种:1、内容平台的一种自动化作业方式比如 CCTV 的 AIGC 平台,就包括智能采编、模板生成、画质优化等等;部分语音类 app,通过语音合成(TTS)技术,提供文本自动转语音的能力;流媒体平台,通过算法对画面画质进行优化,提高清晰度等等。2、AI 科研机构的多模态应用,实现内容生成比如中科院自动化所的跨模态通用人工智能平“紫东太初”,就能够做到“以图生音”“以音生图”。百度文心大模型的“AI 画家”,则在前不久的元宵节,生成与地点相匹配的专属画作。3、科技企业及创业公司的数字人、虚拟人制作通过自主开发、平台开发等形式,合成全新的人物形象,与用户开展互动。比如 AI 手语主播,通过 AI 算法将文本转化为手语信息,为听障朋友提供服务;品牌代言人,火星车数字人祝融号跟广大用户进行互动;虚拟偶像,通过生动的表情、动作、语言等展示才艺,与粉丝对话;以及智能客服、游戏陪玩等等。5AIGC有哪些应用价值?AIGC将有望成为数字内容创新发展的新引擎。1)AIGC能够以优于人类的制造能力和知识水平承担信息挖掘、素材调用、复刻编辑等基础性机械劳动,从技术层面实现以低边际成本、高效率的方式满足海量个性化需求。2)AIGC能够通过支持数字内容与其他产业的多维互动、融合渗透从而孕育新业态新模式。3)助力“元宇宙”发展。通过AIGC加速复刻物理世界、进行无限内容创作,从而实现自发有机生长。1)AIGC+传媒:写稿机器人、采访助手、视频字幕生成、语音播报、视频锦集、人工智能合成主播。2)AIGC+电商:商品3D模型、虚拟主播、虚拟货场。3)AIGC+影视:AI剧本创作、AI合成人脸和声音、AI创作角色和场景、AI自动生成影视预告片。4)AIGC+娱乐:AI换脸应用(如FaceAPP、ZAO)、AI作曲(如初音未来虚拟歌姬)、AI合成音视频动画。5)AIGC+教育:AI合成虚拟教师、AI根据课本制作历史人物形象、AI将2D课本转换为3D。6)AIGC+金融:通过AIGC实现金融资讯、产品介绍视频内容的自动化生产,通过AIGC塑造虚拟数字人客服。7)AIGC+医疗;AIGC为失声者合成语言音频、为残疾人合成肢体投影、为心理疾病患者合成医护陪伴。8)AIGC+工业:通过AIGC完成工程设计中重复的低层次任务,通过AIGC生成衍生设计,为工程师提供灵感。6AIGC商业模式如何?1)作为底层平台接入其他产品对外开放,按照数据请求量和实际计算量计算:GPT-3对外提供API接口,采用的四种模型分别采用不同的按量收费方式。2)按产出内容量收费:包括DALL·E、Deep Dream Generator等AI图像生成平台大多按照图像张数收费。3)直接对外提供软件:例如个性化营销文本写作工具AX Semantics则以约1900人民币/月的价格对外出售,并以约4800欧元/月的价格提供支持定制的电子商务版本。大部分C端AGC工具则以约80人民币/月的价格对外出售。4)模型训练费用:适用于NPC训练等个性化定制需求较强的领域。5)根据具体属性收费:例如版权授予(支持短期使用权、长期使用权、排他性使用权和所有权多种合作模式,拥有设计图案的版权)、是否支持商业用途(个人用途、企业使用、品牌使用等)、透明框架和分辨率等。7AIGC的行业门槛及壁垒是什么?1)打造一体化解决方案服务能力:AIGC本质上提供的是内容的生成工具,和传统的内容辅助编辑逻辑是相同的。采集、生产、媒资管理、分发消费等视频整个生命周期,一般都需要覆盖内容生成的全生命周期。2)与行业的深度绑定关系:通过和行业形成深度绑定关系,接入相关平台或底层系统的,与原来的内容载体建立良好的合作关系,除去说明场景可行性外,还需要强调对方在基础架构上的配合意愿。3)构建业务闭环:创作型的工具如何得到反馈的手段,需要新的模式形成闭环。需要从“拼接式”(需要大量的人工标注数据,只能针对具体任务,不会自我成长)到“进化式”(创造特定条件和核心能力,使之能够完成通用任务并自我成长),并与用户增加对话轮次、建立情感链接。8AIGC技术处于什么发展阶段?2021年之前,AIGC生成的主要是文字,而新一代模型可以处理的格式内容包括:文字、语音、代码、图像、视频、机器人动作等等。AIGC被认为是继专业生产内容(PGC,professional-generated content)、用户生产内容(UGC,User-generated content)之后的新型内容创作方式,可以在创意、表现力、迭代、传播、个性化等方面,充分发挥技术优势。2022年:AIGC高速发展,其中深度学习模型不断完善、开源模式的推动、大模型探索商业化的可能,成为AIGC发展的“加速度”。9AIGC的发展面临什么挑战?AIGC在引发全球关注的同时,知识产权、技术伦理将面临诸多挑战和风险。同时AIGC距离通用人工智能还有较大的差距。1)知识产权争议。AIGC的飞速发展和商业化应用,除了对创作者造成冲击外,也对大量依靠版权为主要营收的企业带来冲击。2)关键技术难点。AIGC距离通用人工智能还有较大差距,当前热门的AIGC系统虽然能够快速生成图像,但是这些系统未必能够真正理解绘画的含义,从而能够根据这些含义进行推理并决策。3)创作伦理问题。部分开源的AIGC项目对生成的图像监管程度较低,数据集系统利用私人用户照片进行AI训练,侵权人像图片进行训练的现象屡禁不止。一些用户利用AIGC生成虚假名人照片等违禁图片,甚至会制作出暴力和性有关的画作。由于AI本身尚不具备价值判断能力,一些平台已经开始进行伦理方面的限制和干预,但相关法律法规仍处于真空阶段。10如何看待AIGC的未来趋势?未来AIGC将走过三个发展阶段:助手阶段、协作阶段、原创阶段。在第一阶段,AIGC将辅助人类进行内容生产;第二阶段,AIGC以虚实并存的虚拟人形态出现,形成人机共生的局面;第三阶段则是原创阶段,AIGC将独立完成内容创作。Gartner预计,到2025年,生成式人工智能将占所有生成数据的10%。推动这一变化发生的驱动力在于:1)核心技术升级不断发展。AIGC的三大基础能力包括内容孪生、内容编辑、内容创作,将随着产业发展而逐渐升级。2)产品类型逐渐丰富。人工智能的不断发展及推进,也将使AIGC模态不再仅仅局限于文本、音频、视觉三种基本形态。嗅觉、触觉、味觉、情感等多重信息感知和认知能力将以数字化的形式传输并指导人工智能进行内容创作,甚至创造出酸甜苦辣外的另一种味道。3)场景应用趋于多元。目前,AIGC已经在多个领域得到广泛应用,如金融、传媒、文娱、电商等,未来应用场景会进一步多元化。除应用场景的横向扩展外,场景与场景的融合交互也是未来的发展趋势之一。4)生态建设日益完善。技术研发的不断创新将强有力地推动内容创作,提高生成内容质量,使内容更接近人类智力水平和审美标准,同时应用于各类行业各种场景。AIGC的繁荣发展将促进资产服务快速跟进,通过对生成内容的合规评估、资产管理、产权保护、交易服务等构成AIGC的完整生态链,并进行价值重塑,充分释放其商业潜力。11AIGC未来市场空间有多大?随着标注数据累积、技术架构完善、内容行业对丰富度/事实性/个性化的要求越来越高,AIGC行业即将被推向前台。在未来2-3年间,AIGC的初创公司和商业落地案例将持续增加。目前由人工智能生成的数据占所有数据的1%不到,根据Gartner预测,到2025年,人工智能生成数据占比将达到10%。根据《Generative AI:A Creative New World》的分析,AIGC有潜力产生数万亿美元的经济价值。12AIGC的产业链分布如何?我国的AIGC行业尚未发展成型,目前,AIGC代表公司较少,且上游还有众多欠缺。国内的AIGC场景开发较少:在我国,由于技术发展不足以及投资环境的影响,AIGC大多被作为公司的部分业务、乃至相对边缘化的功能进行研发开发,独立运行的初创公司数量明显少于国外,大部分细分赛道的初创玩家在5家以下,这也间接导致了国内的AIGC场景开发较少。AIGC应用场景深度不足:国内布局最多的赛道是写作和语音合成领域,虚拟人赛道刚刚开始兴起基本均停留在内容领域。而在国外延展领域得到了更为充分的挖掘,例如个性化文本生成、合成数据等赛道均是重点布局领域。此类业务拓展的综合性要求较高,需要客户方的数字化程度以及对对应行业的充分了解
-
「通过交换和复制移动,AlphaDev 跳过了一个步骤,以一种看似错误,但实际上是捷径的方式连接项目。」这种前所未见、违反直觉的思想不禁让人回忆起 2016 年那个春天。七年前,AlphaGo 在围棋上击败人类世界冠军,如今 AI 又在编程上给我们上了一课。今天凌晨,Google DeepMind CEO 哈萨比斯的两句话引爆了计算机领域:「AlphaDev 发现了一种全新且更快的排序算法,我们已将其开源到主要 C++ 库中供开发人员使用。这只是 AI 提升代码效率进步的开始。」这一次,Google DeepMind 的全新强化学习系统 AlphaDev 发现了一种比以往更快的哈希算法,这是计算机科学领域中的一种基本算法,AI 的成果现已被纳入 LLVM 标准 C++ 库 Abseil 并开源。这个成果有多重要?AlphaDev 的主要作者之一,Google DeepMind 研究科学家 Daniel J. Mankowitz 表示:「我们估计它发现的排序和哈希算法每天会在全世界被调用数万亿次。」AI 似乎从算法层面加速了世界的运转。这些算法改进了 LLVM libc++ 排序库,对于较短的序列,排序库的速度提高了 70%,对于超过 25 万个元素的序列,速度也能提高约 1.7%。Google DeepMind 表示,这是十多年来排序库这部分的第一次变化。看起来,现在 AI 不仅可以帮人写代码,而且可以帮我们写出更好的代码。在最新的博客中,新系统的作者们对 AlphaDev 进行了详细介绍。新的算法将改变计算基础数字社会推动了对计算和能源日益增长的需求。过去五十年里,数字时代依靠硬件的改进来跟上需求。但是随着微芯片接近其物理极限,改进在其上运行的代码变得至关重要。对于每天运行数万亿次的代码所包含的算法来说,这尤其重要。Google DeepMind 的这项研究就是因此产生的,相关论文已发表在《Nature》上,AlphaDev 是一个 AI 系统,它使用强化学习来发现算法,甚至超越了科学家和工程师们几十年来打磨出来的成果。总体来说,AlphaDev 发现了一种更快的排序算法。虽然数十亿人每天都在使用这些算法,但却没有人意识到这一算法还存在优化空间。排序算法应用范围广泛,从在线搜索结果、社交帖子排序,到计算机以及手机上的各种数据处理,都离不开排序算法。利用 AI 生成更好的算法将改变人类编程计算机的方式,对日益数字化的社会将产生重大影响。通过在主要的 C++ 库中开源新排序算法,全球数百万开发人员和公司现在可以在云计算、在线购物和供应链管理等各行各业的人工智能应用中使用它。这是十多年来对排序库的首次更改,也是通过强化学习设计的算法首次被添加到该库中。这将这视为使用人工智能逐步优化世界代码的重要里程碑。关于排序排序算法是一种按照特定顺序对某些任务进行排列的方法。例如,按字母先后顺序排列三个字母,从大到小排列五个数字,或者对数百万条记录的数据库进行排序。这种算法由来已久,并得到了很好的演进。其中关于排序的最早一个示例可追溯到公元 2 世纪和 3 世纪,当时学者们在亚历山大图书馆的书架上手工按字母顺序排列了数千本书。随着工业革命的到来,出现了可以帮助人们进行排序的机器,其中制表机使用打孔卡片存储信息,这些卡片被用于收集美国 1890 年的人口普查结果。随着上世纪 50 年代商用计算机的兴起,最早用于排序算法的计算机科学算法开始发展。如今,在全球的代码库中有许多不同的排序技术和算法被用于处理海量的在线数据。将一系列未排序的数字输入到算法中,输出已排序的数字。经过计算机科学家和程序员们几十年的研究,目前的排序算法已经非常高效,以至于很难再实现进一步的改进,这有点类似于试图找到一种新的节省电力或更高效的数学方法,而这些算法也是计算机科学的基石。探索新算法:汇编指令AlphaDev 从头开始探索更快的算法,而不是基于现有算法之上,除此以外,AlphaDev 还能用于寻找大多数人所不涉足的领域:计算机汇编指令。汇编指令可用于创建计算机执行的二进制代码。开发人员使用诸如 C++ 之类的高级语言编写代码,但必须将其转换为计算机能够理解的「低级」汇编指令。Google DeepMind 认为这个层次存在许多改进的空间,而这些改进在更高级的编程语言中可能很难被发现。在这个层次上,计算机的存储和操作更加灵活,这意味着存在更多潜在的改进可能性,这些改进可能对速度和能源使用产生更大的影响。代码通常是用高级编程语言(如 C++)编写的。然后,编译器将其转换为低级 CPU 指令,称为汇编指令。汇编器将汇编指令转换为可执行的机器码,以便计算机可以运行。图 A:C++ 算法示例,该算法可对最多两个元素进行排序;图 B:相应的汇编表示形式。用 AlphaGo 的方法寻找最佳算法AlphaDev 基于 Google DeepMind 此前的一项成果:在围棋、国际象棋和象棋等游戏中打败世界冠军的强化学习模型 AlphaZero。而 AlphaDev 展示了这个模型如何从游戏转移到科学挑战,以及从模拟到现实世界的应用。为了训练 AlphaDev 发现新的算法,团队将排序变成了一个单人的「组装游戏」。在每个回合中,AlphaDev 观察它所产生的算法和 CPU 中包含的信息,然后通过选择一条指令添加到算法中来下一步棋。汇编游戏是非常困难的,因为 AlphaDev 必须在大量可能的指令组合中进行高效搜索,以找到一个可以排序的算法,并且比当前的最佳算法更快。指令的可能组合数量类似于宇宙中的粒子数量,或者国际象棋(10^120 局)和围棋(10^700 局)中可能的动作组合的数量,而一个错误的动作就可以使整个算法失效。图 A:组装游戏。玩家 AlphaDev 接收系统 st 的状态作为输入,并通过选择一条汇编指令添加到目前已生成的算法中来下棋。图 B:奖励计算。每次移动后,生成的算法都会输入测试输入序列 —— 对于 sort3,这对应于三个元素序列的所有组合。该算法然后生成一个输出,将其与排序情况下排序序列的预期输出进行比较。智能体根据算法的正确性和延迟获得奖励。在构建算法时,对于每次的一条指令,AlphaDev 通过将算法的输出与预期结果进行比较来检查它是否正确。对于排序算法,这意味着无序数字进入,正确排序的数字出来。团队会奖励 AlphaDev 对数字的正确排序以及排序的速度和效率,然后 AlphaDev 通过发现正确、更快的程序来赢得比赛。它发现了更快的排序算法AlphaDev 发现了新的排序算法,这些算法导致 LLVM libc++ 排序库得到改进:对于较短的序列,排序库的速度提高了 70%,对于超过 25 万个元素的序列,速度提高了约 1.7%。其中,Google DeepMind 团队更专注于改进三到五个元素的短序列排序算法。这些算法是使用最广泛的算法之一,因为它们通常作为更大排序函数的一部分被多次调用,改进这些算法可以提高对任意数量项目进行排序的整体速度。为了让新的排序算法对人们更有用,团队对算法进行了逆向工程并将它们翻译成 C++,这是开发人员使用的最流行的编程语言之一。目前,这些算法已在 LLVM libc++ 标准排序库(https://reviews.llvm.org/D118029)中提供,被全球数百万开发人员和公司使用。「交换和复制动作」,神之一手重现?事实上,AlphaDev 不仅发现了更快的算法,而且还发现了新的方法。它的排序算法包含新的指令序列,每次应用时都会节省一条指令 —— 这显然会产生巨大的影响,因为这些算法每天都要使用数万亿次。他们把这些称为「AlphaDev 交换和复制动作」。这种新颖的方法让人联想到 AlphaGo 的「第 37 步」—— 当时这这种反直觉的下法让围观者目瞪口呆,并导致李世石这位传奇围棋选手被打败。通过交换和复制动作,AlphaDev 跳过了一个步骤,以一种看起来像错误但实际上是捷径的方式连接项目。这表明 AlphaDev 有能力发掘出原创性的解决方案,并挑战人类对如何改进计算机科学算法的思考方式。左图:min (A,B,C) 原始的 sort3 实现;右图:AlphaDev 交换移动 ——AlphaDev 发现你只需要 min (A,B)。左图:在一个更大的排序算法中使用 max(B,min(A,C,D))的原始实现,用于排序八个元素;右图:AlphaDev 发现,使用其复制动作时,只需要 max(B,min(A,C))。扩展能力测验:从「排序」到「哈希」在发现更快的排序算法后,团队测试了 AlphaDev 是否可以概括和改进不同的计算机科学算法:哈希。哈希是计算中用于检索、存储和压缩数据的基本算法。就像使用分类系统来定位某本书的图书管理员一样,哈希算法可以帮助用户知道他们正在寻找什么以及在哪里可以找到它。这些算法获取特定密钥的数据(例如用户名 “Jane Doe”)并对其进行哈希处理 —— 这是一个将原始数据转换为唯一字符串(例如 1234ghfty)的过程。计算机使用此哈希来快速检索与密钥相关的数据,而不是搜索所有数据。团队将 AlphaDev 应用于数据结构中最常用的哈希算法之一,尝试发现更快的算法。当将其应用于 9-16 字节范围的哈希函数时,AlphaDev 发现的算法速度提高了 30%。今年,AlphaDev 的新哈希算法已被发布到开源 Abseil 库中,可供全球数百万开发人员使用,它现在大概每天被使用数万亿次。开源地址:https://github.com/abseil/abseil-cpp/commit/74eee2aff683cc7dcd2dbaa69b2c654596d8024e结语Google DeepMind 通过优化和推出改进的排序和哈希算法,供世界各地的开发人员使用,AlphaDev 展示了其概括和发现具有现实影响的新算法的能力。AlphaDev 可被视为开发通用 AI 工具的一步,它可以帮助优化整个计算生态系统并解决其他造福社会的问题。虽然在低级汇编指令空间中进行优化非常强大,但随着算法的增长, AlphaDev 仍存在局限性,团队目前正在探索其直接在高级语言(如 C++)中优化算法的能力,这对开发人员来说更加有用。AlphaDev 的发现,例如交换和复制动作,不仅表明它可以改进算法,还可以找到新的解决方案。这些发现或许能够激励研究人员和开发人员创建可以进一步优化基础算法的技术和方法,以创建更强大和可持续的计算生态系统。参考内容:https://www.deepmind.com/blog/alphadev-discovers-faster-sorting-algorithms?utm_source=twitter&utm_medium=social&utm_campaign=OCShttps://news.ycombinator.com/item?id=36228125https://twitter.com/DJ_Mankowitz/status/1666468646863130631
-
有什么大模型的API调用比较迅速吗?延迟越低越好
-
AICC 22.100 omu用户ssh登录操作系统访问拒绝的解决方法是什么?
-
所谓图像的神经风格迁移(Neural Style Transfer),是指在给定图像A和图像B的情况下,通过神经网络将这两张图像转化为C,且C同时具有图像A的内容和图像B的风格。例如,一张图像是长城,另一张图像是黄公望的《富春山居图》的一部分,第一张图像的长城内容和第二张图像的山水画风格,通过神经网络进行风格迁移之后得到了一幅具有山水画风格的图像神经风格迁移领域相对较早的一篇论文为Gatys等人发表的A Neural Algorithm of Artistic Style,其中系统地阐述了神经风格迁移的主要思想和原理。神经风格迁移的理念认为图像的内容和风格是可以通过神经网络学习分离开来。同样以图像A、B和C为例,神经风格迁移的主要思想如下.图像C保留图像A的内容,或者说是图像A的语义。这个对于神经网络来说并不困难,各种深度卷积网络都可以较好地实现图像A到C的语义编码。图像C具备图像B的风格。风格不像是图像语义,风格是一个整体或全局的概念,一般来说很难把握,在Gatys等人的设计中,考虑了使用图像特征之间的Gram矩阵来衡量图像特征的相关性。所渭图像的Gram矩阵,就是每个图像特征之间的内积所构成的矩阵。再来一张
上滑加载中
推荐直播
-
全面解析华为云EI-API服务:理论基础与实践应用指南
2024/11/29 周五 18:20-20:20
Alex 华为云学堂技术讲师
本期直播给大家带来的是理论与实践结合的华为云EI-API的服务介绍。从“主要功能,应用场景,实践案例,调用流程”四个维度来深入解析“语音交互API,文字识别API,自然语言处理API,图像识别API及图像搜索API”五大场景下API服务,同时结合实验,来加深开发者对API服务理解。
去报名 -
企业员工、应届毕业生、在读研究生共探项目实践
2024/12/02 周一 19:00-21:00
姚圣伟 在职软件工程师 昇腾社区优秀开发者 华为云云享专家 HCDG天津地区发起人
大神带你一键了解和掌握LeakyReLU自定义算子在ONNX网络中应用和优化技巧,在线分享如何入门,以及在工作中如何结合实际项目进行学习
即将直播 -
昇腾云服务ModelArts深度解析:理论基础与实践应用指南
2024/12/03 周二 14:30-16:30
Alex 华为云学堂技术讲师
如何快速创建和部署模型,管理全周期AI工作流呢?本期直播聚焦华为昇腾云服务ModelArts一站式AI开发平台功能介绍,同时结合基于ModelArts 的实践性实验,帮助开发者从理论到实验更好地理解和使用ModelArts。
去报名
热门标签