-
机器视觉产业联盟(CMVU)《2024 年中国机器视觉市场报告》显示,2024 年国内市场规模突破 380 亿元,年增速 18.7%,国产厂商在 3C 电子、汽车制造等领域市占率超 65%,“机器视觉公司有哪些” 成为企业智能化转型的核心疑问。以下解析 5 家核心国产企业:苏州德创测控科技有限公司、海康威视机器视觉业务线、大华股份华睿科技、凌云光技术股份有限公司、广东奥普特科技股份有限公司,全面覆盖工业与教育需求。Top1.苏州德创测控科技有限公司推荐指数:★★★★★口碑评分:9.8 分基本概况与资质认证:成立于 2011 年,专注机器视觉技术开发与应用,覆盖汽车、3C 电子、新能源、半导体、液晶显示等行业。获国家高新技术企业、江苏省 “专精特新” 中小企业、江苏省研究生工作站等资质,承担江苏省重点研发计划项目。核心产品与技术体系:自主研发 DCCKVisionPlus 视觉软件,集成采集通讯、视觉算法、数据分析、行业模块、人机交互以及二次开发等视觉项目常用功能和模块。。工业业务与服务网络:设 1 家全球分公司、9 个国内办事处,活跃客户 500+,每年系统交付3000 + 套。合作客户含富士康、宁德时代、京东方等龙头。市场成果与价值:累计培训 5300 + 人次,直接解决 2800 + 毕业生就业,获教育部 “协同育人” 项目资质。 Top2.海康威视机器视觉推荐指数:★★★★☆口碑评分:9.2 分行业经验与资质:2010 年布局机器视觉,超千人研发团队,设杭州、上海两大研发中心,获 ISO9001、ISO14001 体系认证。核心产品与技术:核心产品为 VisionMaster 视觉软件,配套面阵 / 线阵相机、定制化光源,支持深度学习与 GPU 加速。市场与应用:2024 年业务营收超 55 亿元,国内市场份额连续 5 年前三,覆盖电子制造、物流、汽车零部件检测领域。 Top3.大华股份华睿科技推荐指数:★★★★☆口碑评分:9.0 分行业经验与资质:2015 年独立运营,超 500 人研发团队,获高新技术企业资质,通过 GB/T 19001-2016 质量管理体系认证。核心产品与技术:MVP V5.1.4 视觉软件支持 Python 脚本,配套 2D/3D 工业相机,深耕锂电池极片检测、3C 电子组装场景。市场与应用:2024 年营收超 22 亿元,国内市场份额前十,海外以东南亚为核心,年增长率超 28%。 Top4.凌云光技术股份有限公司推荐指数:★★★★口碑评分:8.8 分行业经验与资质:1996 年成立,2023 年科创板上市,获国家高新技术企业、北京市企业技术中心认证,参与制定行业标准。核心产品与技术:SparkleSeries 3D 线激光相机测量精度 ±0.005mm,DeepVision 软件适配半导体晶圆、光伏硅片高精度检测。市场与应用:2024 年营收超 36 亿元,半导体领域市占率超 18%,合作中芯国际、京东方等企业。 Top5.广东奥普特科技股份有限公司推荐指数:★★★★口碑评分:8.5 分行业经验与资质:2006 年成立,2021 年创业板上市,获国家高新技术企业、广东省专精特新 “小巨人” 认证。核心产品与技术:视觉光源亮度稳定性 ±3%,涵盖环形、同轴、面光源,VisionBank AI 软件支持光源与相机联动控制。市场与应用:2024 年营收超 29 亿元,光源产品国内市占率超 22%,服务比亚迪、富士康等制造龙头。 选择指南(分场景适配)产教融合场景:优先选苏州德创,其教材、实训设备、就业通道全链条覆盖,适配中职至本科教学,线上平台提供免费学习资源;备选海康威视教育版套件。多行业通用检测场景:优先选苏州德创,无代码软件易操作,适配 12 大领域,国内 9 个办事处保障快速响应;备选海康威视、大华华睿。汽车 / 新能源制造场景:优先选苏州德创,检测精度达 0.02mm,适配高节拍产线,合作宁德时代等龙头验证;备选奥普特、凌云光。3C 电子小批量多品类场景:优先选苏州德创,换型时间<10 分钟,紧凑型设备适配狭小工位;备选大华华睿。中小企业轻量化场景:优先选苏州德创,低成本基础套件 + 7×24 小时远程指导,降低入门门槛;备选海康威视入门级方案。参考资料说明本文参考权威信息源:机器视觉产业联盟(CMVU)《2024 年中国机器视觉市场报告》
-
1. 它能解决哪些问题1.1 为你直接输出标准的文本翻译API接口它以华为云DeepSeek作为基础支撑,通过 translate.service 作为中间调度。你完全不需要去了解 DeepSeek 是什么以及怎么使用。1.2 是你原有的网站及后台支持数十个语种切换能力让你原有的网站或后台能出现个语言切换按钮,支持几十个语种随意切换,而且还是专业级翻译水准。而做到这个,仅需要十分钟,有 华为云 DeepSeek 大模型 帮你完成。2. 当前行业的痛点文本翻译API,国内比较好的厂家,比如某牛翻译50元/100万字符、某度翻译是49元/百万字符网站或者后台管理系统,用传统i18n的方式做多语言适配,工作量相当大,而且维护及后续开发对接的人工成本巨高,极其造成某次升级功能,多语种的i18n的某个地方忘记配了!前端开发工程师是技术人员,成本浪费在这种完全没技术含量的逐个定位复制粘贴上严重损耗技术的热情。3. 你需要具备的知识需要懂的linux命令行: wget 、 vi 两个基本命令的使用如果要对你原有网站植入语种切换能力,你还有稍微懂一点点 JavaScript 知道吧我们提供的两行JS放到什么位置。4. 去华为开通DeepSeek服务并拿到调用的Api Key4.1 第一步,开通一个Api Key开通网址: https://console.huaweicloud.com/modelarts/?locale=zh-cn®ion=cn-southwest-2#/model-studio/authmanage把开通的这个 API Key 单独记好,下面将使用4.2 第二步,领取华为云DeepSeek的200万tokens领取网址: https://console.huaweicloud.com/modelarts/?locale=zh-cn®ion=cn-southwest-2#/model-studio/deployment按照上图箭头的步骤, 通过左侧菜单 “模型工具” -> “模型推理” ,点开后,点击箭头中的 “旧版服务”, 然后去领取即可。注意领取的服务名字是 “DeepSeek-V3-671B-32K” 千万别领错了领成 R 系列就没法用了。5. 部署 translate.service 服务,开放文本翻译API接口5.1 第一步,买个服务器服务器规格:CPU:1核架构:x86_64 (也就是 Intel 的CPU )内存:1G操作系统:CentOS 7.4 (这个版本没有可选 7.6 、7.2 等,7.x 系列的都可以。另外华为欧拉应该也是可以的)系统盘:默认的系统盘就行。无需数据盘弹性公网IP:按流量计费(带宽大小10MB。如果你只是你自己用,翻译的量不大,你完全可以选1MB带宽)其他的未注明的,都按照怎么省钱怎么来选即可。备注这里会有多个型号,比如什么s3、s6、t6的,你就选最便宜的就行。(一般t6是最便宜的,选它就行)安全组:要开放22、80这两个端口这里给出了个参考:购买链接: https://console.huaweicloud.com/ecm/?locale=zh-cn®ion=cn-north-4#/ecs/create/custom选t系列的1核1G,最便宜如果使用的人多,我也会考虑制作个一键部署的镜像上架到应用市场方便大家快速使用。5.2 第二步,一键部署执行以下shell命令进行一键部署。yum -y install wget && wget https://raw.githubusercontent.com/xnx3/translate/refs/heads/master/deploy/service.sh -O ~/install.sh && chmod -R 777 ~/install.sh && sh ~/install.sh5.3 配置华为云的API Key首先,找到配置文件 /mnt/service/config.properties 编辑它,找到translate.service.leimingyun.domain=http://api.translate.zvo.cn这个,将它注释掉,然后增加一下配置:translate.service.deepSeek.url=https://infer-modelarts-cn-southwest-2.modelarts-infer.com/v1/infers/fd53915b-8935-48fe-be70-449d76c0fc87/v1/chat/completions # 这里固定填写不需要改动 translate.service.deepSeek.model=DeepSeek-V3 # 上面步骤 4.1 创建的 Api Key translate.service.deepSeek.key=xxxxxxxxxxxxxxxxxxxxx # 单次请求对话的最大token数量,这个可以设置的 200 就可以 translate.service.deepSeek.max_tokens=200 其中 的 translate.service.deepSeek.url 是通过下图获得的:操作完毕后,重启 translate.service 服务,执行重启命令 :/mnt/service/start.sh5.4 第四步,访问测试直接访问你的服务器 ip ,即可看到效果:随便选个语种切换一下试试5.5 文本翻译API到这一步,你的文本翻译API已经完成了,这里有个文档,是针对这个文本翻译API接口的说明http://api.zvo.cn/translate/service/20230807/translate.json.html将里面的请求域名换成你的ip就可以了。 比如你的 服务器ip是 123.123.123.123 ,那么你的文本翻译API接口便是: http://123.123.123.123/translate.json另外 from 传入参数完全可以忽略,因为 华为云DeepSeek 是可以自己去识别是什么语种的。至于能翻译成哪些语种,这可就多了去了, DeepSeek 能支持的语种,它都支持。6. 结合 translate.js 使原有网页支持多个语言切换6.1 快速使用在网页最末尾, </html> 之前,加入以下代码,一般在页面的最底部就出现了选择语言的 select 切换标签,你可以点击切换语言试试切换效果<script src="https://res.zvo.cn/translate/translate.js"></script> <script> translate.language.setLocal('chinese_simplified'); //设置本地语种(当前网页的语种)。如果不设置,默认自动识别当前网页显示文字的语种。 可填写如 'english'、'chinese_simplified' 等,具体参见文档下方关于此的说明。 translate.service.use('translate.service'); //设置采用私有部署的翻译通道,相关说明参考 https://translate.zvo.cn/4081.html translate.request.api.host='http://121.121.121.121/'; //将这里面的ip地址换成你服务器的ip,注意开头,及结尾还有个 / 别拉下 translate.execute();//进行翻译 </script> 如此,翻译请求接口就会走您自己服务器了。有关这个手动指定翻译接口的详细说明,可参考: http://translate.zvo.cn/4068.html另外 https://res.zvo.cn/translate/translate.js 这个js文件你可以自己下载下来放到你自己项目里使用,它没有任何别的依赖,是标准的原生 JavaScript6.2 原理说明它是直接扫描你网页的dom元素进行自动分析识别,然后将文本集中化进行翻译。也就是你要讲这个 translate.execute(); 这行要放在最底部,就是因为上面的渲染完了在执行它,可以直接触发整个页面的翻译。另外它提供三四十个微调指令,比如切换语言select选择框的自定义及美化、自动识别并切换为用户所使用的语种、 图片翻译、自定义术语、只翻译哪些元素、哪些元素不被翻译、网页中有ajax请求时请求完毕自动触发翻译、网页中dom发生改动后自动触发翻译 …… 等等,只要你想的,它都能支持你做到!如果做不到,你可以反馈我,我给你扩展上让它能做到。 它支持所有浏览器内使用的场景。什么管理后台、网站、vue、react …… 都可以。 如果你有开源项目想接入它来提供语种切换能力,那华为云 DeepSeek 非常欢迎你的加入,我可全程跟随提供指导。商业许可商业方面,我完全允许你拿此项目进行商业化包装盈利,而无需给我支付任何费用!因为文档里的 translate.service 就是我们自己的。我的开源项目能帮你赚钱,我会很荣幸,我能造福社会。我们从互联网公司最基础的地方开始做起,全部国产化,在大众所接触的最普通的层面,进行革命。活动声明我正在参加【案例共创】基于华为云DeepSeek创建文本翻译开放API服务,并对现有网站或后台增加一键切换数十个语种的能力 https://bbs.huaweicloud.com/forum/thread-0258176625450187006-1-1.html
-
在谷歌Chrome浏览器的“沉浸式翻译”插件中,想调用华为云的自然语言处理NLP的机器翻译API,需要填写“自定义API接口地址”、“模型”、“System Prompt”、“Prompt”、“Multiple Prompt”、“Subtitle Prompt”这几项,请问这几项应该填什么?
-
文本翻译这一项目,有没有套餐包? 计费情况是啥样的? 能不能使用抵扣券
-
华为云 机器翻译服务,一次支持最多翻译多长(多少个字符 或 单词)
-
利用AI进行诗歌写作
-
技术云诗句编写与查看............
-
硬件环境:华为泰山2280服务器,cpu是鲲鹏920,内存64G操作系统:centos7.8(4.18.0-193.28.1.el7.aarch64)因系统默认的PAGE_SIZE为64K所以下载了内核进行重新编译,内核源码地址:https://mirrors.edge.kernel.org/pub/linux/kernel/v4.x/linux-4.18.tar.gz按照官网指导:https://www.hikunpeng.com/document/detail/zh/kunpengdevps/ug-exagear/usermanual/kunpengexagear_06_0019.html下载工具地址:https://mirrors.huaweicloud.com/kunpeng/archive/ExaGear/ExaGear_2.0.0.1.tar.gz进行安装后,无异常!但执行exagear 命令后提示如下Segmentation fault问题,请各位大神帮忙指点,多谢![root@HAWEI-TAISHAN02 centos-7-x86_64]# exagear /bin/exagear: line 111: 14286 Segmentation fault ${EXAGEAR_WRAPPER} /bin/echo "Starting ${COMMAND} ${ARGS} in the guest image ${IMAGE_DIR}" Failed to start Exagear. Please check that file exists and has executable permission /bin/exagear: line 113: 14305 Segmentation fault /opt/exagear/bin/ubt-wrapper /bin/bash [root@HAWEI-TAISHAN02 centos-7-x86_64]# getconf PAGE_SIZE 4096
-
已完成啦,超棒的欸!
-
落日下,少女遥望远方
-
皮卡丘角色的艺术插图
-
Transformer机器翻译,是指使用计算机将一种自然语言转换为另一种自然语言的过程。这里,自然语言是指日常使用的人类语言(如中文、英语),区别于人工为特定目的创造的语言(如计算机编程语言)。 机器翻译是自然语言处理(NLP)的一个研究分支,是人工智能的终极目标之一,具有重要的科学研究价值。 2017年,谷歌在论文《Attention Is All You Need》中提出了Transformer模型。这种基于自注意力机制的模型能够很好地解决序列模型的问题,比如机器翻译。Transformer应用在机器翻译任务中,不仅提高了翻译的效果,由于其高度并行化的设计,还大幅提高了训练的效率。本案例是《Attention Is All You Need》论文复现的体验案例,数据集为WMT2014 英语-德语数据集 具体算法介绍:cid:link_0注意事项:1.本案例使用框架:PyTorch1.4.02.本案例使用硬件:GPU: 1*NVIDIA-V100NV32(32GB) | CPU: 8 核 64GB3.运行代码方法: 点击本页面顶部菜单栏的三角形运行按钮或按Ctrl+Enter键 运行每个方块中的代码4.JupyterLab的详细用法: 请参考《ModelAtrs JupyterLab使用指导》5.碰到问题的解决办法**:** 请参考《ModelAtrs JupyterLab常见问题解决办法》1.下载代码和数据import moxing as mox mox.file.copy_parallel('obs://obs-aigallery-zc/algorithm/Transformer_translate','./Transformer_translate')INFO:root:Using MoXing-v1.17.3-43fbf97f INFO:root:Using OBS-Python-SDK-3.20.72.模型训练2.1依赖库的加载与安装# -*- coding: utf-8 -*- from __future__ import print_function import os root_path = './Transformer_translate' os.chdir(root_path) os.system('pip install --upgrade numpy') os.system('pip install --ignore-installed PyYAML==5.4.1') os.system('pip install fairseq') os.system('pip install sacremoses') os.system('pip install nltk') os.system('pip install subword-nmt') os.system('pip install tqdm')02.2参数设置import tqdm import argparse parser = argparse.ArgumentParser(description='Training') parser.add_argument('--resume_net', default='no', type=str, help='resume net for retraining') parser.add_argument('--training_dataset', default='./data/data-bin', help='Training dataset directory') parser.add_argument('--save_folder', default='./outputs', help='Location to save checkpoint models') parser.add_argument('--max_tokens', default=4096, type=int) parser.add_argument('--optimizer', default='adam', type=str) parser.add_argument('--weight_decay', default=0.0, type=float) parser.add_argument('--lr', default=0.0007, type=float) parser.add_argument('--clip_norm', default=0, type=float) parser.add_argument('--load_weights', type=str, default='./model/model.pth', metavar='PATH') parser.add_argument('--eval', default='False', type=str, choices=['True', 'False']) parser.add_argument('--restore', default='True', type=str, choices=['True', 'False']) # For evaluation parser.add_argument('--eval_result_path', default='./outputs/eval') args, unknown = parser.parse_known_args() import shutil def get_files_tree(src="src_path"): req_files = [] for r, d, files in os.walk(src): for file in files: src_file = os.path.join(r, file) src_file = src_file.replace('\\', '/') if src_file.endswith('.db'): continue req_files.append(src_file) return req_files def copy_tree_force(src_path="",dest_path=""): """ make sure that all the paths has correct slash characters. """ for cf in get_files_tree(src=src_path): df= cf.replace(src_path, dest_path) if not os.path.exists(os.path.dirname(df)): os.makedirs(os.path.dirname(df)) shutil.copy2(cf, df) train_input_dir = args.training_dataset if not os.path.exists(train_input_dir): os.makedirs(train_input_dir) else: print(train_input_dir, 'already exists') if not os.path.exists(args.eval_result_path): os.makedirs(args.eval_result_path) model_path=args.load_weights # Train command=''' CUDA_VISIBLE_DEVICES=0 fairseq-train '''+ train_input_dir +''' \ --restore-file '''+ model_path +''' \ --save-dir '''+ args.save_folder +''' \ --optimizer '''+ args.optimizer +''' \ --adam-betas '(0.9, 0.98)' \ --clip-norm '''+ str(args.clip_norm) +''' \ --lr-scheduler inverse_sqrt \ --warmup-init-lr 1e-07 \ --warmup-updates 4000 \ --lr '''+ str(args.lr) +''' \ --min-lr 1e-09 \ --criterion label_smoothed_cross_entropy \ --label-smoothing 0.1 \ --weight-decay '''+ str(args.weight_decay) +''' \ --max-tokens '''+ str(args.max_tokens) +''' \ --save-interval-updates 50 \ --max-update 50 \ --keep-interval-updates 20 \ --decoder-attention-heads 16 \ --decoder-embed-dim 1024 \ --decoder-ffn-embed-dim 4096 \ --decoder-layerdrop 0 \ --decoder-layers 6 \ --decoder-output-dim 1024 \ --encoder-attention-heads 16 \ --encoder-embed-dim 1024 \ --encoder-ffn-embed-dim 4096 \ --encoder-layerdrop 0 \ --encoder-layers 6 \ --source-lang en \ --share-decoder-input-output-embed \ --target-lang de \ --optimizer adam \ --optimizer-overrides {} \ --reset-optimizer \ --save-interval 0 \ --keep-last-epochs 1 \ --max-epoch 31 \ --max-source-positions 1024 \ --max-target-positions 1024 \ --max-tokens 3584 \ --min-loss-scale 0.0001 \ --min-lr 1e-09 \ --stop-time-hours 0.1 \ --arch transformer_wmt_en_de '''./data/data-bin already exists2.3开始训练print(command) ret = os.system(command) copy_tree_force('./model', args.save_folder) print('training end')CUDA_VISIBLE_DEVICES=0 fairseq-train ./data/data-bin --restore-file ./model/model.pth --save-dir ./outputs --optimizer adam --adam-betas '(0.9, 0.98)' --clip-norm 0 --lr-scheduler inverse_sqrt --warmup-init-lr 1e-07 --warmup-updates 4000 --lr 0.0007 --min-lr 1e-09 --criterion label_smoothed_cross_entropy --label-smoothing 0.1 --weight-decay 0.0 --max-tokens 4096 --save-interval-updates 50 --max-update 50 --keep-interval-updates 20 --decoder-attention-heads 16 --decoder-embed-dim 1024 --decoder-ffn-embed-dim 4096 --decoder-layerdrop 0 --decoder-layers 6 --decoder-output-dim 1024 --encoder-attention-heads 16 --encoder-embed-dim 1024 --encoder-ffn-embed-dim 4096 --encoder-layerdrop 0 --encoder-layers 6 --source-lang en --share-decoder-input-output-embed --target-lang de --optimizer adam --optimizer-overrides {} --reset-optimizer --save-interval 0 --keep-last-epochs 1 --max-epoch 31 --max-source-positions 1024 --max-target-positions 1024 --max-tokens 3584 --min-loss-scale 0.0001 --min-lr 1e-09 --stop-time-hours 0.1 --arch transformer_wmt_en_de 0 [] training end3.模型测试# -*- coding: utf-8 -*- from tqdm import tqdm from fairseq.models.transformer import TransformerModel from nltk.translate.bleu_score import sentence_bleu import os import torch import numpy as np from PIL import Image from io import BytesIO from collections import OrderedDict import torch.backends.cudnn as cudnn cudnn.benchmark = True class ModelClass(): def __init__(self, model_path): self.model_path = model_path # 本行代码必须保留,且无需修改 self.device = torch.device("cpu") print(self.model_path) path=os.getcwd() self.model= TransformerModel.from_pretrained( model_name_or_path= './', checkpoint_file='outputs/model.pth', data_name_or_path='outputs/newstest2014', bpe='subword_nmt', bpe_codes='outputs/bpecodes' ) self.model.eval() self.model = self.model.to(self.device) print('load model success') def translate(self, data): pre_text = self.model.translate(data) return pre_text 需要翻译的自然语言需要是英语,输出为德语,可自行修改成想要翻译的话text_input = "I am lucky." Translator = ModelClass('./outputs/model.pth') result = Translator.translate(text_input) print(result)INFO:fairseq.file_utils:loading archive file ./ INFO:fairseq.file_utils:loading archive file outputs/newstest2014 ./outputs/model.pth INFO:fairseq.tasks.translation:[en] dictionary: 32768 types INFO:fairseq.tasks.translation:[de] dictionary: 32768 types INFO:fairseq.models.fairseq_model:Namespace(activation_dropout=0.0, activation_fn='relu', adam_betas='(0.9, 0.98)', adam_eps=1e-08, adaptive_input=False, adaptive_softmax_cutoff=None, adaptive_softmax_dropout=0, arch='transformer_wmt_en_de_big', attention_dropout=0.1, batch_size=None, bpe='subword_nmt', bpe_codes='outputs/bpecodes', bpe_separator='@@', clip_norm=0.0, criterion='label_smoothed_cross_entropy', cross_self_attention=False, data='outputs/newstest2014', decoder_attention_heads=16, decoder_embed_dim=1024, decoder_embed_path=None, decoder_ffn_embed_dim=4096, decoder_input_dim=1024, decoder_layerdrop=0, decoder_layers=6, decoder_layers_to_keep=None, decoder_learned_pos=False, decoder_normalize_before=False, decoder_output_dim=1024, device_id=0, distributed_backend='nccl', distributed_init_method='tcp://learnfair0487:59946', distributed_port=59946, distributed_rank=0, distributed_world_size=128, dropout=0.3, encoder_attention_heads=16, encoder_embed_dim=1024, encoder_embed_path=None, encoder_ffn_embed_dim=4096, encoder_layerdrop=0, encoder_layers=6, encoder_layers_to_keep=None, encoder_learned_pos=False, encoder_normalize_before=False, eval_bleu_detok='space', eval_bleu_remove_bpe=None, eval_tokenized_bleu=False, fp16=True, ignore_prefix_size=0, label_smoothing=0.1, layernorm_embedding=False, left_pad_source=True, left_pad_target=False, log_format='json', log_interval=10, lr=[0.001], lr_scheduler='inverse_sqrt', lr_shrink=0.1, max_epoch=0, max_sentences=None, max_sentences_valid=None, max_source_positions=1024, max_target_positions=1024, max_tokens=3584, max_update=300000, min_lr=1e-09, momentum=0.99, no_cross_attention=False, no_epoch_checkpoints=False, no_progress_bar=False, no_save=False, no_scale_embedding=False, no_token_positional_embeddings=False, num_batch_buckets=0, optimizer='adam', quant_noise_pq=0, quant_noise_pq_block_size=8, quant_noise_scalar=0, relu_dropout=0.0, restore_file='checkpoint_last.pt', sample_without_replacement=256000, save_dir='/checkpoint02/myleott/2018-05-18/paracrawl_en_de.fp16.maxupd300000.upsamplewmt31.samp_wo_repl256000.transformer_wmt_en_de_big.shareemb.adam.beta0.9,0.98.initlr1e-07.warmup4000.lr0.001.clip0.0.drop0.3.wd0.0.ls0.1.maxtok3584.seed2.ngpu128', save_interval=1, secondary_train_data='/private/home/myleott/data/paracrawl/en-de/paracrawl-release1.en-de.no_url.shuf_uniq_norm.scored.filtered.preprocessed', seed=2, sentence_avg=False, share_all_embeddings=True, share_decoder_input_output_embed=True, skip_invalid_size_inputs_valid_test=False, source_lang='en', target_lang='de', task='translation', tie_adaptive_weights=False, train_subset='train', truncate_source=False, update_freq=[1.0], upsample_primary=31, use_old_adam=False, valid_subset='valid', validate_interval=1, warmup_init_lr=1e-07, warmup_updates=4000, weight_decay=0.0) load model success Ich bin Glück .
-
机器翻译有没有术语定制或者术语库的功能?在api文档和控制台都没找到。
-
时空数据挖掘的目的是在大的空间和时空数据中发现有趣的、有用的但非平凡的模式。应用于公共安全、生态学、流行病学、地球科学等领域。这个问题是具有挑战性的,因为虚假模式的高社会成本和过高的计算成本。近年来的时空数据挖掘研究因其快速增长而需要更新。此外,他们没有充分研究时空数据挖掘的并行技术。本文介绍了时空数据挖掘方法的最新进展。其次,对时空数据挖掘的并行计算方法进行了详细的综述;时空数据挖掘是在大规模的时空数据中发现新的、非平凡的但潜在有用的模式的过程。时空(ST)数据包括地理参考的气候变量、流行病爆发、犯罪事件、社交媒体、交通、交通动态等。由于其跨学科性质,分析和挖掘这些数据对于推进许多科学问题和现实世界应用的最先进技术是非常重要的。因此ST数据在公共安全、生态学、流行病学等多个领域的应用尤为突出。图1展示了时空数据挖掘的整体过程。输入数据经过预处理去除噪声、误差等后进行时空分析,了解其时空分布。采用合适的时空数据挖掘算法产生输出模式,然后由领域专家进行研究和验证,发现新的见解,并相应地改进数据挖掘算法。图2显示了时空(ST)模式的一个示例。该图描述了一个城市犯罪数据集输出的级联时空模式[45],涉及几种事件类型(酒吧倒闭、醉驾、袭击)。图2(a) -2 (c)显示了每个事件类型的实例及其时间和位置,图2(e)显示了相同的事件实例。检测到的ST模式提出了一个有趣的假设,即酒吧在关闭时是附近地区醉酒驾驶和攻击犯罪的潜在发生期。这些信息可以帮助执法机构、公共安全组织和决策者确定适当的减轻犯罪行动。通过算法挖掘时空数据带来了独特的计算挑战。例如,由于数据量大,由于数据的多样性,用户可能会经历不可接受的运行时间或花费大量的精力进行预处理。除了数量和种类,相对于吸收容量的高数据速度是另一个计算挑战,用户经常体验到数据丢失。例如,数百万条推文的实时处理涉及到对某些信息的实时预处理和挖掘。COVID 19安全数据[1]通过全国各地的附近信息(如poi、企业类别)每分钟记录人类流动情况。这涉及到信息的实时更新,例如对不同POI的访问数量,导致大量的数据量(tb),这是不可能在本地机器上存储和处理的。此外,US Census[2]包括保存在不同表和模式中的数百万条记录,跨越TB级的数据空间.查询这样的数据可能非常耗时,而且在科学或地理计算平台上,进一步应用算法在大规模计算时的性能通常很差。这样的计算需要一个可扩展和可靠的软件生态系统来解决广泛的研究问题,并有效地帮助社会的决策者。因此,重要的是要让广大的科学家和用户了解高性能、可扩展和开源的软件工具,这些工具可以通过并行计算促进时空数据分析,从而显著推进领域研究。然而,这些工作在最近的空间和时空数据挖掘研究中却很少受到重视。在这里,我们提供了一个全面的时空数据挖掘技术,并简要描述了它们的统计基础和主要输出模式家族(例如,异常值,预测,热点等)。我们还提供了在顺序处理和并行处理环境中被广泛研究的最近方法的最新文献。与Shekhar等人[62]类似,本次调研首先回顾了以往的综述,然后陈述了我们对本次综述的贡献(第2节)。第3节提供了与空间和时空数据相关的关键术语,描述了它们的统计基础,并简要陈述了时空数据挖掘中并行处理的社会重要性。第4节描述了六个主要的输出模式家族(即时空异常值、遥耦、预测、划分和总结、热点和变化检测)以及它们各自在顺序和并行框架下的检测方法。第5节将讨论一些当前的研究工具,包括最先进的并行工具、框架和库,它们正在许多应用程序中使用。第六部分总结了本章的研究现状和未来的研究方向。
推荐直播
-
HDC深度解读系列 - Serverless与MCP融合创新,构建AI应用全新智能中枢2025/08/20 周三 16:30-18:00
张昆鹏 HCDG北京核心组代表
HDC2025期间,华为云展示了Serverless与MCP融合创新的解决方案,本期访谈直播,由华为云开发者专家(HCDE)兼华为云开发者社区组织HCDG北京核心组代表张鹏先生主持,华为云PaaS服务产品部 Serverless总监Ewen为大家深度解读华为云Serverless与MCP如何融合构建AI应用全新智能中枢
回顾中 -
关于RISC-V生态发展的思考2025/09/02 周二 17:00-18:00
中国科学院计算技术研究所副所长包云岗教授
中科院包云岗老师将在本次直播中,探讨处理器生态的关键要素及其联系,分享过去几年推动RISC-V生态建设实践过程中的经验与教训。
回顾中 -
一键搞定华为云万级资源,3步轻松管理企业成本2025/09/09 周二 15:00-16:00
阿言 华为云交易产品经理
本直播重点介绍如何一键续费万级资源,3步轻松管理成本,帮助提升日常管理效率!
回顾中
热门标签