/AI边缘计算解决方案

研华边缘AI平台测试DeepSeek蒸馏版模型数据大公开!

随着Deepseek大模型的横空出世,预计对整个工业领域会产生颠覆性的影响力,尤其针对边缘部署部分独创动态剪枝与量化技术,DeepSeek大模型支持在边缘设备低功耗运行(最低适配5 TOPS算力硬件),推理速度能够提升3倍。 研华选择了多款基于英伟达技术的边缘AI产品,针对目前DeepSeek-R1 系列的不同蒸馏模型进行测试,下面让我们来看下最新测试数据! 微型边缘端推理应用 算力100 TOPS 推荐型号: 基于ARM平台AI Box:ICAM-540 /MIC-711 / MIC-713 支持DeepSeek-R1蒸馏模型版本: ☑ DeepSeek-R1-Distill-Qwen-1.5B ☑ DeepSeek-R1-Distill-Qwen-7B ☑ DeepSeek-R1-Distill-Llama-8B

研华边缘AI平台测试DeepSeek蒸馏版模型数据大公开! 2025-03-17T09:42:10+08:00

AIR-520 LLM服务器:Nvidia四卡加持,助力DeepSeek私有化部署!

DeepSeek-R1的发布让大家度过了一个热闹的春节。DeepSeek用较低的成本,取得了跟OpenAI相同的效果,这也意味我们的客户可以私有化部署与OpenAI能力接近的基座大模型。

AIR-520 LLM服务器:Nvidia四卡加持,助力DeepSeek私有化部署! 2025-03-10T09:36:54+08:00

研华发布全系列车载AI工控机,算力全开,智驭未来!

近日,研华发布轨道交通车载 AI 工控机 ITA-560AGX Orin,基于NVIDIA Jetson AGX Orin芯片的优越性能,配备丰富的I/O接口,为轨道列车车载应用提供了专业、可靠的解决方案。

研华发布全系列车载AI工控机,算力全开,智驭未来! 2025-02-07T09:25:37+08:00

研华AIR-520:用新技术解锁企业知识管理,探索LLM生成式AI的力量

大型语言模型 (LLMs) 在生成式AI中迅速发展,通过转变数据组织、检索和分析,彻底改变企业知识管理方式。LLM微调增强了特定任务或领域,研华边缘人工智能服务器解决方案通过1-4个GPU卡、AI SSD和开发工具包提供支持,使企业能够经济高效地进行LLMs的训练,同时在边缘处理以保证敏感数据的安全。

研华AIR-520:用新技术解锁企业知识管理,探索LLM生成式AI的力量 2025-01-08T09:08:17+08:00

NMC-6004FBD研华网卡增效网络安全性能,增强云&AI应用场景

研华推出全新高速 NMC-6004FBD 网卡,基于NVIDIA® ConnectX-6网络芯片, 具有双端口100GbE 和光 Bypass 功能,搭载研华高端网络安全平台,能够极大提升网络效能,增强云和AI场景应用,满足防火墙(NGFW) 及网关对高计算、高带宽、高性能和可扩展性日益增长的需求。

NMC-6004FBD研华网卡增效网络安全性能,增强云&AI应用场景 2024-12-09T09:16:32+08:00