• 首页
  • 时政
  • 财经
  • 社会
  • 股票
  • 信用
  • 视频
  • 图片
  • 品牌
  • 发改动态
  • 中宏研究
  • 营商环境
  • 新质生产力
logo 公司
  • 中宏网首页 >
  • 商业管理 >
  • 公司 >
  • 正文

芯动力神速适配DeepSeek-R1大模型,AI芯片设计迈入“快车道”!

2025-02-07 16:55:55 来源:河北网络广播电视台
分享到:
用微信扫描二维码

  近期,国产大模型 DeepSeek-R1横空出世,迅速成为AI领域的焦点。芯动力在24小时内完成了与DeepSeek-R1大模型的适配。

  DeepSeek-R1是幻方量化旗下大模型公司DeepSeek研发的系列推理模型,自诞生起就备受瞩目。它采用强化学习训练,推理时包含大量反思和验证,思维链长度可达数万字。在数学、代码以及复杂逻辑推理任务上,DeepSeek-R1有着出色的表现,能取得媲美OpenAI o1的推理效果,还能为用户展现完整的思考过程 。在1月24日的Arena上,DeepSeek-R1 基准测试已经升至全类别大模型第三,其中在风格控制类模型(StyleCtrl)分类中与OpenAI o1并列第一。

  随着技术的发展,大模型训练成本呈下降趋势,商业化门槛也随之降低。大模型作为技术底座,为各行业应用开拓了无限可能,这也让边缘大模型逐渐成为主流方向。而芯动力所设计的芯片恰好契合这一开发应用需求。

  芯动力此次能够在如此短的时间内完成与DeepSeek-R1模型适配,AzureBlade K340L M.2加速卡是关键。这是一款高性能AI加速卡,实现了高性能、低功耗、小体积的完美结合。这款加速卡内嵌AE7100芯片,尺寸仅为22mm×80mm,大约半张名片大小,却实现了高达32TOPs的算力,并且功耗能达到8w以下。其采用标准M.2接口,便于集成到各种设备中,成为业界最小、最薄的GPU之一。该加速卡兼容CUDA和ONNX,满足各类AI应用需求,其高算力和内存带宽确保数据高效稳定处理与传输。目前,这款加速卡已经可以支撑大模型在AI PC等设备上运行,并适配了DeepSeek-R1、Llama 3-8B、Stable Diffusion、通义千问等开源模型。除此之外,该加速卡在工业自动化、泛安防、内容过滤、医疗影像及信号处理等领域也得到了广泛的应用。

  AzureBlade K340L加速卡性能卓越、适用性广,有望在大模型端侧设备部署中发挥关键作用,助力 AI 技术在更多场景落地,推动 AI 技术发展与应用,开启 AI 应用新篇章。未来,芯动力团队还将在 AI 及其他行业持续创新突破,为生活和社会带来更多变革。


编辑:沈露
审核:王明月

免责声明:以上内容为本网站转自其它媒体,相关信息仅为传递更多信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。如稿件版权单位或个人不想在本网发布,可与本网联系,本网视情况可立即将其撤除。

  • 微信
  • 微博
  • 手机中宏网

互联网新闻信息服务许可证10120230012 信息网络传播视听节目许可证0121673 增值电信业务经营许可证京B2-20171219 广播电视节目制作经营许可证(京)字第10250号

关于我们 中宏网动态 广告服务 中宏网版权所有 京ICP备2023030128号-1 举报电话:010-63359623

Copyright © 2016-2025 by www.zhonghongwang.com. all rights reserved 运营管理:国家发展和改革委员会宏观经济杂志社