【重点事件】全国工业和信息化主管部门负责同志座谈会在京召开 算力产业迈向高质量发展新阶段
7月28日,全国工业和信息化主管部门负责同志座谈会在京召开。会议强调,做好下半年工作,要认真贯彻落实党中央、国务院决策部署,突出“强筋壮骨”、价值创造、安全保障、行业治理,重点抓好八个方面工作。其中提到“有序推进算力中心建设布局,提升智算资源供给能力和资源利用效率。”在人工智能热潮带动下,我国算力需求呈爆发式增长,国产算力产业正迎来加速演进的战略机遇期。
国产算力破局之战群鹿正酣
全球供应链波动引发的芯片断供风险与核心技术“卡脖子”挑战,倒逼我国算力产业加速从“受制于人”向“自主可控”突破。
从国家到地方,政策红利持续释放。在近日召开的国务院常务会议,通过《关于深入实施“人工智能+”行动的意见》。会议指出“要着力优化人工智能创新生态,强化算力、算法和数据供给……”在地方层面,上海、北京等多个地方政府已先后出台政策,在算力、运力、存储方面均有明确规划,例如,上海印发《上海市进一步扩大人工智能应用的若干措施》,其中提到,降低智能算力使用成本,发放6亿元算力券,加强算力调度平台建设,体系化支持企业研发和应用大模型,加快大模型生态空间集聚。
如今,国产算力在超节点架构、光互连、异构协同以及算力集群化、全链路国产化等方面实现了重大突破。华为打造的“昇腾384超节点真机”以12个计算柜和4个总线柜实现资源的高效调度。此外,华为昇腾、天数智芯等企业推出高性能AI芯片,单卡算力密度提升3倍,寒武纪、海光信息等国产AI芯片出货量同比增长217%,国产芯片在数据中心渗透率逐年提升。
《中国算力发展报告(2024年)》显示,2024年,我国在用算力中心机架总规模超过830万标准机架,算力总规模达246EFLOPS,位居世界前列。
多方协同构建算力生态新高地
在国产算力发展的澎湃浪潮中,通信运营商凭借云网融合优势,成为算力基建落地的关键执行者,展现出强大的资源整合与落地能力。
中国电信积极构建全栈国产化算力底座,息壤一体化智算服务平台,以云网融合为核心,打造国家云AI基础设施,提供“算力、平台、数据、模型、应用”的五位一体服务,并通过Triless架构实现资源、框架、工具“三个无关”,对用户屏蔽资源、框架和工具等底层技术,实现国产化算力从“可用”到“好用”“易用”的跨越式升级。目前在北京、上海建成两个万卡智算资源池,成为全国最早建成并真正投产运行的两个国产化、全液冷;在广东韶关上线全球首个智算昇腾超节点,进一步构建“安全可信”的国产化AI算力底座。
中国移动的“九天”已实现数据构建、预训练、微调、部署全链路核心技术自主创新,适配国产算力,实现全栈国产。打造了全球运营商最大单体液冷智算中心——中国移动呼和浩特智算中心,该中心芯片国产化率超85%,涵盖天数智芯、华为昇腾、壁仞、昆仑芯等五类本土芯片;中国移动智算中心(哈尔滨)AI芯片国产化率100%,首次通过国产网络设备探索1.8万张智算卡单集群部署规模上限,可提供6.9EFLOPS(每秒690亿亿次半精度浮点运算)智能算力。
中国联通加速推进IDC向AIDC升级,在上海、广东、香港等地建设大规模智算中心,智算规模超过17EFLOPS。如中国联通京津冀数字科技产业园部署100P华为昇腾910B全栈国产化算力,中国联通呼和浩特多元算力集群混合部署国产化与英伟达算力,规模超千卡。
生态共建,技术创新促算力发展
当前,我国算力发展仍面临资源分布不均,地区、行业、企业间算力资源协同不足等问题。在此背景下,算力调度成为提升资源效率的最大化路径。
国家持续规划推进计算基础设施建设中,算力调度是发展重点。工业和信息化部印发《算力互联互通行动计划》,旨在加快构建算力互联互通体系,实现不同主体、不同架构的公共算力资源标准化互联,提高公共算力资源使用效率和服务水平。
中国工程院院士蒋昌俊指出,算网建设的重点将逐步从“基建”转向“调度”,赋能算力像水电一样随取随用,使计算基础设施升级为算力资源服务。在算力网络建设中,既需要进一步提升智能算力的资源利用率,以AI为代表、满足更细致业务场景需求的能力建设和解决方案建设也更加重要。
技术创新是推动算力调度平台发展的重要动力。在算力调度方面,中国联通“联通星罗”先进算力调度平台2.0通过“国芯、国算、国模、国盾”四位一体产品体系,完成了“资源聚合-智能分配-高效执行-安全护航”技术闭环,用异构算力调度的“中国算法”破解“卡脖子”难题。中国移动打造了全国首个“四算合一”算力网络调度平台,可以支持每天上亿次的算力调用,能调度全国1/6的算力规模,算网一体化效率提升20%。中国电信天翼云息壤通过编排调度、业务调度、作业调度三种调度方案,实现跨域跨服务商算力的智能高效调度,推动形成一张智能感知、实时发现、随需获取的算力互联网,实现“一点接入、全算贯通”的算力服务。
人工智能时代,算力成本决定了创新成本。尽管我国智能算力产业已取得显著进步,但国产生态培育仍需突破核心技术瓶颈、强化跨主体协同。未来,随着政策持续加码、运营商深度参与、全产业链协同创新,国产算力将加速从“单点突破”迈向“体系化领先”,为数字经济高质量发展注入强劲动能。
【重点事件】大手笔投资约11亿美元!韩国政府投资打造国家级AI GPU基础设施
北京时间8月1日消息 据韩国媒体报道,韩国科学技术信息通信部(MSIT)已选定Naver Cloud、NHN Cloud和Kakao几家公司作为大规模GPU采购计划的核心合作伙伴,以提升国家整体AI算力。韩国政府将投入约1.46万亿韩元(约11亿美元)采购13000块高性能GPU,这是该国扩展本土AI基础设施战略的重要组成部分。
据MSIT披露,此次采购的GPU包含10080块英伟达B200和3056块H200芯片,将分配给上述三家云服务提供商。该项目旨在降低韩国对海外算力资源的依赖,加速AI技术创新,并增强本土科技企业在高速增长的AI领域的竞争力。
该计划旨在满足韩国科研、产业及学术领域对高性能计算日益增长的需求。韩国MSIT在5月获得追加预算拨款后,历经一个月的公开招标、方案评估及现场审查流程,最终确定由Naver Cloud、NHN Cloud和Kakao三家公司实施该项目。
报道称,超过10000块GPU将分配用于政府主导的项目,其余GPU则将支持这三家云服务商的运营需求。MSIT强调,这些资源将重点推动韩国国内AI研究、大模型训练及国家级AI计划实施。
NHN Cloud将管理最大份额的7656块B200芯片,并配备水冷系统以提升散热效率。其中6120块GPU归政府所有,将组成510节点和255节点集群以支持高性能工作负载。NHN Cloud预计将于年内启动测试版服务,为首批选定项目提供算力资源。
Naver Cloud将部署3056块H200芯片,其中2296块划归政府使用。这些设备将组成255节点和32节点集群,重点支持高校及科研机构。预计年底前实现全面运营,确保学术及公共研究项目及时获取高性能基础设施。
Kakao将部署2424块B200 GPU,着力提升运营效率并支持政府主导的AI项目。其中2040块将由政府以单一255节点集群模式运营。与其他服务商类似,Kakao计划年底前开放部分测试服务,供重点项目的开发者及研究人员优先使用。
为保障资源的高效公平利用,MSIT将与项目运营商共建统一GPU支持平台。该在线系统将允许高校、科研机构及企业申请资源,并根据提案评估和项目优先级进行资源分配。闲置资源将动态调配给等候申请方,从而实现全国范围基础设施利用率最大化。
这些项目运营商签约及设备采购将于8月初启动,分阶段部署预计2025年底完成。全面运营后,这些计算集群将为政府“AI基础模型项目”等国家计划提供支撑。
【重点政策】上海:对符合要求的具身智能企业给予最高4000万元/年算力券支持
上海市人民政府办公厅今日印发《上海市具身智能产业发展实施方案》。其中提到,优化市级智能算力公共服务平台和市级智能算力资源统筹调度平台,统筹全市现有智算资源,加强算力资源调度与管理,对达到一定算力租用规模的具身智能企业给予最高4000万元/年的算力券支持。
《方案》提出,按照“模型驱动、应用示范、群链协同、开源生态”的总体思路,通过布局重大技术攻关、建设典型应用示范、构建产业特色集群、打造开源优质项目,到2027年,实现具身模型、具身语料等方面核心算法与技术突破不少于20项;建设不少于4个具身智能高质量孵化器,实现百家行业骨干企业集聚、百大创新应用场景落地与百件国际领先产品推广,全市具身智能核心产业规模突破500亿元。
同时,支持企业、高校和科研院所联合研发多模态数据融合处理技术,打造自主操作系统。与机器人制造商、科研机构合作,推动具身智能操作系统在工业制造、物流配送、商业服务等领域试点应用,推动版本迭代优化,逐步构建成熟、可靠、广泛应用的具身智能操作系统生态。
2025年 7 月,上海市经济信息化委印发《上海市进一步扩大人工智能应用的若干措施》。其中提到,降低智能算力使用成本,发放6亿元算力券,加强算力调度平台建设,体系化支持企业研发和应用大模型,加快大模型生态空间集聚。
【重点政策】上海市印发《上海市进一步扩大人工智能应用的若干措施》,发放6亿元算力券
7月28日,上海市印发《上海市进一步扩大人工智能应用的若干措施》,其中提到,降低智能算力使用成本,发放6亿元算力券,加强算力调度平台建设,体系化支持企业研发和应用大模型,加快大模型生态空间集聚。对租用智能算力的主体,市级给予最高30%租金补贴,并推荐申报国家智能券补贴,按照“补早补小”原则,市区协同给予最多1年、最高100%的租金补贴。对自主智能算力设施部署项目,给予最高10%建设支持,加速培育人工智能自主生态。
【重点政策】《贵阳市算力产业促进条例》8月1日起施行
7月29日,贵阳市人大常委会召开新闻发布会,发布实施《贵阳市算力产业促进条例》(以下简称《条例》)。《条例》经2025年4月29日贵阳市第十五届人民代表大会常务委员会第二十六次会议通过,2025年5月29日贵州省第十四届人民代表大会常务委员会第十七次会议批准,自2025年8月1日起施行。
近年来,贵阳贵安立足自身优势,紧抓发展机遇,通过各级各部门的共同努力,算力产业发展加快推进,取得了显著成绩,2022年,贵阳贵安成为国家“东数西算”工程中全国一体化算力网络国家(贵州)枢纽节点核心承载区,全国重点打造的10个国家数据中心集群之一,贵阳贵安算力产业发展资源禀赋和先发优势凸显。
贵阳市人大常委围绕数字经济发展,在地方立法上先行先试,率先在全国开展算力方面的地方立法,充分发挥地方立法引领作用,对保障贵阳“数字活市”战略深入实施,运用法治思维、法治方式、法治手段推动贵阳贵安算力产业高质量发展,探索地方立法实践经验,都具有重要的实践意义。
据介绍,针对国家层面尚未明确“算力产业”定义的空白,《条例》立足贵阳实际,结合行业专家、企业代表意见建议,首次以地方性法规形式明确“算力产业”内涵,其涵盖“算力基础设施建设、软硬件研发制造、技术创新、服务应用及安全保障”等全链条体系。《条例》第三十一条提出,算力产业是指围绕算力基础设施建设、基础软硬件研发制造、技术创新、服务应用和安全保障等形成的产业链和生态体系。同时,《条例》第十二条细化了产业链上中下游重点发展方向,为算力产业系统性、规模化发展提供了清晰指引。
结合贵阳贵安“智算”资源优势,《条例》第九条提出“算存一体、智算优先”的科学布局原则,要求推进数据中心建设与改造升级,提升计算力与存储力,构建通用计算、智能计算、超级计算与边缘计算协同发展的多元算力供给体系,满足差异化业务需求。
为落实国家“东数西算”战略,将贵阳市算力优势转化为产业优势,《条例》第十一条提出,市人民政府需加强与省外算力需求集中地区的沟通合作,推动跨区域算力协同发展;同时,支持算力企业承接外地算力业务,鼓励外地算力企业在本市设立数据中心、制造基地、区域总部和运营中心,并鼓励算力企业跨地区、跨行业共享算力资源,提高算力资源利用率。
为降低用算成本、调动市场主体积极性,《条例》第十五条规定了市人民政府数据主管部门应当制定政策措施帮助市场主体、高等学校、科研机构、医疗卫生机构等降低用算成本,第十七条规定了县级以上人民政府及其有关部门应当支持行业大模型研发、训练和应用。同时,在符合公平竞争要求的基础上,《条例》第二十四条、第二十五条规定了有关部门应当对数据中心用电、用水的合理需求予以保障。
【重点事件】上海:年内将建成5座大型算力中心 智算规模力争达100EFLOPS
8月1日,上海市通信管理局宣布启动“算力浦江”2025年算力基础设施高质量发展专项行动,旨在通过算力与人工智能双向赋能,打造世界级人工智能产业集群。
方案明确,将加快已获得能耗指标的算力中心建设,确保2025年底前本市年内新建成的大型以上算力中心不少于5座,全市算力中心智算规模力争达到100EFLOPS(FP16)以上。同时,在产业园区、科研院所及高校等场景完成不少于5个边缘智算节点示范建设。
【重点事件】国产算力筑基AI产业高质量发展 WAIC 2025各界探讨国产算力最新突破与未来发展
7月29日,2025世界人工智能大会(WAIC)期间,由是石科技主办的“算力为基——并行优化与行业模型赋能AI产业变革”高端圆桌对话在上海隆重举行。来自学术界、产业界及研究机构的顶尖专家齐聚一堂,围绕国产算力突破、并行优化技术及行业模型实践展开深度探讨,为AI产业高质量发展提供新思路。
国产算力崛起:软硬件协同需要技术突破
随着AI技术在各行业加速渗透,算力需求呈现爆发式增长。如何通过国产算力支撑大模型发展,成为圆桌首个焦点议题。清华大学副教授甘霖指出,国产超算平台(如神威、曙光、天河等)已具备服务行业大模型的能力,但需通过并行算法优化解决存储、扩展及能效瓶颈。“提炼行业模型的共性需求,构建通用算法库和工具链,是提升国产算力效率的关键。”
上海人工智能实验室专家从算法角度补充,强调“软硬协同”的重要性:“下一代模型架构需与国产芯片设计深度耦合,打破传统适配模式,推动芯片工艺与算法创新的双向奔赴。”鸿之微董事长曹荣根则以材料科学为例,提出国产算力需强化异构能力,支持多精度计算,并加快算子库生态建设。PPIO联合创始人王闻宇坦言,国产硬件虽已接近国际主流水平,但软件生态尤其是非CUDA兼容体系的调优能力仍需突破。
行业模型落地:医药研发、能源革命等AI应用实践
在垂直领域,AI与行业知识的融合正催生变革性应用。华领医药研究与发现技术部负责人冯令戈分享了生物医药全链条的AI赋能案例:从靶点发现、蛋白结构解析、药物分子设计及模拟湿试验结果到临床试验设计优化,AI提升了海量生物医学科学数据的价值、大幅缩短研发周期并降低成本。“例如,FDA现代化法案建议逐步通过AI模型替代部分动物学实验,提升了药品研发效率,使得患者可以尽快获益。”
中海储能总经理王屾则展示了能源领域的创新实践。该公司开发的铁铬液流电池垂类大模型,整合15年材料数据,实现电解液配方优化、反应堆模拟及电网智能调度。“传统研发需14年打磨70分产品,而AI助力下,我们正加速向100分迈进。”王屾表示。
并行优化:超智融合时代的核心技术引擎
面对异构算力与多样化行业需求,并行优化技术被多次提及。甘霖教授形象比喻:“同一块芯片,优秀工程师可通过并行优化将性能提升20倍。”他透露,团队正探索用大模型学习资深程序员针对特定芯片优化的代码,实现“AI for Parallel Programming”,未来有望大幅降低科学计算的开发门槛。
是石科技董事长闫博文总结称,国产算力需以“超智融合”(HPC+AI)为路径,通过并行优化释放硬件潜力,而行业模型则需深耕场景know-how,形成闭环迭代。“只有技术、生态与产业三方协同,才能推动AI从实验室走向产业化落地。”
共筑生态:开启AI产业变革新篇章
圆桌尾声,是石科技总经理毛运航呼吁产业链伙伴携手,以算力为基、创新为翼,共建开放共赢的AI生态。与会专家一致认为,在国产算力崛起与行业模型爆发的双重驱动下,中国AI产业正迎来从“跟跑”到“领跑”的历史机遇,而并行优化技术将成为这场变革的核心支点。
此次对话不仅为AI与产业融合提供了方法论,更展现了中国科技企业在全球AI竞赛中的技术自信与生态雄心。未来,随着算力、算法与数据的持续进化,HAI赋能千行百业的画卷将加速展开。
【重点事件】启迪设计集团签约河南空港智算中心(一中心)三期项目一批次算力集群
7月29日,国产算力集群项目签约仪式在河南郑州举行。启迪设计集团作为项目中标联合体牵头方,携手神威(无锡)信息产业有限公司、中农算力(北京)科技有限公司与河南空港数字城市开发建设有限公司共同签署河南空港智算中心(一中心)三期项目一批次算力集群部分建设、维护、运营一体化采购项目合约。该项目中标金额8.6亿元,是启迪设计在数字科技和新基建领域的又一成果,公司将携手各方合作伙伴,全力打造智能算力枢纽。
【重点事件】打造智算供给服务新高地 北斗博阳空间信息产业园开园
8月1日,位于松江经开区的北斗博阳空间信息产业园开园,园区将以“通导遥算、数字能源”为使命,打造空间信息应用示范、智算服务样板及人工智能和数字能源创新高地,助力松江智算服务产业高质量发展,并大幅提升区域算力基础设施能级。
北斗博阳空间信息产业园是紧跟国家战略,抢抓时代机遇,按照上海市重点特色产业协同联动的总体要求打造的空间信息产业应用高标准、创新性特色示范园区。园区包括北斗时空智算中心、人工智能创新中心、空间信息应用中心,以智算服务为核心,以空间信息、人工智能产业为两翼,打造“一核两翼”的先导产业集群,将形成ai赋能的空间信息技术创新体系和人工智能产业融合发展新格局。有别于传统的经济园区,北斗博阳空间信息产业园承载了上海“十四五”新基建重大项目“北斗时空(上海)算力中心”和卫星测运控中心,是智能算力和空间信息应用的重要基础设施。
上海博阳新能源科技股份有限公司董事长张宏泉表示,北斗博阳空间信息产业园开园是博阳建设的重要里程碑,标志着公司“空间信息+数字能源”双轮驱动的转型战略初步实现。现场举行了北斗博阳空间信息产业园110kv用户变电站送电交付仪式,意味着北斗时空智算中心建设取得决定性成果,进入冲刺阶段。国网松江电力公司向博阳新能源赠送“电力服务包”,进一步助力企业高效用能。
当天,首届“智算云间”创新发展论坛在园区举办。相关领域的专家学者及企业代表围绕算力技术的创新与应用发展进行广泛交流。
【重点事件】国家医保局:持续推动 AI、大数据等技术应用于医保领域
国家医保局在8月1日召开了2025全国智慧医保大赛新闻发布会,展望了医保的未来应用领域。
据国家医保局副局长黄华波介绍,本次大赛所用的数据源于长三角三省一市,数据在应用前皆经过脱敏,建立全封闭的可信空间。
目前医保信息数据涵盖了全国13.3亿参保人、5000万家用人单位、114万家医院药店、1.79万家药耗企业、37.6万个药品耗材的医保相关信息,支撑着全国每年约3万亿元、100亿人次医保费用的收入、支出和实时结算。
国家医保局大数据中心主任付超奇表示,这些数据是全国质量最好、覆盖面最广、标准最统一的行业数据之一,与经济社会发展高度同构。
同时黄华波表示,本次全国智慧医保大赛采用“不设赛道、只分领域”的开放模式,比赛内容覆盖医疗健康、创新药物研发、金融保险、政务服务、学术研究等十多个领域。
在大赛中,参赛者获得的是患者真实就医、结算、基金运行、药品耗材使用等真实数据,而不是虚拟的理想化场景,参赛方案必须考虑区域协同、政策适配、资源优化、流动人口服务等现实挑战,这为方案的可行性、实用性打下基础。
这种打破孤岛的探索使融合分析成为可能,为 AI、大数据分析、隐私计算、区块链等前沿技术的创新应用提供了更全面的“演练场”。
从报道获悉,国家医保局已在持续推动 AI、大数据等技术在医保领域的应用,推动基金监管从“人海战术”向“智能精准”转变。例如“异常住院”“医保药品倒卖”“重点药品监测”等大数据分析模型能够精准锁定违法违规行为;医保、卫健、药监等部门共享定点医药机构违规人员的“驾照式记分”,形成了监管合力。
【重点事件】国内首个光互连光交换 GPU 超节点光跃 LightSphere X 发布,曦智壁仞中兴等参与
7月30日消息,在上周六开幕的2025世界人工智能大会上,上海仪电、曦智、壁仞、中兴四方联合发布了国内首个光互连光交换 GPU 超节点——光跃 LightSphere X。
这一超节点基于曦智“全球首创”的分布式光交换技术,采用硅光 (SiPh) 技术的光互连光交换芯片和壁仞大算力 GPGPU 液冷模组与全新载板互连,并搭载中兴高性能 AI 国产服务器及仪电智算云平台软件,实现了智算集群的高带宽、低延迟、灵活可扩展。
超节点架构通过深度整合 GPU 资源,在内部构建起低延迟、高带宽的统一算力实体,支持算力集群“万卡协同”。
光跃 LightSphere X 通过高效低延迟的光互连实现跨大量机柜构建超节点,突破单机柜功耗限制和传统铜互联扩展限制,在兼容现有数据中心基础设施的同时支持集群弹性扩展,可实现超节点规模动态调整。
这一超节点架构在 GPU 上集成光交换功能实现分布式光交换,相比传统的集中式光互连支持拓扑灵活切换与故障场景实时重构,最大部署规模则能达到 2000卡。
光跃 LightSphere X 项目也获得了 2025 世界人工智能大会最高奖项:SAIL 卓越人工智能引领者奖。
【重点企业】消息称 AMD MI350 GPU 售价达 2.5 万美元,仍比竞品英伟达 B200 低三成
7月30日消息,韩媒 Newsis 当地时间28日报道称,AMD最近发布的 Instinct MI350系列显卡加速器 (AI GPU) 的平均售价达到了2.5万美元(注:现汇率约合18万元人民币),较此前的1.5万美元预估高出 2/3。
不过尽管如此,Instinct MI350系列的价格仍要比竞品英伟达 B200低 30%,相对性价比仍然存在。按照这一说法,英伟达 B200 的单价要达到 3.5 万美元以上。
汇丰银行认为MI350系列的推出为AMD带来了能与B200正面抗衡的产品(两者在多个精度下算力相当),AI 芯片可在2026年为 AMD 贡献151亿美元(现汇率约合 1084.25 亿元人民币)营收,相较此前预计的96亿美元增长五成以上。
【重点企业】解构国产算力新范式:从TPU芯片到智算中心的全链条自主创新
人工智能浪潮席卷全球,算力基础设施的自主可控与效能革新,已成为信息产业发展的核心命题。7月28日世界人工智能大会期间,天津移动TPU智算中心的正式点亮,向业界展示了一个高性能算力集群的落成,也提供了一个从底层芯片架构、服务器整机集成到运营商级算力服务的全链条自主创新范本,为我国智算产业生态的构建开拓了极具价值的参考路径。
核心技术探源:TPU架构何以成为破局关键?
本次智算中心的算力核心,是中昊芯英历时近五年自主研发的“刹那”TPU芯片。当前AI算力 市场以GPU为主流,为何要选择并落地TPU这一专用架构路线?答案源于对AI计算本质的深刻洞察。
天津移动 TPU 智算中心的项目建设负责人、天津移动城三分公司副总经理高亢在点亮仪式致辞时表示:“算力的竞争其实就是芯片、架构、能耗与效率的竞争。在进行底层算力硬件选型时,芯片的算力性能、功耗与易用性是天津移动重点关注的核心因素。能耗决定长期运营成本,性价比决定能否大规模普及,易用性决定开发者愿不愿意留下来。”
当大模型训练的参数量不断跃升,当推理侧并发呈指数级增长,传统的芯片架构可能面临效能瓶颈。而 TPU 芯片架构相较于传统的 GPU,在 AI/ML 计算场景下因创新架构而具有天然的效能优势。
作为国产 TPU AI 专用算力芯片的领导者和先行者,中昊芯英提供的自研 “泰则®”GPTPU 人工智能服务器,为项目提供了核心的 AI 算力效能。“泰则®”搭载的 TPU 芯片“刹那®”由中昊芯英历时近 5 年研发,是中国首枚量产的高性能 TPU 架构 AI 专用大芯片,拥有全自研的 IP 核、指令集与计算平台。“刹那®”的 AI 算力性能超越海外著名 GPU 产品近 1.5 倍,能耗降低 30%,将价格、算力和能耗综合测算,“刹那®”的单位算力成本可降低近一半。1024 片芯片通过光模块片间高速互联的能力,使系统集群性能远超传统 GPU 数倍,千卡集群可支撑超千亿参数大模型的运算需求。
系统集成攻坚:打通“芯”到“算”的最后一公里
一颗高性能芯片的诞生只是第一步。如何高效、稳定地将其集成到服务器系统中,让上层应用顺畅调用其算力,既是产业化落地的关键,也是我国信息产业长期面临的挑战。
在此次项目中,太极股份提供了智算服务器整机集成、测试、部署和软硬件优化等。搭载太极股份自研的 TAIJI2000-Z001 CPU 服务器与中昊芯英的“泰则®”TPU AI 服务器,集成 AI 算力服务器系统,同步开发适配国产芯片的嵌入式软件,并提供一次性集成部署及后期运维等全生命周期服务,通过“软硬件 + 集成 + 运维”的一体化能力,确保了算力集群的高效稳定运行。
太极股份数字基础设施业务集团总经理孟凡池介绍,在硬件层面,太极股份基于自研的旗舰级TAIJI-2000-Z001 AI服务器做了深度适配。该服务器平台本身具备强大的扩展性,可支持8块“刹那”TPU芯片,并配备了高速内存与存储通道。集成的难点在于,必须确保TPU芯片与CPU之间、多块TPU芯片之间的高速互联与数据通路畅通无阻,才能最大化发挥芯片集群的并行计算能力。
软件层面的挑战更为艰巨。太极股份针对“刹那”的全自研指令集,开发了适配的嵌入式软件系统和编译工具,为国产芯片与上层应用软件架起了沟通的“桥梁”。编译系统支持高斯朴素贝叶斯、支持向量机等机器学习模型,方便开发者将现有AI模型便捷地迁移至TPU平台,极大地降低了国产芯片的应用门槛。
太极股份成功打通了从国产核心器件到国产算力设备的“最后一公里”,形成了一套软硬件协同优化的完整解决方案。
算力运营变革:运营商的“算网融合”新角色
中国移动立足“供给者、汇聚者、运营者”定位,特别是秉持着“为国建云”的初心使命,在AI-IaaS层提出芯片开放、协议开放、形态开放的目标,旨在以多芯兼容的开放式架构打破技术论断,激发国产智算潜能。
天津移动将通过“算力运营平台、MaaS平台、云管平台”三大关键平台的建设,使能从“算力提供者”向“智能服务提供者”的战略转型。
天津移动TPU智算中心的落地,是这一转型的生动实践。天津移动城三分公司副总经理高亢表示,天津移动正按照“一云多芯”策略持续进行基础设施建设,构建以异构融合、高速传输、统一调度、服务化供给为核心特征的“四位一体”新型AI算力体系。
这意味着算力不再是孤立的数据中心资源,而是像流量一样可被灵活输送和智能分配的网络化资源。借力中国移动的云网融合基础设施,天津移动TPU智算中心的国产TPU算力能够以低时延、高可靠的方式,精准赋能华北地区的工业、金融、科研等用户,实现“算力像水电一样,即取即用”的愿景。
这次多方合作,清晰地勾勒出我国信息产业在AI时代的发展新图景:以中昊芯英为代表的“硬核”科技企业负责底层技术突破,以太极股份为代表的系统集成商负责产业化承接与生态构建,以天津移动为代表的运营商负责将算力转化为人工智能普惠服务。这种协同模式,为我国加速构建自主可控、高效绿色的算力基础设施,提供了坚实的产业支撑。
【重点事件】《中国人工智能安全承诺框架》发布
7月30日消息,2025 世界人工智能大会暨人工智能全球治理高级别会议“人工智能发展与安全”全体会议 7月26日下午在上海召开。会议由中国人工智能发展与安全研究网络(以下简称“研究网络”,CnAISDA)主办。上海市委常委、常务副市长吴伟,国家发展和改革委员会创新驱动发展中心主任霍福鹏出席并致辞。
杰弗里・辛顿、姚期智、约书亚・本吉奥和大卫・帕特森4位图灵奖得主,以及 20 多位国内外顶尖专家出席会议,共同探讨人工智能安全发展、缩小智能鸿沟等前沿议题,积极寻求人工智能安全治理国际合作路径。
中国信息通信研究院(简称“中国信通院”)院长、中国人工智能产业发展联盟(AIIA)秘书长余晓晖受邀参与对话,牵头与清华大学、上海人工智能实验室、中国电子信息产业发展研究院等单位的代表一起发布《中国人工智能安全承诺框架》。
该《框架》在 AIIA《人工智能安全承诺》(2024 年 12 月发布)的基础上,新增了加强人工智能安全治理国际合作、防范前沿人工智能安全风险等内容,体现了中国产业界愿与全球各方紧密携手,共促人工智能向善发展的坚定决心和开放态度。
下一步,中国信通院作为“研究网络”成员和 AIIA 秘书处单位,将与签署企业携手,通过披露行动、测试验证等方式,推动《框架》的落地实践,促进我国人工智能朝着有益、安全、公平方向健康有序发展,并积极开展国际治理合作,为全球人工智能安全治理贡献中国智慧和中国力量。
【重点事件】DeepSeek 下一代技术提前曝光,梁文锋署名论文获 ACL 2025 最佳论文奖
在ACL 2025的颁奖典礼上,由DeepSeek梁文锋作为通讯作者、与北京大学等联合发表的论文荣获最佳论文奖。
这次ACL 2025规模空前,总投稿量达到8360篇,相较于去年的4407篇几乎翻倍,竞争异常激烈。
简单来说,他们提出的原生稀疏注意力(NSA)机制,通过算法与硬件的协同优化,直接把长文本处理速度提升了 11 倍。更厉害的是,性能不仅没降反而还超越了传统的全注意力模型。
一作袁境阳在会上发表演讲,透露这项技术可以把上下文长度扩展到 1 百万 tokens,将被应用到下一个前沿模型中。
结合论文发表于 DeepSeek-R1 推出之后,实验设置中也提到使用了 DeepSeek-R1 的蒸馏数据来微调了新的模型。
大家纷纷猜测,这项技术将被用于下一代 DeepSeek-V4 以及 DeepSeek-R2。
【重点事件】多项力压 Grok 4、OpenAI o3,谷歌推出 Gemini 2.5 Deep Think 模型
8月1日消息,谷歌今晚宣布,Gemini 2.5 Deep Think 模型现已正式上线,现已在 Gemini 应用中向 Google AI Ultra 订阅用户开放。这款新模型在多个关键基准测试中超越了 OpenAI 的 o3 和 xAI 的 Grok 4。
据外媒 Neowin 报道,今年 5 月,谷歌在 Google I/O 大会上首次介绍了 Gemini 2.5 Pro 的 Deep Think 模式,采用全新研究方法,可在作答前综合多个假设进行推理。本次发布的是该功能的升级版,结合早期内测用户的反馈和最新研究成果进行了优化。谷歌表示,新版本在性能上相比最初的 I/O 版本有了显著提升。
谷歌还透露,这一模型是此前模型的一个变体(注:前述模型已在国际数学奥林匹克竞赛中获得金牌)。为适应日常使用场景,谷歌对其进行了加速优化,因此在 2025 年 IMO 基准测试中仅达到铜牌水平。
从基准测试结果可知,Gemini 2.5 Deep Think 在 LiveCodeBench V6、Humanity’s Last Exam、IMO 2025 和 AIME 2025 等项目中均表现优异。
目前,Google AI Ultra 用户每天可以在 Gemini 应用中以限定次数使用 Deep Think。当启用 Gemini 2.5 Pro 模型时,输入栏会显示“Deep Think”选项。谷歌指出,该功能将自动集成代码执行和谷歌搜索等工具。谷歌还计划在未来几周内,通过 Gemini API 向部分开发者提供带工具与不带工具的 Deep Think 模型版本。
【重点事件】全球估值最高 AI 公司:消息称 OpenAI 最新融资超 80 亿美元,提前完成今年 400 亿美元目标
8 月 2 日消息,纽约时报(8月1日)发布博文,报道称 OpenAI 在最新一轮融资中,筹集了超过 80 亿美元(注:现汇率约合 576.27 亿元人民币),估值达到 3000 亿美元(现汇率约合 2.16 万亿元人民币)。
这一轮融资提前完成了 OpenAI 今年计划筹集 400 亿美元(现汇率约合 2881.33 亿元人民币)的目标。在本轮融资中,Dragoneer 投资集团是最大的投资者,承诺投入 28 亿美元,这可能是单个风险投资公司有史以来最大的投资之一。
本轮融资吸引了来自私募股权和共同基金领域的多家“重量级资本玩家”,包括黑石集团(Blackstone)、TPG、T. Rowe Price,以及富达投资(Fidelity)、Founders Fund、红杉资本、Andreessen Horowitz、Coatue、Altimeter、D1 Capital、Tiger Global 和 Thrive Capital 等知名机构。
OpenAI 的业务持续增长,其年度经常性收入已从 6 月份的 100 亿美元飙升至 130 亿美元,预计年底将超过 200 亿美元。ChatGPT 的付费企业用户数量已从几个月前的 300 万增加到 500 万。
新一轮融资正值 OpenAI 与微软进行微妙谈判之际,OpenAI 寻求成为一家盈利公司,这需要其最大投资者和商业伙伴微软的批准,而积极的融资结果可能有助于帮助 OpenAI 最终实现 IPO 上市。
根据 Thunderbit 的报道,OpenAI 的估值为 3000 亿美元,稳居行业第一。此外,Databricks 的估值约为 620 亿美元,xAI 的估值约为 500 亿美元,而 Anthropic 的估值约为 1500 亿美元。
【重点事件】昆仑万维发布并开源全新推理大模型 MindLink,基于 Qwen3-32B 和 Qwen2.5-72B 进行后训练
8月2日消息,昆仑万维刚刚发文,宣布推出并开源全新推理大模型 Skywork MindLink。
据介绍,这套全新的推理范式,能够根据任务难度自适应整合推理和非推理的生成回复,极大减少了推理成本,增强了推理过程的可读性和有效性。
数据显示,Skywork MindLink 模型在 10 个在无外接工具配置的大模型评测对比中,在人类最后的考试(Humanity's Last Exam)评测中获得第一,在复杂的数学领域(奥赛)中拿下 4 项评测第一(USAMO 2025、AIME 2024、AIME 2025、 HMMT 2025),在通识类领域的 GPQA-diamond 和 MMLU-pro 评测也表现优异。
Skywork MindLink 模型的核心能力包括:
新的推理范式 Plan-based Reasoning 去掉了“think”标签,减少了推理成本,提升了多轮对话能力。
提出了全新的数学方法,能够尝试分析 CoT 和 Plan-based Reasoning 的有效性。
提出一套自适应的推理机制,能够根据任务难度整合推理和非推理的生成回复。
基于 Qwen3-32B 和 Qwen2.5-72B 进行后训练,节省了大量训练成本的前提下,提高了原本模型能力,未来会开源更多尺寸模型。
目前昆仑万维已经拥有天工语言大模型、天工多模态大模型、SWE 代码大模型、Agent 大模型、视频大模型、3D 大模型、音乐大模型、音频大模型等大模型。
【重点事件】月之暗面发布Kimi K2高速版:输出速度提升至每秒 40 Tokens
8月1日消息,月之暗面今日发布Kimi K2高速版 ——Kimi-K2-turbo-preview,模型参数与 Kimi-K2一致,但输出速度由每秒10 Tokens 提升至每秒 40 Tokens。
据介绍,该模型目前限时 5 折特惠,9 月 1 日恢复原价,折扣后的价格:模型每百万 tokens 输入价格(缓存命中)2 元,输入价格(缓存未命中)8 元,输出价格 32 元。
月之暗面 7 月 11 日正式发布Kimi K2模型,并同步开源。Kimi K2 是一款具备更强代码能力、更擅长通用 Agent 任务的 MoE 架构基础模型,总参数 1T,激活参数 32B。
【重点事件】阿里通义千问发布 Qwen3-Coder-Flash 模型,AI 智能体编程 / 操控浏览器等领域媲美 GPT-4.1 等领先闭源模型
8月1日消息,阿里通义千问 Qwen(7月31日)发布公告,宣布推出 Qwen3-Coder-Flash(全称 Qwen3-Coder-30B-A3B-Instruct)模型,在保持出色的性能和效率基础上,改进智能体编码、智能体浏览器使用及其他基础编码任务性能。
官方介绍称该模型具备卓越的智能体能力,在智能体编程 (Agentic Coding)、浏览器使用 (AgenticBrowser-Use)、工具调用 (Tool Use) 等领域,超越当前顶级开源模型,仅略逊于顶配版 Qwen3-Coder-480B-A35B-Instruct, 及 ClaudeSonnet-4、GPT4.1 等领先闭源模型。
该模型是因果语言模型,总参数量为 30.5B,激活参数为 3.3B,共有 48 层,专家数为 128 个,激活专家数为 8 个,上下文长度原生支持 262144 个 tokens,使用 Yarn 可扩展到 100 万个 tokens。此模型仅支持非思考模式,不会在其输出中生成 <think></think> 块。
该模型针对 Qwen Code、Cline、Roo Code、Kilo Code 等平台优化,并具有特别设计的函数调用格式,无缝函数调用和代理工作流程。
【重点事件】阶跃星辰新一代基础大模型 Step 3 正式开源:拥有强大视觉感知和复杂推理能力
7 月 31 日消息,阶跃星辰宣布新一代基础大模型 Step 3 正式开源,Step 3 API 已上线阶跃星辰开放平台(platform.stepfun.com),用户也可以在“阶跃 AI”官网(stepfun.com)和“阶跃 AI”App 进行体验。
据介绍,Step 3 的多模态能力围绕“轻量视觉路径”与“稳定协同训练”展开,重点解决视觉引入带来的 token 负担与训练干扰问题。为此,其采用 5B Vision Encoder,并通过双层 2D 卷积对视觉特征进行降采样,将视觉 token 数量减少到原来的 1/16,减轻上下文长度压力,提升推理效率。
【重点事件】字节跳动Seed团队发布扩散语言模型Diffusion Preview,每秒推理速度2146 tokens
7月31日消息,字节跳动Seed团队今天宣布推出实验性扩散语言模型Seed Diffusion Preview,目标是以结构化的代码生成为实验领域,系统性地验证离散扩散技术路线作为下一代语言模型基础框架的可行性。
实验结果显示,Seed Diffusion Preview 代码推理速度可达到 2146 tokens / s,速度相比同等规模的自回归模型提升 5.4 倍。在多个业界基准上,Seed Diffusion Preview 性能与优秀的自回归模型相当,并在代码编辑等任务上实现超越。
Seed 团队介绍获悉,在实现高效采样的同时,模型在多个代码生成基准测试中,表现出与同规模自回归模型相当的性能。此外,在代码编辑(如 CanitEdit 等)这类需要全局视角规划的任务中,模型展现了扩散模型框架的内在优势,性能超过基于自回归的模型,为解决更复杂的结构化推理问题提供了新的可能性。
官方表示,Seed Diffusion Preview 验证了离散扩散模型在大型语言模型上的推理加速潜力。团队同时认为,推理加速仅是这一技术路径最直接的表层优势。Seed Diffusion 项目将致力于挖掘其更深远的价值,持续探索其规模化定律与在复杂推理任务中的应用。
【重点事件】智谱发布新一代旗舰开源模型 GLM-4.5,专为智能体应用打造
7月28日消息,今天智谱发布了新一代旗舰模型 GLM-4.5,专为智能体应用打造的基础模型。Hugging Face 与 ModelScope 平台同步开源,模型权重遵循 MIT License。
【重点事件】1.7 秒实现高清大片快速复原,我国团队发布 HYPIR 图像复原大模型
7 月 28 日消息,中国科学院深圳先进技术研究院数字所董超研究员团队今日发布了一项名为 HYPIR 的图像复原大模型,不仅比现有的图像复原技术快数十倍,更在高清分辨率、文字保真、理解能力、用户控制灵活性等方面展现出了优异性能。
传统方法中,基于预训练扩散模型的复原技术显著提升了图像复原效果,但存在计算复杂度高、推理速度慢、训练资源消耗大以及生成结果可控性不足等问题,成为了限制图像复原技术发展的瓶颈问题。
在线订购
版权提示:智研咨询倡导尊重与保护知识产权,对有明确来源的内容注明出处。如发现本站文章存在版权、稿酬或其它问题,烦请联系我们,我们将及时与您沟通处理。联系方式:gaojian@chyxx.com、010-60343812。