美国最大的芯片设备制造商应用材料公司上周发布了一份不温不火的收入预测,理由是华盛顿可能实施新的出口管制。该公司最大的市场中国的收入在最近一个季度下降了25%,至22亿美元,而该公司的总收入为72亿美元。
该公司认为,中国市场收入还会促进下降。首席财务官布莱斯·希尔上周 告诉分析师:“我们预计,第二季度中国市场收入占总收入的比例将比第一季度下降约5个百分点。”
贝恩公司亚太区硬件、半导体和数据中心主管Moonsup Shin表示:“中国不单单是一个半导体制造中心。中国制造商生产的半导体中约有50%或以上在中国消费。”
应用材料并不是唯一一家担心中国管控的芯片制造设备制造商。Lam Research 2024年最后三个月的中国营收同比下降10%,至14亿美元。中国营收贡献也从一年前的40%下降到现在的31%。
随后,美国于2022年出台了出口管制,不仅限制中国获取先进芯片,还限制中国获取制造这些芯片所需的设备。美国后来加强了这些限制,并迫使荷兰和日本等其他几个国家实施自己的规则。
讽刺的是,监管规定至少在最初阶段对设备公司起到一定的帮助。中国芯片制造商纷纷囤积机器,因为他们担心华盛顿以后可能会实施更严格的出口管制。
David Chuang表示,这造成了“双重负面影响”,因为美国芯片制造商受到华盛顿和北京政策的挤压。
中国目前还没有能力生产美国和其他非中国公司生产的尖端机器。然而,中国公司在替代非关键设备方面取得了一些成功。
分析人士此前也曾表示,制造商已经能够以创新的方式利用旧设备来制造更先进的芯片。
业界消息:美系设备供应商的技术人员已从长鑫存储工厂撤离,且美方管制范围已扩及正在量产的18纳米,美方这招釜底抽薪,导致长鑫存储15纳米计划告急。
目前尚无法确定影响程度,但考量未来机台维修、软件更新等问题,长期可能会影响长鑫存储的技术发展。这对韩国存储器大厂却是个好消息。
1)长鑫存储2016年成立,当时大陆还没有自主生产DRAM芯片的能力,不到10年已成为全世界DRAM市场新贵。
SK海力士于2020年将DDR5商业化,长鑫存储只花四年便赶上,严重威胁韩商的主导地位。
长鑫存储正在加速开发下一代DRAM技术,但并未按原计划为首款商用DDR5产品采用17纳米,而是直接采用16纳米制程。
下一代15纳米制程技术也在进行开发中,目标是在今年内开发完成,最快在明年下半年就能达成商业化的目标。
作为信息化、数字化、智能化的新型技术基座,生成式人工智能对于提升国家战略地位与国际竞争力具备极其重大意义。2022年11月以来,随着以ChatGPT为代表的大语言模型快速地发展,生成式人工智能(Generative Artificial Intelligence, GenAI)推动人工智能从算法智能(Algorithmic Intelligence,AI)进入语言智能(Linguistic Intelligence,LI)时代,正在全面革新社会生产力。当前,大语言模型成为现代人工智能的基石,构筑起连接多模态的桥梁。2024年2月美国OpenAI发布的Sora,以其长达1分钟的高质量视频生成能力,进一步开启了想象智能(Imaginative Intelligence,II)新时代。Sora初步体现出“世界模拟器”的能力,为探索通用AI(Artificial General Intelligence,AGI)迈出了重要一步。我国近年来也在生成式AI领域不断取得进展,文心一言、通义千问、盘古、混元、Kimi等大模型在中文应用领域建立优势,呈现出“百模争鸣”的繁荣局面。同时,我国生成式人工智能也面临着算法低效、数据不足、算力紧缺、能耗过高等问题,特别是我国在芯片受限的情况下,算力问题尤为突出。
总体情况。自2022年11月ChatGPT发布以来,国产大模型迅速崛起,形成了“百模争鸣”的繁荣局面。百度的文心1.0通用大模型自2019年首次推出后,已升级至4.0版本。阿里云、华为、腾讯、科大讯飞等公司也推出了各自的通用大模型,如通义千问、盘古、混元和星火等,并向公众开放。在这场竞赛中,初创企业也取得了显著成就,例如“月之暗面”推出的Kimi智能助手大模型,支持高达200万汉字的上下文长度,引起了业界广泛关注。学术界也热情参加国产大模型的研究,例如中科院自动化所发布了全球首个图文音三模态预训练模型——紫东太初大模型,上海人工智能实验室与复旦大学联合发布了书生·浦语通用大模型(InternLM)。为推动技术与市场发展,一些厂商提供了开源版本的大模型,如阿里云的Qwen系列、零一万物的Yi系列、智谱华章的GLM系列、科大讯飞的iFlytekSpark系列、百川智能的Baichuan系列等。这些开源模型为研究和应用提供了便利,进一步促进了国产大模型技术的创新和应用。
虽然我国在生成式AI领域呈现出繁荣景象,但与国际领先水平相比,我国在算力设施、数据质量、算法创新、资产金额的投入、人才储备、产业高质量发展、生态建设等方面仍有一定差距。
算力。在AI算力领域,美国英伟达公司在全球占据主导地位,而国内AI芯片制造商如华为、寒武纪、摩尔线程、壁仞科技、海光信息、天数智芯等也在积极发展,百度、科大讯飞等企业也联合国产芯片厂开放部署了自主可控大模型算力底座“星火一体机”、“飞星一号”等平台。其中,华为在AI计算领域水平最为领先,推出了基于达芬奇架构的昇腾系列AI芯片。面对当前海外高性能芯片进口受限的现实,国产高性能芯片取得了一定的发展,但与国际领先水平相比,仍存在一定差距。
数据。数据是生成式人工智能的核心要素之一,我国在人工智能训练数据的质量和数量、管理、共享、应用等方面与国外英文数据相比,存在一些差距和挑战:
在数据质量和多样性方面,我国的中文数据虽然近年来迅速增加,但在某些领域,如专业医疗、法律等,高质量的标注数据仍然相对不足。英文数据由于互联网历史较长、用户基数大,覆盖了广泛的文化和语境,积累了大量的高质量文本和多媒体数据,这有助于训练出更具泛化能力的AI模型。中文数据虽然在本土文化和语境上具有优势,但在处理多方言、多文化背景下的数据上,仍需加强多样性和包容性。
算法。算法、数据和算力是深度学习三大要素。在基础算法方面,2017年谷歌提出的Transformer慢慢的变成了生成式AI的核心模块。此后,多模态领域的CLIP,生成式领域的扩散模型(Diffusion Model)、混合专家模型(MoE)等方法均由国外机构提出并发展,而我国科研机构提出的创新方法相对较少且影响力不足。
在大语言模型方面,谷歌的Bert和OpenAI的GPT最先开启了新时代,特别是OpenAI发布的 ChatGPT成为AI发展路程上的一个里程碑。而后续的GPT-4以其在多数任务指标上的优异表现,在众多语言大模型中仍然占据榜首。Meta开源的Llama大模型虽然稍晚性能稍逊,但是其开源属性,变成全球上众多大模型的源头。在文本生成图像方面,OpenAI的DALL·E和谷歌的Imagen在2022年最先发布,以其高真实度的效果迅速引起了全世界的注意,人工智能生成内容(AIGC)进入新时代。在文本生成视频方面,OpenAI在2024年2月发布Sora,再次取得历史性突破。在大语言模型领域,国内的百度、智源、中科院等单位具有先发优势,推出文心一言、GLM等大模型。2022年以来在开源力量等因素的推动下,形成“百模大战”的繁荣局面,但整体上的性能没有超过GPT-4等国外模型。而在文本生成视频方面,国内与Sora的差距更为明显。
在当前形势下,我国应在算力能效结合、数据开放共享、模型垂直应用、生态综合健全等方面统筹规划,调动各方力量,实现全面发展。
第一,鼓励计算架构多元创新,充分的利用我国能源优势,建设高能效智能算力网络。在计算芯片方面,应探索发展更适合AI计算的架构,发展多样化技术路线。虽然在短期内Nvidia的GPU系列仍将是AI计算的主要平台,但其也存在设计上的不足,一些新、旧势力正在打破其垄断局面。例如美国初创公司Groq研发的LPU,专门面向大语言模型推理,速度获得显著提升,而老牌Intel最新研发的AI计算芯片Gaudi3,训练性能达到Nvidia H100的1.7倍。我国也应激励研发AI专用体系架构,充分的利用RISC-V等开源架构,加快芯片制造技术升级,探索自主可控的计算生态体系。此外,应加快量子计算等新计算形式的研究。量子计算利用量子叠加和量子纠缠原理,其天然的并行解决能力远高于目前的主流处理器。近年来量子计算实现技术加快速度进行发展,量子机器学习等领域已经展现出潜力。
在电力供给方面,随着AI算力的不断的提高,对电力的需求也在急剧增长,电力已成为AI算力对决的重要的条件。生成式人工智能技术的发展离不开算力的支撑,而算力的提升又离不开电力的供应。我国“百模大战”或将带动智算中心及其配套所需的相关电力、储能基础设施建设和投运速度的大幅提高。对此,除强化国家级超算中心之外,我国可着重从两个方面应对能源算力一直增长的挑战。一是开展算力与能源的结合,参考比特币“矿厂”模式,将算力中心部署在在四川、云南、内蒙古、新疆等电力充足地区,就近利用火电、水电、风能、太阳能,依托自主硬件设备,建设高效能算力中心,助力“东数西算”。二是通过分布式计算调动社会资源,进一步利用社会闲置算力,吸引公众参与科学研究。
第二,建立联邦数据基础,鼓励开放共享,促进数据提质增量。针对数据存量少、质量低、开放不足、共享机制不完善的问题,我国第一个任务是建设智能联邦生态系统,而联邦数据是其中的当务之急。联邦数据为数据安全和隐私问题提供有效解决方案,其运行机理遵循平行智能范式,可以依据Morton定律和平行强化学习等方法探索实现数据最优化,为将大数据转化为智能打下基础。联邦数据的架构包括六个组件,即真实数据/物理对象、虚拟数据/数字孪生、联邦数据实验、联邦融合、联邦安全和可信联邦智慧。前两个组件用于处理来自物理对象的真实数据和安装在特定设备上的数字孪生生成的虚拟数据,以及其他方法生成的虚拟数据。联邦数据实验是探索最优模型的关键过程之一,通过在解决方案空间中搜索,例如,使用强化学习和并行强化学习找到本地模型的最优参数。联邦融合组件负责将本地模型合成全局最优模型,利用专门设计的模型融合算法,如动态融合机制。联邦安全组件负责实现数据安全和隐私。数据所有权和使用权是分开的,即对于特定节点,数据存储在其本地地址,而这一些数据训练的模型被转移到联邦融合和联邦数据实验组件,类似于联邦学习。此外,安全性还能够最终靠区块链或其他加密方法进一步提升。从联邦数据实验和联邦融合的结果中,能够得到可信的联邦智能。
第三,持续算法创新,打造专业大模型,开拓垂直领域应用新场景。在短期内我国AI算力受限、模型算法创新突破难度较大的背景下,应在持续鼓励算法创新的同时,以弥补算力短板、促进产业升级、解决行业痛点为出发点,着力打造专业大模型,开拓垂直领域应用新场景。通过专注于垂直领域的专业大模型,可以更有效地利用现有算力资源,避免在通用AI模型上的重复资源浪费。专业大模型针对特定问题来优化,能够在有限的算力下实现更高的性能和效率。专业大模型能够针对特定行业的需求提供定制化的智能解决方案,推动传统产业的数字化和智能化转型,从而提升整个产业链的技术水平和价值创造能力。例如,在医疗、金融、交通、教育等关键领域,专业大模型能够解决行业痛点问题,如提高疾病诊断的准确性、优化金融服务的个性化推荐、缓解交通拥堵等,持续增进人民福祉。
第四,探索TAO(True DAO),发展智能联邦生态,健全智能生态。如前所述,人工智能技术的创新和健康发展涉及到算力、算法、数据多个要素,需要政府、学术界、企业和社会大众的共同努力。因此,建立健全促进AI发展的生态体系十分关键。
一方面,充分的利用区块链、分布式自治组织(DAO),借助目前国际上开始流行的Web3和DeSci浪潮,推进我国AI领域全面发展。区块链是一种分布式账本技术,它通过加密和共识机制确保数据的不可篡改性和透明性。在AI领域,区块链能够适用于确保数据的安全性和隐私性,同时为AI模型提供高质量、可追溯的数据源。分布式自治组织(DAO)是一种基于区块链技术的组织形式,它通过智能合约自动执行组织的规则和决策过程,可以为AI项目提供去中心化的管理和资金分配机制,与区块链结合促进AI技术的开放协作和共同治理之TAO(True DAO)。Web3指的是构建在区块链技术之上的下一代互联网,它所强调的数据去中心化存储、用户隐私保护、数据所有权归还给用户等理念,为AI提供了一个更加开放、透明和安全的数据环境。以上技术应用的一个领域范例就是DeSci,利用区块链和智能合约等技术,实现科学研究的去中心化、开放和共享。DeSci鼓励跨学科合作,促进科学数据和研究成果的公开共享,也能够为AI提供丰富的数据资源和创新动力。Web3、分布式自治组织(DAO)、区块链和DeSci在发展人工智能中将一同推动技术进步、促进数据共享、增强系统安全性和推动去中心化治理,为AI的健康发展和大范围的应用提供坚实的基础。
生成式人工智能作为人工智能中发展最快的一个领域,传统巨头和勇于探索商业模式的公司的突破性产品在短时间内相继推出,可谓日新月异。算法、模型、算力、应用的相互促进,形成飞轮效应,在未来一段时期为生成式人工智能的持续繁荣提供动力。总体而言,我国虽然面临算力能源约束、数据质量不足等问题,但生成式人工智能的发展前途依然广阔。
第一,大模型的规模效应(Scaling Law)仍有扩展潜力。虽然研究新算法以替代Transformer的呼声日益高涨,但如Mamba等新架构尚在验证和改进阶段,未被广泛接受和使用。基于Transformer 并结合MoE的架构在短期内仍将继续扩展规模效益的边界。
第二,多模态大模型是发力的重点。语言大模型能力相对完备,成为链接各个模态的桥梁,文生图、文生视频等将逐步完善,促进从语言智能向想象智能的范式转换。
第三,行业大模型是重点方向。基于少数基础大模型打造面向特定行业的专业模型是“AI+”行业赋能的有效方式,参数高效微调(PEFT)技术通过最小化微调参数数量和计算复杂度,能够明显降低训练时间和成本。例如,LoRA、Prompt Tuning等技术能在计算资源有限的情况下,实现高效的迁移学习。
第四,生成式AI将进一步增加对算力与能源的需求。随着大模型规模效应的逐步发展,以及文生图、文生视频等多模态应用需求的快速地增长,算力紧缺将是未来一段时间的常态,特别是我国在芯片受限的情况下这一问题更突出。同时,算力紧缺也将促进AI专用芯片的研发,面向底层算法加速的异构芯片将挤占Nvidia的市场,我国自主AI算力芯片也将快速成长。
阿里巴巴集团CEO吴泳铭24日宣布,未来三年,阿里将投入超过3800亿元,用于建设云和AI硬件基础设施,总额超过去十年总和。这也创下中国非公有制企业在云和AI硬件基础设施建设领域有史以来规模最大投资纪录。
吴泳铭表示:“AI爆发远超预期,国内科技产业方兴未艾,潜力巨大。阿里巴巴将不遗余力加速云和AI硬件基础设施建设,助推全行业生态发展。”
目前,阿里云是亚洲头部云计算公司,阿里巴巴通义千问大模型已成为全世界知名的开源模型。吴泳铭说,3800亿元巨额资金继续投入,能极大提振相关产业信心,同时也表明,阿里一如既往相信未来、投资未来。
电子发烧友网报道(文/黄晶晶)自CES2025展上AI智能眼镜大放异彩之后,业界普遍期待这一单品有望接棒TWS耳机,成为又一爆款消费电子科技类产品。前有 Meta 公司与雷朋(Ray-Ban)品牌合作推出的第二款智能眼镜Ray-Ban Meta获得百万级别的销量,雷鸟创新RayNeo的雷鸟V3 AI拍摄眼镜引发热潮,后有小米或即将发布AI智能眼镜,这一产业正蓄势待发。其相关配套的处理器、摄像头、存储芯片等产业链厂商已积极备战。就以存储芯片来看,已经一些产品打入了AI智能眼镜的供应链。
AI智能眼镜由于具有图像、视频、AI运算等多项功能,对存储的性能有较高要求,其外型小巧轻薄,又要求存储尺寸的小型化,并且AI眼镜电池容量较小,需要节能省电,对存储的低功耗特性也有要求。
目前用在AI智能眼镜上的存储芯片以ePOP和eMCP为主,为满足AI眼镜的存储所需,厂商正致力于以更先进的设计实现小型化、高性能等。
由江波龙自有的苏州封测制造基地完成封装测试,并采用创新的研磨切割工艺,实现了更小的尺寸。支持 64GB 和 128GB 容量,可用于 AI 眼镜、智能手表、智能耳机等穿戴设备。
今年1月江波龙宣布推出 7.2mm×7.2mm 超小尺寸 eMMC,为 AI 智能穿戴设备物理空间优化提供了全新的存储解决方案。
据介绍,7.2mm×7.2mm 是目前市场上较小尺寸的 eMMC 之一,153 个球几乎占据了面板的全部位置,这种设计已经接近物理极限。相较于标准 eMMC 的 11.5mm×13mm,面积减少了约 65%,厚度 0.8mm。产品采用轻量化设计,重量 0.1g(近似值),相较于标准 eMMC 的 0.3g(近似值)下降了近 67%。
根据维深信息(wellsenn XR)发布的数据报告数据显示,2024年全球AI智能眼镜销量152万台。其中,中国国内市场AI智能眼镜销量为5万台,占比3%;海外市场AI智能眼镜销量为146万台,占比97%,海外AI智能眼镜市场以RayBan Meta为主,另外的品牌厂商暂无对标竞品发售。
2024年全球AI智能眼镜销量中94%为拍照AI智能眼镜,AR+AI智能眼镜销量6万台,占比4%;音频AI智能眼镜销量3万台,占比2%。
预计2025年全球AI智能眼镜销量350万台,较2024年增长230%。大多数来源于于Ray Ban Meta的销量持续增长,多款AI智能眼镜新品上市兑现以及小米、三星等大厂入场发售AI智能眼镜新品。更多AI智能眼镜品牌厂商的加入,推动AI智能眼镜市场规模不断扩大。
Meta在今年年初表示,Meta将在2025年推出六款以上AI驱动的可穿戴设备。其中将有超过四款智能眼镜新品。据报道,目前Ray-Ban Meta 的销量已经突破200万台,到2026年底有望将年产能提升至一千万台。
根据Visual Capitalist的统计数据,2024年全球晶圆代工行业总收入达到了1317亿美元,其中仅台积电一家便占据了62%的市场占有率,加上联华电子、VIS和PSMC等其他台湾公司的贡献,台湾整体份额超过70%,继续稳居全球半导体制造的核心地位。紧随其后的是韩国,不过三星代工市场占有率从2019年的16%下降到了2024年的10%,足见三星在代工领域的挑战。美国的GlobalFoundries和英特尔代工服务(IFS)合计占据6%。以色列的Tower semiconductor占1%。有必要注意一下的是,2024年大陆晶圆厂在市场占有率上持续增长,中芯国际占据了5%,华虹占据了2%,晶合集成占据了1%,合计拿下8%的市场占有率,而且增长势头强劲。
2024年,台积电继续跑赢晶圆代工行业,全年的收入以美元计增长30%,达到900亿美元,以新台币计增长33.9%,达到2.89万亿新台币。毛利率增长1.7个百分点,达到56.1%。虽然部分增长受到3纳米技术稀释效应及电力成本上升的影响,但整体产能利用率仍有所提高。
从平台收入贡献来看,2024年,台积电在高性能计算平台的收入同比增长58%。智能手机、物联网、汽车和数字消费电子分别增长了23%、2%、4%和2%。总体而言,高性能计算占台积电2024年收入的51%,智能手机占35%,物联网占6%,汽车占5%。2024年,人工智能相关需求的强劲增长已成为台积电收入的重要推动力。台积电预计,人工智能加速器(包括用于数据中心AI训练和推理的AI GPU、AI ASIC和HBM控制器)在2024年占到台积电总收入的近10%,收入已经翻倍。预计在2025年,AI加速器的收入仍将翻一番,在未来五年实现接近40%的复合年增长率。
而三星2024年的代工业务销售额29.2万亿韩元(大约202亿美元),同比下降6%。2024年下半年,三星虽然加大了其Gate-All-Around (GAA) 3nm 第二代工艺的产量,但不稳定的产量未能吸引客户。
英特尔的IFS收入正在平稳增长中,2024年英特尔Foundry部门全年收入为175亿美元,同比下降7%。去年,英特尔与亚马逊签署了一份价值数十亿美元的多年期协议,为其AWS的AI数据中心代工芯片,这标志着英特尔在代工领域的重大突破。然而,英特尔的代工业务目前仍面临严峻挑战。由于英特尔近年来大举扩张产能,包括在各地兴建新厂、购置先进设备,这导致了巨额的投资和经营成本,2024年巨额亏损达134亿美元
英特尔临时联合首席执行官兼首席财务官Dave Zinsner表示,打造具有竞争力的晶圆代工业务仍然是英特尔的长期目标,公司计划在2027年实现晶圆代工业务的盈亏平衡。今年,新厂和设备的整体投入预计约为200亿美元,低于此前预估的最高230亿美元。
从台积电的各工艺节点的收入占比来看,才量产没几年的3纳米工艺在2024年就贡献了台积电18%的晶圆收入,5纳米占比为34%,7纳米占17%。先进的技术(包括3纳米及以上工艺)占总收入的69%,较2023年58%的占比有所提升。
可以看出,台积电取得如今的地位,先进工艺的领先是其致胜的关键。2025年2nm量产之战即将拉开帷幕。
台积电正在积极量产2纳米和A16技术,这些新技术阶段在满足对能效计算需求方面处于行业领头羊,几乎所有创新者都在与台积电合作。台积电预计2025年的资本支出相比2024年将进一步增加,资本预算将在380亿美元至420亿美元之间,去年为298亿美元。在这些支出中,约70%将用于先进工艺技术,10%至20%用于特殊工艺技术,剩余的10%至20%将投向先进封装测试、光罩制造等其他领域。
此外,台积电还推出了以超级电源轨(SPR)为特色的A16,作为单独的产品。台积电的SPR是一种创新的、一流的背面供电解决方案,是业界首个采用新型背面金属方案的解决方案,该方案保留了栅极密度和器件宽度灵活性,从而最大限度地提升产品效益。与2纳米P相比,A16在相同功率下速度进一步提升8%至10%,或在相同速度下功率提高15%至20%,芯片密度额外提高7%至10%。A16最适合具有复杂信号路径和密集电源传输网络的特定高性能计算产品。计划于2026年下半年量产。
另外,台积电在晶圆厂全球扩张的布局也在有序展开。台积电位于美国亚利桑那州的第一座工厂已于2024年第四季度开始大规模生产,采用4纳米制程技术,良率与台湾本土工厂相当。第二和第三座工厂的建设规划也在稳步推进,将按照每个客户需求引入更先进的3纳米、2纳米及A16技术。在日本熊本,台积电的第一座特殊工艺技术工厂已于2024年底开始量产,良率非常好,第二座特殊工艺工厂的建设规划将于2025年启动。同时,位于德国德累斯顿的专注于汽车和工业应用的特殊工艺技术工厂建设进展顺利。
2024 年,中芯国际出售的收益为 80.3 亿美元,同比增长 27%,创历史上最新的记录。毛利率为 18.0%,因折旧上升等原因,同比下降 1.3 个百分点。2024 年,公司的资本开支为 73.3 亿美元,年底折合 8 英寸标准逻辑月产能为 94.8万片,出货总量超过 800 万片,年平均产能利用率85.6%。
华虹公司2024年全年收入为20.04亿美元,较上年度下降12.3%,主要由于平均销售价格下降,部分被付运晶圆数量上升所抵消;毛利率10.2%,较上年度下降11.1个百分点,主要由于平均销售价格下降及折旧成本上升。2月20日,华虹的总市值已经破千亿元。
但是需要非常指出的是,华虹的全年平均产能利用率接近100%,这在所有代工厂中都属于佼佼者。去年华虹的图像传感器、电源管理等平台表现良好,但中高端功率器件的需求仍待改善。华虹在上海金桥和张江建有三座 8 英寸晶圆厂,去年位于无锡的第二条12英寸产线顺利建成投产,标志着公司在战略发展路上又迈上了一个新台阶。
据路透社2月24日消息,苹果公司周一表示,将与合作伙伴携手,在德克萨斯州休斯敦开设一家面积达25万平方英尺的服务器制造工厂,为iPhone、iPad和Mac电脑的人工智能个人助理“苹果智能”(Apple Intelligence)生产服务器。
这家美国科技巨头表示,新工厂计划于2026年投产,它将成为苹果未来四年重大资本预算的一部分。除了这家位于得克萨斯州的新工厂,苹果表示将在美国各地招聘,新增约2万个研发岗位。
苹果称,计划在未来四年内在美国投资5000亿美元,不过这一数字涵盖了从向美国供应商采购,到为其AppleTV+服务在美国拍摄电视节目和电影等所有支出。
此前有新闻媒体报道称,苹果首席执行官蒂姆・库克上周与唐纳德・特朗普总统会面。本月早一点的时候,特朗普宣布对许多在中国组装的苹果产品加征10%的关税,尽管这家iPhone制造商在特朗普首届任期内曾获得部分关税豁免。
苹果的大多数消费产品都在美国境外组装,不过许多零部件仍在美国生产,包括博通(Broadcom)、思佳讯(SkyWorks Solutions)和Qorvo等公司生产的芯片。
苹果没有披露与台积电交易的细节,但过去它曾利用资金帮助合作伙伴建设为苹果提供产品或服务所需的基础设施。
苹果称,“它仍是美国最大的纳税企业之一,在过去五年里,已在美国纳税超过750亿美元,仅2024年就纳税190亿美元”。
这家科技巨头还表示,将把其美国先进制造业基金从目前的50亿美元增加一倍至100亿美元,在密歇根州创建一所新的制造学院,并加大其在美国的研发投资,以支持芯片工程等前沿领域,其工程师将与当地大学教职员工一起,为中小型制造公司可以提供项目管理和制造流程的优化等领域的免费课程。
根据印科技的报道:国内领先的NAND FLASH存储公司Y公司,与芯片存储巨头韩国三星达成合作,三星已经确认从V10开始,将使用来自中国同行Y公司的专利技术,主要是在新型先进封装技术“混合键合”方面。
混合键合设备也就是本文Y公司所需的关键核心设备,它提供wafer-to-wafer(俗称W2W),以及Die-to-wafar(俗称D2W)的工艺能力。
目前国内外能提供各种键合设备的公司很多,包括EVG,东京精密,芝浦,ASMI,Besi,K&S等。
国内厂家包括芯源微,苏州芯睿,拓荆,芯慧联新(百傲化学子公司),盛美,青禾晶元等。
过去三星通常在单个wafer上布置控制电路,然后再其上方堆叠存储核心单元,这样的形式被称为COP(Cell on Peripheral),但是当NAND堆叠层数超过400层的时候,底部控制电路承受巨大压力,会影响NAND的可靠性。
因此三星决定在V10产品上,使用存储单元与控制电路分别在不同硅片制造,然后再通过混合键合将其合并的技术路线。
三星调研后发现,Y公司在其NAND封装技术路线上建立了相当多的专利,形成牢固的专利墙,就目前而言,三星想要绕过Y公司的专利墙,另起炉灶属于几乎不可能。
因此三星选择了与Y公司签署混合键合专利的使用许可,从Y公司获得了技术授权。
中国新兴企业DeepSeek震惊了世界,但很快被美国企业赶超。生成式AI 的开发竞争进入了新的局面。在力争实现最尖端的巨大AI的动向加速的同时,力争实现小型高性能系统也在推进……
青木慎一:生成式AI(人工智能)的领先阵营之争瞬息万变。中国新兴企业DeepSeek 震惊了世界,但很快被美国企业赶超。拥有更多资金、人才和资源的企业占据优势的情况没改变。另一方面,随着创意和方法的公开,预计新竞争者将会增加。技术开发的竞争将更激烈,技术的进步也将加速。
“虽然对AI来说是重要的进步,但还算不上革命”,AI研究的权威本・格策尔这样评价DeepSeek的技术。DeepSeek于2024年12月发布了处理语言、运行对线月开始提供具有强大编程和数学等推理功能的“R1”。
R1被认为以低成本开发出与美国OpenAI于2024年12月正式对外发布的“o1”相匹敌的性能。虽然对成本的估算存在分歧,但是,将图形处理器(GPU)利用到极限、借助AI在反复探索的同时提高性能的“强化学习”来提升性能的方法等具有划时代意义。很多研究人员和技术人员给予高度评价。利用现有的生成式AI输出的数据来创造新模型的“蒸馏”方法也带来了高效率的开发。
到目前为止,学习数据和计算资源越多,生成式AI的性能越高。显示出即使缺乏资源也能开发出高性能AI,贡献巨大。尽管如此,格策尔指出“还未达到破坏性的范式转移。
在开发最尖端AI的过程中,丰富的计算资源仍然是强有力的武器。例如,由企业家埃隆・马斯克领导的美国xAI于17日开始提供的新AI模型“Grok3”在数学、科学和编程能力方面超过了竞争对手。这还在于大幅扩建数据中心,使之以此前模型10倍以上的计算能力进行学习等。在复杂问题的推理和解决方面,计算能力也发挥重要作用。
OpenAI计划在数个月内公开的基础模型“GPT-5”不仅具备知识能力,还具备高度的推理能力。合并后的AI预计变得庞大,因此就需要大量的最高性能GPU。
美国科技企业被认为将彻底研究DeepSeek的方法,在利用丰富的计算资源的同时,将其用于下一步的开发。在人才和资本的充裕方面,美国的优势仍未改变。为了推进超越人类智慧的“通用AI(AGI)”的开发竞争,巨额投资是必不可少的。
如果使用蒸馏技术,在技术上能够赶上最尖端的生成式AI。虽然美国科技公司或将采取一定的措施,防止DeepSeek的蒸馏,但蒸馏在AI研究领域是重要主题,即使DeepSeek停滞不前,新兴企业和科学家们自行开发低成本、高性能的生成式AI的趋势也不会停止。
AI技术今后有很大的可能性多次大幅进步。革命性的突破性进展将出现,如果找到即使像人类一样较少的学习数据也能变聪明的道路,竞争环境将明显改变。
DeepSeek的横空出世是人工智能(AI)发展史上新的标志性事件。7天之内DeepSeek的用户增长超过1亿,创造了用户上涨的速度新的世界纪录。与此同时,芯片巨头公司英伟达(NVIDIA)的股价单日暴跌17%,市值缩水5890亿美元,创下美国上市公司单日最大损失纪录。DeepSeek的崛起,打破了“高算力和高投入是发展人工智能唯一途径”和“集成电路制程优势=人工智能技术霸权”的迷信,引领AI行业进入以算法和模型架构优化为主,同时格外的重视数据质量与规模、理性提高算力的新时期。同时,DeepSeek的崛起也标志着中国科技公司从“追赶者”变为“规则改写者”,在全球最关注的AI领域,以颠覆性的创新开始挑战西方在AI领域的霸权。
DeepSeek的V3和R1模型广受欢迎,首先是因为其在模型算法和系统软件层次都有重大创新。DeepSeek-V3的模型参数量高达6710亿,但由于采用了自主研发的混合专家模型(MoE)架构,每一层有256个细致划分领域的路由专家和1个共享专家,每次调用只激活约370亿个参数,明显降低了训练计算成本。DeepSeek改进的多头潜在注意力机制(MLA),减少了键值缓存开销,把显存占用降到了其他大模型的5%~13%,极大提升了模型运行效率。DeepSeek-R1模型摒弃了传统的监督微调(SFT),开创性地提出群组相对策略优化(GRPO),直接通过强化学习从基础模型中激发推理能力,大幅度降低了数据标注成本,简化了训练流程。DeepSeek揭示了一个真相,即推理模型的开发比想象中更简单,各行各业都可以做。DeepSeek的这些发明并非首次提出来的原始创新,但DeepSeek通过艰苦的努力把技术做到极致,在前人公开成果基础上,登上新的技术高峰。
第3波人工智能兴起后,美国政府、AI有突出贡献的公司和投资界形成一个基本信念:发展人工智能需要高算力,而目前实现AI计算性能最高的芯片就是英伟达的GPU。因此,美国认为只要控制GPU的销售,就能在AI领域独霸全球。特朗普在就职典礼第2天就签署法案,启动星际之门计划,投资5000亿美元,打造AI的基础设施。可见,美国政府是把夯实人工智能的算力基础当成维持其全球领导地位的关键
人工智能是对未来技术的探索。技术路线存在多种可能,人工智能本身也存在多元化的目标,探索的道路上有很多高山需要去攀登,攀登一座高山的路径也不止一条。把一种信仰或猜想当成科学公理,不是科学的态度。近几年大模型训练的实际效果表明,要获得大模型性能的线性增长,必须在模型规模、数据量和算力投入上高指数性的增长,几个月就翻一倍。从GPT-3到GPT-4,参数规模增加约10倍,用于训练的GPU数量增加了近24倍,总计算量增加了近70倍
2020年1月,OpenAI发表论文《神经语言模型的规模法则》(Scaling Laws for Neural Language Models),提出规模法则:“通过增加模型规模、数据量和计算资源,可以明显提升模型性能。”在AI领域,规模法则被一些人认为是“公理”,俗称“大力出奇迹”,OpenAI等有突出贡献的公司和美国的AI投资界把它当成制胜法宝。
人工智能是对未来技术的探索。技术路线存在多种可能,人工智能本身也存在多元化的目标,探索的道路上有很多高山需要去攀登,攀登一座高山的路径也不止一条。把一种信仰或猜想当成科学公理,不是科学的态度。近几年大模型训练的实际效果表明,要获得大模型性能的线性增长,必须在模型规模、数据量和算力投入上高指数性的增长,几个月就翻一倍。从GPT-3到GPT-4,参数规模增加约10倍,用于训练的GPU数量增加了近24倍,总计算量增加了近70倍
鼓吹“Scaling Law”的人,常以强化学习之父理查德·萨顿(Richard S.Sutton)的文章“苦涩的教训”作为追求高算力的依据:“研究人员曾一次又一次试图通过精巧的工程设计来提升性能,但最终都败给了简单粗暴的‘加大算力’方案,历史证明,通用方法总是在AI领域胜出。”但是,萨顿本人这两年对“Scaling Law”做了深刻反思。他指出,虽然Scaling Law在提升模型性能方面确实有效,但它并不是解决所有问题的。AI系统不仅需要具备强大的计算能力,还需要具备持续学习、适应环境、理解复杂情境等能力,这些能力往往难以通过简单地增加算力来实现。
但现在就说规模法则已经走到尽头,也没有根据。与人脑的神经连接复杂性相比,现在的人工神经网络至少还有上百倍的差距。继续扩大神经网络的规模和增加训练的数据量,是否还能取得与投入相称的回报,要看今后的实际效果。但GPT-5迟迟不能问世,可能说明规模扩张的效果已经不太明显。图灵奖获得者杨立昆(Yann LeCun)和OpenAI前首席科学家伊利亚·苏茨克维(IlyaSutskever)等直言,规模法则已触及天花板。
“通用人工智能”是一个模糊的没形成广泛共识的术语。OpenAI公司追求的通用AI(artificial general intelligence,AGI)是其中的一种,指的是AI在多个领域以人类水平处理复杂问题的能力。人工智能界有一个莫拉维克悖论:“复杂的问题是易解的,简单的问题反而是难解的。”从这个方面看,能解复杂问题的人工智能不一定就是通用AI。许多人认为,能够应对设计者预料之外的情况,才叫“通用”。因此,人工智能学术界更关注智能系统持续学习,自我改进的能力。人工智能的通用性不仅表现在对语言的处理上,还包括像人一样基于常识和日常经验与外部客观世界互动的能力。
人工智能是对人类智能某一个方面的再现和超越。在科学技术领域,所谓“通用”一定是相对的,有一定的条件或范围。我们要认识人工智能的局限性,不能盲目追求能够解决所有问题的人工智能。重点还是要根据实际的需求,将相对通用的人工智能技术落地到各个行业,让一些范围内的人工智能技术见到实效。实现通用智能是一个渐进过程,不会因某项技术的发明就突然到来。人工智能的通用性已经比前两波有明显的提高,但在某些应用中通过图灵测试只是阶段性成果,目前的技术离真正的通用智能还有较大差距。
发展人工智能的初始动机是模拟人脑,自然界进化了数百万年的人脑是一个计算效率和能效极高的计算装置,功耗只有20W左右。人脑的极低功耗是因为采取了分布式的模拟计算。目前计算机的高能耗是因为采用软硬件分离的数字计算。深度学习的奠基人辛顿(Hinton)教授最近提出“凡人计算”的新研究方向,采用与人脑一样的存算一体模拟计算方式,颠覆了硬件与软件分离的传统计算模式。这类研究追求的是计算的高算效和高能效,从长远来讲,是发展人工智能的正确方向。
低成本是技术普及的基础要求,蒸汽机、电力和计算机的普及都是其成本降低到大众可接受时才做到的,人工智能肯定也会走这条路。目前,盲目地追求高算力导致人工智能的成本居高不下,阻碍了人工智能技术的大规模普及。DeepSeek不仅是技术突破者,更是规则重构者,开辟了一条低成本发展人工智能的可行之路。DeepSeek的崛起说明AI不再局限于简单堆砌算力,而是进入了以追求高算效和高能效为主的新阶段。
过去几年,开源大模型的性能始终与有突出贡献的公司的闭源大模型有一代以上的差距,这一次DeepSeek的性能追上了闭源模型,大大增强了开源社区的信心。图灵奖获得者杨立昆认为,“对DeepSeek崛起的正确解读,应是开源模型正在超越闭源模型”。这一评价十分中肯,因为改变AI发展模式比单项技术的突破更重要。
真正的AI竞争,不单单是技术和模型的竞争,更是生态系统、商业模式,以及价值观的竞争。开源模型让每个开发者都能轻松调用强大AI工具,不再受大公司的约束,AI的进化速度将会显著提升。DeepSeek的开源战略将向历史证明:在这场AI竞赛中,谁拥抱开源,谁就能赢得未来。
应当承认,中国在人工智能的基础研究和核心技术上与美国仍然有差距。尽管在AI领域,中国的论文发表总数和专利授权数量超越美国,但是引用最多的源头性论文大多出自美国,美国也是顶尖AI模型的大多数来自国。斯坦福大学发布的《2024年人工智能指数报告》显示,2023年,美国有61个较著名的AI模型,中国只有15个。近几年中国在AI领域快速追赶,进步速度喜人。根据《日本经济新闻》对2020—2024年神经信息处理系统大会(NIPS)等3个机器学习顶级会议的统计,在3万多篇发表的论文中,中国作者有8491人(美国14766人),过去4年中国作者增长了8倍。
人工智能不同于资本密集型和经验积累型的集成电路产业,不仅要“烧钱”,更要“烧脑”,本质上是拼人的智力的新兴起的产业。因此AI产业有着非常明显的不对称性,一个具有100多个聪明头脑的小企业就能挑战市值上万亿的有突出贡献的公司。DeepSeek只是中国具有潜力的AI企业之一
实现人工智能自立自强,不仅要靠国家的顶层规划和充分的资金支持,更要做好人才的使用培养和产业生态的构建,克服重重困难的前提是要有自信心。DeepSeek成功的前提是其创始人梁文锋的自信。他在接受媒体采访时说:“中国的AI不能永远做跟随者,必须有人走在前沿。OpenAI并非神一般的存在,他们不可能永远领先。”80后、90后的中国年轻人慢慢的开始平视美西方国家,具有“敢为天下先”的勇气和自信,他们是中国科技自立自强的希望。
要实现人工智能自立自强,最困难的是构建自主可控的产业生态。英伟达公司的“护城河”不是GPU芯片本身,而是统一计算设备架构(compute unified device architecture,CUDA)软件生态。DeepSeek冲击了CUDA生态,但没有完全绕过CUDA,其生态壁垒任旧存在。从长远来讲,需要开发一套比CUDA更优秀的自主可控的AI软件工具系统,重构AI软件生态。实现这个目标需要周密的规划和长期努力,有关部门应该下决心组织全国的开发力量,充分调动上下游企业的积极性,完成这件大事。
资金投入不是决定AI成败的唯一因素,但最近几年中国投资市场规模急剧萎缩值得警醒。CB Insights多个方面数据显示,2023年,美国的AI投资达到672亿美元,是中国AI投资的8.7倍。这一年美国的AI投资实现了22.1%的增长,而中国AI私人投资下降了44.2%。其中,在生成式AI私人投资上,2023年美国总投资额达到224.6亿美元,中国仅为6.5亿美元。风险投资和私募基金对于支撑科创产业很重要,他们为创新起到了资金池和担保的作用。中美科创市场曾经并驾齐驱,但到2023年,中国科创投资额仅相当于美国的8%。尽管美国投资界追捧“大算力”,存在一定的泡沫,但正常的金融支持是发展AI的必要条件。政府和资本界要合力构建一个健康的科创金融生态,为创新提供必备的动力,这样才会有更多DeepSeek出现。
莫大康:浙江大学校友,求是缘半导体联盟顾问。亲历50年中国半导体产业高质量发展历程的著名学者、行业评论家。
求是缘半导体联盟是全球半导体产业生态链上的多个高校的校友、公司、组织机构、政府园区及科研院校等自愿组成的跨区域的非营利性公益组织。联盟由浙江大学校友发起,总部在上海,其主要职能是为半导体和相关行业的人才、技术、资金、公司运营管理、创新创业等方面提供交流合作和咨询服务的平台,致力于推动全球,特别是中国大陆区域的,半导体及相关产业的发展。
目前联盟不定期举办线上、线下专题活动,有一周芯闻、名家专栏、招聘专栏、活动报道、人物访谈等多种资讯栏目,同时提供咨询、资源对接、市场拓展等服务。