在芯片设计领域,人工智能芯片无疑是最受关注的,既涵盖英伟达等厂商推出的通用型GPU,也包括谷歌TPU这类专为大模型加速而生的专用芯片。
这一轮人工智能兴起,对算力的需求如同无底洞,无论如何都难以满足,详情可见下文。
除了算力,还应关注大模型对经济的影響,这也能反映未来AI芯片的需求趋势。
如果你看好大模型(AGI)的未来,就不难发现,在芯片产能过剩和手机算力过剩的背景下,人工智能、大模型及 AGI 对算力的需求,可能是少数甚至唯一的巨大增量市场。这一年英伟达股票的暴涨,正是这一趋势的最佳证明——这就是芯片行业的新增长点!

同时,这一领域在国内尤其欠缺,毕竟百模大战摆在眼前:
相信AI芯片的话,接着看下去,了解2023年AI芯片的进展,或许你能发现感兴趣的方面。
Nvidia DGX A100 和 H100 是英伟达专为数据中心 AI 训练与推理打造的旗舰级人工智能芯片。其中,A100 搭载了 8 颗 GPU,配备高达 640GB 的 GPU 显存,性能强大。此外,Nvidia Grace 是英伟达于 2023 年推出的全新 AI 芯片,主要面向高性能计算(HPC)市场,旨在满足复杂计算任务的需求。这些产品代表了当前 AI 硬件领域的顶尖水平。
AMD于2023年6月推出了MI300芯片,专为AI训练工作负载设计,旨在与英伟达竞争。此外,AMD还提供了多种产品,包括CPU、GPU和AI加速器。例如,Alveo U50数据中心加速卡集成了500亿个晶体管,为高性能计算提供强大支持。这些产品展现了AMD在数据中心和人工智能领域的综合实力与技术优势。
Google 推出 TPU v5e,这是其首款针对主流市场的 AI 芯片,同时也是第一款搭配完整软件与工具的 AI 芯片,能够高效调度虚拟环境中的大规模 AI 任务。目前,TPU v5e 正以预览形式向 Google Cloud 用户开放使用。
Google 的 TPU v4 是专为运行深度学习模型设计的 AI 芯片。研究人员表示,其性能较 Nvidia A100 提升 1.2 至 1.7 倍,能耗降低 1.3 至 1.9 倍,展现出显著优势。
Nvidia B100 是一款为人工智能和高性能计算设计的下一代 GPU,预计于 2024 年第二季度推出。这款芯片由台积电使用 3nm 工艺制造,并采用芯片互连技术,配备高达 128GB 的 HBM3e 内存。与当前的 Hopper H200 相比,其 AI 性能提升超过两倍。该芯片代号为 Blackwell,以纪念美国数学家和统计学家大卫·哈罗德·布莱克威尔。
Nvidia B100 主要面向数据中心和超级计算机客户,支持多种 AI 框架及应用,包括自然语言处理、计算机视觉和强化学习等领域。作为 Nvidia 在 AI 领域的重要产品,B100 的主要竞争对手是 AMD 的 Instinct MI300 芯片,后者同样基于 3nm 工艺制造,是一款专为 AI 应用设计的强大芯片。通过更高的性能和更大的内存容量,Nvidia B100 将进一步推动 AI 和科学计算的发展,满足未来复杂工作负载的需求。
最后强调一点,多模态大模型的出现,对算力需求大幅提升。 若要了解详情,可查阅相关资料。