🎯 情报来源:Artificial intelligence – MIT Technology Review
2025年初中国DeepSeek-R1开源大模型发布后,印度电子信息技术部(MeitY)在10天内紧急启动国家AI基础设施计划,通过公私合作调动18,943块GPU算力资源,其中包含12,968块NVIDIA H100高端芯片。这一行动直接推动67个本土大模型提案在两周内提交,到3月中旬提案数量增长三倍。
4月政府宣布2025年底前开发6个大语言模型和18个行业应用,并指定Sarvam AI主导700亿参数印度语大模型开发。作为配套,印度AI Mission国家战略投入12.5亿美元,其中9亿美元来自私人及国际资本。值得注意的是,印度2024年研发投入仅占GDP0.65%(25.4亿美元),远低于中国的2.68%(476亿美元)和美国3.5%(962亿美元)。
💡 核心要点
- 算力跃进:政府通过补贴快速整合18,943块GPU(含12,968块H100),短期内解决算力瓶颈
- 参数规模:Sarvam AI获配4,096块H100开发700亿参数模型,此前开源模型Pragna-1B用25万美元训练300B token达等效70亿参数表现
- 语言突破:OpenHathi-Hi-v0.1基于400亿印地语token训练,KrutiM-2模型覆盖22种印度语言
- 成本优势:印度超算中心建设成本仅500万美元,为欧美市场50%
- 资金缺口:当前AI初创企业平均融资额仅为全球同行的1/20
📌 情报分析
技术价值 | 评级:高
印度团队在低资源环境下创新显著:Pragna-1B的”平衡分词”技术使12.5亿参数模型实现等效70亿参数性能,特别在印地语和古吉拉特语任务中超越国际模型。但核心算法仍依赖Llama2、Mistral等架构。
商业价值 | 评级:极高
政府主导的”印度AI堆栈”战略明确:通过19,000+GPU集群和1.25亿美元直接注资,快速构建覆盖3亿多非英语用户的市场护城河。Sarvam等企业已获得医疗、农业领域500+应用提案。
趋势预测 | 评级:一般
短期难以突破基座模型层:700亿参数目标仅为GPT-4的1/25,且依赖进口GPU。但语音接口和多语言细分市场可能形成差异化优势,预计2026年出现首个10亿美元估值的印度AI独角兽。
