最近,一家名叫「凌川科技」的人工智能芯片企业火了,他们刚刚完成了数亿元的A轮融资,投资方包括北京市人工智能产业投资基金和快手集团,还有亦庄产投、顺禧基金、九智资本等一众跟投方。这笔钱可不是用来吃老本的,而是要砸进下一代芯片的研发、现有产品SL200的量产扩产,以及海外市场的拓展。
说起来,凌川科技其实是个“新生儿”,成立时间才一年多,是2024年3月才呱呱坠地的新公司。不过它的出身可不简单,是由北京市人工智能基金和快手集团联合发起的,前身更是快手内部的异构计算与芯片事业部。用CEO刘凌志的话来说,早在2018年,快手的日活用户就破亿了,传统的堆砌算力服务器已经撑不住了,成本压力巨大。于是,快手开始从异构计算平台切入,2020年正式立项做芯片,到2023年SL200芯片已经在快手部署了数万颗,效果超出预期,拆分独立也就成了水到渠成的事情。
那这个SL200到底有多厉害呢?它集成了视频编码、AI推理、多核CPU等多个核心功能,部署量接近数万颗,服务着7亿用户,还在2023年的世界互联网大会上被评为“创新发展典型案例”。刘凌志也毫不掩饰地说:“我们有互联网基因,能从应用端反推芯片设计,客户需求直接定义产品,这是传统芯片公司很难复制的优势。”
确实,在全球AI芯片市场长期被英伟达主导的大背景下,凌川科技选择了一条不一样的路——ASIC架构。虽然英伟达的CUDA生态建立了很高的技术壁垒,但大模型推理对成本和能效的要求越来越高,这给ASIC架构带来了差异化的机会。在国内,像快手、字节跳动这样的头部视频平台不断涌现,加上“可灵”“即梦”等大模型技术的发展,但算力芯片却始终面临美国出口限制的“卡脖子”风险。而凌川科技瞄准的就是这个垂直领域,通过ASIC架构大幅降低推理成本,单颗芯片可以处理36路视频任务,比传统方案节能30%,成为国产替代的关键路径。
更牛的是,SL200是国内首款集成视频编码、AI推理、多核CPU等功能的ASIC芯片,支持万分之一的超低故障率,直播覆盖率几乎达到100%。在MSU大赛中,它的视频压缩性能甚至超过了英特尔和英伟达,单路处理成本还降低了40%。接下来的下一代芯片将重点针对大模型训练和推理场景设计,支持LLM、文生图、文生视频、推荐算法等高算力需求,尤其是以快手自家的“可灵”为代表的文生视频模型。同时,公司还在开发类CUDA编程接口,适配PyTorch框架和主流大模型推理引擎,降低客户的迁移成本。
凌川科技的核心技术平台叫做Transtreams Advanced Compute Unified Architecture,听起来是不是有点拗口?其实就是一种融合了CPU和NPU协同运作的异构运算平台。它结合了传统CUDA/OpenCL的优势,采用CPU负责控制调度、NPU处理密集计算的架构,实现高效的任务协同和性能优化。它的编程框架还能让开发者在同一套代码下自由切换CPU和NPU,TC编译器会根据负载自动分配任务,提升资源利用率和负载平衡。
从语言层面来看,TC编程语言统一了张量及其不同层次数据布局的表达方式,抽象出了面向TC NPU架构的Tiling和Pipeline机制。这种语言级封装大大简化了开发流程,减少了错误和复杂性,提高了编程效率。再加上丰富的系统和应用管理工具,开发者能够更灵活地进行开发、验证、部署和质量监控。
目前,SL200芯片已经覆盖了快手、阿里、百度等互联网数据中心,还在广播电视、智慧城市、智能巡检等场景中落地,合作案例超过20个。此外,它还与华为、超聚变、浪潮等厂商形成了行业解决方案。在海外市场,SL200也通过快手的出海业务进入了东南亚的新加坡和巴西市场。
展望未来,刘凌志透露,下一代芯片已经和多家大模型公司完成了适配测试,今年和明年将重点拓展自动驾驶机器人、低空经济、边缘计算等新兴场景。
再说说团队。CEO刘凌志是上海交大的博士、华盛顿大学的博士后,曾经担任过快手副总裁,还在华为和英特尔干过核心技术岗位。自打公司从快手拆分出来以后,团队规模已经增长了三倍,成员涵盖了芯片和互联网行业的专业人才。研发人员占比超过80%,其中70%以上拥有硕士学历,20%以上拥有博士学历,60%的员工从业经验超过十年。团队累计申请中外专利超过百项,涵盖大模型压缩、视频编码等关键技术。核心成员还深度参与过NeurIPS’21等国际竞赛,主导过多项北京市、上海市的“卡脖子”技术攻关项目。
可以说,凌川科技不仅是一家有技术实力的硬核芯片公司,更是一支兼具互联网思维和底层创新能力的团队。他们的出现,或许正是中国AI芯片行业打破垄断、走向自主创新的一个缩影。
