允中发自凹非寺

  量子位公众号 QbitAI

  最近,一则数据点出了 AI 领域算力需求的惊人增长——

  根据业内专家的预估,OpenAI 推出的 Sora 在训练环节大约需要在 4200-10500 张 NVIDIA H100 上训练 1 个月,并且当模型生成到推理环节以后,计算成本还将迅速超过训练环节。

  照这个趋势发展下去,GPU 的供给或许很难满足大模型持续的需求。

  不过,最近海外有一个新动向,可能会给即将到来的“算力荒”提供新的解决思路——去中心化 AI。

  三周前,3 月 23 日,Stability AI 突然发布一项公告,宣布公司 CEO Emad Mostaque 辞职。Emad Mostaque 自己透露了接下来动向,要去追求“去中心化 AI 的梦想”。

  但由于去中心化网络的不确定性、不稳定性等技术上的痛难点没法解决,上一波去中心化 AI 很难在大模型时代真正落地。

  直到最近,量子位发现,一个在海外创业的清华团队聚焦去中心化 AI,创立了 NetMind.AI。2023 年,NetMind 发布了一份白皮书,详细介绍了去中心化算力共享平台 NetMind Power。这个平台要解决的,正是去中心化 AI 在大模型时代落地的痛点。

  一、让每一位开发者都用得起 GPU

  2021 年 9 月,NetMind.AI 启动了一项名为 NetMind Power 的去中心化计算平台项目。

  全球有大量的闲置算力:传统数据中心的闲置算力,中小型企业拥有的没有充分使用的算力以及个人拥有的零散 GPU。这些算力要么被闲置,要么被用来做游戏、视频渲染。同时,AI 算力又越发紧缺,AI 研究人员、中小型企业尤其是 AI 创业公司、参与 AI 项目的传统公司都受困于 AI 算力的高成本和高门槛。

  于是,NetMind Power 创建了一个去中心化的计算网络,利用 NetMInd 研发的核心技术,撬动全球算力资源,为 AI 产业提供好用又用得起的 AI 算力服务。

  △NetMind Power 是获取算力的经济之选,为用户提供高效且实惠的计算资源解决方案。

  目前,NetMind Power 已经收集了数千张显卡,包括 H100,A100,4090,3090。

  该平台的四大亮点:

  1. 去中心化动态集群——在极度不确定的算力上打造可靠高效的 AI 应用

  Power 平台利用基于 P2P 的动态分布式集群技术,结合其独特的路由、聚类算法及神经网络,将成千上万个计算节点编织成强大的网络集群架构,专门服务于 AI 应用等高层需求。

  当用户在 Power 平台上进行 AI 相关操作,如模型训练、微调或推理时,Power 的去中心化网络能够在极短时间内,在全球各地的计算节点中,通过最优化算法快速调配最合适的计算资源,为用户提供服务。

  同时,Power 为B端用户提供动态集群策略,可以在几秒内智能进行节点重组和配置,提供可定制,高扩展和高冗余的专属集群。

  2. 完整的 AI 生态:降低算力使用门槛,扩大去中心化网络应用场景

  借助 NetMind 多年在 AI 领域的积累,Power 网络在基础算力服务之外,还将囊括开源模型库、AI 数据集、数据与模型加密等 AI 生态基座,以及模型训练、推理、部署等全方位服务,打造 MaaS (Model as a Service) 平台,为算力供给方与 AI 应用端的双方赋能。

  针对科研人员、AI 领域的中小企业和传统企业的 AI+ 项目,Power 的 MaaS 平台将大幅度降低算力的使用门槛,特别是对于没有专业 AI 开发能力的中小企业和传统企业来说,这一点尤为重要。

  对于传统算力供给者,借助 Power 网络可以触达更多用户。更进一步,他们借助 Power 的 MaaS 平台,可以扩大应用场景,获得更高收益。这样一来,Power 网络可以将传统的中小型中心化算力也纳入去中心化算力网络,进而大幅度扩大网络规模。

  3. 异步训练算法——解决网络瓶颈,挖掘闲置算力潜力

  在当下的机器学习领域,特别是在大型语言模型训练中,通常需要通过 GPU 专用连接线或高带宽的内部网络来实现 GPU 间的同步分布式训练,这不可避免地增加了训练的门槛和成本。

  NetMind Power 通过自研的模型切分和数据异步的技术,打破了分布式训练中网速和带宽的壁垒,即使是分布在地球不同角落的训练节点,也能够同步参与到庞大的模型训练工作中。

  4. 模型加密与数据隔离——解决去中心化网络中的安全困扰

  Power 提供独特的模型加密技术,保障了在去中心化的志愿计算场景中,用户的 AI 模型和数据安全。所有网络通信都经过加密处理,保障了数据传输的安全;通过数据隔离与模型拆分确保去中心化网络中任何单一节点无法获得完整数据和模型,大幅度提高安全性。

  二、又一个清华背景团队,已在海外创业多年

  NetMind.AI 的核心团队来自清华,已在 AI 领域打磨超过 10 年的时间。

  公司创始人兼 CEO, Kai Zou 于 2010 年毕业于清华大学数学物理基础科学班,并于 2013 年获得乔治城大学数学和统计学硕士学位。

  他是一名连续创业者,曾同时领导 ProtagoLabs 和非营利组织 AGI Odyssey。同时,他还是一位天使投资人,曾投资包括 Haiper.ai、Auto Edge、Qdot 和 Orbit 在内的多家 AI 初创企业。

  值得关注的是,目前,Kai Zou 和 OpenAI 研究员 Jason Wei 发表的论文《EDA: Easy Data Augmentation Techniques for Boosting Performance on Text Classification Tasks》累计引用次数已经超过 2000 次。CEO 和他的团队坚信他们搭建的平台应该为真正做学术研究的学者以及推动 AI 发展的企业工程师们提供资源。

  公司 CTO 则于 2016 年在乔治华盛顿大学获得计算机科学硕士学位;在加入 NetMind.AI 之前,曾在微软担任高级团队负责人;其在 Web3、区块链技术、分布式系统、Kubernetes、云计算以及 Azure 和 AWS 等方面积累颇深;并具备边缘计算、全栈开发和机器学习等专业技能。

  三、终极理想:把 AI 送进千家万户

  NetMind 去中心化 AI 的愿景背后,实则深埋着技术普惠的理想。

  回看 IT 技术发展史,去中心化的思潮往往在计算资源集中化陡增的时刻涌现,作为一股自下而上的力量,对抗试图将一切资源垄断的巨头,从而拉开新一轮的技术普惠浪潮,让新技术真正普及到世界各个角落。

  如今的大模型市场,或许正处在这样的时刻。

  放眼大模型市场,轰轰烈烈发展了一整年后,真正能站稳脚跟的创业公司并不多。除了极少数几家明星独角兽外,大模型的未来似乎正在收敛到微软、谷歌、英伟达等科技巨头手中。长此以往,少数企业可能会对计算资源的定价、可用性和访问权限形成垄断控制。

  这时候,正需要类似 NetMind Power 这样的民主化叙事,为 AGI 的故事撰写新的蓝图。

  目前,NetMind 已经在学术和商业领域展开合作——

  学术方面,NetMind Power目前已经与诸多国内外顶级名校开展合作,包括计算机科学领域顶尖的剑桥大学、牛津大学、卡耐基梅隆大学,美国西北大学、清华大学、华中科技大学、莱斯大学、复旦大学、上海交通大学等。

  商业方面,NetMind Power作为企业提供基于去中心化网络的 AI 算力解决方案,让企业可以专注于模型研发与产品创新。越来越多的企业在 Netmind Power 的帮助下,加速推出 AI 创新产品。例如最近在北美势头正盛的文生视频团队 Haiper.ai 已经将其模型的训练和推理与 NetMind Power 平台深度结合。

  未来,NetMind Power 将逐渐生长为一个去中心化的 AI 社区,加速全球 AI 创新。

  机器学习从业者,学术研究人员及 AI 应用侧的企业都可以在 NetMind Power 平台找到自己所需的算力和模型,也可以把自己训练的模型托管在平台上,甚至提供给平台上的其他用户,并从中收取一定费用。

  用户不仅能够在平台上调用相应算力解决自己的训练需求,还能将自己训练的模型通过平台提供给更多有需要的人或企业,层层传递。

  将时间轴拉长,要真正实现 AGI,AI 的普惠化和民主化是必然前提。如今,率先出发的 NetMind.AI,正在做出自己的贡献,寻找更多的伙伴,通向民主的 AGI 时代,迈出坚实的一小步。