O.XYZ 很高兴宣布正式推出
OCEAN 的速度和实时响应能力是其独特价值的核心。O and IO 创始人 Ahmad Shadid 解释说,如此快速的性能的原因之一是采用了 Cerebras 的尖端硬件。
“ Cerebras CS-3 芯片,又名晶圆级引擎 (WSE-3),在单个芯片上拥有 900,000 个针对 AI 优化的内核和 4 万亿个晶体管。传统的基于 GPU 的系统通常需要复杂的编排和分布式编程来处理大型模型,但 Cerebras 方法提供了简单性和可扩展性。 ” – Shadid 声称。
Cerebras 可以从 10 亿个参数扩展到 24 万亿个参数,而无需更改代码,让用户摆脱 AI 助手常见的延迟问题。凭借 21 PB/s 的内存带宽,基于 Cerebras 的处理可提供低延迟、高效率的性能,远远超过传统的 GPU 系统。
虽然速度和性能至关重要,但 OCEAN 带来的不仅仅是高能量的 AI。Shadid 将 OCEAN 称为“世界上最快的 AI 搜索引擎”,并强调除了原始计算能力之外,该平台还提供流畅、直观的用户体验。其中包括一个语音交互系统,让用户可以直接向“O 小姐”说出他们的提示,后者可以以音频格式做出回应。这种对话风格,加上计划在未来版本中推出的高级 AI 代理功能,使 OCEAN 走上了一条超越仅仅回答基于文本的查询的道路。
从产品角度来看,OCEAN 采用双重方法,既服务于个人消费者,也服务于企业。对于只想要下一代人工智能搜索引擎的用户,该应用程序提供快速响应、注重隐私的功能以及确保数据安全的去中心化框架。对于商业客户,OCEAN 计划推出一项 API 服务,该服务由支持其消费者运营的同一 Cerebras 基础设施提供支持。
O 社区已获得 OCEAN Assistant 封闭测试网的独家访问权,并进行了初步测试
在未来五年内,O.XYZ 设想 OCEAN 成为一个具有先进路由智能的完全集成平台。由 O.RESEARCH 开发的专有“O 路由智能”(ORI)将动态地将子任务路由到最合适的模型,无论是开源选项还是针对更复杂要求的专用 AI。ORI 将有助于优化成本,而不会影响速度或准确性。这种首创的技术为构建具有数十万个模型的庞大 AI 库奠定了基础。随着时间的推移,这种扩展有望使 OCEAN 更接近通用人工智能(AGI),同时仍然强调安全性和用户数据所有权。借助 ORI,该团队提出了一种类似于 OpenAI 的统一智能技术
ORI 将成为 AI 创新的中心枢纽,将多种 AI 模型无缝集成为统一智能。通过与 OCEAN 的集成,用户将轻松在一个地方利用各种 AI 模型的强大功能。
O.XYZ的技术基础是构建一个旨在防止停机和自我主导的人工智能生态系统。他们的主要举措包括开发“主权超级智能”、创建分散式基础设施以及研究超快人工智能系统。
该项目由 Ahmad Shadid 领导的 O.Systems 基金会运营。Shadid 曾创立IO.NET (一家价值 45 亿美元的 Solana DePIN),他将自己的经验带到了O.XYZ致力于构建自主的、社区主导的 AI 生态系统的工作中。