O.XYZは、公式ローンチを発表できることを嬉しく思います。
OCEAN のスピードとリアルタイム応答能力は、その独自の価値の中心です。O および IO の創設者である Ahmad Shadid 氏は、このような迅速なパフォーマンスの理由の 1 つは、Cerebras の最先端のハードウェアを採用したことだと説明しています。
「ウェーハスケールエンジン(WSE-3)として知られるCerebras CS-3チップには、1つのチップ上に90万個のAI最適化コアと4兆個のトランジスタが搭載されています。従来のGPUベースのシステムでは、大規模なモデルを処理するために複雑なオーケストレーションと分散プログラミングが必要になることがよくありますが、Cerebrasのアプローチはシンプルさとスケーラビリティを提供します。 」とShadid氏は主張しています。
Cerebras は、コードを変更することなく 10 億から 24 兆のパラメータに拡張できるため、AI アシスタントによくある遅延からユーザーを解放します。21 PB/秒のメモリ帯域幅を備えた Cerebras ベースの処理は、従来の GPU システムをはるかに上回る低レイテンシ、高効率のパフォーマンスを提供します。
スピードとパフォーマンスは重要ですが、OCEAN は高性能な AI 以上のものを提供します。Shadid 氏は OCEAN を「世界最速の AI 検索エンジン」と呼び、純粋な計算能力を超えて、このプラットフォームが洗練された直感的なユーザー エクスペリエンスを提供することを強調しています。これには、ユーザーが「ミス O」に直接プロンプトを話すことができる音声対話システムが含まれており、ミス O は音声形式で応答できます。この会話スタイルと、将来のバージョンで予定されている高度な AI エージェント機能により、OCEAN はテキストベースのクエリに応答する以上の道を歩むことになります。
製品の観点から見ると、OCEAN は個人消費者と企業の両方にサービスを提供する二重のアプローチを採用しています。次世代の AI 搭載検索エンジンだけを求めるユーザー向けに、このアプリは迅速な応答、プライバシー重視の機能、およびデータ セキュリティを確保するための分散型フレームワークを提供します。ビジネス クライアント向けには、OCEAN は消費者向けオペレーションの基盤となるのと同じ Cerebras インフラストラクチャを搭載した API サービスを展開する予定です。
OコミュニティはOCEANアシスタントのクローズドテストネットへの独占アクセスを獲得し、初期テストを実施しました。
O.XYZ は、今後 5 年間で、OCEAN が高度なルーティング インテリジェンスを備えた完全に統合されたプラットフォームになることを構想しています。O.RESEARCH が開発した独自の「O ルーティング インテリジェンス」(ORI) は、サブタスクを、オープンソース オプションであれ、より複雑な要件向けの特殊な AI であれ、最も適切なモデルに動的にルーティングします。ORI は、速度や精度を損なうことなくコストを最適化するのに役立ちます。この初めてのテクノロジは、数十万のモデルを備えた大規模な AI ライブラリを構築するための基礎となります。時間の経過とともに、この拡張により、OCEAN はセキュリティとユーザー データの所有権を重視しながら、人工汎用知能 (AGI) に近づくことが期待されます。ORI により、チームは OpenAI が開発したものに似た統合インテリジェンス テクノロジを提示します。
ORI は AI イノベーションの中心ハブとなり、複数の AI モデルをシームレスに統合して 1 つのインテリジェンスを実現します。OCEAN との統合により、ユーザーは多様な AI モデルのパワーを 1 か所で簡単に活用できるようになります。
O.XYZの技術基盤は、シャットダウン耐性と自己主導性を備えた AI エコシステムの構築に重点を置いています。同社の主な取り組みには、「ソブリン スーパー インテリジェンス」の開発、分散型インフラストラクチャの構築、超高速 AI システムの研究などがあります。
このプロジェクトは、Ahmad Shadid 氏が率いる O.Systems Foundation の下で運営されています。Shadid 氏は以前、45 億ドルの Solana DePIN であるIO.NETを設立しており、その経験をO.XYZの自律的でコミュニティ主導の AI エコシステムの構築に活かしています。