O.XYZ는 공식 출시를 발표하게 되어 매우 기쁩니다.
OCEAN의 속도와 실시간 대응 기능은 고유한 가치의 핵심입니다. O와 IO의 설립자인 아마드 샤디드는 이러한 빠른 성능의 이유 중 하나가 Cerebras의 최첨단 하드웨어를 도입한 것이라고 설명합니다.
" Waser Scale Engine(WSE-3)으로 알려진 Cerebras CS-3 칩은 단일 칩에 900,000개의 AI 최적화 코어와 4조 개의 트랜지스터를 탑재했습니다. 기존의 GPU 기반 시스템은 종종 대규모 모델을 처리하기 위해 복잡한 오케스트레이션과 분산 프로그래밍이 필요하지만 Cerebras 접근 방식은 단순성과 확장성을 제공합니다. " – Shadid가 주장합니다.
Cerebras는 코드 변경 없이 10억에서 24조 개의 매개변수로 확장할 수 있어 사용자는 AI 어시스턴트와 일반적으로 관련된 지연에서 벗어날 수 있습니다. 21PB/s의 메모리 대역폭을 갖춘 Cerebras 기반 처리 기능은 기존 GPU 시스템을 훨씬 능가하는 저지연, 고효율 성능을 제공합니다.
속도와 성능이 중요하지만, OCEAN은 단순히 고성능 AI 이상을 제공합니다. Shadid는 OCEAN을 "세계에서 가장 빠른 AI 검색 엔진"이라고 부르며, 원시적인 계산 능력을 넘어 이 플랫폼이 세련되고 직관적인 사용자 경험을 제공한다고 강조합니다. 여기에는 사용자가 "미스 오"에게 직접 프롬프트를 말하면 오디오 형식으로 응답할 수 있는 음성 상호 작용 시스템이 포함됩니다. 이러한 대화 스타일과 향후 버전에 예정된 고급 AI 에이전트 기능은 OCEAN을 텍스트 기반 쿼리에 답하는 것을 넘어서는 경로로 인도합니다.
제품 관점에서 OCEAN은 개인 소비자와 기업을 모두 대상으로 하는 이중 접근 방식을 채택합니다. 단순히 차세대 AI 기반 검색 엔진을 원하는 사용자를 위해 이 앱은 빠른 응답, 개인 정보 보호 중심 기능 및 데이터 보안을 보장하는 분산 프레임워크를 제공합니다. 비즈니스 고객을 위해 OCEAN은 소비자 운영을 뒷받침하는 Cerebras 인프라와 동일한 API 서비스를 출시할 계획입니다.
O 커뮤니티는 OCEAN Assistant의 폐쇄 테스트넷과 초기 테스트에 대한 독점적인 액세스 권한을 얻었습니다.
O.XYZ는 향후 5년 동안 OCEAN이 고급 라우팅 인텔리전스를 갖춘 완전히 통합된 플랫폼이 될 것으로 예상합니다. O.RESEARCH에서 개발한 독점적인 "O Routing Intelligence"(ORI)는 오픈 소스 옵션이든 더 복잡한 요구 사항을 위한 특수 AI이든 가장 적합한 모델로 하위 작업을 동적으로 라우팅합니다. ORI는 속도나 정확성을 손상시키지 않고 비용을 최적화하는 데 도움이 됩니다. 이 최초의 기술은 수십만 개의 모델을 특징으로 하는 방대한 AI 라이브러리를 구축하기 위한 토대를 마련합니다. 시간이 지남에 따라 이 확장을 통해 OCEAN은 보안과 사용자 데이터 소유권을 강조하는 동시에 인공 일반 지능(AGI)에 더 가까워질 것으로 예상됩니다. 팀은 ORI를 통해 OpenAI와 유사한 통합 인텔리전스 기술을 제공합니다.
ORI는 AI 혁신의 중심 허브가 되어 여러 AI 모델을 통합된 인텔리전스로 원활하게 통합합니다. OCEAN과의 통합을 통해 사용자는 한곳에서 다양한 AI 모델의 힘을 손쉽게 활용할 수 있습니다.
O.XYZ 의 기술 기반은 셧다운에 강하고 자체 주도형으로 설계된 AI 생태계를 구축하는 데 중점을 두고 있습니다. 주요 이니셔티브에는 '주권적 슈퍼 인텔리전스' 개발, 분산형 인프라 구축, 초고속 AI 시스템 연구가 포함됩니다.
이 프로젝트는 Ahmad Shadid가 이끄는 O.Systems Foundation에서 운영됩니다. 이전에 IO.NET (45억 달러 규모의 Solana DePIN)을 설립한 Shadid는 O.XYZ 의 자율적이고 커뮤니티 중심의 AI 생태계 구축 작업에 자신의 경험을 제공합니다.