Evgeny Ponomarev による Fluence : クラウドレスコンピューティングと分散型インフラストラクチャのパイオニア
インタビューで、 Fluence' s の共同創設者 Ponomarev は分散型を明らかに"雲のない"Web 3 と AI フォーカスで従来のクラウドサービスを破壊するプラットフォーム。
- Fluence の共同創設者である Evgeny Ponomarev 氏は、従来のクラウドプロバイダーに代わる分散型コンピューティングを提供する「クラウドレス」プラットフォームについて独占インタビューで語りました。
- Ponomarev 氏は、 Fluence が Web 3 と AI 市場をターゲットに、 DAO 駆動の透明なエコシステムを推進しながら、費用対効果の高いコンピューティングインフラストラクチャを提供する方法について説明します。
- インタビューでは、 Fluence のトークノミクス、ネットワークインセンティブ、分散コンピューティングにおけるベンダーのロックインとスケーラビリティの課題への対処を目指す方法について説明します。

業界が従来のクラウド大手の届かない柔軟性と自律性を要求する中、分散型コンピューティングは最前線に突出しています。Evgeny Ponomarev が共同設立した Fluence は、オープンで分散型のネットワークを通じてグローバルなコンピューティング力を集約する「クラウドレスコンピューティング」というコンセプトで、 AWS 、 Azure 、 Google Cloud の優位性に大胆に挑戦しています。
BeInCrypto は Ponomarev にインタビューし、この画期的なアプローチの背後にある論理を探り、直面するハードル、業界の反応、トークノミクス、分散型のインフラの将来について議論しました。Ponomarev は、コスト削減、コミュニティガバナンスの強化、 Web 3 プロトコルとの統合のために Fluence が採用する戦略を共有しました。
クラウドレスコンピューティングと市場ギャップの定義
Fluence では、分散型コンピューティングに取り組んでいます。私たちは、 AWS 、 Azure 、 Google Cloud などの従来のクラウドプロバイダに代わる選択肢を表す「クラウドレス」プラットフォームと呼ばれるものを構築しました。本質的に、これは分散型の物理インフラストラクチャネットワーク ( DePIN ) で、開発者や企業が集中型のクラウドサービスに依存せずにコンピューティングリソースにアクセスできるようにします。
これをクラウドの Uber や Airbnb と考えてください。当社のプラットフォームは、単一のプロバイダに依存するのではなく、幅広い独立したソースからのコンピューティングリソースを集約します。これはオープンソースの許可のないプロトコルで、開発者がこれらのリソースを利用できるようにします。
産業、ユースケース、 Web 3 フォーカス
現在、私たちは主にこのカンファレンスの主な焦点である Web 3 市場をターゲットとしています。Web 3 スペースでは、コアユースケースはノードの実行を含む。レイヤー 1 、レイヤー 2 、ロールアップ、その他のブロックチェーンソリューションであろうと、それらはすべて、本質的にデータベースのインスタンスであるノードに依存しています。
人々はこれらのノードをクラウド、ベアメタル、または時にはパーソナルコンピュータで実行しています。当社が提供するものは、これらのワークロードを実行するための従来のクラウドインフラストラクチャに代わる信頼性の高い代替品です。具体的には、ノードオペレータは Web 3 エコシステムにおける重要な市場セグメントです。
しかし、本質的には、バックエンド、データベース、ゲームサーバー、ウェブアプリなど、従来のクラウドのようなあらゆる種類のワークロードを実行するためにこのプラットフォームを使用できます。
DePIN 空間における Fluence の微分化
先ほど言ったように、私たちは純粋にコンピューティングに焦点を当てています。DePIN では、さまざまな人々やプロジェクトがさまざまなことをしているのを見ることができます。しかし、モデル全体は、消費者やエンドユーザーデバイス、またはよりプロフェッショナルな企業のような複数のプロバイダーからリソースをクラウドソーシングしているということです。彼らはそれらを集約し、製品にパッケージ化し、顧客を見つけています。
私たちの目標はコンピューティングリソースを提供することです。しかし、コンピューティングを提供する場合、ストレージコンポーネントもあります。つまり、さまざまなクラウドサービスにパッケージする詳細です。しかし、特に AI の台頭に伴い、コンピューティングリソースに対する巨大かつ増大する需要が見られるため、コンピューティングインフラストラクチャの導入は私たちの主な方向性です。
そこで、ノードオペレータにコンピューティングを提供し始めますが、その後、さらに幅を広げ、 AI のユースケースもカバーしていきます。
分散型オーケストレーションの構築における課題
分散型オーケストレーションを構築する課題は、クラウドインフラストラクチャへの適切なアプローチを決定するための様々なソリューションの初期の実験に由来します。
ある時点で、異なるハードウェア、ノード、またはユーザーデバイスで発生する異なる計算のピアツーピアオーケストレーションをしようとしていました。しかし、リソースの基本的な仮想化のような低レベルのソリューションが欠けていることに気づきました。そこで最初にこれを提供することに決めましたこれが今あります
そしてオーケストレーションに戻りますしかし、本質的にオーケストレーションはベンダーのロックインを減らすことです。現在、大手クラウドプロバイダーが市場を支配しており、多くの企業がアプリケーションの実行を単一のプロバイダーに完全に依存しています。これは、「プラットフォームリスク」または「ベンダーリスク」と呼ばれるものです。プロバイダーがプラットフォームを廃止、禁止、または価格調整を決定した場合、ビジネス全体がリスクにさらされる可能性があります。
したがって、集中型クラウドの代わりに分散型プラットフォームを使用するたびに、ビジネスの継続性と持続可能性がより安全になります。
FLT トークノミクスとネットワークインセンティブ
FLT トークンは、ネットワーク内のコンピューティングパワーとハードウェアを保護する上で重要な役割を果たします。基本的に、ネットワークの供給側で追加される新しいハードウェアは、トークン保有者によってステークホルダーが必要であり、このハードウェアがオンラインで利用可能であり、一定のパフォーマンスを有することを証明するための暗号経済的なインセンティブがあります。
ステーキングは、ハードウェアの可用性とパフォーマンスに関するコミットメントを満たさない場合、プロバイダーがステーキングを失う危険性があるため、ゲーム内でこのスキンを持つのに役立ちます。逆に、コミットメントを成功裏に果たしたプロバイダーは大きな報酬を得ます。
また、 FLT の有用性を高めるための追加方法も探求しています。例えば、 FLT で担保されたローンを有効にすることで、プロバイダーがトークン報酬に対して借り入れることができます。これにより、新しいハードウェアをすばやく取得し、ネットワークに接続し、より多くの報酬を得ることができます。時間が経つにつれて、これらの報酬に対して借り入れ、さらに迅速に拡大できます。
そして、顧客側では、顧客の価格を補助することによってもできます。今後もこのようなメカニズムを導入していきます。
分散型コンピューティングに対する開発者と企業の反応
お客様側から、私たちにとって重要なのは、集中型クラウドプラットフォームと同様のエクスペリエンスを提供する製品を構築することです。分散されていますが、ユーザーエクスペリエンスは同じです。
だから開発者は私たちに対して非常にオープンでポジティブです。切り替えはとても簡単です。クラウドにワークロードがある場合は、ここでホストすることができます。開発者の経験に特別で珍しいことは何もありません。
SSH キーと標準の承認プロセスを使用して、ワークロードを仮想マシンと仮想サーバーにデプロイするだけです。本質的に、経験は似ている。
もちろん、これは新しいプラットフォームであり、スタートアップであるため、ある程度の信頼が必要であるという議論は常にあります。
それは新しいビジネスです。20 年の歴史を持つ大手企業から新しい会社に切り替える場合、信頼関係が当然に含まれます。私たちは、どこにでも存在し、オープンで透明性を保ち、迅速なサポートを提供し、必要に応じて特に小規模なプロジェクトをプラットフォームに導入するための財政支援を提供することで、このギャップを埋めるために取り組んでいます。
すべては、典型的なオンボーディングプロセスの一部です。
コスト構造と価格設定の利点
ええ、クラウドプラットフォームがハードウェアの実際の経済性に加えていくら課金するかを理解していない人が多いのは面白いです。基本的に、クラウドビジネスの利益率は巨大です。
メーカーからサーバーを直接購入し、サーバーが 2 ~ 3 年で返済するビジネスモデルを実行するだけで、従来のクラウドプロバイダの料金の数倍低い価格を提供することができます。彼らが請求するのは、主にブランド、彼らが提供する「無料」のクレジット ( 最終的にはより多くを請求することによって回復する ) 、そして彼らがプッシュしようとしている何百もの追加サービスで、さらに多くの支払いをすることになります。
オンチェーンの DAO によって管理される許可のないプロトコルを提供しています。料金は一切受けません。経済性は純粋にプロバイダ側に基づいており、過剰ではなく合理的なマージンです。
プロバイダは顧客基盤に直接アクセスできるので、販売を自分で処理する必要はありません。だからこそ、彼らはマージンが薄いことで快適に操作しています。彼らの唯一の焦点はハードウェアの実行です。
私たちは、彼らが提供する最低価格を取って、それを顧客に直接渡すだけです。それがマジック全体です : それは純粋にハードウェアとコンピューティングの実際の経済についてです。
分散型スタックのための Web 3 と AI パートナーシップ
私たちは、 Web 3 スペースに相当重要な企業のパイプラインを持っています。これは主に「サービスとしてのノード」と呼ばれるものを提供するノードオペレーターや企業です。つまり、エンドユーザーにワンクリックで異なるプロトコル用のノードをデプロイする機能を提供します。
私たちはそれらをフードの下のコンピューティングインフラストラクチャでサポートしています — 本質的に、これらのノードは私たちのサーバー上で実行されています。パイプラインにはいくつかの名前が並んでいます。まだ共有できるかどうかはわかりませんが、近いうちに発表する予定です。
AI / LLM ワークロードと GPU ロードマップのサポート
現在、私たちは CPU サーバーのみに焦点を当てており、 AI 推論やトレーニングには適していません。しかし、近いうちに GPU を追加する予定です。
当社のプロバイダーはすでに多くの GPU を保有しており、接続できるかどうかを常に尋ねています。GPU を提供する場合、市場で最高の価格で入手可能になるように努力しています。すべてが準備ができたら、オファリングを公開し、ユーザーに提供します。
基本的に、 LLM をオンボードし、推論ユースケースをサポートするには、 GPU 容量へのアクセスと、理想的には開発者エクスペリエンスを簡素化するいくつかの追加 UX レイヤーが必要です。これはすでにロードマップにあります。
一般的に AI は GPU ハードウェアに対する大きな需要を牽引していますが、データ処理、データラベル付け、データセットの準備などのタスクは、モデルをトレーニングする前の重要なステップであるため、 CPU ハードウェアの需要も増加しています。
AI エージェントとして知られるワークロードもあり、本質的には AI モデルを使用するボットです。これらのボットの実行には主に CPU サーバーが必要ですが、モデルの呼び出しやインタラクションには GPU サーバーが必要です。
したがって、これらのタイプのアプリケーションを完全にサポートするには、常に CPU サーバーと GPU サーバーの両方が必要です。
DAO ガバナンスとコミュニティエンゲージメント
かなり標準的な DAO モデルがあります。これは、特定の閾値が設定されているオンチェーンの投票に基づいています。例えば、提案を作成するには、委任された議決権が必要であり、提案が可決されるには最低限の票数が必要です。
執行はチェーン上で行われますが、オフチェーンの法的構造もあります。ガバナンス委員会は、執行プロセスを監督し促進する責任があります。
ガバナンス委員会は、 1 年から 2 年ごとにコミュニティによって選出されるモデルに従っています。
全体的に、このモデルはかなり標準的です。特に新しいものや珍しいものは何もありません。投票はトークン加重による典型的な Web3 DAO モデルです。人々が保有するトークンの数に基づいて投票します。
エンタープライズ向け分散化 : SLA 、認証、フィアット
エンタープライズユーザーは、通常、 3 つの重要な要件を必要とします。
第二に、 SOC 2 や ISO 27001 のようなセキュリティおよびコンプライアンス規格などの関連認証を取得する必要があります。当社のプロバイダーのほとんどはすでにこれらの認証を取得しており、現在、これらの規格を満たすハードウェアプロバイダーと主に協力することに注力しています。
第三に、もちろん、彼らは Web 3 ではなく Web 2 の世界で事業を展開する企業であるため、フィアットで支払いたいのです。私たちは、 Web 2 スペースから大企業に成功させるために必要なすべてのシステムを確実に導入しています。
この分野では良い進展を遂げています。SLA に関しては、それに対処するいくつかの方法があります。一つのアプローチは、サービス可用性を明確に概説し保証する企業との法的契約を締結することです。
また、本質的に法的合意のように機能するオンチェーンの SLA にも取り組んでいます。このモデルでは、プロバイダは顧客に一定のレベルのサービス可用性を保証するためにチェーン上でコミットします。
例えば、プロバイダーが 99% の SLA を満たさない場合、支払いの一部を顧客に返金する必要があります。
フィアット決済に関しては、私たちができることはたくさんあります — それは私たちが認識している制限です。
企業がフィアットで支払いたい場合は、受け入れます。その後、フィアットを安定コインに変換し、対応するスマートコントラクトに資金を供給します。
このステップは今のところ避けられません — 私たちはまだそれを回避する方法を見つけていません。しかし、今後も安定コインの採用が拡大し続け、少なくとも部分的にこの問題を解決するのに役立つと考えています。
分散型クラウドの必然性と Fluence の未来
これが必要だと気づいた瞬間は一度もなかったと思います。それを明らかにしたのは、 Web 3 と暗号運動の全体的な成長でした。
分散型モデルは、時にはより効率的であり、多くのサービスや技術の参入障壁を大幅に低下させることができることを示した。
特に AI によって駆動されるコンピューティング需要の劇的な増加と組み合わされると、従来のクラウドプラットフォームではしばしば妨げられるコンピューティングリソースへの簡単かつ手頃な価格のアクセスをはるかに広いオーディエンスに提供することが不可欠であると考えています。
彼らのモデルには、 KYC 要件、クレジットカードの障壁、株主への奉仕の主要な義務が付いています。対照的に、 DAO 管理のパーミッションレスインフラストラクチャモデルという代替手段を提供します。
最終思考
仮想サーバーのベータ版への参加を募集しており、現在アプリケーションを収集しています。ウェブサイトで登録できます。
より多くの人々がそれを試し、フィードバックを共有し、このオープンで許可のないコンピューティングインフラストラクチャを人類のために成長させるのを手伝うことを楽しみにしています。
免責事項: この記事の見解は元の著者の見解であり、Hawk Insight の見解や立場を表すものではありません。記事の内容は参考、コミュニケーション、学習のみを目的としており、投資アドバイスを構成するものではありません。著作権上問題がある場合は削除のご連絡をお願い致します。