Hugging Face により、開発者はサードパーティのクラウドで AI モデルを扱いやすくなる | TechCrunch

Hugging Face makes it easier for devs to run AI models on third-party clouds | TechCrunch
Hugging Face's new Inference Providers feature is designed to make it easier for devs to run AI models using the hardwar...続きを読む

Hugging Faceは、開発者がサードパーティのクラウドでAIモデルを実行しやすくするために、SambaNovaなどのクラウドベンダーと提携し、「Inference Providers」という機能を発表しました。この新機能により、Hugging Faceのプラットフォームを通じて、開発者は自分の選んだインフラストラクチャを使用してAIモデルを簡単に実行できるようになります。

  • SambaNova、Fal、Replicate、Together AIなどのクラウドプロバイダーと提携。
  • 開発者はHugging Faceのプロジェクトページから数クリックでDeepSeekモデルをSambaNovaのサーバー上で起動可能。
  • サーバーレス推論: 開発者はハードウェアの設定や管理を行うことなく、AIモデルをデプロイおよびスケールできる。
  • 開発者はサードパーティのクラウドプロバイダーを通じて標準のAPI料金を支払う。Hugging Face Proのサブスクライバーには追加のクレジットが提供される。
  • Hugging Faceは2016年に設立され、AIモデルのホスティングと開発プラットフォームとして成長。これまでに約4億ドルの資金を調達し、利益を上げていると主張。

この新機能は、AIモデルの実行をより柔軟かつ効率的にすることを目的としており、開発者にとっての利便性を大幅に向上させるものです。

Translate »
タイトルとURLをコピーしました