
Hugging Face makes it easier for devs to run AI models on third-party clouds | TechCrunch
Hugging Face's new Inference Providers feature is designed to make it easier for devs to run AI models using the hardwar...続きを読む
Hugging Faceは、開発者がサードパーティのクラウドでAIモデルを実行しやすくするために、SambaNovaなどのクラウドベンダーと提携し、「Inference Providers」という機能を発表しました。この新機能により、Hugging Faceのプラットフォームを通じて、開発者は自分の選んだインフラストラクチャを使用してAIモデルを簡単に実行できるようになります。
- SambaNova、Fal、Replicate、Together AIなどのクラウドプロバイダーと提携。
- 開発者はHugging Faceのプロジェクトページから数クリックでDeepSeekモデルをSambaNovaのサーバー上で起動可能。
- サーバーレス推論: 開発者はハードウェアの設定や管理を行うことなく、AIモデルをデプロイおよびスケールできる。
- 開発者はサードパーティのクラウドプロバイダーを通じて標準のAPI料金を支払う。Hugging Face Proのサブスクライバーには追加のクレジットが提供される。
- Hugging Faceは2016年に設立され、AIモデルのホスティングと開発プラットフォームとして成長。これまでに約4億ドルの資金を調達し、利益を上げていると主張。
この新機能は、AIモデルの実行をより柔軟かつ効率的にすることを目的としており、開発者にとっての利便性を大幅に向上させるものです。

