Transformers documentation
Inference on Specialized Hardware
Get started
Tutorials
パイプラインを使用して推論を実行するAutoClass を使用して移植可能なコードを作成するデータの前処理事前トレーニングされたモデルを微調整するスクリプトを使用してトレーニングする🤗 Accelerate を使用して分散トレーニングをセットアップする🤗 PEFT を使用してアダプターをロードしてトレーニングするモデルを共有するエージェントLLM を使用した生成
Task Guides
自然言語処理
オーディオ
コンピュータビジョン
マルチモーダル
世代
プロンプト
開発者ガイド
🤗 トークナイザーの高速トークナイザーを使用する多言語モデルで推論を実行するモデル固有の API を使用するカスタムモデルを共有するチャットモデルのテンプレートONNX へのエクスポートTFLite へのエクスポートトーチスクリプトへのエクスポートベンチマークコミュニティリソースカスタムツールとプロンプトトラブルシューティング
パフォーマンスとスケーラビリティ
概要 大きなモデルのインスタンス化TensorFlowモデルのXLA統合torch.compile()を使用した推論の最適化
効率的なトレーニングテクニック
単一の GPU で効率的にトレーニングするための方法とツール複数の GPU と並列処理CPU での効率的なトレーニング分散CPUトレーニングTPU に関するトレーニングTensorFlow を使用した TPU のトレーニング特殊なハードウェアに関するトレーニングトレーニング用のカスタム ハードウェアTrainer API を使用したハイパーパラメータ検索
推論の最適化
貢献する
コンセプチュアルガイド
フィロソフィー用語集🤗 Transformersの機能🤗 Transformersがタスクを解決する方法Transformerモデルファミリートークナイザーの概要注意機構パディングと切り詰めBERTology固定長モデルのパープレキシティWebサーバー推論用パイプラインモデルトレーニングの解剖学
API
主要なクラス
エージェントとツールAuto Classesコールバック構成データ照合者Keras コールバックロギングモデルテキストの生成ONNX最適化モデルの出力パイプラインプロセッサー量子化トークナイザートレーナーディープスピードの統合特徴抽出器画像処理プロセッサ
モデル
文章モデル
ビジョンモデル
音声モデル
マルチモーダルモデル
強化学習モデル
時系列モデル
内部ヘルパー
You are viewing v4.40.2 version. A newer version v5.8.1 is available.
Inference on Specialized Hardware
こちらのドキュメントは、専用のハードウェアでの推論方法についての情報がまもなく提供されます。その間に、CPUでの推論に関するガイドをご覧いただけます。the guide for inference on CPUs.
< > Update on GitHub