Raspberry Pi AIキットはどのように機能しますか
Raspberry Pi AI キットは、M.2 HAT と Hailo{11}}8L アクセラレータ チップを組み合わせることで、Pi 5 を有能なエッジ AI プラットフォームに変換します。簡単に言うと、AI 計算を CPU から専用のニューラル プロセッシング ユニットにオフロードすることで機能し、1 秒あたり 13 兆の演算 (13 TOPS) を実行しながら、一般的なワークロード時の消費電力はわずか 1-2 ワットです (出典: theregister.com、2024)。 70 ドルで、リアルタイムの物体検出、姿勢推定、画像分類を 60 ドルのシングルボード コンピューター上で実際に実行できるようにするハードウェア アクセラレーションを入手できます。
私はこのアーキテクチャが特に優れていると感じました。 Raspberry Pi が統合 NPU を構築するのを何年も待つ代わりに、同社は Hailo と提携して、今日機能し、明日簡単にアップグレードできるモジュラー ソリューションを作成しました。-より多くのパワーが必要なユーザーには、26 TOPS の AI HAT+ がすでに利用可能です (出典: techcrunch.com、2024)。
ハードウェア アーキテクチャ: コンポーネントの接続方法
AI キットは、1 つのシステムとして機能する 2 つの物理部分で構成されます。まず、公式の Raspberry Pi M.2 HAT+ があります。これは、Pi 5 の 40- ピン GPIO ヘッダーに接続され、M.2 2242 または 2280 スロットを提供する回路基板です。 2 つ目は、Hailo-8L AI アクセラレータ モジュールです。スロットに差し込むガムの棒ほどの大きさの小さな M.2 カードです。

すべてを接続すると次のようになります。
M.2 HAT は、Pi 5 の GPIO ピンから電力を取得し、ボードの PCIe インターフェイスを介して PCIe Gen 2 または Gen 3 接続を確立します。 Hailo-8L モジュールは、この単一の M.2 接続を通じて電力とデータの両方を受け取ります。 Pi 5 の CPU はオペレーティング システム、アプリケーション ロジック、前処理を処理し、ニューラル ネットワーク推論が必要な場合は Hailo チップが引き継ぎます。
PCIe 接続のパフォーマンスへの影響
ここでは接続速度が非常に重要です。テストでは、同じ YOLOv8s モデルで PCIe Gen 3 を実行すると、Gen 2 と比較してフレーム レートが 2 倍になることが示されています (出典: forums.raspberrypi.com、2024)。 Pi 5 は PCIe Gen 3 x1 をサポートしており、CPU と AI アクセラレータ間に約 1 GB/秒の帯域幅があり、ボトルネックになることなくほとんどのコンピュータ ビジョン タスクに十分な帯域幅を提供します。{12}}
Hailo-8L はワットあたり 3 ~ 4 TOPS の効率を達成しており、1 ドルあたりのパフォーマンスとワットあたりのパフォーマンスの点で Nvidia の Jetson Orin デバイスと並んでいます (出典: jeffgeerling.com、2024)。 Pi 5 の 3 ~ 4 W のアイドル消費電力を考慮すると、AI ワークロードの処理中にシステム全体が消費する電力は携帯電話の充電器よりも少なくなります。
Hailo-8L の内部: ニューラル ネットワークの高速化の説明
Hailo-8L は汎用-プロセッサ-ではなく、ニューラル ネットワークを効率的に実行するためだけに設計された ASIC (特定用途向け集積回路) です。これはグラフィックス カードのようなものだと考えてください。ただし、三角形をレンダリングするのではなく、AI モデルを強化する行列の乗算と畳み込みのために最適化されています。
このチップはHailoが「Structured ASIC」と呼ぶ独自のアーキテクチャを採用している。シリコン設計についてあまり深入りすることなく、これは、チップがさまざまなニューラル ネットワーク操作用の専用ハードウェア ユニットを備えていることを意味します。畳み込み層、活性化関数、プーリング操作、および完全に接続された層はすべて、独自の最適化された実行パスを取得します。
推論が実際にどのように行われるか
オブジェクト検出のために YOLOv8 のようなモデルを実行する場合、簡略化されたワークフローは次のとおりです。
カメラはフレームをキャプチャし、Pi の CPU に送信します。 CPU は、画像の前処理、モデルの入力寸法へのサイズ変更、色空間の変換、ピクセル値の正規化を処理します。-この前処理されたデータは、PCIe バスを介して Hailo-8L に送信されます。アクセラレータはニューラル ネットワークを実行し、生の検出結果 (境界ボックス、信頼スコア、クラス予測) を出力します。 CPU はこれらの結果を受け取り、後処理-非最大抑制を処理して重複検出を削除し、画像上にボックスを描画し、アプリケーションの UI を更新します。
この分業の素晴らしさはベンチマークに現れます。テストでは、AI キットが 26-28 フレーム/秒で手とランドマークの検出を実行することが実証されています。これは、Pi 5 の CPU のみで TensorFlow Lite モデルを実行するよりも最大 5.8 倍高速です (出典: raspberrypi.com、2024)。
サポートされているモデル形式
Hailo-8L は、標準の TensorFlow モデルや PyTorch モデルを直接実行しません。チップのアーキテクチャに合わせてモデルを最適化する、Hailo の Dataflow Compiler を使用してモデルを変換する必要があります。コンパイル プロセスでは、トレーニング済みモデル (通常は ONNX 形式) を取得し、それを Hailo ハードウェアにマッピングし、量子化やその他の最適化を適用します。
-一般的なアーキテクチャ用にコンパイル済みのモデルは、Hailo Model Zoo から入手できます。ResNet-50 は 500 FPS で実行され、複数のサイズの YOLOv5、YOLOv8 バリアント、軽量分類用の MobileNet、ポーズ推定モデルなどです。カスタム モデルを使用している場合、コンパイル ワークフローにはある程度の学習が必要ですが、標準の AI デプロイメント プラクティスに従います。
消費電力と熱管理
AI キットの最も印象的な仕様の 1 つは電力効率です。 Hailo-8L は通常、アクティブ推論中に 1 ~ 2 ワットを消費しますが、モデルの複雑さとフレーム レートに応じてピークは約 5 ワットになります (出典: theregister.com、2024)。 Pi 5 の基本消費電力と組み合わせると、AI ワークロード下での合計システム電力はおよそ 5 ~ 9 ワットになります。

M.2 モジュールには小型のヒートシンクが含まれており、通常の動作ではパッシブ冷却で十分であることがわかります。チップは十分に低温に保たれているため、一般的なコンピューター ビジョン アプリケーションではサーマル スロットリングは問題になりません。囲まれたプロジェクトや継続的な高負荷シナリオの場合、Pi 5 ケースにファンを追加すると、CPU と AI アクセラレータの両方が最高のパフォーマンスを維持できるようになります。{3}}
これを代替製品と比較すると、価値提案が明らかになります。Nvidia Jetson Orin Nano は約 249 ドルから始まり、負荷時に 7 ~ 15 W を消費します。 Google の Coral USB アクセラレータの価格は 60 ドルですが、提供できるのは 4 TOPS のみで、USB 3.0 の帯域幅が必要です。 Intel Neural Compute Stick 2 は販売終了です。 AI キットは、2024 年までには存在しなかった価格、パフォーマンス、電力効率のスイート スポットに到達します。
ソフトウェアスタック: OSからアプリケーションまで
AI キットには Raspberry Pi OS (64- ビット) Bookworm 以降が必要です。 Hailo は、PCIe 通信用のカーネル ドライバー、モデルの読み込みと推論を管理するランタイム ライブラリ、統合を容易にする Python バインディング、カメラベースのプロジェクト向けの rpicam{3}} アプリ統合を含むソフトウェア スイートを提供します。
最初のモデルのセットアップ
公式ガイドに従えばインストールは15分程度で完了します。 OS をフラッシュし、ハードウェアを接続した後、Hailo のインストール スクリプトを実行すると、必要なカーネル モジュールとライブラリが追加されます。 rpicam- アプリ パッケージが更新されて、Hailo サポートが含まれ、カメラ パイプラインから直接 AI モデルを実行できるようになります。
付属のデモを使用してテストすると、システムが動作していることがわかります。
rpicam-こんにちは --投稿-プロセス ファイル /usr/share/rpicam-assets/hailo_yolov8_pose.json
このコマンドはカメラ フレームをキャプチャし、Hailo チップ上の姿勢推定モデルを通して実行し、結果をリアルタイムで表示します。-フレームレートはモデルの複雑さに依存します。{{2}YOLOv8n などの軽量モデルは 60+ FPS に達しますが、YOLOv8m などの重いバージョンは 20~30 FPS で動作する可能性があります。
Python 開発の場合、ワークフローは標準の OpenCV に Hailo 固有の呼び出しを加えたものになります。{0}
HailoRT ライブラリをインポートし、コンパイルされたモデル ファイルを読み込み、前処理されたフレームをモデルにフィードし、推論結果を取得し、アプリケーション ロジックで出力を処理します。 API はほとんどの複雑さを抽象化しますが、入出力テンソル形式を理解するにはモデルのドキュメントを読む必要があります。
実際の-応用例
いくつかのプロジェクトでは、実用的な AI キットの実装を実証しています。小売在庫管理システムは、YOLOv8n を実行する AI キットを使用して棚上の製品を検出し、CPU 上の EfficientNet が倉庫への侵入を監視します (出典: forums.raspberrypi.com、2024)。デュアル-モデルのアプローチは、必要に応じて高速推論と CPU{7}} ベースのモデルを組み合わせる方法を示しています。
セキュリティ アプリケーションは、キットのリアルタイム機能の恩恵を受けます。{0}}顔認識システムはビデオ ストリームを 25 ~ 30 FPS で処理し、クラウドに依存せずに入場制御や訪問者の記録を可能にします。姿勢推定は、運動フォームを追跡したり、繰り返しをカウントしたりするフィットネス アプリケーションにとって十分な速度で実行されます。
野生生物モニタリング プロジェクトでは、低消費電力{0}}太陽光-で駆動するカメラ トラップを利用してポーズと物体の検出を実行し、電池を頻繁に交換することなく動物とその行動を特定します。 Pi の多用途性とハードウェアで高速化された AI の組み合わせにより、これまで非現実的だったエッジ デプロイメントが可能になります。{3}}
[視覚要素の提案: カメラ → Pi CPU (前処理) → PCIe → Hailo-8L (推論) → Pi CPU (結果) → ディスプレイ/ストレージのデータ フローを示す図を挿入]
AI キットの制限と使用できない場合
このキットは推論にはうまく機能しますが、依然としてクラウド GPU やワークステーションを必要とするモデル トレーニングには役に立ちません。{0} 13 TOPS というと印象的かもしれませんが、データセンターのハードウェアには程遠いです。複雑なモデルや複数の推論ストリームが同時に発生すると、アクセラレータに負荷がかかる可能性があります。
機種の互換性には注意が必要です。 Hailo のコンパイラがサポートするアーキテクチャに拘束されます。研究論文の最先端のモデルは、Hailo がサポートを追加するか、カスタム コンパイルに時間を費やすまで機能しない可能性があります。 Model Zoo では、最も一般的な使用例をカバーしていますが、特殊なアプリケーションでは回避策が必要な場合があります。
一部のアプリケーションでは遅延が重要になります。 Hailo-8L は高速ですが、PCIe 経由でデータを送信し、推論を実行し、結果を返すまでのラウンドトリップ時間は、統合型 NPU と比べて数ミリ秒長くなります。-ミリ秒単位が重要なロボットやリアルタイム制御システムの場合、このパイプライン遅延は重大になる可能性があります。
予算の制約は価値提案に影響します。すでに Pi 5 を所有している場合は、70 ドルの AI キットを購入するのが簡単です。-ゼロから始める場合、システム全体 (Pi 5 + AI キット + 電源 + ストレージ) に $130+ を費やすことになります。その時点で、パフォーマンスのニーズに応じて、Jetson Nano の競合他社が競争力を持ち始めます。
ハードウェア仕様の比較
| 仕様 | ラズベリーパイ AI キット | Raspberry Pi AI HAT+ (13 TOPS) | Raspberry Pi AI HAT+ (26 TOPS) |
|---|---|---|---|
| アクセラレータチップ | ハイロ-8L | ハイロ-8L | ハイロ-8 |
| パフォーマンス | 13 トップス | 13 トップス | 26 トップス |
| 価格 | $70 | $70 | $110 |
| 消費電力 | 1~2W(標準)、5W(ピーク) | 1~2W(代表値) | 2.5W(標準) |
| フォームファクター | M.2 2242 | M.2 2242/2280 | M.2 2242/2280 |
| 発売日 | 2024年6月 | 2024年10月 | 2024年10月 |
AI HAT+ バリアントは、Pi 5 のケースとの互換性が向上し、機械設計が改善されていますが、13 TOPS 層のオリジナル キットと同等のパフォーマンスを提供します (出典:electronicsweekly.com、2025)。 26 TOPS バージョンでは、高解像度の入力を処理したり、より複雑なモデルを実行する必要があるアプリケーションのスループットが 2 倍になります。
一般的なセットアップの問題と解決策
インストール後に AI キットが検出されない
これは通常、PCIe 列挙の問題を示します。 Pi の config.txt ファイルで PCIe が有効になっていること、および M.2 HAT がすべての GPIO ピンにしっかりと固定されていることを確認してください。 lspci を実行すると、接続が機能している場合は Hailo デバイスが表示されるはずです。
モデルの実行が予想よりも遅い
実際に Hailo アクセラレータを使用しており、CPU 推論にフォールバックしていないことを確認します。モデルのロード中にエラーが発生していないかログを確認してください。モデルが Hailo アーキテクチャ向けに適切にコンパイルされていることを確認してください。-変換されていないモデルを実行しようとすると失敗するか、デフォルトの CPU 実行になります。
負荷がかかるとシステムがクラッシュする
電源の問題は、ほとんどの安定性の問題の原因となります。 Pi 5 には最低 5V/5A (27W) が必要ですが、AI キットはその要件をさらに高めます。公式の Raspberry Pi 27W 電源または同等のものを使用してください。電力が不十分だと電圧降下が発生し、ピーク推論中にシステムがクラッシュします。
カメラの統合が機能しない
rpicam- アプリの Hailo 統合には、特定の rpicam バージョンが必要です。さらにトラブルシューティングを行う前に、sudo apt update と sudo apt upgrade を使用してすべてを更新します。一部のカメラ モジュールは、AI パイプラインと最適に動作するために /boot/config.txt の構成を変更する必要があります。
将来性のある-投資を実現
モジュラー設計により、個別にアップグレードできます。現時点では、13 TOPS を備えた 70 ドルの AI キットを実行する可能性があります。来年、アプリケーションにさらなるパフォーマンスが必要な場合は、Pi 5 を交換せずに 26 TOPS AI HAT+ を 110 ドルで交換してください。ソフトウェア スタックは、Hailo-8L および Hailo-8 チップ間で互換性を維持します。
Hailo はモデル ズーを拡張し、コンパイラ サポートを改善し続けています。 2024 年 6 月に手動による最適化が必要だったモデルには、プリコンパイルされたバージョンが提供されるようになりました。-プラットフォームが成熟するにつれて、この傾向は加速します。 Pi- ベースの AI プロジェクトを中心としたエコシステムは急速に成長しており、-フォーラム、チュートリアル、サードパーティ ツールのおかげで毎月実装が容易になっています。-
ソフトウェアのアップデートによりパフォーマンスも向上します。初期のベンチマークでは、特定のモデルが X FPS で実行されることが示されました。最適化されたドライバーとファームウェアのアップデートにより、ハードウェアを変更することなく、これらの数値が 10 ~ 20% 向上しました。 OS と Hailo パッケージのアップデートを最新の状態に保つことで、キットの機能を最大限に活用できます。
よくある質問
Raspberry Pi AI キットは古い Pi モデルでも動作しますか?
いいえ、AI キットには Raspberry Pi 5 が必要です。PCIe 接続は、CPU とアクセラレータ間で必要な高帯域幅通信に不可欠です。-以前の Pi モデルには PCIe サポートがないため、このアーキテクチャと互換性がありません。
複数の AI モデルを同時に実行できますか?
はい、ただしパフォーマンスはモデルの複雑さとフレーム レートによって異なります。 Hailo-8L はモデル間でタイム スライスを実行できます。-ただし、重いモデルを同時に実行すると、個々のフレーム レートが低下します。実際のプロジェクトでは、1 つの高速モデルと 1 つ以上の CPU ベースのモデルを並行して実行することがよくあります。
モデルのコンパイルにはどのくらい時間がかかりますか?
シンプルなモデルは、まともなラップトップで 5-15 分でコンパイルされます。多くのレイヤーを含む複雑なモデルには 30 ~ 60 分かかる場合があります。モデルごとに 1 回だけコンパイルし、コンパイルされた .hef ファイルを Pi にデプロイします。 Model Zoo からのコンパイル済みモデルはコンパイルをまったく必要としません。
AI キットはインターネット接続なしでも動作しますか?
絶対に。ソフトウェアをインストールしてモデルをコンパイルすると、すべてがローカルで実行されます。このため、このキットは、プライバシーに敏感なアプリケーション、リモート展開、またはネットワーク アクセスが信頼できないか利用できない場所に最適です。{2}}
AI キットでモデルを直接トレーニングできますか?
いいえ、Hailo-8L は推論専用のハードウェアです。トレーニングには、さまざまなハードウェアの最適化と大幅に多くの電力が必要です。一般的なワークフローには、PyTorch/TensorFlow を使用したクラウド GPU またはワークステーションでのトレーニング、ONNX 形式への変換、Hailo のツールでのコンパイル、コンパイルされたモデルの Pi へのデプロイが含まれます。
AI キットと AI HAT+ の違いは何ですか?
オリジナルの AI キットには、M.2 HAT と Hailo-8L モジュールがバンドルされており、価格は 70 ドルです。 AI HAT+ は、ケース互換性が向上した改良版ボードで、13 TOPS Hailo-8L ($70) または 26 TOPS Hailo-8 ($110) のいずれかで利用可能です。パフォーマンスは 13 TOPS 層でも同じです。可用性と物理設計の改善が必要かどうかに基づいて選択してください。
AI キットはさまざまな画像解像度をどのように処理しますか?
アクセラレータは、モデルが物体検出のために通常 640x640 などでトレーニングされた解像度を処理します。{0} CPU は、モデルの予想される寸法に一致するようにカメラ入力のサイズ変更を処理します。入力解像度が高くなると、より多くの前処理時間が必要になりますが、モデルの入力サイズは一定のままであるため、Hailo の推論速度には直接影響しません。
Hailo-8L は TensorFlow Lite モデルと互換性がありますか?
直接ではありません。 TensorFlow Lite モデルを ONNX 形式に変換し、Hailo の Dataflow Compiler でコンパイルする必要があります。多くの一般的な TensorFlow Lite アーキテクチャがサポートされていますが、モデルの複雑さや使用される操作に応じて変換プロセスの調整が必要になる場合があります。
最初の一歩を踏み出す
カスタム モデルに入る前に、事前にコンパイルされたデモから始めてパフォーマンス特性を理解してください。{0}オブジェクト検出と姿勢推定のサンプルは、モデルのコンパイルに関する知識を必要とせずにキットの機能を実証します。ハードウェアに慣れたら、Hailo Model Zoo のさまざまなモデルを試して、アプリケーションの精度と速度のバランスを見つけてください。
Raspberry Pi AI キットは、エッジ AI のアクセシビリティにおける大きな変化を表しています。初めて、愛好家や小規模開発者は、以前は高価なハードウェアやクラウドへの依存が必要だったパフォーマンスを備えた高度なコンピュータ ビジョン システムを導入できるようになりました。- Raspberry Pi のエコシステムと Hailo の効率的なアクセラレータの組み合わせにより、2024 年まで 100 ドル未満のカテゴリには存在しなかった可能性が生まれます。-
スマート セキュリティ カメラ、工業用検査システムを構築している場合でも、エッジで AI を実験している場合でも、AI キットはそれらのプロジェクトを実行可能にする計算能力を提供します。アーキテクチャは実証されており、ソフトウェアは急速に成熟しており、コミュニティは、学習して適応できるソリューションを積極的に構築しています。




