ボクシング世界タイトルマッチを観戦中、「左フックの瞬間だけを抜き出して、ハイライト動画を作れないだろうか」と思い立ちました。では実際、こうした作業はAIに任せることができるのでしょうか?
AIはパンチを見分けられるのか?
近年は「動作認識(Action Recognition)」と呼ばれる分野が進展しています。主な技術には以下のようなものがあります。
- 骨格検出:OpenPose や MediaPipe などを用いて、人物の関節座標を取得
- 動作分類:SlowFast のようなモデルで、動きのパターンを解析
たとえば、「左手が円を描いて顔の横を通過する」という動きは、理論上「左フック」と判定できます。技術的には認識が可能といえます。
実際にやってみると見えてくる課題
ただし、実運用となるといくつかの壁があります。
| 課題 | 内容 |
|---|---|
| 画角・画質への依存 | カメラ位置や解像度によっては、ジャブやアッパーと誤判定される可能性があります。 |
| フォームの個人差 | 特にアマチュア選手ではフォームが崩れていることが多く、モデルが混乱しやすくなります。 |
| 学習データの不足 | 「左フック」の動作を十分にラベル付けしたデータセットが少ないため、精度向上が難しい状況です。 |
| 実装コスト | Python 環境の構築やGPUの使用、モデルのチューニングなどが必要です。 |
既存ツールでどこまでできるのか?
完全な自動化は難しいものの、AIを活用した編集支援ツールはいくつか存在します。
| ツール | できること | 限界 |
|---|---|---|
| Runway | モーション検出による自動カット補助 | パンチの種類を分類する機能は非搭載 |
| CapCut | 手の動きを追う物体トラッキング | 左フックかどうかは手動での選別が必要 |
| DaVinci Resolve + AIアドオン | 被写体分離やシーン検出に対応 | 左フックのみを抽出するにはスクリプト作成が必要 |
自動化に挑戦するなら(中級者向け)
もし本格的に自動化したい場合は、以下のような手順が考えられます。
- MediaPipe などで骨格データ(関節座標)を取得
- 左手の動きをベクトルとして抽出
- 「弧を描く速度」や「角度の変化」から左フックを判定
- 該当フレームを
ffmpegなどで自動カット・連結
※この方法を機能させるには、30〜50試合分の左フック映像に対し、丁寧なラベル付けが必要です。
左フックの自動抽出は、理論上は可能です。しかし実現には、精度の高いモデルやカスタム実装が必要で、技術的なハードルはかなり高いのが現実です。
現時点では、「一瞬で左フックだけを抜き出す」といった便利な機能は、一般向けツールには存在しません。短めの動画であれば、手動で編集したほうが早く、確実です。



