オルタナティブ・ブログ > 経営者が読むNVIDIAのフィジカルAI / ADAS業界日報 by 今泉大輔 >

20年以上断続的にこのブログを書き継いできたインフラコモンズ代表の今泉大輔です。NVIDIAのフィジカルAIの世界が日本の上場企業多数に時価総額増大の事業機会を1つだけではなく複数与えることを確信してこの名前にしました。ネタは無限にあります。何卒よろしくお願い申し上げます。

バークレーのヒト型ロボキットを自社でカスタマイズし実機のPoCまで具体化するステップ

»

Alternative2025Jun12a.png

昨日上げたこちらの記事の続きです。

草の根的に始めるヒト型ロボ開発プロジェクトにピッタリのオープンソースキットBerkeley Humanoid Lite

要は、日本企業がヒト型ロボ(←日経用語。世界的にはヒューマノイド)を量産する事業に入る前に、小規模なチームで足慣らしをするための学習素材として、バークレーのオープンソースのキットを使いましょうという記事です。

その続きとして、このキットを使って、自社が開発する高性能センサーなどを組み込んだカスタマイズバージョンを組み上げるにはどうすればいいか?ロボティクスの大家であるChatGPTに書かせました。技術的に正確さを記すためあえてAIに書かせています。(しかし人間にも誤りがあるようにAIにも誤りがある場合はあり、その際にはご容赦下さい)

Unitree G1のカスタマイズ可能なモデルを購入して、NVIDIAのロボット開発用技術スタックを用いて同じことをできる可能性はありますが、ネット上の開発者コミュニティが毎日発見するノウハウを書き込み共有する場がUnitreeにはないに等しいと思われるため、バークレーのオープンソースキットを使うのが順当だと考えています。

なお、中国から新たにオープンソースのヒューマノイドを公開する企業が現れました。中国恐るべし。

Happy to introduce our open-source humanoid whole body tele-operation system, across different robots (Unitree G1 & H1), sim & real. The technology is mainly our recent work R2S2. Project: zzk273.github.io/R2S2/ Super robust. Try it now!

Alternative2025Jun12d.png


自社仕様スマートヒューマノイドPoC構築:エンジニア向け実践ガイド

Berkeleyのオープンソースヒューマノイドは、シミュレーションと現物の接続が明示された、極めて教育的かつ拡張可能な設計になっています。本ガイドでは、既存キットをベースに、貴社の強みを持つセンサー/アクチュエータを組み込み、PoCとして実機デモに仕上げるためのステップを段階的に解説します。

STEP 1:自社コンポーネントの選定と仕様書化

まずは、PoCに組み込むべき自社製コンポーネントを以下の視点から選定:

  • ✔︎ 既存のユースケースに適用可能(例:工場内での人協働、物流補助)

  • ✔︎ ROS2ドライバが社内に存在/開発可能

  • ✔︎ Jetson Orinと直接I2C/SPI/USBで通信可能

推奨例:

  • MEMSセンサ(高精度IMU / 圧力センサ / 指先感圧)

  • 特殊アクチュエータ(小型でトルク制御可能な新型モーター)

  • 認識モジュール(顔認識 / ジェスチャ認識 / 音声対話)

この段階で、仕様書としてまとめておくと、Sim2Real対応や社内合意形成に役立ちます。

STEP 2:Isaac Sim上で「拡張モデル」を構築・検証

  • 3Dモデルにセンサ・アクチュエータの仮想位置を設定

  • 物理モデルに慣性・制約・応答特性を反映

  • 新たな入力情報を含めた強化学習ポリシーを再トレーニング

    • Isaac Labの拡張コード or Stable Baselines3などで対応

  • ロボットが「反応できる」動作のPoCシナリオを作成

    • 例:物体に触れると自社IMUで姿勢安定/手をかざすと自社センサで反応

STEP 3:Jetson Orinで実機制御に移行

  • センサ/アクチュエータのROS2ノードを実装 or 既存コードを組み込み

  • Isaac ROS Gem を活用して perception → control loop を統合

  • 実機でPoCシナリオを実行(デモ撮影可能な品質まで調整)

STEP 4:プロトタイピングとパフォーマンス最適化

  • フレームをカスタム3Dプリント or アルミパーツで再構成

  • 必要に応じてアクチュエータ/電源設計を見直し(安全性確保)

  • カメラ/LiDARなどの高次認識系を搭載(視覚・聴覚を追加)

→ これで「自社製部品が動くスマートヒューマノイド」完成。

STEP 5:PoC完成後のアウトリーチと発信

  • ✔︎ YouTubeでのデモ公開

    • Sim上の様子 + 実機動作 + 自社部品の優位性解説

    • 視覚的なインパクトを持たせる:歩行/ジェスチャー/会話など

  • ✔︎ ロボット系イベント・展示会での発表

    • IROS, ROSCon, CEATEC, Maker Faire などを視野に

    • 自社の役割を強調した「共同開発ポジション」獲得の足がかりに

  • ✔︎ 記者発表・プレスリリース

    • 「ヒューマノイド分野に参入」「自社部品を使った最先端PoC完成」などの切り口で露出

まとめ:Berkeleyモデルは「たたき台」、PoCは「自社の武器」

自社の技術資産を活かしながら、海外で設計されたキットを日本独自仕様に進化させることで、PoC段階でも業界内での差別化は十分に可能です。

まずは"動く実機"という成果を、1体でも作ることが起爆剤になります。NVIDIA Isaacスタックはそのために設計されています。


自社仕様スマートヒューマノイドのPoC構築:仮想から実機への完全ステップ

本稿では、NVIDIA IsaacスタックとBerkeleyのオープンソースHumanoid Liteを活用し、仮想モデル(Sim)から物理ロボット(Real)へ段階的に落とし込むプロセスを、モデルケースに基づいて詳細に解説します。日本企業が保有するセンサやアクチュエータなどの強みをPoCとして体現するためのステップです。

モデルケース:自社IMUセンサ搭載のPoC開発

例として、自社開発の高精度IMU(慣性センサ)をBerkeley Humanoid Liteに搭載し、姿勢制御を最適化したPoCの構築を行うステップを紹介します。

【STEP 0】準備環境の整備

  • Ubuntu環境(22.04推奨)にNVIDIA Isaac Simをインストール

  • Isaac Lab、Humanoid Lite GitHubレポジトリを導入

  • Jetson Orin Developer Kit(AGX/NX)と通信確認

【STEP 1】仮想環境(Sim)での開発

✔︎ 1.1 Humanoid Liteを動かす

  • GitHubからHumanoid LiteのURDFファイルと制御コードを取得

  • Isaac Simで3Dモデルを可視化し、歩行シナリオを再現

✔︎ 1.2 自社IMUのSimモデルを追加

  • URDFファイルに仮想IMUをマウント(位置・方向を正確に指定)

  • IMUからの出力を模擬し、ポリシー(制御アルゴリズム)に統合

  • 歩行安定性が向上するかを検証

✔︎ 1.3 ポリシー再学習

  • Isaac Labで模倣学習 or 強化学習を実施

  • 目標:IMU出力を用いたフィードバック制御によるバランス保持

【STEP 2】ROS2制御ノードの実装

✔︎ 2.1 Jetson Orin上でROS2セットアップ

  • ROS2 Humble / Foxyをインストール

  • IMUドライバ(社内既存 or 開発)をROSノードとして統合

✔︎ 2.2 Isaac ROS GEMと統合

  • Perception GEM(視覚)+ IMU GEM(慣性)を組み合わせ

  • IMUからの情報を使ったリアルタイム姿勢補正ノードを構築

【STEP 3】実機プロトタイピング(Real)

✔︎ 3.1 フレームの組立て

  • Humanoid Liteの設計図をベースに3Dプリント or アルミフレーム加工

  • 自社IMUをマウント(仮想と同じ位置)

✔︎ 3.2 実機動作テスト

  • Jetson Orinでリアルタイム制御を実施

  • Sim上で学習したポリシーを転用し、Realとの誤差を確認

  • 必要に応じて転移学習(Domain Randomization)で補正

【STEP 4】PoCとしての仕上げ

✔︎ デモシナリオの設計

  • 例:段差から降りる際にIMUで姿勢制御しながらバランスを保持

  • カメラ or LiDARで人を検出し、ジェスチャーで停止

✔︎ 公開・発表

  • YouTubeでデモ動画公開

  • 記者発表や展示会(CEATEC / IROSなど)で発信

汎用ステップとして再構成

以下は、任意の自社部品を用いたPoC開発を行うための汎用化された手順です:

ステップA:設計と学習(Sim側)

  1. Isaac Sim上にHumanoid Liteモデルを再現

  2. 自社部品の仮想モデル(URDF)を追加

  3. 学習環境で強化学習 or 模倣学習を実行

ステップB:制御と通信

  1. Jetson Orin + ROS2で物理制御環境を構築

  2. 自社製ドライバ or ROSノードでセンサ/アクチュエータを統合

ステップC:実機組立と検証

  1. 実機フレームを組立て、自社部品を物理的に搭載

  2. Sim2Real誤差を確認し、必要に応じて再学習

ステップD:発信と活用

  1. 動作シナリオを整理し、動画撮影+メディア公開

  2. イベント・発表会・社内デモなどでPoC活用

✔︎ まとめ

BerkeleyのHumanoid LiteとNVIDIA Isaacスタックを基盤にすれば、日本企業のエンジニアは仮想から実機までを一気通貫で体験・開発できます。さらに、自社部品を組み込んだPoCは、新規市場への足がかりにもなり得ます。

このアプローチは「最短距離で米中にキャッチアップする道」として、日本の製造業にとって最適な戦略です。

Comment(0)