OSSがリードする「AI/Deep Learning」「自動運転」「ロボット開発」(2/3)

OSSがリードする「AI/Deep Learning」「自動運転」「ロボット開発」(2/3)第3回はこちら

OSSがリードする「AI/Deep Learning」「自動運転」「ロボット開発」(2/3)

2018年3月12日に開催された特別セミナー「OSSがリードする先進分野の技術」について、全3回に分けてセミナーレポートとしてご紹介します。

■「OSSがリードする先進分野の技術」セミナーレポート目次

第2回は、2つのセッション「オープンソースの活用が進む、ロボット開発」と「公道実験、実証実験が進む自動運転 / Autoware」についてレポートします。

オープンソースの活用が進む、ロボット開発

次に、「ロボット開発/ RT-Middlewareの特長と最新動向」というテーマで、産業技術総合研究所 ロボットイノベーション研究センター ロボットソフトウェアプラットフォーム研究チーム長の安藤慶昭氏が講演されました。

RT-Middlewareとは

「RT-Middleware(Robot Technology-Middleware)」とは、モジュール化されたソフトウェアを組み合わせてロボット制御システムを構成するミドルウェアツール群です。モジュールを組み合わせてロボット制御システムを構築できます。2002年前後から、産業技術総合研究所で研究開発をしています。

RT-Middlewareは「リアルタイム制御」で特に力を発揮します。例えばヒューマノイドロボット(多軸ロボット)などの「モーター数が多く複雑な制御が必要なロボット」では、リアルタイム制御が重要ですが、このような領域で活用されるものです。1ミリ秒~5ミリ秒周期で姿勢安定化制御を行える性能を有しているそうです。

またRT-Middlewareでは、複数のシステム(ロボット)が連携して動作できるシステムを構築できます。「ロボット内LAN連携」「ネットワーク越しの連携」などの分散システムを容易に構築できます。

産業技術総合研究所では、RT-Middleware実装を「OpenRTM-aist」というオープンソースとしてリリースしています。ライセンスは「LGPL(ツールはEPL)と個別契約のデュアルライセンス方式」になっており、「コンポーネント(RTC)の自由な流通」と「ハード固有の改良などに対するクローズド戦略」に対応しています。RT-Middlewareの仕様は標準化されており、他にも本田技術研究所版「HRTM」や、セック版「OpenRTM.NET」など、10種類以上の互換実装が存在しています。

RT-Middleware開発チームをはじめとしたロボット関連の開発チームは、日本でも世界でも「オープンソース活用」を積極的に行っているそうです。安藤氏は『私達が関わっているプロジェクトでも、オープンソース活用について真正面から取り組み、さらに活用を進めていきたい』と、抱負を述べられました。

講演資料はこちら:「ロボット開発 / RT-Middleware の特長と最新動向」

産業技術総合研究所 ロボットイノベーション研究センター ロボットソフトウェアプラットフォーム研究チーム長の安藤慶昭氏

公道実験、実証実験が進む「自動運転 / Autoware」

次に、「自動運転 / Autowareの特長と最新動向」というテーマで、大阪大学 大学院基礎工学研究科 助教 安積卓也氏が講演されました。

自動運転ソフトウェアとは、ドライバーに代わり、ハンドル/アクセル/ブレーキを操作する機能を提供するものです。車体内部のエンジンに対する直接制御などは含みません。その中で、「Autoware」という、オープンソースの自動運転システムがあります。各種環境センサーを利用して、自車位置や周囲物体を認識しながら、指定されたルート上を自律走行できるとのことです。名古屋大学/長崎大学/産総研による共同成果の一部として、自動運転の研究開発用途に無償で公開されています。

Autowareは、Ubuntuで動く、ロボット用ミドルウェア「ROS(Robot Operating System)」上で動作します。ROSは、ロボット開発におけるライブラリやツールを提供するもので、「Publish / Subscribe モデル」「分散システム」「視覚化・シミュレーション」「豊富なパッケージ(デバイスドライバ/ライブラリ)」などの特徴があります。

自動運転を行う場合、自分の車の位置を正確に把握する必要があります。Autowareでは、さまざまな状況に対応できるように、「GPS」「高精度3次元地図」「360度距離測定センサー(LIDAR)」「スキャンマッピング」などの各種技術を活用して、自己位置を推定します。また、カメラなどのセンサーを使用して、周囲の状況を取得/分析して車両操作を行います。Autowareの物体認識機能では、ディープラーニングを活用しています。ディープラーニング技術の発達により、30フレーム/秒以上の処理が行えるようになってきているそうです。

また、Autowareでは

ステップ1 大まかな経路設定(現在いる場所からゴールまでのおおまかな経路を設定)
ステップ2 軌道生成(現在いる位置から50メートル先程度までについて、車線変更や物体回避を行うための詳細な軌道を作成)
ステップ3 車両制御(生成された詳細な軌道に沿ってハンドルを操作して、車両をコントロール)

という3ステップで経路計画を作成して、車両制御を行うとのことでした。

現在、Autowareを利用した「公道実験」「日本郵便での実証実験」などが行われています。講演内では、自動運転の動画を交えたわかり易い説明が行われ、安積氏は『オープンソースソフトウェアを組み合わせるだけで、ある程度の自動運転を実現できるようになってきています』と語られました。

講演資料はこちら:「自動運転 / Autoware の特長と最新動向」

次回は、
第3回:「日本生まれのオープンソース、Deep LearningフレームワークのChainer」+「懇親会/ライトニングトーク」
についてお届けします。

大阪大学 大学院基礎工学研究科
助教の安積卓也氏