AI自律走行ロボットシステム 形式:GTADR200概要
1) AI(人工知能)自律走行ロボットGTADR200は、ライダーセンサーを搭載し、ロボット業界で広く使われているROSベースのデータ通信により障害物を認識して経路を選択
2) 走行中のカメラ入力映像から対象物を認識し、動作を制御
3) ライダーセンサーから入力されたデータを用いてポテンシャルフィールドを構成し、これによって障害物を回避する経路を設定
4) カメラ入力映像から、YOLO & SSDアルゴリズムにより人物、車両、停止信号などの物体認識を走行中に行う
5) 認識した対象物に応じて、特定の行動をとるようにプログラムすることが可能
6) 異なるOSを使用しても、ROSを搭載しているため、各ノード間の通信が可能
* ROSフレームワークは、ロボット開発で広く使われているPythonやLuaなどの言語だけでなく、JavaやLuaなど様々な言語で利用できる。また、PythonやC++などロボット開発で広く使われている言語にも対応
7) プロセスごとに異なるノードを作成することで、あるノードでエラーが発生しても、システムを継続的に動作させることができる
8)ジョイスティックによるシステム制御
9) Open CVによる高速画像処理
10) ROSを用いたデバッグ、3Dビジュアライゼーションが可能
11) PCからのリモートコントロールが可能
自動運転
AI自律走行ロボットシステム 形式:GTADR200

構成 | |
---|---|
ハードウェアプラットフォーム | 1式 |
ドライブマップ(4×6m) | 1式 |
ジョイスティック | 1個 |
ソフトウェアプログラムCD | 1枚 |
取扱説明書 | 1冊 |
▲このページ(制御実験装置[AI自律走行ロボットシステム])のトップへ
テキスト実験内容 | |
---|---|
第1章. ROSロボットプログラミング | |
1.1 ROSの紹介 1.1.1 ROSを利用する目的 1.1.2 ROSの特徴 1.1.3 ROSのバージョン 1.2 ROS開発環境の構築 1.3 ROSの重要な概念 1.3.1 ROSのファイルシステムレベル(Filesystem) 1.3.2 ROSの計算グラフレベル (計算グラフ) 1.3.3 ROSコミュニティレベル(Community) 1.3.4 ROSコミュニケーション 1.4 ROSコマンド 1.5 ROS ツール 1.5.1 RViz 1.5.2 RQT 1.6 ROS基本プログラミング |
|
第2章 システムのインストール | |
2.1 Jetson TX2の紹介 2.1.1 JETSON TX2モジュール 2.1.2 ハードウエア仕様 2.1.3 ソフトウェアサポート 2.1.4 JETSON TX2開発キット 2.2 JetPackのダウンロードとインストール 2.2.1 JetPack L4Tコンポーネント 2.2.2 システム要件 2.2.3 JetPack新バージョンのダウンロード 2.2.4 JetPack L4Tのインストール方法 2.2.5 サンプルコードの実行 2.3 SSDパーティション分割・フォーマット・Rootディレクトリ設定 2.4 ROSオペレーティングシステムのインストール 2.5 NVIDIA Jetson TX2上でOpenCVをビルド 2.5.1 OpenCVの紹介 2.5.2 OpenCVの機能 2.5.3 OpenCVの主な機能 2.5.4 SIFT/SURFの注意事項 2.5.5 OpenCVのインストールとビルド 2.5.6 サンプルテスト 2.6 NVIDIA Jetson TX2 上でのQt Creatorインストール 2.6.1 NVIDIA Jetson TX2 Qt Creator のインストール 2.6.2 Qt Creatorの設定 2.6.3 Qt のサンプル 2.6.4 プロファイル 2.7 カーネルとモジュールのビルド 2.7.1 スクリプトファイルのダウンロード 2.7.2 カーネルソースの取得 2.7.3 カーネルをコンパイル 2.7.4 古いブートイメージを新しいブートイメージに置き換える 2.7.5 カーネルソースの削除 (2.7.2でダウンロードしたソースファイルを削除) 2.8 Visual Studio Codeのインストール |
|
第3章 リモートコントロール | 3.1 リモートPC接続 |
第4章. 自律走行型ロボットGTADR200の起動 |
4.1 自律走行型ロボット-GTADR200の仕様 4.2 VESCと自律走行型robot-GTADR200 ROS 遠隔操作 4.2.1 Vesc仕様 4.2.2 ジョイスティック仕様 4.2.3 実行 4.3 9DOF_Razor_IMUセンサの起動 4.3.1 IMU仕様 4.3.2 実行 4.4 ROS-自律型ドリフティングロボットGTADR200の探索 |
第5章 RPLiDARセンサと自律走行ロボットGTADR200 |
5.1 RPLiDARの紹介 5.1.1 開発キットに含まれるもの 5.1.2 RPLiDAR A2仕様 5.1.3 スキャンデータの座標系を定義する 5.1.4 通信インターフェース 5.1.5 データ通信インターフェース 5.2 Qt Creatorを使ったRPLiDARのテスト 5.3 ROSを使ったRPLiDARのテスト 5.4 RPLiDARを使ったマップの作成 5.5 RPLiDARを使用したROS AMCL既知マップの例 |
第6章 WebCamカメラと駆動ロボット-GTADR200 |
6.1 ROSでWebCamを使用する 6.1.1 WebCamの紹介 6.1.2 WebCamの仕様 6.1.3 ROSでWebCamを使用する 6.2 オブジェクト検出器の検索 6.3 Pythonを使ったライン検出 6.3.1 Python 6.3.2 インストール方法と使用方法 6.3.3 Open CVを用いたWebカメラのレーン検出 6.3.4 結果と完全なソースコード 6.3.5 ROSでレーン検出 |
第7章 自律走行ロボット-GTADR200を用いた実験 |
7.1 ウォールフォローラボ 7.1.1 はじめに 7.1.2 シミュレータ 7.1.3 自律走行 7.1.4 壁面追従シミュレーション 7.2 経路追従実験 7.2.1 パーティクルフィルタによる局在化 7.2.2 ピュアパースート法 7.2.3 Aスター経路探索 7.2.4 経路追跡 |
第8章. 自律走行ロボットGTADR200とML(マシーンラーニング) |
8.1 機械学習の基本 8.1.1 機械学習の主要要素 8.1.2 機械学習の種類 8.1.3 ニューラルネットワーク 8.1.4 リニアニューラルネットワーク 8.2 コンボリューションニューラルネットワーク 8.2.1 多層パーセプトロン 8.2.2 前方伝搬と後方伝搬 8.2.3 活性化関数 8.2.4 CNNの概要 8.2.5 画像畳み込み 8.2.6 パディング、ストライド、プーリング 8.2.7 CNNの使用例 - LeNet 8.3 ディープニューラルネットワーク 8.3.1 グラデーションの消失とオーバーフィッティング 8.3.2 一般的なDNNモデルアーキテクチャー 8.3.3 様々なMLライブラリの概要 8.3.4 KerasでシンプルなDNNを構築する 8.4 自律走行型ロボットにおけるコンピュータビジョン技術 駆動ロボットGTADR200におけるMLを用いたコンピュータビジョン技術 8.4.1 データの補強 8.4.2 物体検出 8.4.3 トランスファー・ラーニングの概要 8.4.4 顔検出 8.5 物体検出とセグメンテーションの実装 自律走行ロボット-GTADR200への実装 8.5.1 YOLO物体検出 8.5.2 SSD物体検出 |
仕様 | |
---|---|
寸法 | 390×200×195(mm) |
重量 | 4kg(バッテリー含む) |
コントローラ(PC) | nVDIA Xavier AGX |
モーター | XeRun V10 G3-21.5T |
モータードライブ | VESC 4.12 |
モーター出力 | 118W |
最大回転数 | 16,000 rpm |
バッテリー コントローラ リチウムイオン | 16.8V 140Wh |
ドライブ | 2S1P 7.4V 5400mAh |
対応言語 | ROS、C、Python |
センサーカメラ | APC930 |
ライダー | 2k-8k解像度、10-15Hzスキャンレート、12mレンジ |
IMU | IMUセンサ(ジャイロ、加速度計、磁力計) |
コントローラ | Logitech F710 |
走行マップ | 4×6m |