制御実験装置

自動運転

AI自律走行ロボットシステム 形式:GTADR200

AI自律走行ロボットシステム 形式:GTADR200概要
1) AI(人工知能)自律走行ロボットGTADR200は、ライダーセンサーを搭載し、ロボット業界で広く使われているROSベースのデータ通信により障害物を認識して経路を選択
2) 走行中のカメラ入力映像から対象物を認識し、動作を制御
3) ライダーセンサーから入力されたデータを用いてポテンシャルフィールドを構成し、これによって障害物を回避する経路を設定
4) カメラ入力映像から、YOLO & SSDアルゴリズムにより人物、車両、停止信号などの物体認識を走行中に行う
5) 認識した対象物に応じて、特定の行動をとるようにプログラムすることが可能
6) 異なるOSを使用しても、ROSを搭載しているため、各ノード間の通信が可能
* ROSフレームワークは、ロボット開発で広く使われているPythonやLuaなどの言語だけでなく、JavaやLuaなど様々な言語で利用できる。また、PythonやC++などロボット開発で広く使われている言語にも対応
7) プロセスごとに異なるノードを作成することで、あるノードでエラーが発生しても、システムを継続的に動作させることができる
8)ジョイスティックによるシステム制御
9) Open CVによる高速画像処理
10) ROSを用いたデバッグ、3Dビジュアライゼーションが可能
11) PCからのリモートコントロールが可能
AI自律走行ロボットシステム GTADR200

構成
ハードウェアプラットフォーム 1式
ドライブマップ(4×6m) 1式
ジョイスティック 1個
ソフトウェアプログラムCD 1枚
取扱説明書 1冊

このページ(制御実験装置[AI自律走行ロボットシステム])のトップへ

テキスト実験内容
第1章. ROSロボットプログラミング
1.1 ROSの紹介 1.1.1 ROSを利用する目的 1.1.2 ROSの特徴 1.1.3 ROSのバージョン
1.2 ROS開発環境の構築 1.3 ROSの重要な概念 1.3.1 ROSのファイルシステムレベル(Filesystem)
1.3.2 ROSの計算グラフレベル (計算グラフ) 1.3.3 ROSコミュニティレベル(Community)
1.3.4 ROSコミュニケーション 1.4 ROSコマンド 1.5 ROS ツール 1.5.1 RViz 1.5.2 RQT
1.6 ROS基本プログラミング
第2章 システムのインストール
2.1 Jetson TX2の紹介 2.1.1 JETSON TX2モジュール 2.1.2 ハードウエア仕様 2.1.3 ソフトウェアサポート
2.1.4 JETSON TX2開発キット 2.2 JetPackのダウンロードとインストール 2.2.1 JetPack L4Tコンポーネント
2.2.2 システム要件 2.2.3 JetPack新バージョンのダウンロード 2.2.4 JetPack L4Tのインストール方法
2.2.5 サンプルコードの実行 2.3 SSDパーティション分割・フォーマット・Rootディレクトリ設定
2.4 ROSオペレーティングシステムのインストール 2.5 NVIDIA Jetson TX2上でOpenCVをビルド
2.5.1 OpenCVの紹介 2.5.2 OpenCVの機能 2.5.3 OpenCVの主な機能 2.5.4 SIFT/SURFの注意事項
2.5.5 OpenCVのインストールとビルド 2.5.6 サンプルテスト
2.6 NVIDIA Jetson TX2 上でのQt Creatorインストール 2.6.1 NVIDIA Jetson TX2 Qt Creator のインストール
2.6.2 Qt Creatorの設定 2.6.3 Qt のサンプル 2.6.4 プロファイル 2.7 カーネルとモジュールのビルド
2.7.1 スクリプトファイルのダウンロード 2.7.2 カーネルソースの取得 2.7.3 カーネルをコンパイル
2.7.4 古いブートイメージを新しいブートイメージに置き換える 2.7.5 カーネルソースの削除
(2.7.2でダウンロードしたソースファイルを削除) 2.8 Visual Studio Codeのインストール
第3章 リモートコントロール 3.1 リモートPC接続
第4章. 自律走行型ロボットGTADR200の起動
4.1 自律走行型ロボット-GTADR200の仕様 4.2 VESCと自律走行型robot-GTADR200 ROS 遠隔操作
4.2.1 Vesc仕様 4.2.2 ジョイスティック仕様 4.2.3 実行 4.3 9DOF_Razor_IMUセンサの起動
4.3.1 IMU仕様 4.3.2 実行 4.4 ROS-自律型ドリフティングロボットGTADR200の探索
第5章 RPLiDARセンサと自律走行ロボットGTADR200
5.1 RPLiDARの紹介 5.1.1 開発キットに含まれるもの 5.1.2 RPLiDAR A2仕様
5.1.3 スキャンデータの座標系を定義する 5.1.4 通信インターフェース 5.1.5 データ通信インターフェース
5.2 Qt Creatorを使ったRPLiDARのテスト 5.3 ROSを使ったRPLiDARのテスト
5.4 RPLiDARを使ったマップの作成 5.5 RPLiDARを使用したROS AMCL既知マップの例
第6章 WebCamカメラと駆動ロボット-GTADR200
6.1 ROSでWebCamを使用する 6.1.1 WebCamの紹介 6.1.2 WebCamの仕様
6.1.3 ROSでWebCamを使用する 6.2 オブジェクト検出器の検索 6.3 Pythonを使ったライン検出
6.3.1 Python 6.3.2 インストール方法と使用方法 6.3.3 Open CVを用いたWebカメラのレーン検出
6.3.4 結果と完全なソースコード 6.3.5 ROSでレーン検出
第7章 自律走行ロボット-GTADR200を用いた実験
7.1 ウォールフォローラボ 7.1.1 はじめに 7.1.2 シミュレータ 7.1.3 自律走行
7.1.4 壁面追従シミュレーション 7.2 経路追従実験 7.2.1 パーティクルフィルタによる局在化
7.2.2 ピュアパースート法 7.2.3 Aスター経路探索 7.2.4 経路追跡
第8章. 自律走行ロボットGTADR200とML(マシーンラーニング)
8.1 機械学習の基本 8.1.1 機械学習の主要要素 8.1.2 機械学習の種類 8.1.3 ニューラルネットワーク
8.1.4 リニアニューラルネットワーク 8.2 コンボリューションニューラルネットワーク
8.2.1 多層パーセプトロン 8.2.2 前方伝搬と後方伝搬 8.2.3 活性化関数 8.2.4 CNNの概要
8.2.5 画像畳み込み 8.2.6 パディング、ストライド、プーリング 8.2.7 CNNの使用例 - LeNet
8.3 ディープニューラルネットワーク 8.3.1 グラデーションの消失とオーバーフィッティング
8.3.2 一般的なDNNモデルアーキテクチャー 8.3.3 様々なMLライブラリの概要
8.3.4 KerasでシンプルなDNNを構築する 8.4 自律走行型ロボットにおけるコンピュータビジョン技術
駆動ロボットGTADR200におけるMLを用いたコンピュータビジョン技術 8.4.1 データの補強
8.4.2 物体検出 8.4.3 トランスファー・ラーニングの概要 8.4.4 顔検出 
8.5 物体検出とセグメンテーションの実装 自律走行ロボット-GTADR200への実装 8.5.1 YOLO物体検出 8.5.2 SSD物体検出

仕様
寸法 390×200×195(mm)
重量 4kg(バッテリー含む)
コントローラ(PC) nVDIA Xavier AGX
モーター XeRun V10 G3-21.5T
モータードライブ VESC 4.12
モーター出力 118W
最大回転数 16,000 rpm
バッテリー コントローラ リチウムイオン 16.8V 140Wh
ドライブ 2S1P 7.4V 5400mAh
対応言語 ROS、C、Python
センサーカメラ APC930
ライダー 2k-8k解像度、10-15Hzスキャンレート、12mレンジ
IMU IMUセンサ(ジャイロ、加速度計、磁力計)
コントローラ Logitech F710
走行マップ 4×6m

このページ(制御実験装置[AI自律走行ロボットシステム])のトップへ

制御実験装置の製品ラインナップ