安全な核廃棄物処理のためのEnsenso 3Dカメラ搭載ロボット支援システム
2022/01/05
アイ・ディー・エス(IDS imaging)株式会社
核施設の廃炉は、事業者にとって大きな課題が伴います。廃炉にしろ安全な封じ込めにしろ、廃棄対象の核廃棄物の量は世界中で驚くべき速度で増加しています。核廃棄物の処理への自動化の必要性が増していますが、核産業は安全性の理由から全自動のロボット制御法には腰が重く、危険な環境ではリモート制御の産業ロボットが好まれています。しかし、ジョイスティックやビデオ監視カメラの力を借りた、リモート制御の把持や未知の物体の切断などの複雑な作業は、制御が困難で、不可能な場合すらあります。
このプロセスを簡素化するため、英国バーミンガム大学のExtreme Robotics Labが主導するNationalCentre for Nuclear Roboticsでは、核廃棄物向けの自動処理手法を研究しています。この研究で開発されたロボット支援システムは「共有」制御により、触覚フィードバックとEnsenso 3Dカメラから提供される視覚情報により、複雑な操作タスクを実行できます。オペレーターは常に操作ループ内に加わり、システム障害の発生時にはロボットの自動操作の制御を引き継げます。
展示会でつかみ取りマシンを試してみたことがあるなら、おわかりになるでしょう。つかみ取りアームの手動制御は単純です。うさぎのぬいぐるみを掴むのに失敗するのはご愛敬ですが、放射性廃棄物の処理の場合、失敗すると大きな影響があります。人間や環境に重大な影響をもたらす存在を防ぐため、ロボットはシーン内の放射性物質を極めて高い精度で検出し、精密に操作できなければなりません。オペレーターは文字通りロボットを手にとり、正しい把持位置を判定するのはオペレーターの責任です。
同時に、オペレーターはインバースキネマティクス(逆運動)を正しく評価して、正しい位置に配置して衝突を避けるため、ロボットのアーム部品の連結角度を正しく判定する必要があります。英国の研究者が開発した支援システムは、このタスクを大幅に簡易化し、高速化します。このシステムには、並行ジョーグリッパーとEnsenso N35 3Dカメラを搭載した標準の産業用ロボットが使用されています。
未知の廃棄物を自律的にスキャンし、点群の形式で3Dモデルを作成します。Ensenso 3Dカメラは、人間の視覚をモデル化した空間ビジョン(ステレオビジョン)の原理に従って動作するので、非常に精度が高くなります。2台のカメラで物体を異なる位置から観察します。両方のカメラが撮影した画像コンテンツは同一のように見えますが、撮影する物体の位置の違いによる差異が反映されます。カメラの視野角と距離、および光学機器の焦点距離は既知なので、Ensensoソフトウェアは、各画像ピクセルの物体の3D座標を特定できます。この場合、カメラの異なるスキャン位置を使用してシーンが撮影されて組み合わされ、あらゆる視界から見た完全な3Dサーフェスが得られます。Ensensoの校正ルーチンにより、個々の点群をグローバル座標系に変換でき、仮想イメージ全体が向上します。この結果、生成される点群には、正しい把持または切断位置をロボットに伝達するために必要なすべての空間物体情報が含まれます。
ソフトウェアのサポートにより、Enseno 3Dカメラはオペレーターによる奥行き情報の認識と評価を実行するので、認識負荷は大幅に削減されます。支援システムには、把持対象の物体の触覚特性と、特殊な把持アルゴリズムが組み合わされています。「システムではシーン群を使用して、複数の安定した把持位置を自動的に生成します。
これをベースとして、私たちの「仮説ランキングアルゴリズム」は、次に取り上げる物体を、ロボットの現在位置を基準に判定します」と、National Centre for Nuclear Roboticsの上級リサーチサイエンティストである Naresh Marturi博士は説明します。
原理は、他のスティックを動かさずに1本のスティックを抜き去るスキルゲームのMikadoと似ています。決定されたパスのガイドにより、ロボットはスムーズに、目的のパスに沿ってターゲットの把持位置まで均一に移動できます。ナビゲーションシステムと同様に、オペレーターがロボットアームを安全に把持できるよう案内し、必要に応じて、他の未知の危険な物体を回避するよう支援します。このために安全な経路を計算し、オペレーターが触覚フィードバックによって経路を外れないようにサポートします。
システムはオペレーターの自然な手の動きを正確かつ確実に、対応するロボットの移動にリアルタイムでマッピングします。オペレーターは常に手動制御を維持し、コンポーネントが失敗しても制御を引き継げます。AIをオフにして、「強制フィードバックモード」を有効にして人間の判断に戻すだけです。人間と機械との共有制御の原理により、常にシステムを制御下に置くことができ、これは危険度が最も高い環境で重要な点です。
■システムの主な利点
・オペレーターは、シーンの奥行きや、物体へのアプローチ方法や把持位置について、検討する必要がありません。システムが何もかもをバックグラウンドで判断し、ロボットが物体を最適に把持できる場所にオペレーターが正しく移動できるようにします。
・触覚フィードバックにより、ロボットがオペレーターの目の前になくても、オペレーターは手の中のロボットを感じることができます。
・触覚と把持計画を組み合わせて、オペレーターはリモートシーンでも物体を非常に簡単に、非常にすばやく移動でき、認識負荷はきわめて低くなります。これによって時間とコストが節約され、ミスが減少し、安全性が高まります。
■今後の予定
バーミンガム大学のExtreme Robotic Labは現在、並行ジョーグリッパーではなく、多指ハンドを使用できるように、手法の拡張を開発しています。これにより、複雑な物体を把持する際の柔軟性と確実性が向上します。将来的には、オペレーターはリモート制御されたロボットのどの指を使用して物体をつかんでいるか、力を感じられるようにもなります。完全自律型の把持手法も開発中で、ロボットアームはAIで制御され、自動ビジョンシステムがガイドします。チームは、人間とロボットの協働を改善してリモートロボットを「共有制御」システムで制御する可視化ツールにも取り組んでいます。
これは私たち全員の安全と健康にとって有望なアプローチです。結局のところ、核廃棄物などの危険物の処理は、私たち全員が懸念する問題だからです。該当する物体情報を確実に取得するEnsenso 3Dカメラは、この世界的に緊急度が高まっているタスクに重要な働きをします。
このプロセスを簡素化するため、英国バーミンガム大学のExtreme Robotics Labが主導するNationalCentre for Nuclear Roboticsでは、核廃棄物向けの自動処理手法を研究しています。この研究で開発されたロボット支援システムは「共有」制御により、触覚フィードバックとEnsenso 3Dカメラから提供される視覚情報により、複雑な操作タスクを実行できます。オペレーターは常に操作ループ内に加わり、システム障害の発生時にはロボットの自動操作の制御を引き継げます。
展示会でつかみ取りマシンを試してみたことがあるなら、おわかりになるでしょう。つかみ取りアームの手動制御は単純です。うさぎのぬいぐるみを掴むのに失敗するのはご愛敬ですが、放射性廃棄物の処理の場合、失敗すると大きな影響があります。人間や環境に重大な影響をもたらす存在を防ぐため、ロボットはシーン内の放射性物質を極めて高い精度で検出し、精密に操作できなければなりません。オペレーターは文字通りロボットを手にとり、正しい把持位置を判定するのはオペレーターの責任です。
同時に、オペレーターはインバースキネマティクス(逆運動)を正しく評価して、正しい位置に配置して衝突を避けるため、ロボットのアーム部品の連結角度を正しく判定する必要があります。英国の研究者が開発した支援システムは、このタスクを大幅に簡易化し、高速化します。このシステムには、並行ジョーグリッパーとEnsenso N35 3Dカメラを搭載した標準の産業用ロボットが使用されています。
未知の廃棄物を自律的にスキャンし、点群の形式で3Dモデルを作成します。Ensenso 3Dカメラは、人間の視覚をモデル化した空間ビジョン(ステレオビジョン)の原理に従って動作するので、非常に精度が高くなります。2台のカメラで物体を異なる位置から観察します。両方のカメラが撮影した画像コンテンツは同一のように見えますが、撮影する物体の位置の違いによる差異が反映されます。カメラの視野角と距離、および光学機器の焦点距離は既知なので、Ensensoソフトウェアは、各画像ピクセルの物体の3D座標を特定できます。この場合、カメラの異なるスキャン位置を使用してシーンが撮影されて組み合わされ、あらゆる視界から見た完全な3Dサーフェスが得られます。Ensensoの校正ルーチンにより、個々の点群をグローバル座標系に変換でき、仮想イメージ全体が向上します。この結果、生成される点群には、正しい把持または切断位置をロボットに伝達するために必要なすべての空間物体情報が含まれます。
ソフトウェアのサポートにより、Enseno 3Dカメラはオペレーターによる奥行き情報の認識と評価を実行するので、認識負荷は大幅に削減されます。支援システムには、把持対象の物体の触覚特性と、特殊な把持アルゴリズムが組み合わされています。「システムではシーン群を使用して、複数の安定した把持位置を自動的に生成します。
これをベースとして、私たちの「仮説ランキングアルゴリズム」は、次に取り上げる物体を、ロボットの現在位置を基準に判定します」と、National Centre for Nuclear Roboticsの上級リサーチサイエンティストである Naresh Marturi博士は説明します。
原理は、他のスティックを動かさずに1本のスティックを抜き去るスキルゲームのMikadoと似ています。決定されたパスのガイドにより、ロボットはスムーズに、目的のパスに沿ってターゲットの把持位置まで均一に移動できます。ナビゲーションシステムと同様に、オペレーターがロボットアームを安全に把持できるよう案内し、必要に応じて、他の未知の危険な物体を回避するよう支援します。このために安全な経路を計算し、オペレーターが触覚フィードバックによって経路を外れないようにサポートします。
システムはオペレーターの自然な手の動きを正確かつ確実に、対応するロボットの移動にリアルタイムでマッピングします。オペレーターは常に手動制御を維持し、コンポーネントが失敗しても制御を引き継げます。AIをオフにして、「強制フィードバックモード」を有効にして人間の判断に戻すだけです。人間と機械との共有制御の原理により、常にシステムを制御下に置くことができ、これは危険度が最も高い環境で重要な点です。
■システムの主な利点
・オペレーターは、シーンの奥行きや、物体へのアプローチ方法や把持位置について、検討する必要がありません。システムが何もかもをバックグラウンドで判断し、ロボットが物体を最適に把持できる場所にオペレーターが正しく移動できるようにします。
・触覚フィードバックにより、ロボットがオペレーターの目の前になくても、オペレーターは手の中のロボットを感じることができます。
・触覚と把持計画を組み合わせて、オペレーターはリモートシーンでも物体を非常に簡単に、非常にすばやく移動でき、認識負荷はきわめて低くなります。これによって時間とコストが節約され、ミスが減少し、安全性が高まります。
■今後の予定
バーミンガム大学のExtreme Robotic Labは現在、並行ジョーグリッパーではなく、多指ハンドを使用できるように、手法の拡張を開発しています。これにより、複雑な物体を把持する際の柔軟性と確実性が向上します。将来的には、オペレーターはリモート制御されたロボットのどの指を使用して物体をつかんでいるか、力を感じられるようにもなります。完全自律型の把持手法も開発中で、ロボットアームはAIで制御され、自動ビジョンシステムがガイドします。チームは、人間とロボットの協働を改善してリモートロボットを「共有制御」システムで制御する可視化ツールにも取り組んでいます。
これは私たち全員の安全と健康にとって有望なアプローチです。結局のところ、核廃棄物などの危険物の処理は、私たち全員が懸念する問題だからです。該当する物体情報を確実に取得するEnsenso 3Dカメラは、この世界的に緊急度が高まっているタスクに重要な働きをします。
