banner
ニュース センター
パーソナライズされた注文は常に推奨されています

ロボットハンドは視覚ではなくタッチを使用してオブジェクトを回転させます

Jun 19, 2023

人間が物体を見ずに楽に扱う方法に触発され、カリフォルニア大学サンディエゴ校のエンジニアが率いるチームは、視覚に頼らずにロボットハンドが接触だけで物体を回転できるようにする新しいアプローチを開発した。

研究者らはその技術を利用して、小さなおもちゃや缶詰、さらには果物や野菜に至るまで、さまざまな物体を傷つけたり潰したりすることなくスムーズに回転させることができるロボットハンドを構築した。 ロボットハンドは、接触に基づく情報のみを使用してこれらのタスクを実行しました。

この研究は、暗闇の中で物体を操作できるロボットの開発に役立つ可能性がある。

チームは最近、2023 Robotics: Science and Systems Conference で研究成果を発表しました。

システムを構築するために、研究者らは 4 本指のロボット ハンドの手のひらと指に 16 個のタッチ センサーを取り付けました。 各センサーの価格は約 12 ドルで、物体が接触しているかどうかを検出するという単純な機能を果たします。

このアプローチがユニークなのは、単純なバイナリ信号 (タッチの有無) を使用して、ロボットによる手の中の回転を実行する、多くの低コスト、低解像度のタッチ センサーに依存していることです。 これらのセンサーはロボット ハンドの広い領域に分散されています。

これは、ロボットハンドの小さな領域、主に指先に取り付けられたいくつかの高コストで高解像度のタッチセンサーに依存する他のさまざまなアプローチとは対照的です。

これらのアプローチにはいくつかの問題があると、今回の研究を主導したカリフォルニア大学サンディエゴ校の電気・コンピュータ工学教授シャオロン・ワン氏は説明した。 まず、ロボット ハンドに少数のセンサーを搭載することで、センサーが物体と接触する可能性が最小限に抑えられます。 これにより、システムの感知能力が制限されます。 第 2 に、テクスチャに関する情報を提供する高解像度のタッチ センサーは、非常に高価であることは言うまでもなく、シミュレーションが非常に困難です。 そのため、実際の実験でそれらを使用することがより困難になります。 最後に、これらのアプローチの多くは依然として視覚に依存しています。

「ここでは、非常に単純な解決策を使用します」とワン氏は言います。 「このタスクを実行するのにオブジェクトのテクスチャに関する詳細は必要ないことがわかりました。 必要なのは、センサーが物体に触れたかどうかを示す単純な 2 値信号だけであり、これらの信号をシミュレートして現実世界に転送するのがはるかに簡単です。」

研究者らはさらに、バイナリタッチセンサーを広範囲にカバーすることで、ロボットハンドに物体の3D構造と方向に関する十分な情報を与え、視覚なしで回転させることができると指摘している。

彼らはまず、不規則な形状を含むさまざまなオブジェクトのセットを回転させる仮想ロボットハンドのシミュレーションを実行することによってシステムをトレーニングしました。 システムは、回転中の任意の時点で手のどのセンサーが物体に触れているかを評価します。 また、手の関節の現在の位置と以前の動作も評価します。 この情報を使用して、システムはロボット ハンドに次の時点でどの関節をどこに移動する必要があるかを伝えます。

次に研究者らは、システムがまだ遭遇したことのない物体を使用して、現実のロボットハンド上でシステムをテストしました。 ロボットハンドは、失速したり保持力を失ったりすることなく、さまざまな物体を回転させることができました。 オブジェクトには、トマト、ピーマン、ピーナッツバターの缶、ゴム製のアヒルのおもちゃが含まれていましたが、これはその形状のために最も困難なオブジェクトでした。 複雑な形状のオブジェクトほど、回転に時間がかかります。 ロボットハンドは、異なる軸を中心にオブジェクトを回転させることもできます。

Wang 氏と彼のチームは現在、そのアプローチをより複雑な操作タスクに拡張することに取り組んでいます。 彼らは現在、ロボットハンドで捕まえたり、投げたり、ジャグリングしたりできる技術を開発中だ。

「手の操作は私たち人間が持つ非常に一般的なスキルですが、ロボットが習得するのは非常に複雑です」とワン氏は言う。 「ロボットにこのスキルを与えることができれば、ロボットが実行できる種類のタスクへの扉が開かれるでしょう。」

論文のタイトル: 「見ずに回転する: タッチによる手の器用さへ向けて」。 共著者には、Binghao Huang*、Yuzhe Qin、カリフォルニア大学サンディエゴ校が含まれます。 Zhao-Heng ying* と Qifeng Chen、HKUST。