映画では、ロボットが「ハァッ」と言うのを聞いたことがない。
彼のすべての不安のために、「スター・ウォーズ」のC-3POは決して混乱しませんでした。 「I、Robot」の極めて重要な非人間であるSonnyは、彼が何であるかについて混乱していたかもしれませんが、ウィル・スミスを理解するのに何の問題もないようでした。
しかし、実際の生活では、機械は依然として人間の言語と激しく闘っています。 確かに、Siriは与えられたクエリで十分な単語を認識すれば質問に答えることができます。 しかし、ロボットにステップバイステップで、プログラムされていないことを行うように頼むのはどうでしょうか? まあ、それで幸運。
問題の一部は、人間としての私たちの話し方があまり正確ではないということです。 私たちが互いに話しているとき、私たちは通常そうである必要はありません。 しかし、ロボットに「水を温める」ように頼むと、その一見単純な行為に関連する長い一連の質問を処理する方法を学んでいない限り、適切な応答は「何?」になります。 その中で:水とは何ですか? どこで入手できますか? 何を入れることができますか? 「加熱」とはどういう意味ですか? これを行うには他にどんなオブジェクトが必要ですか? ソースはこの部屋にありますか?
しかし、今では、コーネル大学の研究者は、言われていないこと、または言われていることのあいまいさを解釈するためにロボットを訓練するという挑戦に取り組んでいます。 彼らは、映画「2001:A Space Odyssey」のなだめるような声と偏執的な傾向を持つコンピューター、HALにうなずくプロジェクトTell Me Daveを呼び出します。
3Dカメラを搭載したロボットは、オブジェクトを機能に関連付けるようにプログラムされています。 たとえば、カップは、水を保持したり、飲んだり、または他の何かに水を注ぐ方法として使用できるものであることを知っています。 ストーブは物を加熱できるものですが、物を置くことができるものでもあります。 コンピューター科学者は、トレーニング技術をグラウンディングと呼びます。ロボットが現実世界の物体や行動に言葉を結びつけるのを助けます。
「言葉は、行動に根ざしたものでなければロボットにとって何の意味もありません」と語るのは、Tell Me DaveチームのヘッドであるAshutosh Saxenaです。 彼によると、プロジェクトのロボットは、「拾う」や「持ち上げる」などのさまざまなフレーズを同じアクションにマッピングすることを学んだという。
単純なタスクをさまざまな方法で説明できることを考えると、これは人間とロボットのコミュニケーションにおける大きな前進です。
「工業製造、自動運転車、支援ロボットなどのすべてのロボットは、人間と対話し、不正確な言語を解釈する必要があります」と彼は言いました。 「環境の文脈から言葉の意味を理解できると、これらのロボットすべてにすぐに役立つでしょう。」
グループの取り組み
Saxenaは、大学院生のDipendra MisraおよびJaeyong Sungとともに、可能な限り多くの異なる英語のバリエーションを収集するためにクラウドソーシングにも目を向けています。
Tell Me Dave Webサイトの訪問者は、「ロボットを作る」などの特定のタスクを完了するように仮想ロボットに指示するよう求められます。ほとんどの人は、プロセスを介してロボットを導く際に異なるコマンドを与える傾向があるため、チームはプロセスの同じステップに関連する大規模な語彙を収集します。
異なるアクセントで記録されたこれらのコマンドは、さまざまなタスクの保存されたビデオシミュレーションに関連付けられています。 したがって、「ポットをストーブに乗せる」のではなく「ポットをストーブに乗せる」というフレーズが異なっていても、Tell Me Daveマシンは以前に聞いたことがあるものと一致する確率を計算できます。
この時点で、Tell Me Daveロボットは、要求されたタスクをほぼ3分の2の時間で完了します。 これには、オブジェクトが部屋のさまざまな場所に移動した場合や、ロボットがまったく別の部屋で作業している場合が含まれます。 しかし、ロボットはまだ無知であることがあります。アイスクリームが柔らかくなるまで待つように言われたとき、「どうしたらいいかわからなかった」とサクセナは言います。
それでも、不特定のステップを埋めることがはるかに良くなりました。 たとえば、「ポットの水を温める」ように言われたとき、ロボットはまずポットを蛇口まで運び、水で満たす必要があることに気付きました。 また、何かを加熱するように指示されたときに、利用可能なものに応じてストーブまたは電子レンジのいずれかを使用できることも知っています。
Saxenaは、Tell Me Daveロボットトレーニングを実際の環境で使用する前に改善する必要があると言います。 彼は、特に人間は90パーセントの時間に言われたことを理解しているので、時間の64パーセントを指示に従っているだけでは十分ではない、と彼は言います。
サクセナと彼のチームは、ロボット訓練のためのアルゴリズムを提示し、来週カリフォルニア大学バークレー校で開催されるロボティクスサイエンスアンドシステムカンファレンスでクラウドソーシングを通じてプロセスを拡大したことを示します。 同様の研究がワシントン大学で行われています。
ロボットがアルゴリズムを習得することは間違いありません。これは、 いつそれが研究室から市場に飛躍するかという問題にすぎません。 来年? ありそうにない。 しかし、10年以内に、大企業が自動運転車などの新しい市場への参入に注力するようになると、Tell Me Daveのようなロボットに夕食を始めることを伝えることができるようになります。何だって?
ロボットとの通信およびロボットを介した通信の研究に関する最新のニュースは次のとおりです。
- 「シートを暖かくする」ためのジェスチャーとは何ですか?:メルセデス・ベンツは、おそらく2020年からドライバーレス車の販売を開始する最初の大手自動車会社になりたいと考えており、エンジニアはロボット工学の専門家と協力して、多くの注目を集めている方法の1つは、車のセンサーが把握できる手の信号を使用することです。専門家は、正しいジェスチャーをすれば、駐車中の車に声をかけて迎えに行くことができると言います。
- 最後に、 メカニックのヘルパーロボット:アウディでは、ロボットヘルパーがまもなく世界中の会社のメカニックに出荷されます。 ロボットには、オフサイトの専門家が制御する3Dカメラが装備され、トリッキーな修理を通じて実際に車で作業している人々をガイドできます。
- Siriをよりスマートにする: Wiredのレポートによると、 Appleはニューラルネットワークの概念に焦点を合わせ始め、人間の脳でニューロンが機能する方法を模倣して接続を構築することで機械に単語を学習させることから、トップの音声認識専門家の採用を開始しました。
- ロボットはアートショーに乗る必要があります:今月後半、ロボットがカナダ全土でヒッチハイクを開始します。 HitchBOTと呼ばれ、アートプロジェクトと社会実験の組み合わせとして説明されています。 目標は、HitchBOTがハリファックスからブリティッシュコロンビアの全国のギャラリーに到達できるかどうかを確認することです。 自力で動くことはできませんが、動きと音声を検出できるマイクとカメラが装備されます。 また、Wikipediaが提供するデータベースを使用して質問に答えることもできます。