Gemini_Generated_Image_cn74micn74micn74


(*)冒頭3分日本語訳 → DeepLの訳文確認 → 誤訳や気になる箇所編集
掲載日:2024/11/16
  




  
This week Alistair's looking to the skies for guidance. 

今週はアレスティアはガイダンスを求めて空を仰ぎます。

We're going to get some help navigating From up there. 

「空からナビをして貰おうと思います。」

Laura's getting hungry with a robot hand, 

ロボットハンドを使いつつララは空腹模様。

no pressure, but I have quite hungry. 
I'm not sure how appealing that lettuce is looking after 
having that done to it 

「プレッシャーはありませんが、かなりお腹がすいてます。
レタスがどれほどの魅力を兼ねているかは判りませんが。」

and Spencer leaps forward to the year 2125. 

そしてスペンサーは2125年へ跳躍する。

On eye to eye with a cuttlefish. 

「イカと目が合っています。」

Doesn't he need a snorkel for that? 

「スノーケルは要らないのかな?」





【MIT】's, computer science and artificial intelligence laboratory 
is a world leading facility. 
But today, I've come to teacher thing or two 
to the robot That is not the people 
in a bid to help the behave as humanly as possible. 
Especially with the tasks that we wouldn't give a second thought to. 
This reinforcement learning, where the machine's mimic Humans 
is how the Al is trained. 
It aims to make the Bots less, well robotic and more multi-skilled. 


MITのコンピュータ科学と人工知能研究所は世界を率いる研究所の1つだ。
しかし本日は、先生として来ているが
人々ではないロボットに対して
可能な限り人間らしい振る舞いへ向かう僅かな助けとなる取組みに尽力する
それはとりわけ私たちが想定しないようなタスクの話になる。
この補強学習は、マシーンが人間を真似る行為は
AIの訓練・鍛錬方式になる。
ロボット工学らしさを低減させ、より複合スキルに特化(多能工に)させるものだ。


This motion is actually independent 
of where we place the glass and the picture. 
So we can have a much more adaptive system 
that does not need to have everything specified precisely. 
In fact, this is part of the magic of machine learning 
with machine learning, we can turn pre-programmed robots 
into intelligent machines That means we can use data, 
we can use text, we can use images. 
We can even use muscle activity 
and we can learn from this data, how to do tasks in a much more seamless. 


「これは実際に独立した動作であり、
グラスと画像を配置しています。
より引き受けやすいシステムを持つことで、
正確に特化した全ての物に頼る必要は無くなります。
事実、これは機械学習の魔法の一端を担い、
事前プログラムのロボットからデータ読み出し型の知能マシーンへ
置き換えることが可能で、
そこでは文字や画像を使う方法(指示)が可能です。
更に筋肉活動も使えるようになり、
データからどのようにシームレスにタスクを行うのか
学ぶことが出来ます。」


【But it】's also been trained on doing the dishes and chopping veg. 
Wouldn't that be nice? 
Mewhile robotic hand that he won. 

しかしそれはお皿や野菜を切る等の物事にも訓練されている。
中々のものではないだろうか。
そこでロボット工学の手だ。


So Laura, this is another robot We've been working on 
and what's special about the hand is that it's got 
a very compliant body, so it's got skin, In other words, soft material. 

「ではララさん、これは私たちが取り組んでいる別のタイプロボットです。
何が特別かと言いますと、従順なボディを携えた手という特徴で、
肌をもっている、言い換えれば柔らかい材質を持っているということです。」


Can I touch it? 

「触っても?」


You can touch it. 

「どうぞ。」


It feels like silicon 
but I can also feel what is like the bones inside. 

「シリコンのような感じですが、
内側の骨を触っているような感じもしますね。」


So the reason we put bonds inside 
is because we want to have a hand that is compliant 
and that's what we get from the silicon. 

「骨を投入したのは
従順に動く手を理想としていたからで、
シリコンからその感触を再現しています。」


On with the glove and time for a lighter task to start. 
My hand starting off in the same position as the bot. 
And the idea is that I'm going to train it to pick up that dollar bill. 
It's really sensitive to movement As you can see here, 
just the tiniest terms. 
And you can really see them Also those movements are quite human. 
If I do a kind of typing action. Look at that, look at the fingers 
in real time. 
Right, so if I now move my hand down as though, 
I'm going to pick up the dollar bill 

「グローブを付けて、手始めに簡単なタスクに取り組もう。
私の手はロボットと同じポジションから開始する。
この発想は1ドル札を拾い上げる訓練をするというものだ。
ご覧のように動作はかなりセンシティブで、
僅かな内容です。
かなり人間らしい動きとして見えると思います、
タイプアクションや、リアルタイムでの指の動きなんかは特に。
このように手を下すようにして、
1ドル札を拾い上げます。」


Okay. You have to shift? 

「それでは、シフトしていきましょうか。」






~冒頭3分はここまで~












[全く関係の無い話:Preparations will be ready soon]
  
  
 サイドビジネスの準備は間もなく完了します。
  

[少し関係のない話:review]
  
  
 10月~11月は番組のふり返り週が多かったことを
考えると、12月は年跨ぎの週を除き振り返り放送は
無さそうです。