Humans learn by watching. Robots should too. pic.twitter.com/2TnSmrNdWh
— Skild AI (@SkildAI) January 12, 2026
can’t catch me now 🏃💨🪚🪚 pic.twitter.com/LJ4lcftdva
— Skild AI (@SkildAI) October 17, 2025
<ネットでの反応>
もう未来に生きてる感じだな。
ロボットが熱いコンロに触ったらどうなるの?
↑コンロが冷える
これはとんでもないブレイクスルーだ。Skildチーム本当におめでとう。
動画を見るのと、実際に力の感覚を感じることの差はまだ大きい。
それをどう埋めるのか興味深い。
物体認識も動きの滑らかさも素晴らしい。
しかも負荷がかかった状況でも。
簡潔で的確な指摘だね。
模倣学習はロボット訓練として本当に優れた方法だ。
観察して学び、そこから試行錯誤する。
これが最もスケールしやすく、最も大きな変化を生む方法だと思う。
これこそ、最高のロボット設計がヒューマノイドである理由だ。人の動きを見て、そのまま手足や関節単位で真似させられるから、教えるのが圧倒的に楽になる。
見ていて癒される。
この能力って、どれくらい前から存在してたんだろう?
進歩が加速してるな。
Skild Brain is robust to adversarial disturbances and transfers zero-shot to unseen homes. pic.twitter.com/pP6h5twJEM
— Skild AI (@SkildAI) January 12, 2026
いいね。ついにVLA(視覚言語行動モデル)が来たか 🦾😎💯
クールだけど、
歩き回る必要がある非固定タスクではどうなるんだ?
FSD(完全自動運転)とどう比較する?
どちらも映像から学習するという点では同じだけど。
あらかじめ動きを仕込まず、
純粋に見て学ぶだけの例も見てみたい。
人間だったらキレて作業放棄してるおwww

感情がないから最短で成長する そこが人との決定的差だな




コメント