Google seviye atladı: Robotlar artık izleyerek öğrenebilecek!
Cuma günü Google, metin ve görüntüleri alıp bunları robotik eylemlere dönüştürebilen bir vizyon-dil-eylem (VLA) modeli olan Robotics Transformer 2’yi (RT2) tanıttı.
Google DeepMind Robotik Başkanı Vincent Vanhoucke tarafından yazılan bir blog gönderisinde, “Dil modellerinin genel fikirleri ve kavramları öğrenmek için web metinleri üzerinde eğitilmesi gibi, RT-2 de robot davranışını bilgilendirmek için web verilerinden bilgi alır. Yani RT-2 robotik konuşabiliyor.”açıklamalarda bulundu.
Vanhocke, chatbotların bir konu hakkında bilgi vererek eğitilebileceğini ancak robotların gerçek dünyada bir adım daha ileri gittiğini belirtti. “topraklama”gerektiğini söylüyor.
Verdiği örnek kırmızı elmadır: “Bir chatbot’a elmanın ne olduğunu basitçe açıklayabilseniz de, bir robotun elma hakkında her şeyi bilmesi, ayrıca onu karşılaştırılabilir bir nesneden (örneğin kırmızı bir toptan) nasıl ayırt edeceğini ve onu nasıl geri alacağını öğrenmesi gerekir. elma.”
ROBOTLAR NESNELERİ DEĞERLENDİREREK ONLARI EĞİTEBİLİR
Web’den alınan verileri kullanan RT-2, Google’ın RT-1 ve diğer modellerinden bir adım daha ileri gidiyor. Örneğin, daha eski bir modelin bir şeyi çöpe atmasını istiyorsanız, onu çöpün ne olduğu ve nasıl kullanılacağı konusunda eğitmeniz gerekir.
RT-2 ile çöpün ne olduğu ve nasıl kullanılacağı açıklanmasa da robotun bu kısmı web verilerini kullanarak kendi başına çözebileceği belirtildi.
Yeni yapay zekanın yardımıyla öğrendiği bilgilere göre hareket edebilecek.
RT-2 ile robotlar öğrenebilir ve öğrendiklerini gelecekteki durumlara uygulayabilir. Bununla birlikte, Google, mevcut haliyle sınırlamaların, RT-2’nin bir robotun sıfırdan öğrenemeyeceği, yalnızca nasıl yapılacağını zaten bildiği fiziksel görevlerde daha iyi olmasına yardımcı olabileceği anlamına geldiğini belirtiyor.
Yine de ileriye doğru büyük bir adım ve bize gelecekte nelerin mümkün olduğunu gösteriyor. Daha fazlası için Google, DeepMind blogunda RT-2’nin nasıl çalıştığına ilişkin ayrıntılara giriyor.