Pipeline berbasis simulasi Menyesuaikan data pelatihan untuk robot tangkas | Berita MIT
[ad_1]
Ketika Chatgpt atau Gemini memberikan apa yang tampaknya menjadi tanggapan ahli terhadap pertanyaan Anda yang membara, Anda mungkin tidak menyadari berapa banyak informasi yang diandalkan untuk memberikan balasan itu. Seperti model intelijen buatan generatif populer lainnya (AI), chatbots ini bergantung pada sistem tulang punggung yang disebut model fondasi yang melatih miliaran, atau bahkan triliunan, titik data.
Dalam nada yang sama, insinyur berharap untuk membangun model pondasi yang melatih berbagai robot pada keterampilan baru seperti mengambil, bergerak, dan meletakkan benda -benda di tempat -tempat seperti rumah dan pabrik. Masalahnya adalah sulit untuk mengumpulkan dan mentransfer data pengajaran di seluruh sistem robot. Anda dapat mengajarkan sistem Anda dengan teleoperasi perangkat keras demi langkah menggunakan teknologi seperti Virtual Reality (VR), tetapi itu bisa memakan waktu. Pelatihan video dari internet kurang instruktif, karena klip tidak memberikan walk-walk-through khusus langkah-langkah, untuk robot tertentu.
Pendekatan yang digerakkan oleh simulasi yang disebut “PhysicsGen” dari Ilmu Komputer MIT dan Laboratorium Kecerdasan Buatan (CSAIL) dan Robotika dan AI Institute menyesuaikan data pelatihan robot untuk membantu robot menemukan pergerakan yang paling efisien untuk suatu tugas. Sistem ini dapat melipatgandakan beberapa lusin demonstrasi VR menjadi hampir 3.000 simulasi per mesin. Instruksi berkualitas tinggi ini kemudian dipetakan ke konfigurasi yang tepat dari teman-teman mekanik seperti lengan robot dan tangan.
PhysicsGen membuat data yang menggeneralisasi ke robot dan kondisi tertentu melalui proses tiga langkah. Pertama, headset VR melacak bagaimana manusia memanipulasi objek seperti blok menggunakan tangan mereka. Interaksi ini dipetakan dalam simulator fisika 3D secara bersamaan, memvisualisasikan titik -titik kunci tangan kita sebagai bidang kecil yang mencerminkan gerakan kita. Misalnya, jika Anda membalik mainan, Anda akan melihat bentuk 3D mewakili berbagai bagian tangan Anda memutar versi virtual dari objek itu.
Pipa kemudian memetakan kembali titik -titik ini ke model 3D dari pengaturan mesin tertentu (seperti lengan robot), memindahkannya ke “sambungan” yang tepat di mana suatu sistem memutar dan berbelok. Akhirnya, PhysiCSGen menggunakan optimasi lintasan – pada dasarnya mensimulasikan gerakan yang paling efisien untuk menyelesaikan tugas – sehingga robot mengetahui cara terbaik untuk melakukan hal -hal seperti memposisikan ulang kotak.
Setiap simulasi adalah titik data pelatihan terperinci yang berjalan robot melalui cara -cara potensial untuk menangani objek. Ketika diimplementasikan ke dalam kebijakan (atau rencana aksi yang diikuti robot), mesin memiliki berbagai cara untuk mendekati tugas, dan dapat mencoba gerakan yang berbeda jika seseorang tidak bekerja.
“Kami membuat data spesifik robot tanpa membutuhkan manusia untuk merekam ulang demonstrasi khusus untuk setiap mesin,” kata Lujie Yang, seorang mahasiswa PhD MIT di bidang teknik listrik dan ilmu komputer dan afiliasi CSAIL yang merupakan penulis utama yang baru dari yang baru kertas memperkenalkan proyek. “Kami meningkatkan data dengan cara yang otonom dan efisien, membuat instruksi tugas berguna untuk berbagai mesin.”
Menghasilkan begitu banyak lintasan instruksional untuk robot pada akhirnya dapat membantu para insinyur membangun dataset besar untuk memandu mesin seperti lengan robot dan tangan cekatan. Misalnya, pipa dapat membantu dua lengan robot berkolaborasi dalam mengambil barang -barang gudang dan menempatkannya di kotak yang tepat untuk pengiriman. Sistem ini juga dapat memandu dua robot untuk bekerja sama dalam rumah tangga pada tugas -tugas seperti menyingkirkan cangkir.
Potensi fisika juga meluas untuk mengonversi data yang dirancang untuk robot yang lebih lama atau lingkungan yang berbeda menjadi instruksi yang berguna untuk mesin baru. “Meskipun dikumpulkan untuk jenis robot tertentu, kami dapat menghidupkan kembali set data sebelumnya untuk membuatnya lebih umum berguna,” tambah Yang.
Tambahan dengan perkalian
PhysicsGen hanya mengubah 24 demonstrasi manusia menjadi ribuan yang disimulasikan, membantu objek reorientasi robot digital dan dunia nyata.
Yang dan rekan -rekannya pertama kali menguji pipa mereka dalam percobaan virtual di mana tangan robot mengambang diperlukan untuk memutar blok ke posisi target. Robot digital mengeksekusi tugas pada tingkat akurasi 81 persen dengan melatih dataset masif Physicgen, peningkatan 60 persen dari garis dasar yang hanya belajar dari demonstrasi manusia.
Para peneliti juga menemukan bahwa PhysicsGen dapat meningkatkan bagaimana lengan robotik virtual berkolaborasi untuk memanipulasi objek. Sistem mereka menciptakan data pelatihan tambahan yang membantu dua pasang robot berhasil menyelesaikan tugas sebanyak 30 persen lebih sering daripada baseline yang murni diajarkan manusia.
Dalam percobaan dengan sepasang lengan robot dunia nyata, para peneliti mengamati perbaikan serupa ketika mesin bekerja sama untuk membalik kotak besar ke posisi yang ditentukan. Ketika robot menyimpang dari lintasan yang dimaksud atau salah menangani objek, mereka dapat memulihkan tugas tengah dengan merujuk lintasan alternatif dari perpustakaan data pengajaran mereka.
Penulis senior Russ Tedrake, yang merupakan profesor Toyota dari Teknik Listrik dan Ilmu Komputer, Aeronautika dan Astronotika, dan Teknik Mesin di MIT, menambahkan bahwa teknik pembuatan data yang dipandu imitasi ini menggabungkan kekuatan demonstrasi manusia dengan kekuatan algoritma perencanaan gerak robot.
“Bahkan satu demonstrasi dari manusia dapat membuat masalah perencanaan gerak jauh lebih mudah,” kata Tedrake, yang juga wakil presiden senior model perilaku besar di Toyota Research Institute dan CSAail Principal Investigator. “Di masa depan, mungkin model pondasi akan dapat memberikan informasi ini, dan jenis teknik pembuatan data ini akan memberikan jenis resep pasca-pelatihan untuk model itu.”
Masa depan fisika
Segera, PhysicsGen dapat diperluas ke perbatasan baru: mendiversifikasi tugas yang dapat dijalankan mesin.
“Kami ingin menggunakan PhysicsGen untuk mengajarkan robot untuk menuangkan air ketika hanya dilatih untuk menyingkirkan hidangan, misalnya,” kata Yang. “Pipa kami tidak hanya menghasilkan gerakan yang layak secara dinamis untuk tugas -tugas yang akrab; ia juga berpotensi menciptakan perpustakaan interaksi fisik yang beragam yang kami yakini dapat berfungsi sebagai blok bangunan untuk menyelesaikan tugas -tugas yang sama sekali baru yang belum ditunjukkan oleh manusia.”
Membuat banyak data pelatihan yang berlaku secara luas pada akhirnya dapat membantu membangun model dasar untuk robot, meskipun peneliti MIT memperingatkan bahwa ini adalah tujuan yang agak jauh. Tim yang dipimpin CSAIL sedang menyelidiki bagaimana PhysicsGen dapat memanfaatkan sumber daya yang luas dan tidak terstruktur-seperti video internet-sebagai biji untuk simulasi. Tujuannya: Mengubah konten visual sehari-hari menjadi data yang kaya dan siap robot yang dapat mengajarkan mesin untuk melakukan tugas yang tidak ada yang secara eksplisit menunjukkan kepada mereka.
Yang dan rekan -rekannya juga bertujuan untuk membuat PhysicsGen bahkan lebih berguna untuk robot dengan berbagai bentuk dan konfigurasi di masa depan. Untuk mewujudkannya, mereka berencana untuk memanfaatkan kumpulan data dengan demonstrasi robot nyata, menangkap bagaimana sendi robot bergerak alih -alih yang manusia.
Para peneliti juga berencana untuk menggabungkan pembelajaran penguatan, di mana sistem AI belajar berdasarkan coba-coba, untuk membuat PhysicsGen memperluas datasetnya di luar contoh yang disediakan manusia. Mereka dapat menambah pipa mereka dengan teknik persepsi canggih untuk membantu robot memahami dan menafsirkan lingkungan mereka secara visual, memungkinkan mesin untuk menganalisis dan beradaptasi dengan kompleksitas dunia fisik.
Untuk saat ini, PhysicsGen menunjukkan bagaimana AI dapat membantu kita mengajar robot yang berbeda untuk memanipulasi objek dalam kategori yang sama, terutama yang kaku. Pipa dapat segera membantu robot menemukan cara terbaik untuk menangani item lunak (seperti buah -buahan) dan yang dapat dideformasi (seperti tanah liat), tetapi interaksi itu belum mudah disimulasikan.
Yang dan Tedrake menulis surat kabar itu dengan dua rekan CSAIL: penulis co-lead dan mahasiswa MIT PhD Hyung Ju “Terry” Suh Sm ’22 dan MIT PhD Student Bernhard Paus Græsdal. Peneliti robotika dan AI Institute Tong Zhao ’22, Meng ’23, Tarik Kelestemur, Jiuguang Wang, dan Tao Pang PhD ’23 juga penulis. Pekerjaan mereka didukung oleh Robotika dan AI Institute dan Amazon.
Para peneliti baru -baru ini mempresentasikan karya mereka di Konferensi Robotika: Sains dan Sistem.
Informasi ini pertama kali tayang di MIT.edu klik disini untuk melihat berita lainnya.
Discover more from Kitiran Media
Subscribe to get the latest posts sent to your email.