
Rekursiv til modellari (RLM) cheksiz matnlarni tahlil qilish imkonini beradi

Katta til modellari (LLM) bilan ishlashda eng katta to'siqlardan biri — bu kontekst oynasining cheklanganligidir. Biroq, Stenford va boshqa yetakchi institutlar tadqiqotchilari tomonidan taqdim etilgan yangi "Rekursiv til modellari" (Recursive Language Models — RLM) texnologiyasi bu muammoni butunlay hal qilishi mumkin. RLM yondashuvi modellarga juda uzun matnlarni tashqi muhit sifatida ko'rish va ularni kichik bo'laklarga bo'lib, o'z-o'zini rekursiv tarzda chaqirish imkonini beradi.
Kontekst oynasidan 100 baravar kengroq imkoniyatlar
An'anaviy modellar muayyan miqdordagi so'zlardan so'ng "eslab qolish" qobiliyatini yo'qotsa, RLM texnologiyasi modelga ma'lumotlarni dasturiy ravishda tahlil qilish imkonini beradi. Tadqiqotchilarning ta'kidlashicha, ushbu paradigma modellarga o'zining standart kontekst oynasidan ikki daraja (ya'ni 100 marta) kattaroq bo'lgan ma'lumotlar bilan ishlashga sharoit yaratadi.
Bu jarayonda model shunchaki matnni o'qib chiqmaydi, balki uni qismlarga ajratadi, kerakli qismlarni qidiradi va natijani birlashtirish uchun o'z-o'zini qayta-qayta ishga tushiradi. Bu usul nafaqat hajmni oshiradi, balki ma'lumotni qayta ishlash sifatini ham sezilarli darajada yaxshilaydi. Hatto qisqa matnlarda ham RLM an'anaviy modellarga qaraganda aniqroq natija berishi isbotlangan.
RLM-Qwen3-8B: Kichik modeldan katta natijalar
Tadqiqot doirasida post-trening qilingan birinchi mahalliy rekursiv model — RLM-Qwen3-8B taqdim etildi. Ushbu model o'zining asosiy versiyasidan (Qwen3-8B) o'rtacha 28,3 foizga samaraliroq ekanligini ko'rsatdi. Eng hayratlanarlisi shundaki, atigi 8 milliard parametrga ega bo'lishiga qaramay, u murakkab uzun-kontekstli topshiriqlarda hatto GPT-5 kabi gigant modellarning natijalariga juda yaqinlashdi.
Ushbu yutuq AI sanoatida yangi bir yo'nalishni ochib beradi: modellar endi shunchaki ma'lumotni passiv qabul qiluvchi emas, balki uni faol boshqaruvchi tizimga aylanmoqda. Bu ayniqsa, minglab sahifali yuridik hujjatlarni tahlil qilish, ulkan dasturiy kodlar omborini (repository) ko'zdan kechirish yoki uzoq davom etgan ilmiy tadqiqotlarni umumlashtirishda beqiyos afzallik beradi.
Inference-time Scaling: Kelajak strategiyasi
Ushbu kashfiyot AI dunyosida "inference-time scaling" (chiqarish vaqtidagi masshtablash) tushunchasini yangi bosqichga olib chiqadi. Bu shuni anglatadiki, modelni shunchaki kattalashtirish (parametrlar sonini oshirish) o'rniga, uning fikrlash va ma'lumot qidirish algoritmini takomillashtirish orqali yuqori natijalarga erishish mumkin.
RLM texnologiyasi kelajakda butun boshli kutubxonalar yoki o'n yillik tibbiy tarixlarni bir zumda tahlil qila oladigan AI yordamchilarini yaratishga poydevor bo'ladi. Hozirda ushbu loyihaning kodi ochiq manba sifatida taqdim etilgan bo'lib, ishlab chiquvchilar uni o'z modellariga tatbiq etishni boshlashlari mumkin.
Maqola Muhokamasi
Fikr va mulohazalaringiz.
Hali muhokamalar yo'q. Birinchi bo'lib fikr bildiring!
