Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
LangChain Memberikan Agen AI Kontrol Atas Manajemen Memori Mereka Sendiri
Terrill Dicki
12 Mar 2026 01:55
LangChain’s Deep Agents SDK sekarang memungkinkan model AI memutuskan kapan harus mengompres jendela konteks mereka, mengurangi intervensi manual dalam alur kerja agen yang berjalan lama.
LangChain telah merilis pembaruan untuk SDK Deep Agents yang memberikan kunci pengelolaan memori kepada model AI sendiri. Fitur baru ini, diumumkan pada 11 Maret 2026, memungkinkan agen secara otomatis memicu kompresi konteks daripada bergantung pada ambang token tetap atau perintah pengguna manual.
Perubahan ini mengatasi masalah yang sering muncul dalam pengembangan agen: jendela konteks terisi penuh pada waktu yang tidak tepat. Sistem saat ini biasanya melakukan kompresi memori saat mencapai 85% dari batas konteks model—yang bisa terjadi saat refaktor atau sesi debugging yang kompleks. Waktu yang tidak tepat ini menyebabkan hilangnya konteks dan gangguan alur kerja.
Mengapa Waktu Penting
Kompresi konteks bukan hal baru. Teknik ini menggantikan pesan lama dengan ringkasan yang ringkas agar agen tetap dalam batas token mereka. Tapi kapan Anda melakukan kompresi sama pentingnya dengan apakah Anda melakukannya.
Implementasi LangChain mengidentifikasi beberapa momen optimal untuk kompresi: saat batas tugas ketika pengguna mengalihkan fokus, setelah menarik kesimpulan dari konteks riset besar, atau sebelum memulai pengeditan multi-file yang panjang. Agen secara belajar membersihkan diri sebelum memulai pekerjaan yang berantakan daripada panik saat kehabisan ruang.
Penelitian dari Factory AI yang dipublikasikan Desember 2024 mendukung pendekatan ini. Analisis mereka menemukan bahwa rangkuman terstruktur—yang mempertahankan kontinuitas konteks daripada pemotongan agresif—sangat penting untuk tugas agen yang kompleks seperti debugging. Agen yang mempertahankan struktur alur kerja secara signifikan lebih unggul dibandingkan yang menggunakan metode pemotongan sederhana.
Implementasi Teknis
Alat ini dikirim sebagai middleware untuk SDK Deep Agents (Python) dan terintegrasi dengan CLI yang ada. Pengembang menambahkannya ke konfigurasi agen mereka:
Sistem mempertahankan 10% dari konteks yang tersedia sebagai pesan terbaru sambil merangkum semuanya sebelumnya. LangChain menyematkan jaring pengaman—riwayat percakapan lengkap tetap ada di sistem file virtual agen, memungkinkan pemulihan jika kompresi gagal.
Pengujian internal menunjukkan bahwa agen bersikap konservatif dalam memicu kompresi. LangChain memvalidasi fitur ini melalui benchmark Terminal-bench-2 dan rangkaian evaluasi kustom menggunakan jejak LangSmith. Ketika agen melakukan kompresi secara otomatis, mereka secara konsisten memilih momen yang meningkatkan kontinuitas alur kerja.
Gambaran Lebih Besar
Rilis ini mencerminkan pergeseran filosofi arsitektur agen yang lebih luas. LangChain secara eksplisit merujuk pada “pelajaran pahit” Richard Sutton—pengamatan bahwa metode umum yang memanfaatkan komputasi cenderung mengungguli pendekatan yang diatur secara manual seiring waktu.
Alih-alih pengembang harus mengonfigurasi secara teliti kapan agen harus mengelola memori, kerangka kerja ini menyerahkan keputusan tersebut kepada model itu sendiri. Ini adalah taruhan bahwa kemampuan penalaran dalam model seperti GPT-5.4 telah mencapai titik di mana mereka dapat membuat keputusan operasional ini secara andal.
Bagi pengembang yang membangun agen yang berjalan lama atau interaktif, fitur ini tersedia secara opt-in melalui SDK dan dapat diakses melalui perintah /compact di CLI. Dampak praktisnya: alur kerja yang lebih sedikit terganggu dan sedikit intervensi pengguna terkait batas konteks yang sebagian besar pengguna akhir tidak mengerti.