Panduan ini akan menggambarkan proses menggunakan penimbal token perbualan dalam LangChain.
Bagaimana untuk Menggunakan Penampan Token Perbualan dalam LangChain?
The ConversationTokenBufferMemory perpustakaan boleh diimport daripada rangka kerja LangChain untuk menyimpan mesej terbaharu dalam memori penimbal. Token boleh dikonfigurasikan untuk mengehadkan bilangan mesej yang disimpan dalam penimbal dan mesej terdahulu akan dipadamkan secara automatik.
Untuk mengetahui proses menggunakan penimbal token perbualan dalam LangChain, gunakan panduan berikut:
Langkah 1: Pasang Modul
Mula-mula, pasang rangka kerja LangChain yang mengandungi semua modul yang diperlukan menggunakan arahan pip:
pip pasang langchain
Sekarang, pasang modul OpenAI untuk membina LLM dan rantai menggunakan kaedah OpenAI():
pip pasang openai
Selepas memasang modul, hanya gunakan kunci API OpenAI untuk menetapkan persekitaran menggunakan perpustakaan os dan getpass:
import awakimport getpass
awak . lebih kurang [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'OpenAI API Key:' )
Langkah 2: Menggunakan Memori Penampan Token Perbualan
Bina LLM menggunakan kaedah OpenAI() selepas mengimport fail ConversationTokenBufferMemory perpustakaan daripada rangka kerja LangChain:
daripada langchain. ingatan import ConversationTokenBufferMemorydaripada langchain. llms import OpenAI
llm = OpenAI ( )
Konfigurasikan memori untuk menetapkan token, ia mengepam mesej lama dan menyimpannya dalam memori penimbal. Selepas itu, simpan mesej daripada perbualan dan dapatkan yang terbaharu untuk menggunakannya sebagai konteks:
ingatan = ConversationTokenBufferMemory ( llm = llm , had_token maks = 10 )ingatan. simpan_konteks ( { 'input' : 'hello' } , { 'pengeluaran' : 'apa khabar' } )
ingatan. simpan_konteks ( { 'input' : 'Saya Baik Bagaimana dengan awak' } , { 'pengeluaran' : 'tidak banyak' } )
Jalankan memori untuk mendapatkan data yang disimpan dalam memori penimbal menggunakan kaedah load_memory_variables():
ingatan. load_memory_variables ( { } )
Langkah 3: Menggunakan Memori Penampan Token Perbualan dalam Rantaian
Bina rantai dengan mengkonfigurasi ConversationChain() kaedah dengan berbilang argumen untuk menggunakan memori penimbal token perbualan:
daripada langchain. rantai import Rantaian Perbualanperbualan_dengan_ringkasan = Rantaian Perbualan (
llm = llm ,
ingatan = ConversationTokenBufferMemory ( llm = OpenAI ( ) , had_token maks = 60 ) ,
bertele-tele = betul ,
)
perbualan_dengan_ringkasan. menjangkakan ( input = 'Hi ada apa?' )
Sekarang, mulakan perbualan dengan bertanya soalan menggunakan gesaan yang ditulis dalam bahasa semula jadi:
perbualan_dengan_ringkasan. menjangkakan ( input = 'Hanya mengusahakan projek NLP' )
Dapatkan output daripada data yang disimpan dalam memori penimbal menggunakan bilangan token:
perbualan_dengan_ringkasan. menjangkakan ( input = 'Hanya bekerja untuk mereka bentuk LLM' )
Penampan terus mengemas kini dengan setiap input baharu kerana mesej sebelumnya disiram dengan kerap:
perbualan_dengan_ringkasan. menjangkakan (input = 'LLM menggunakan LangChain! Pernahkah anda mendengarnya'
)
Itu semua tentang menggunakan penimbal token perbualan dalam LangChain.
Kesimpulan
Untuk menggunakan penimbal token perbualan dalam LangChain, cuma pasang modul untuk menyediakan persekitaran menggunakan kunci API daripada akaun OpenAI. Selepas itu, import pustaka ConversationTokenBufferMemory menggunakan modul LangChain untuk menyimpan perbualan dalam penimbal. Memori penimbal boleh digunakan dalam rantaian untuk mengepam mesej lama dengan setiap mesej baharu dalam sembang. Siaran ini telah menghuraikan penggunaan memori penimbal token perbualan dalam LangChain.