Bagaimana untuk Menggunakan Penampan Token Perbualan dalam LangChain?

Bagaimana Untuk Menggunakan Penampan Token Perbualan Dalam Langchain



LangChain membolehkan pembangun membina model menggunakan pembelajaran mesin atau pembelajaran mendalam yang boleh melatih model menggunakan set data. Model ini boleh mendapatkan corak yang berbeza daripada data atau memahami bentuk set data dan bahasanya untuk mengekstrak maklumat. Model Bahasa Besar atau LLM boleh dikonfigurasikan atau direka bentuk menggunakan rangka kerja LangChain yang boleh memahami dan menjana teks dalam bahasa semula jadi.

Panduan ini akan menggambarkan proses menggunakan penimbal token perbualan dalam LangChain.

Bagaimana untuk Menggunakan Penampan Token Perbualan dalam LangChain?

The ConversationTokenBufferMemory perpustakaan boleh diimport daripada rangka kerja LangChain untuk menyimpan mesej terbaharu dalam memori penimbal. Token boleh dikonfigurasikan untuk mengehadkan bilangan mesej yang disimpan dalam penimbal dan mesej terdahulu akan dipadamkan secara automatik.







Untuk mengetahui proses menggunakan penimbal token perbualan dalam LangChain, gunakan panduan berikut:



Langkah 1: Pasang Modul

Mula-mula, pasang rangka kerja LangChain yang mengandungi semua modul yang diperlukan menggunakan arahan pip:



pip pasang langchain





Sekarang, pasang modul OpenAI untuk membina LLM dan rantai menggunakan kaedah OpenAI():

pip pasang openai



Selepas memasang modul, hanya gunakan kunci API OpenAI untuk menetapkan persekitaran menggunakan perpustakaan os dan getpass:

import awak

import getpass

awak . lebih kurang [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'OpenAI API Key:' )

Langkah 2: Menggunakan Memori Penampan Token Perbualan

Bina LLM menggunakan kaedah OpenAI() selepas mengimport fail ConversationTokenBufferMemory perpustakaan daripada rangka kerja LangChain:

daripada langchain. ingatan import ConversationTokenBufferMemory

daripada langchain. llms import OpenAI

llm = OpenAI ( )

Konfigurasikan memori untuk menetapkan token, ia mengepam mesej lama dan menyimpannya dalam memori penimbal. Selepas itu, simpan mesej daripada perbualan dan dapatkan yang terbaharu untuk menggunakannya sebagai konteks:

ingatan = ConversationTokenBufferMemory ( llm = llm , had_token maks = 10 )

ingatan. simpan_konteks ( { 'input' : 'hello' } , { 'pengeluaran' : 'apa khabar' } )

ingatan. simpan_konteks ( { 'input' : 'Saya Baik Bagaimana dengan awak' } , { 'pengeluaran' : 'tidak banyak' } )

Jalankan memori untuk mendapatkan data yang disimpan dalam memori penimbal menggunakan kaedah load_memory_variables():

ingatan. load_memory_variables ( { } )

Langkah 3: Menggunakan Memori Penampan Token Perbualan dalam Rantaian

Bina rantai dengan mengkonfigurasi ConversationChain() kaedah dengan berbilang argumen untuk menggunakan memori penimbal token perbualan:

daripada langchain. rantai import Rantaian Perbualan

perbualan_dengan_ringkasan = Rantaian Perbualan (
llm = llm ,
ingatan = ConversationTokenBufferMemory ( llm = OpenAI ( ) , had_token maks = 60 ) ,
bertele-tele = betul ,
)
perbualan_dengan_ringkasan. menjangkakan ( input = 'Hi ada apa?' )

Sekarang, mulakan perbualan dengan bertanya soalan menggunakan gesaan yang ditulis dalam bahasa semula jadi:

perbualan_dengan_ringkasan. menjangkakan ( input = 'Hanya mengusahakan projek NLP' )

Dapatkan output daripada data yang disimpan dalam memori penimbal menggunakan bilangan token:

perbualan_dengan_ringkasan. menjangkakan ( input = 'Hanya bekerja untuk mereka bentuk LLM' )

Penampan terus mengemas kini dengan setiap input baharu kerana mesej sebelumnya disiram dengan kerap:

perbualan_dengan_ringkasan. menjangkakan (

input = 'LLM menggunakan LangChain! Pernahkah anda mendengarnya'

)

Itu semua tentang menggunakan penimbal token perbualan dalam LangChain.

Kesimpulan

Untuk menggunakan penimbal token perbualan dalam LangChain, cuma pasang modul untuk menyediakan persekitaran menggunakan kunci API daripada akaun OpenAI. Selepas itu, import pustaka ConversationTokenBufferMemory menggunakan modul LangChain untuk menyimpan perbualan dalam penimbal. Memori penimbal boleh digunakan dalam rantaian untuk mengepam mesej lama dengan setiap mesej baharu dalam sembang. Siaran ini telah menghuraikan penggunaan memori penimbal token perbualan dalam LangChain.