Bagaimana untuk Menggunakan Ringkasan Perbualan dalam LangChain?

Bagaimana Untuk Menggunakan Ringkasan Perbualan Dalam Langchain



LangChain ialah rangka kerja yang boleh digunakan untuk membina model bahasa menggunakan sejumlah besar set data latihan yang dibina dalam bahasa semula jadi. LangChain menyediakan perpustakaan dan kebergantungan yang boleh digunakan untuk membina dan mengurus chatbot dan model bahasa seperti LLM. Model ini kebanyakannya dianggap mesin untuk mengadakan perbualan dengan atau mengekstrak beberapa maklumat berdasarkan gesaan yang ditulis dalam bahasa seperti manusia.

Panduan ini akan menggambarkan proses menggunakan ringkasan perbualan dalam LangChain.

Bagaimana untuk Menggunakan Ringkasan Perbualan dalam LangChain?

LangChain menyediakan perpustakaan seperti ConversationSummaryMemory yang boleh mengekstrak ringkasan lengkap sembang atau perbualan. Ia boleh digunakan untuk mendapatkan maklumat utama perbualan tanpa perlu membaca semua mesej dan teks yang tersedia dalam sembang.







Untuk mengetahui proses menggunakan ringkasan perbualan dalam LangChain, cuma pergi ke langkah berikut:



Langkah 1: Pasang Modul

Mula-mula, pasang rangka kerja LangChain untuk mendapatkan kebergantungan atau perpustakaannya menggunakan kod berikut:



pip pasang langchain





Sekarang, pasang modul OpenAI selepas memasang LangChain menggunakan arahan pip:

pip pasang openai



Selepas memasang modul, hanya menetapkan persekitaran menggunakan kod berikut selepas mendapat kunci API daripada akaun OpenAI:

import awak

import getpass

awak . lebih kurang [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'OpenAI API Key:' )

Langkah 2: Menggunakan Ringkasan Perbualan

Masuk ke dalam proses menggunakan ringkasan perbualan dengan mengimport perpustakaan daripada LangChain:

daripada langchain. ingatan import PerbualanRingkasanMemori , ChatMessageHistory

daripada langchain. llms import OpenAI

Konfigurasikan memori model menggunakan kaedah ConversationSummaryMemory() dan OpenAI() dan simpan data di dalamnya:

ingatan = PerbualanRingkasanMemori ( llm = OpenAI ( suhu = 0 ) )

ingatan. simpan_konteks ( { 'input' : 'hello' } , { 'pengeluaran' : 'hai' } )

Jalankan memori dengan memanggil load_memory_variables() kaedah untuk mengekstrak data daripada memori:

ingatan. load_memory_variables ( { } )

Pengguna juga boleh mendapatkan data dalam bentuk perbualan seperti setiap entiti dengan mesej berasingan:

ingatan = PerbualanRingkasanMemori ( llm = OpenAI ( suhu = 0 ) , pulangkan_mesej = betul )

ingatan. simpan_konteks ( { 'input' : 'hello' } , { 'pengeluaran' : 'Hi awak apa khabar' } )

Untuk mendapatkan mesej AI dan manusia secara berasingan, laksanakan kaedah load_memory_variables():

ingatan. load_memory_variables ( { } )

Simpan ringkasan perbualan dalam memori dan kemudian laksanakan memori untuk memaparkan ringkasan sembang/perbualan pada skrin:

mesej = ingatan. chat_memory . mesej

rumusan_sebelumnya = ''

ingatan. predict_new_summary ( mesej , rumusan_sebelumnya )

Langkah 3: Menggunakan Ringkasan Perbualan Dengan Mesej Sedia Ada

Pengguna juga boleh mendapatkan ringkasan perbualan yang wujud di luar kelas atau sembang menggunakan mesej ChatMessageHistory(). Mesej ini boleh ditambahkan pada memori supaya ia boleh menjana ringkasan perbualan lengkap secara automatik:

sejarah = ChatMessageHistory ( )

sejarah. add_user_message ( 'hai' )

sejarah. add_ai_message ( 'hai sana!' )

Bina model seperti LLM menggunakan kaedah OpenAI() untuk melaksanakan mesej sedia ada dalam chat_memory pembolehubah:

ingatan = PerbualanRingkasanMemori. from_messages (
llm = OpenAI ( suhu = 0 ) ,
chat_memory = sejarah ,
pulangkan_mesej = betul
)

Jalankan memori menggunakan penimbal untuk mendapatkan ringkasan mesej sedia ada:

ingatan. penampan

Jalankan kod berikut untuk membina LLM dengan mengkonfigurasi memori penimbal menggunakan mesej sembang:

ingatan = PerbualanRingkasanMemori (
llm = OpenAI ( suhu = 0 ) ,
penampan = ''' Manusia bertanya kepada mesin bertanya tentang dirinya
Sistem menjawab bahawa AI dibina untuk kebaikan kerana ia boleh membantu manusia mencapai potensi mereka'''
,
chat_memory = sejarah ,
pulangkan_mesej = betul
)

Langkah 4: Menggunakan Ringkasan Perbualan dalam Rantaian

Langkah seterusnya menerangkan proses menggunakan ringkasan perbualan dalam rantaian menggunakan LLM:

daripada langchain. llms import OpenAI
daripada langchain. rantai import Rantaian Perbualan
llm = OpenAI ( suhu = 0 )
perbualan_dengan_ringkasan = Rantaian Perbualan (
llm = llm ,
ingatan = PerbualanRingkasanMemori ( llm = OpenAI ( ) ) ,
bertele-tele = betul
)
perbualan_dengan_ringkasan. menjangkakan ( input = 'Hello! Apa khabar' )

Di sini kami telah mula membina rangkaian dengan memulakan perbualan dengan pertanyaan yang sopan:

Sekarang masuk ke dalam perbualan dengan bertanya lebih lanjut tentang output terakhir untuk mengembangkannya:

perbualan_dengan_ringkasan. menjangkakan ( input = 'Beritahu saya lebih lanjut mengenainya!' )

Model ini telah menjelaskan mesej terakhir dengan pengenalan terperinci kepada teknologi AI atau chatbot:

Ekstrak tempat menarik daripada output sebelumnya untuk membawa perbualan ke arah tertentu:

perbualan_dengan_ringkasan. menjangkakan ( input = 'Amazing Seberapa baik projek ini?' )

Di sini kami mendapat jawapan terperinci daripada bot menggunakan perpustakaan memori ringkasan perbualan:

Itu semua tentang menggunakan ringkasan perbualan dalam LangChain.

Kesimpulan

Untuk menggunakan mesej ringkasan perbualan dalam LangChain, cuma pasang modul dan rangka kerja yang diperlukan untuk menyediakan persekitaran. Setelah persekitaran ditetapkan, import fail PerbualanRingkasanMemori perpustakaan untuk membina LLM menggunakan kaedah OpenAI(). Selepas itu, hanya gunakan ringkasan perbualan untuk mengekstrak output terperinci daripada model yang merupakan ringkasan perbualan sebelumnya. Panduan ini telah menghuraikan proses penggunaan memori ringkasan perbualan menggunakan modul LangChain.