LangChain ialah rangka kerja dengan aplikasi dalam domain Natural Language Processing atau NLP untuk membina model dalam bahasa seperti manusia. Model-model ini boleh digunakan oleh manusia untuk mendapatkan jawapan daripada model atau mengadakan perbualan seperti manusia lain. LangChain digunakan untuk membina rantai dengan menyimpan setiap ayat dalam perbualan dan berinteraksi dengan lebih lanjut menggunakannya sebagai konteks.
Siaran ini akan menggambarkan proses membina LLM dan LLMChain dalam LangChain.
Bagaimana untuk Membina LLM dan LLMChain dalam LangChain?
Untuk membina LLM dan LLMChain dalam LangChain, hanya melalui langkah-langkah yang disenaraikan:
Langkah 1: Pasang Modul
Pertama, pasang modul LangChain untuk menggunakan perpustakaannya untuk membina LLM dan LLMChain:
pip pasang langchain
Modul lain yang diperlukan untuk membina LLM ialah OpenAI, dan ia boleh dipasang menggunakan arahan pip:
pip pasang openai
Langkah 2: Sediakan Persekitaran
Sediakan persekitaran menggunakan kunci API OpenAI daripada persekitarannya:
import kamiimport getpassos.environ['OPENAI_API_KEY'] = getpass.getpass('OpenAI API Key:')
Contoh 1: Bina LLM Menggunakan LangChain
Contoh pertama ialah membina Model Bahasa Besar menggunakan LangChain dengan mengimport perpustakaan OpenAI dan ChatOpenAI dan fungsi penggunaan llm():
Langkah 1: Menggunakan Model Sembang LLM
Import modul OpenAI dan ChatOpenAI untuk membina LLM mudah menggunakan persekitaran OpenAI daripada LangChain:
daripada langchain.chat_models import ChatOpenAIdaripada langchain.llms import OpenAI
llm = OpenAI()
chat_model = ChatOpenAI()
llm.predict('hai!')
Model telah membalas dengan jawapan 'hai' seperti yang dipaparkan dalam tangkapan skrin berikut di bawah:
Fungsi predict() daripada chat_model digunakan untuk mendapatkan jawapan atau balasan daripada model:
chat_model.predict('hai!')Output memaparkan bahawa model tersedia untuk pengguna yang bertanyakan pertanyaan:
Langkah 2: Menggunakan Pertanyaan Teks
Pengguna juga boleh mendapatkan jawapan daripada model dengan memberikan ayat lengkap dalam pembolehubah teks:
text = 'Apakah nama syarikat yang baik untuk syarikat yang membuat stokin berwarna-warni?'llm.predict(teks)
Model ini telah memaparkan pelbagai kombinasi warna untuk stoking berwarna-warni:
Dapatkan jawapan terperinci daripada model menggunakan fungsi predict() dengan kombinasi warna untuk stokin:
chat_model.predict(text)
Langkah 3: Menggunakan Teks Dengan Kandungan
Pengguna boleh mendapatkan jawapan dengan sedikit penjelasan tentang jawapannya:
daripada langchain.schema import HumanMessagetext = 'Apakah gelaran yang baik untuk syarikat yang membuat pakaian berwarna-warni'
mesej = [HumanMessage(content=text)]
llm.predict_messages(messages)
Model ini telah menghasilkan tajuk untuk syarikat itu iaitu 'Creative Clothing Co':
Ramalkan mesej untuk mendapatkan jawapan bagi tajuk syarikat dengan penjelasannya juga:
chat_model.predict_messages(message)
Contoh 2: Bina LLMChain Menggunakan LangChain
Contoh kedua panduan kami membina LLMChain untuk mendapatkan model dalam format interaksi manusia untuk menggabungkan semua langkah daripada contoh sebelumnya:
daripada langchain.chat_models import ChatOpenAIdaripada langchain.prompts.chat import ChatPromptTemplate
daripada langchain.prompts.chat import ChatPromptTemplate
daripada langchain.prompts.chat import SystemMessagePromptTemplatefrom langchain.prompts.chat import HumanMessagePromptTemplate
daripada langchain.chains import LLMChain
daripada langchain.schema import BaseOutputParserclass CommaSeparatedListOutputParser(BaseOutputParser):
def parse(self, text: str):
kembalikan text.strip().split(', ')
Bina templat untuk model sembang dengan memberikan penjelasan terperinci tentang fungsinya dan kemudian bina fungsi LLMChain() yang mengandungi perpustakaan LLM, penghurai output dan chat_prompt:
template = '''Anda perlu membantu dalam menjana senarai yang dipisahkan komaDapatkan kategori daripada pengguna, dan hasilkan senarai dipisahkan koma dengan lima objek
Hanya perkara yang harus menjadi objek dari kategori'''
system_message_prompt = SystemMessagePromptTemplate.from_template(template)
human_template = '{teks}'
human_message_prompt = HumanMessagePromptTemplate.from_template(human_template)
#Konfigurasikan LLMChain dengan struktur pertanyaan
chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt])
rantai = LLMChain(
llm=ChatOpenAI(),
prompt=chat_prompt,
output_parser=CommaSeparatedListOutputParser()
)
chain.run('warna')
Model telah memberikan jawapan dengan senarai warna kerana kategori hanya harus mengandungi 5 objek yang diberikan dalam gesaan:
Itu sahaja tentang membina LLM dan LLMChain dalam LangChain.
Kesimpulan
Untuk membina LLM dan LLMChain menggunakan LangChain, cuma pasang modul LangChain dan OpenAI untuk menyediakan persekitaran menggunakan kunci APInya. Selepas itu, bina model LLM menggunakan chat_model selepas mencipta templat gesaan untuk satu pertanyaan kepada sembang lengkap. LLMChain digunakan untuk membina rantaian semua pemerhatian dalam perbualan dan menggunakannya sebagai konteks interaksi. Siaran ini menggambarkan proses membina LLM dan LLMChain menggunakan rangka kerja LangChain.