Bagaimana untuk Membina LLM dan LLMChain dalam LangChain?

Bagaimana Untuk Membina Llm Dan Llmchain Dalam Langchain



LangChain ialah rangka kerja dengan aplikasi dalam domain Natural Language Processing atau NLP untuk membina model dalam bahasa seperti manusia. Model-model ini boleh digunakan oleh manusia untuk mendapatkan jawapan daripada model atau mengadakan perbualan seperti manusia lain. LangChain digunakan untuk membina rantai dengan menyimpan setiap ayat dalam perbualan dan berinteraksi dengan lebih lanjut menggunakannya sebagai konteks.

Siaran ini akan menggambarkan proses membina LLM dan LLMChain dalam LangChain.





Bagaimana untuk Membina LLM dan LLMChain dalam LangChain?

Untuk membina LLM dan LLMChain dalam LangChain, hanya melalui langkah-langkah yang disenaraikan:



Langkah 1: Pasang Modul

Pertama, pasang modul LangChain untuk menggunakan perpustakaannya untuk membina LLM dan LLMChain:



pip pasang langchain





Modul lain yang diperlukan untuk membina LLM ialah OpenAI, dan ia boleh dipasang menggunakan arahan pip:

pip pasang openai



Langkah 2: Sediakan Persekitaran

Sediakan persekitaran menggunakan kunci API OpenAI daripada persekitarannya:

import kami
import getpassos.environ['OPENAI_API_KEY'] = getpass.getpass('OpenAI API Key:')

Contoh 1: Bina LLM Menggunakan LangChain

Contoh pertama ialah membina Model Bahasa Besar menggunakan LangChain dengan mengimport perpustakaan OpenAI dan ChatOpenAI dan fungsi penggunaan llm():

Langkah 1: Menggunakan Model Sembang LLM

Import modul OpenAI dan ChatOpenAI untuk membina LLM mudah menggunakan persekitaran OpenAI daripada LangChain:

daripada langchain.chat_models import ChatOpenAI

daripada langchain.llms import OpenAI

llm = OpenAI()
chat_model = ChatOpenAI()
llm.predict('hai!')

Model telah membalas dengan jawapan 'hai' seperti yang dipaparkan dalam tangkapan skrin berikut di bawah:

Fungsi predict() daripada chat_model digunakan untuk mendapatkan jawapan atau balasan daripada model:

chat_model.predict('hai!')

Output memaparkan bahawa model tersedia untuk pengguna yang bertanyakan pertanyaan:

Langkah 2: Menggunakan Pertanyaan Teks

Pengguna juga boleh mendapatkan jawapan daripada model dengan memberikan ayat lengkap dalam pembolehubah teks:

text = 'Apakah nama syarikat yang baik untuk syarikat yang membuat stokin berwarna-warni?'

llm.predict(teks)

Model ini telah memaparkan pelbagai kombinasi warna untuk stoking berwarna-warni:

Dapatkan jawapan terperinci daripada model menggunakan fungsi predict() dengan kombinasi warna untuk stokin:

chat_model.predict(text)

Langkah 3: Menggunakan Teks Dengan Kandungan

Pengguna boleh mendapatkan jawapan dengan sedikit penjelasan tentang jawapannya:

daripada langchain.schema import HumanMessage

text = 'Apakah gelaran yang baik untuk syarikat yang membuat pakaian berwarna-warni'
mesej = [HumanMessage(content=text)]

llm.predict_messages(messages)

Model ini telah menghasilkan tajuk untuk syarikat itu iaitu 'Creative Clothing Co':

Ramalkan mesej untuk mendapatkan jawapan bagi tajuk syarikat dengan penjelasannya juga:

chat_model.predict_messages(message)

Contoh 2: Bina LLMChain Menggunakan LangChain

Contoh kedua panduan kami membina LLMChain untuk mendapatkan model dalam format interaksi manusia untuk menggabungkan semua langkah daripada contoh sebelumnya:

daripada langchain.chat_models import ChatOpenAI
daripada langchain.prompts.chat import ChatPromptTemplate
daripada langchain.prompts.chat import ChatPromptTemplate
daripada langchain.prompts.chat import  SystemMessagePromptTemplatefrom langchain.prompts.chat import HumanMessagePromptTemplate
daripada langchain.chains import LLMChain
daripada langchain.schema import BaseOutputParserclass CommaSeparatedListOutputParser(BaseOutputParser):

def parse(self, text: str):
kembalikan text.strip().split(', ')

Bina templat untuk model sembang dengan memberikan penjelasan terperinci tentang fungsinya dan kemudian bina fungsi LLMChain() yang mengandungi perpustakaan LLM, penghurai output dan chat_prompt:

template = '''Anda perlu membantu dalam menjana senarai yang dipisahkan koma
Dapatkan kategori daripada pengguna, dan hasilkan senarai dipisahkan koma dengan lima objek
Hanya perkara yang harus menjadi objek dari kategori'''
system_message_prompt = SystemMessagePromptTemplate.from_template(template)
human_template = '{teks}'
human_message_prompt = HumanMessagePromptTemplate.from_template(human_template)
#Konfigurasikan LLMChain dengan struktur pertanyaan
chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt])
rantai = LLMChain(
llm=ChatOpenAI(),
prompt=chat_prompt,
output_parser=CommaSeparatedListOutputParser()
)
chain.run('warna')

Model telah memberikan jawapan dengan senarai warna kerana kategori hanya harus mengandungi 5 objek yang diberikan dalam gesaan:

Itu sahaja tentang membina LLM dan LLMChain dalam LangChain.

Kesimpulan

Untuk membina LLM dan LLMChain menggunakan LangChain, cuma pasang modul LangChain dan OpenAI untuk menyediakan persekitaran menggunakan kunci APInya. Selepas itu, bina model LLM menggunakan chat_model selepas mencipta templat gesaan untuk satu pertanyaan kepada sembang lengkap. LLMChain digunakan untuk membina rantaian semua pemerhatian dalam perbualan dan menggunakannya sebagai konteks interaksi. Siaran ini menggambarkan proses membina LLM dan LLMChain menggunakan rangka kerja LangChain.