כיצד להשתמש בפונקציית LangChain LLMChain ב-Python

Kyzd Lhstms Bpwnqzyyt Langchain Llmchain B Python



ל-LangChain יש שפע של מודולים ליצירת יישומי מודל שפה. ניתן להפוך יישומים למורכבים יותר על ידי שילוב מודולים, או שניתן להפוך אותם לפשוטים יותר באמצעות מודול בודד. קריאה ל-LLM בקלט מסוים היא הרכיב החיוני ביותר של LangChain.

שרשראות אינן פועלות רק עבור שיחת LLM אחת; הם אוספים של שיחות, ל-LLM או לשירות אחר. רשתות מקצה לקצה ליישומים בשימוש נרחב מסופקות על ידי LangChain יחד עם API סטנדרטי של שרשרת ושילובי כלים רבים.

הגמישות והיכולת לקשר מספר אלמנטים לישות אחת עשויות להיות שימושיות כאשר אנו רוצים לעצב שרשרת שמקבלת קלט משתמש, מגדירה אותה באמצעות PromptTemplate ולאחר מכן מספקת את התוצאה שנוצרת ל-LLM.







מאמר זה עוזר לך להבין את השימוש בפונקציית LangChain LLMchain ב- Python.



דוגמה: כיצד להשתמש ב-LLMchain Fuction ב-LangChain

דיברנו על מה זה רשתות. כעת, נראה הדגמה מעשית של השרשראות הללו אשר מיושמות בסקריפט של Python. בדוגמה זו, אנו משתמשים בשרשרת LangChain הבסיסית ביותר שהיא LLMchain. הוא מכיל PromptTemplate ו-LLM, ומשרשר אותם יחד כדי ליצור פלט.



כדי להתחיל ליישם את הרעיון, עלינו להתקין מספר ספריות נדרשות שאינן כלולות בספרייה הסטנדרטית של Python. הספריות שעלינו להתקין הן LangChain ו-OpenAI. אנו מתקינים את ספריית LangChain מכיוון שאנו צריכים להשתמש במודול LLMchain שלה כמו גם ב-PromptTemplate. ספריית OpenAI מאפשרת לנו להשתמש במודלים של OpenAI כדי לחזות את התפוקות, כלומר GPT-3.





כדי להתקין את ספריית LangChain, הפעל את הפקודה הבאה בטרמינל:

$ pip התקנת langchain

התקן את ספריית OpenAI עם הפקודה הבאה:



$ pip התקנת openai

לאחר השלמת ההתקנות, נוכל להתחיל לעבוד על הפרויקט הראשי.

מ langchain. הנחיות יְבוּא PromptTemplate

מ langchain. llms יְבוּא OpenAI

יְבוּא אתה

אתה . בְּעֵרֶך [ 'OPENAI_API_KEY' ] = 'sk-YOUR API KEY'

הפרויקט הראשי מתחיל בייבוא ​​המודולים הדרושים. אז תחילה אנו מייבאים את ה-PromptTemplate מספריית 'langchain.prompts'. לאחר מכן, אנו מייבאים את OpenAI מספריית 'langchain.llms'. לאחר מכן, אנו מייבאים את 'OS' כדי להגדיר את משתנה הסביבה.

בתחילה, הגדרנו את מפתח ה-API של OpenAI כמשתנה הסביבה. משתנה הסביבה הוא משתנה המורכב משם וערך ומוגדר במערכת ההפעלה שלנו. ה-'os.environ' הוא אובייקט המשמש למיפוי משתני הסביבה. אז, אנו קוראים ל- 'os.environ'. השם שהגדרנו עבור מפתח ה-API הוא OPENAI_API_KEY. לאחר מכן אנו מקצים את מפתח ה-API בתור הערך שלו. מפתח ה-API ייחודי לכל משתמש. לכן, כאשר אתה מתאמן על סקריפט קוד זה, כתוב את מפתח ה-API הסודי שלך.

llm = OpenAI ( טֶמפֶּרָטוּרָה = 0.9 )

מיידי = PromptTemplate (

משתני_קלט = [ 'מוצרים' ] ,

תבנית = 'איך ייקרא מותג שמוכר {מוצרים}?' ,

)

כעת, כשהמפתח מוגדר כמשתנה הסביבה, אנו מאתחלים מעטפת. הגדר את הטמפרטורה עבור דגמי OpenAI GPT. הטמפרטורה היא מאפיין שעוזר לנו לקבוע עד כמה התגובה תהיה בלתי צפויה. ככל שערך הטמפרטורה גבוה יותר, התגובות לא יציבות יותר. הגדרנו כאן את ערך הטמפרטורה ל-0.9. לפיכך, אנו מקבלים את התוצאות האקראיות ביותר.

לאחר מכן, אנו מאתחלים מחלקה PromptTemplate. כאשר אנו משתמשים ב-LLM, אנו יוצרים הנחיה מהקלט שנלקח מהמשתמש ואז מעבירים אותו ל-LLM במקום לשלוח את הקלט ישירות ל-LLM שדורש קידוד קשיח (הנחיה היא קלט שלקחנו מה-LLM משתמש ועליו אמור מודל הבינה המלאכותית המוגדר ליצור תגובה). אז, אנו מאתחלים את ה-PromptTemplate. לאחר מכן, בתוך הסוגרים המתולתלים שלו, אנו מגדירים את ה-input_variable כ'מוצרים' וטקסט התבנית הוא 'איך ייקרא מותג שמוכר {מוצרים}?' קלט המשתמש אומר מה המותג עושה. לאחר מכן, הוא מעצב את ההנחיה על סמך מידע זה.

מ langchain. שרשראות יְבוּא LLMChain

שַׁרשֶׁרֶת = LLMChain ( llm = llm , מיידי = מיידי )

כעת, כאשר ה-PromptTemplate שלנו מעוצב, השלב הבא הוא ליצור LLMchain. ראשית, ייבא את מודול LLMchain מספריית 'langchain.chain'. לאחר מכן, אנו יוצרים שרשרת על ידי קריאה לפונקציה LLMchain() אשר לוקחת את קלט המשתמש ומעצבת את ההנחיה איתה. לבסוף, הוא שולח את התגובה ל- LLM. אז הוא מחבר את ה-PromptTemplate וה-LLM.

הדפס ( שַׁרשֶׁרֶת. לָרוּץ ( 'ציוד אמנות' ) )

כדי להפעיל את השרשרת, אנו קוראים לשיטת chain.run() ומספקים את קלט המשתמש כפרמטר המוגדר כ'אספקת אמנות'. לאחר מכן, אנו מעבירים שיטה זו לפונקציית Python print() כדי להציג את התוצאה החזויה בקונסולת Python.

מודל הבינה המלאכותית קורא את ההנחיה ומשיב עליה.

מכיוון שביקשנו לתת שם למותג שמוכר ציוד אמנות, ניתן לראות את השם החזוי על ידי מודל הבינה המלאכותית בתמונה הבאה:

דוגמה זו מראה לנו את ה-LLMchaining כאשר מסופק משתנה קלט בודד. זה אפשרי גם כאשר משתמשים במספר משתנים. בשביל זה, אנחנו פשוט צריכים ליצור מילון של משתנים כדי להזין אותם לגמרי. בוא נראה איך זה עובד:

מ langchain. הנחיות יְבוּא PromptTemplate

מ langchain. llms יְבוּא OpenAI

יְבוּא אתה

אתה . בְּעֵרֶך [ 'OPENAI_API_KEY' ] = 'sk- Your-API-KEY'

llm = OpenAI(טמפרטורה=0.9)

prompt = PromptTemplate(

input_variables=['
מותג ',' מוצר '],

תבנית='
מה יהיה השם של { מותג } שמוכר { מוצר } ? ',

)

מאת langchain.chains ייבוא ​​LLMChain

chain = LLMChain(llm=llm, prompt=prompt)

print(chain.run({

'מותג': '
ציוד אמנות ',

'מוצר': '
צבעים '

}))

הקוד הולך כמו הדוגמה הקודמת, פרט לכך שעלינו להעביר שני משתנים במחלקת ה-prompt template. אז, צור מילון של משתני_קלט. הסוגריים הארוכים מייצגים מילון. כאן יש לנו שני משתנים - 'מותג' ו'מוצר' - המופרדים בפסיק. כעת, טקסט התבנית שאנו מספקים הוא 'מה יהיה השם של {מותג} שמוכר את {מוצר}?' לפיכך, מודל הבינה המלאכותית מנבא שם שמתמקד בשני משתני הקלט הללו.

לאחר מכן, אנו יוצרים LLMchain אשר מעצב את קלט המשתמש עם הנחיה לשלוח את התגובה ל-LLM. כדי להפעיל שרשרת זו, אנו משתמשים בשיטת chain.run() ומעבירים את מילון המשתנים עם קלט המשתמש בתור 'מותג': 'ציוד לאמנות' ו'מוצר' בתור 'צבעים'. לאחר מכן, נעביר את השיטה הזו לפונקציית Python print() כדי להציג את התגובה שהתקבלה.

תמונת הפלט מציגה את התוצאה החזויה:

סיכום

שרשראות הן אבני הבניין של LangChain. מאמר זה עובר על הרעיון של שימוש ב-LLMchain ב-LangChain. ערכנו היכרות עם LLMchain ותיארנו את הצורך להעסיק אותם בפרויקט Python. לאחר מכן, ביצענו המחשה מעשית המדגימה את יישום ה-LLMchain על ידי חיבור ה-PromptTemplate וה-LLM. אתה יכול ליצור שרשראות אלה עם משתנה קלט בודד כמו גם משתנים מרובים שסופקו על ידי המשתמש. התגובות שנוצרו ממודל GPT מסופקות גם כן.