כיצד להשתמש במנתח פלט מובנה ב-LangChain?

Kyzd Lhstms Bmnth Plt Mwbnh B Langchain



LangChain היא המסגרת לבניית מודלים של צ'אט ו-LLMs כדי לקבל מידע ממערך הנתונים או מהאינטרנט באמצעות סביבת OpenAI. מנתח הפלט המובנה משמש כדי לקבל מספר שדות או תגובות כמו התשובה בפועל וקצת מידע נוסף הקשור. ניתן להשתמש בספריות מנתח הפלט עם LangChain כדי לחלץ נתונים באמצעות המודלים שנבנו כ-LLMs או מודלים של צ'אט.

פוסט זה הדגים את תהליך השימוש במנתח הפלט המובנה ב-LangChain.







כיצד להשתמש במנתח פלט מובנה ב-LangChain?

כדי להשתמש במנתח הפלט המובנה ב-LangChain, פשוט עברו על השלבים הבאים:



שלב 1: התקן דרישות מוקדמות



התחל את התהליך על ידי התקנת מסגרת LangChain אם היא עדיין לא מותקנת בסביבת Python שלך:





צִפצוּף להתקין langchain



התקן את מסגרת OpenAI כדי לגשת לשיטות שלה לבניית מנתח ב-LangChain:

צִפצוּף להתקין openai

לאחר מכן, פשוט התחבר לסביבת OpenAI באמצעות מפתח ה-API שלה כדי לגשת לסביבה שלה באמצעות ' אתה ' ספריית וספק את מפתח ה-API באמצעות ' getpass 'ספרייה:

לייבא אותנו
ייבוא ​​getpass

os.environ [ 'OPENAI_API_KEY' ] = getpass.getpass ( 'מפתח API של OpenAI:' )

שלב 2: בניית סכימה עבור הפלט/תגובה

לאחר קבלת החיבור ל-OpenAI, פשוט ייבא את הספריות כדי לבנות את הסכימה להפקת הפלט:

מאת langchain.output_parsers ייבוא ​​StructuredOutputParser, ResponseSchema
מאת langchain.prompts ייבוא ​​PromptTemplate, ChatPromptTemplate, HumanMessagePromptTemplate
מאת langchain.llms ייבוא ​​OpenAI
מאת langchain.chat_models ייבוא ​​ChatOpenAI

ציין את הסכימה עבור התגובה לפי הדרישה כך שהמודל ייצור את התגובה בהתאם:

response_schemas = [
ResponseSchema ( שֵׁם = 'תשובה' , תיאור = 'השב לשאילתה' ) ,
ResponseSchema ( שֵׁם = 'מָקוֹר' , תיאור = 'מקור אתר המשמש לקבלת התשובה' )
]
output_parser = StructuredOutputParser.from_response_schemas ( response_schemas )

שלב 3: עיצוב תבנית

לאחר קביעת התצורה של הסכימה עבור הפלט, פשוט הגדר את התבנית עבור הקלט בשפה הטבעית כדי שהמודל יוכל להבין את השאלות לפני שיביא את התשובה עבורו:

format_instructions = output_parser.get_format_instructions ( )
prompt = PromptTemplate (
תבנית = 'תן תשובה לשאלת המשתמש. \n {תבנית} \n {שאילתא}' ,
משתני_קלט = [ 'שאילתא' ] ,
משתנים_חלקיים = { 'תבנית' : format_instructions }
)

שיטה 1: שימוש במודל השפה

לאחר הגדרת תבניות הפורמט לשאלות ותשובות, פשוט בנה את המודל באמצעות הפונקציה OpenAI():

דגם = OpenAI ( טֶמפֶּרָטוּרָה = 0 )

הגדר את ההנחיה ב' שאילתא משתנה ולהעביר אותו ל- format_prompt() לתפקד כקלט ולאחר מכן לאחסן את התשובה ב-' תְפוּקָה משתנה:

_input = prompt.format_prompt ( שאילתא = 'כמה יבשות יש בעולם' )
פלט = דגם ( _input.to_string ( ) )

תתקשר ל לְנַתֵחַ() פונקציה עם משתנה הפלט כארגומנט שלה כדי לקבל את התשובה מהמודל:

output_parser.parse ( תְפוּקָה )

מנתח הפלט מקבל את התשובה עבור השאילתה ומציג תשובה מפורטת עם הקישור לעמוד של האתר המשמש לקבלת התשובה:

שיטה 2: שימוש במודל הצ'אט

כדי לקבל תוצאות ממנתח הפלט ב-LangChain, השתמש ב- chat_model משתנה למטה:

chat_model = ChatOpenAI ( טֶמפֶּרָטוּרָה = 0 )

כדי להבין את ההנחיה, הגדר את תבנית ההנחיה עבור מודל הצ'אט. לאחר מכן, צור את התגובה לפי הקלט:

prompt = ChatPromptTemplate (
הודעות = [
HumanMessagePromptTemplate.from_template ( 'תן תשובה לשאלת המשתמש. \n {format_instructions} \n {שאילתא}' )
] ,
משתני_קלט = [ 'שאילתא' ] ,
משתנים_חלקיים = { 'פורמט_הוראות' : format_instructions }
)

לאחר מכן, פשוט ספק את הקלט ב-' שאילתא ” משתנה ואז להעביר אותו ל- chat_model() פונקציה כדי לקבל את הפלט מהמודל:

_input = prompt.format_prompt ( שאילתא = 'ארה'ב מייצגת' )
פלט = chat_model ( _input.to_messages ( ) )

כדי לקבל את התגובה ממודל הצ'אט, השתמש ב-output_parser שמאחסן את התוצאה מה-' תְפוּקָה משתנה:

output_parser.parse ( output.content )

מודל הצ'אט הציג את התשובה עבור השאילתה ואת שם האתר המשמש לקבלת התשובה מהאינטרנט:

זה הכל על שימוש במנתח פלט מובנה ב-LangChain.

סיכום

כדי להשתמש במנתח הפלט המובנה ב-LangChain, פשוט התקן את מודולי LangChain ו-OpenAI כדי להתחיל בתהליך. לאחר מכן, התחבר לסביבת OpenAI באמצעות מפתח ה-API שלה ולאחר מכן הגדר את תבניות ההנחיות והתגובה עבור המודל. ניתן להשתמש במנתח הפלט עם מודל שפה או מודל צ'אט. מדריך זה מסביר את השימוש במנתח הפלט בשתי השיטות.