כיצד להשתמש בסיכום שיחה ב-LangChain?

Kyzd Lhstms Bsykwm Syhh B Langchain



LangChain היא המסגרת שניתן להשתמש בה כדי לבנות מודלים של שפה תוך שימוש בכמות העצומה של מערכי אימון שנבנו בשפות טבעיות. LangChain מספקת את הספריות והתלות שניתן להשתמש בהן כדי לבנות ולנהל צ'אטבוטים ומודלים של שפה כמו LLMs. מודלים אלה נחשבים לרוב למכונות לניהול שיחה או לחלץ מידע מסוים על סמך הנחיות שנכתבו בשפות דמויות אדם.

מדריך זה ימחיש את תהליך השימוש בסיכום שיחה ב-LangChain.

כיצד להשתמש בסיכום שיחה ב-LangChain?

LangChain מספקת ספריות כמו ConversationSummaryMemory שיכולות לחלץ את הסיכום המלא של הצ'אט או השיחה. ניתן להשתמש בו כדי לקבל את המידע העיקרי של השיחה ללא צורך לקרוא את כל ההודעות והטקסט הזמינים בצ'אט.







כדי ללמוד את תהליך השימוש בסיכום השיחה ב-LangChain, פשוט היכנס לשלבים הבאים:



שלב 1: התקן מודולים

ראשית, התקן את מסגרת LangChain כדי לקבל את התלות או הספריות שלה באמצעות הקוד הבא:



pip להתקין langchain





כעת, התקן את מודולי OpenAI לאחר התקנת ה-LangChain באמצעות פקודת pip:

pip להתקין openai



לאחר התקנת המודולים, פשוט להקים את הסביבה באמצעות הקוד הבא לאחר קבלת מפתח ה-API מחשבון OpenAI:

יְבוּא אתה

יְבוּא getpass

אתה . בְּעֵרֶך [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'מפתח API של OpenAI:' )

שלב 2: שימוש בסיכום שיחה

היכנסו לתהליך השימוש בסיכום השיחה על ידי ייבוא ​​הספריות מ-LangChain:

מ langchain. זיכרון יְבוּא זיכרון סיכום שיחה , ChatMessageHistory

מ langchain. llms יְבוּא OpenAI

הגדר את הזיכרון של המודל באמצעות השיטות ConversationSummaryMemory() ו-OpenAI() ושמור את הנתונים בו:

זיכרון = זיכרון סיכום שיחה ( llm = OpenAI ( טֶמפֶּרָטוּרָה = 0 ) )

זיכרון. save_context ( { 'קֶלֶט' : 'שלום' } , { 'תְפוּקָה' : 'היי' } )

הפעל את הזיכרון על ידי קריאה ל- load_memory_variables() שיטה לחלץ את הנתונים מהזיכרון:

זיכרון. load_memory_variables ( { } )

המשתמש יכול גם לקבל את הנתונים בצורה של שיחה כמו כל ישות עם הודעה נפרדת:

זיכרון = זיכרון סיכום שיחה ( llm = OpenAI ( טֶמפֶּרָטוּרָה = 0 ) , return_messages = נָכוֹן )

זיכרון. save_context ( { 'קֶלֶט' : 'שלום' } , { 'תְפוּקָה' : 'היי! מה שלומך' } )

כדי לקבל את המסר של AI ושל בני אדם בנפרד, בצע את שיטת load_memory_variables():

זיכרון. load_memory_variables ( { } )

אחסן את סיכום השיחה בזיכרון ולאחר מכן הפעל את הזיכרון כדי להציג את סיכום הצ'אט/שיחה על המסך:

הודעות = זיכרון. chat_memory . הודעות

הקודם_סיכום = ''

זיכרון. predict_new_summary ( הודעות , הקודם_סיכום )

שלב 3: שימוש בסיכום שיחה עם הודעות קיימות

המשתמש יכול גם לקבל את סיכום השיחה הקיימת מחוץ לכיתה או לצ'אט באמצעות הודעת ChatMessageHistory() . ניתן להוסיף הודעות אלו לזיכרון כך שהוא יכול ליצור באופן אוטומטי את סיכום השיחה המלאה:

הִיסטוֹרִיָה = ChatMessageHistory ( )

הִיסטוֹרִיָה. add_user_message ( 'היי' )

הִיסטוֹרִיָה. add_ai_message ( 'שלום שם!' )

בנה את המודל כגון LLM באמצעות שיטת OpenAI() כדי להפעיל את ההודעות הקיימות ב- chat_memory מִשְׁתַנֶה:

זיכרון = זיכרון סיכום שיחה. מ_הודעות (
llm = OpenAI ( טֶמפֶּרָטוּרָה = 0 ) ,
chat_memory = הִיסטוֹרִיָה ,
return_messages = נָכוֹן
)

הפעל את הזיכרון באמצעות המאגר כדי לקבל את סיכום ההודעות הקיימות:

זיכרון. בַּלָם

בצע את הקוד הבא כדי לבנות את ה-LLM על ידי הגדרת זיכרון המאגר באמצעות הודעות הצ'אט:

זיכרון = זיכרון סיכום שיחה (
llm = OpenAI ( טֶמפֶּרָטוּרָה = 0 ) ,
בַּלָם = ''' האדם שואל את המכונה ששואלת על עצמו
המערכת משיבה שבינה מלאכותית בנויה לתמיד מכיוון שהיא יכולה לעזור לבני אדם לממש את הפוטנציאל שלהם'''
,
chat_memory = הִיסטוֹרִיָה ,
return_messages = נָכוֹן
)

שלב 4: שימוש בסיכום שיחה בשרשרת

השלב הבא מסביר את תהליך השימוש בסיכום השיחה בשרשרת באמצעות ה-LLM:

מ langchain. llms יְבוּא OpenAI
מ langchain. שרשראות יְבוּא ConversationChain
llm = OpenAI ( טֶמפֶּרָטוּרָה = 0 )
שיחה_עם_סיכום = ConversationChain (
llm = llm ,
זיכרון = זיכרון סיכום שיחה ( llm = OpenAI ( ) ) ,
מִלוּלִי = נָכוֹן
)
שיחה_עם_סיכום. לנבא ( קֶלֶט = 'שלום מה שלומך' )

כאן התחלנו לבנות רשתות על ידי התחלת השיחה עם פנייה אדיבה:

כעת היכנס לשיחה על ידי שאלת קצת יותר על הפלט האחרון כדי להרחיב עליו:

שיחה_עם_סיכום. לנבא ( קֶלֶט = 'ספר לי עוד על זה!' )

המודל הסביר את ההודעה האחרונה עם מבוא מפורט לטכנולוגיית הבינה המלאכותית או הצ'אטבוט:

חלץ נקודת עניין מהפלט הקודם כדי לקחת את השיחה לכיוון מסוים:

שיחה_עם_סיכום. לנבא ( קֶלֶט = 'מדהים כמה טוב הפרויקט הזה?' )

כאן אנו מקבלים תשובות מפורטות מהבוט באמצעות ספריית זיכרון סיכום השיחה:

זה הכל על השימוש בסיכום השיחה ב-LangChain.

סיכום

כדי להשתמש בהודעת סיכום השיחה ב-LangChain, פשוט התקן את המודולים והמסגרות הנדרשות להגדרת הסביבה. לאחר הגדרת הסביבה, ייבא את ה זיכרון סיכום שיחה ספרייה לבניית LLMs באמצעות שיטת OpenAI()‎. לאחר מכן, פשוט השתמש בסיכום השיחה כדי לחלץ את הפלט המפורט מהמודלים שהוא הסיכום של השיחה הקודמת. מדריך זה הרחיב את תהליך השימוש בזיכרון סיכום שיחה באמצעות מודול LangChain.