מדריך זה ימחיש את תהליך השימוש במאגר אסימון שיחה ב-LangChain.
כיצד להשתמש במאגר אסימון שיחה ב-LangChain?
ה ConversationTokenBufferMemory ניתן לייבא את הספרייה ממסגרת LangChain כדי לאחסן את ההודעות העדכניות ביותר בזיכרון המאגר. ניתן להגדיר את האסימונים להגביל את מספר ההודעות המאוחסנות במאגר וההודעות הקודמות יימחקו אוטומטית.
כדי ללמוד את תהליך השימוש במאגר אסימון השיחה ב-LangChain, השתמש במדריך הבא:
שלב 1: התקן מודולים
ראשית, התקן את מסגרת LangChain המכילה את כל המודולים הנדרשים באמצעות הפקודה pip:
pip להתקין langchain
כעת, התקן את מודול OpenAI לבניית ה-LLMs והשרשרות באמצעות שיטת OpenAI():
pip להתקין openai
לאחר התקנת המודולים, פשוט השתמש במפתח ה-API של OpenAI כדי להקים את הסביבה באמצעות ספריות מערכת ההפעלה ו-getpass:
יְבוּא אתהיְבוּא getpass
אתה . בְּעֵרֶך [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'מפתח API של OpenAI:' )
שלב 2: שימוש בזיכרון מאגר אסימון שיחה
בנו את ה-LLMs באמצעות שיטת OpenAI() לאחר ייבוא ה- ConversationTokenBufferMemory ספריה ממסגרת LangChain:
מ langchain. זיכרון יְבוּא ConversationTokenBufferMemoryמ langchain. llms יְבוּא OpenAI
llm = OpenAI ( )
הגדר את הזיכרון כדי להגדיר את האסימון, הוא שוטף את ההודעות הישנות ומאחסן אותן בזיכרון המאגר. לאחר מכן, אחסן את ההודעות מהשיחה וקבל את ההודעות העדכניות ביותר לשימוש בהן כהקשר:
זיכרון = ConversationTokenBufferMemory ( llm = llm , max_token_limit = 10 )זיכרון. save_context ( { 'קֶלֶט' : 'שלום' } , { 'תְפוּקָה' : 'מה שלומך' } )
זיכרון. save_context ( { 'קֶלֶט' : 'אני בסדר מה איתך' } , { 'תְפוּקָה' : 'לא הרבה' } )
בצע את הזיכרון כדי לקבל את הנתונים המאוחסנים בזיכרון המאגר באמצעות שיטת load_memory_variables():
זיכרון. load_memory_variables ( { } )
שלב 3: שימוש בזיכרון מאגר אסימון שיחה בשרשרת
בנה את השרשראות על ידי קביעת התצורה של ConversationChain() שיטה עם ארגומנטים מרובים לשימוש בזיכרון המאגר של אסימון השיחה:
מ langchain. שרשראות יְבוּא ConversationChainשיחה_עם_סיכום = ConversationChain (
llm = llm ,
זיכרון = ConversationTokenBufferMemory ( llm = OpenAI ( ) , max_token_limit = 60 ) ,
מִלוּלִי = נָכוֹן ,
)
שיחה_עם_סיכום. לנבא ( קֶלֶט = 'היי מה קורה?' )
כעת, התחל את השיחה על ידי שאילת שאלות באמצעות ההנחיות הכתובות בשפה טבעית:
שיחה_עם_סיכום. לנבא ( קֶלֶט = 'רק עובד על פרויקט ה-NLP' )
קבל את הפלט מהנתונים המאוחסנים בזיכרון המאגר באמצעות מספר האסימונים:
שיחה_עם_סיכום. לנבא ( קֶלֶט = 'רק עובד על עיצוב לימודי LLM' )
המאגר ממשיך להתעדכן עם כל קלט חדש מכיוון שההודעות הקודמות נשטפות באופן קבוע:
שיחה_עם_סיכום. לנבא (קֶלֶט = 'LLM משתמש ב-LangChain! שמעת על זה'
)
זה הכל על שימוש במאגר אסימון השיחה ב-LangChain.
סיכום
כדי להשתמש במאגר אסימון השיחה ב-LangChain, פשוט התקן את המודולים להגדרת הסביבה באמצעות מפתח ה-API מחשבון OpenAI. לאחר מכן, ייבא את ספריית ConversationTokenBufferMemory באמצעות מודול LangChain כדי לאחסן את השיחה במאגר. ניתן להשתמש בזיכרון המאגר בשרשרת כדי לשטוף את ההודעות הישנות עם כל הודעה חדשה בצ'אט. פוסט זה הרחיב את השימוש בזיכרון חיץ אסימון השיחה ב-LangChain.