כיצד להשתמש במאגר אסימון שיחה ב-LangChain?

Kyzd Lhstms Bm Gr Symwn Syhh B Langchain



LangChain מאפשרת למפתחים לבנות מודלים באמצעות למידת מכונה או למידה עמוקה שיכולים לאמן מודלים באמצעות מערכי הנתונים. מודלים אלה יכולים לקבל דפוסים שונים מהנתונים או להבין את צורת מערך הנתונים והשפה שלו כדי לחלץ מידע. ניתן להגדיר או לעצב מודלים של שפה גדולה או LLM באמצעות מסגרות LangChain שיכולות להבין וליצור טקסט בשפות טבעיות.

מדריך זה ימחיש את תהליך השימוש במאגר אסימון שיחה ב-LangChain.

כיצד להשתמש במאגר אסימון שיחה ב-LangChain?

ה ConversationTokenBufferMemory ניתן לייבא את הספרייה ממסגרת LangChain כדי לאחסן את ההודעות העדכניות ביותר בזיכרון המאגר. ניתן להגדיר את האסימונים להגביל את מספר ההודעות המאוחסנות במאגר וההודעות הקודמות יימחקו אוטומטית.







כדי ללמוד את תהליך השימוש במאגר אסימון השיחה ב-LangChain, השתמש במדריך הבא:



שלב 1: התקן מודולים

ראשית, התקן את מסגרת LangChain המכילה את כל המודולים הנדרשים באמצעות הפקודה pip:



pip להתקין langchain





כעת, התקן את מודול OpenAI לבניית ה-LLMs והשרשרות באמצעות שיטת OpenAI():

pip להתקין openai



לאחר התקנת המודולים, פשוט השתמש במפתח ה-API של OpenAI כדי להקים את הסביבה באמצעות ספריות מערכת ההפעלה ו-getpass:

יְבוּא אתה

יְבוּא getpass

אתה . בְּעֵרֶך [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'מפתח API של OpenAI:' )

שלב 2: שימוש בזיכרון מאגר אסימון שיחה

בנו את ה-LLMs באמצעות שיטת OpenAI() לאחר ייבוא ​​ה- ConversationTokenBufferMemory ספריה ממסגרת LangChain:

מ langchain. זיכרון יְבוּא ConversationTokenBufferMemory

מ langchain. llms יְבוּא OpenAI

llm = OpenAI ( )

הגדר את הזיכרון כדי להגדיר את האסימון, הוא שוטף את ההודעות הישנות ומאחסן אותן בזיכרון המאגר. לאחר מכן, אחסן את ההודעות מהשיחה וקבל את ההודעות העדכניות ביותר לשימוש בהן כהקשר:

זיכרון = ConversationTokenBufferMemory ( llm = llm , max_token_limit = 10 )

זיכרון. save_context ( { 'קֶלֶט' : 'שלום' } , { 'תְפוּקָה' : 'מה שלומך' } )

זיכרון. save_context ( { 'קֶלֶט' : 'אני בסדר מה איתך' } , { 'תְפוּקָה' : 'לא הרבה' } )

בצע את הזיכרון כדי לקבל את הנתונים המאוחסנים בזיכרון המאגר באמצעות שיטת load_memory_variables():

זיכרון. load_memory_variables ( { } )

שלב 3: שימוש בזיכרון מאגר אסימון שיחה בשרשרת

בנה את השרשראות על ידי קביעת התצורה של ConversationChain() שיטה עם ארגומנטים מרובים לשימוש בזיכרון המאגר של אסימון השיחה:

מ langchain. שרשראות יְבוּא ConversationChain

שיחה_עם_סיכום = ConversationChain (
llm = llm ,
זיכרון = ConversationTokenBufferMemory ( llm = OpenAI ( ) , max_token_limit = 60 ) ,
מִלוּלִי = נָכוֹן ,
)
שיחה_עם_סיכום. לנבא ( קֶלֶט = 'היי מה קורה?' )

כעת, התחל את השיחה על ידי שאילת שאלות באמצעות ההנחיות הכתובות בשפה טבעית:

שיחה_עם_סיכום. לנבא ( קֶלֶט = 'רק עובד על פרויקט ה-NLP' )

קבל את הפלט מהנתונים המאוחסנים בזיכרון המאגר באמצעות מספר האסימונים:

שיחה_עם_סיכום. לנבא ( קֶלֶט = 'רק עובד על עיצוב לימודי LLM' )

המאגר ממשיך להתעדכן עם כל קלט חדש מכיוון שההודעות הקודמות נשטפות באופן קבוע:

שיחה_עם_סיכום. לנבא (

קֶלֶט = 'LLM משתמש ב-LangChain! שמעת על זה'

)

זה הכל על שימוש במאגר אסימון השיחה ב-LangChain.

סיכום

כדי להשתמש במאגר אסימון השיחה ב-LangChain, פשוט התקן את המודולים להגדרת הסביבה באמצעות מפתח ה-API מחשבון OpenAI. לאחר מכן, ייבא את ספריית ConversationTokenBufferMemory באמצעות מודול LangChain כדי לאחסן את השיחה במאגר. ניתן להשתמש בזיכרון המאגר בשרשרת כדי לשטוף את ההודעות הישנות עם כל הודעה חדשה בצ'אט. פוסט זה הרחיב את השימוש בזיכרון חיץ אסימון השיחה ב-LangChain.