Questa guida illustrerà il processo di utilizzo di un buffer di riepilogo delle conversazioni in LangChain.
Come utilizzare un buffer di riepilogo delle conversazioni in LangChain?
La conversazione può comprendere più messaggi che sono come un'interazione tra uomo e macchina e il buffer può memorizzare i messaggi più recenti. IL ConversationSummaryBufferMemory La libreria viene utilizzata per combinare entrambi i concetti come archiviare i messaggi più recenti ed estrarne il riepilogo.
Per apprendere il processo di utilizzo del buffer di riepilogo delle conversazioni in LangChain, segui semplicemente la seguente guida:
Passaggio 1: installare i moduli
Innanzitutto, installa il modulo LangChain utilizzando il comando pip per ottenere le librerie richieste:
pip installa langchain
Installa il tokenizer tiktoken che può essere utilizzato per dividere i documenti di testo in piccoli pezzi:
pip installa tiktoken
Successivamente, installa i moduli OpenAI che possono essere utilizzati per creare modelli linguistici come LLM e catene:
pip installa openai
Ora, impostare l'ambiente ottenendo la chiave API dall'account OpenAI e utilizzandola nel modello:
importare Voiimportare getpass
Voi . circa [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'Chiave API OpenAI:' )
Passaggio 2: utilizzo del buffer di riepilogo delle conversazioni
Avvia il processo di utilizzo del buffer di riepilogo delle conversazioni importando le librerie per creare LLM utilizzando il metodo OpenAI():
da langchain. memoria importare ConversationSummaryBufferMemoryda langchain. llms importare OpenAI
llm = OpenAI ( )
Costruisci la memoria utilizzando il metodo ConversationSummaryBufferMemory() e quindi archivia la conversazione nella memoria:
memoria = ConversationSummaryBufferMemory ( llm = llm , limite_token_max = 10 )memoria. salva_contesto ( { 'ingresso' : 'Ciao' } , { 'produzione' : 'Come va' } )
memoria. salva_contesto ( { 'ingresso' : 'Sto bene e tu' } , { 'produzione' : 'non tanto' } )
Ora esegui la memoria chiamando il file carica_variabili_memoria () metodo per estrarre messaggi dalla memoria:
memoria. carica_variabili_memoria ( { } )
Ora utilizza il riepilogo del buffer della conversazione per configurare il buffer limitando il numero di messaggi da archiviare nel buffer. Successivamente, estrai il riepilogo di questi messaggi archiviati nel buffer e quindi archivia la conversazione in memoria:
memoria = ConversationSummaryBufferMemory (llm = llm , limite_token_max = 10 , return_messages = VERO
)
memoria. salva_contesto ( { 'ingresso' : 'Ciao' } , { 'produzione' : 'Come va' } )
memoria. salva_contesto ( { 'ingresso' : 'Sto bene e tu' } , { 'produzione' : 'non tanto' } )
Ottieni il riepilogo dei messaggi precedenti archiviati nella memoria buffer utilizzando il seguente codice:
messaggi = memoria. chat_memory . messaggiriepilogo_precedente = ''
memoria. predire_nuovo_summary ( messaggi , riepilogo_precedente )
Passaggio 3: utilizzo del buffer di riepilogo delle conversazioni in una catena
Costruisci le catene usando il Catena di conversazioni() metodo contenente il valore della memoria buffer per archiviare il messaggio al suo interno:
da langchain. Catene importare Catena di conversazioneconversazione_con_riepilogo = Catena di conversazione (
llm = llm ,
memoria = ConversationSummaryBufferMemory ( llm = OpenAI ( ) , limite_token_max = 40 ) ,
prolisso = VERO ,
)
conversazione_con_riepilogo. prevedere ( ingresso = 'Ciao come va?' )
Fornisci l'input sotto forma di testo utilizzando il metodo predit() per ottenere il riepilogo della conversazione:
conversazione_con_riepilogo. prevedere ( ingresso = 'Sto solo lavorando al progetto PNL' )
Utilizza l'output del modello e aggiungi altri dati utilizzando i messaggi nella memoria buffer e visualizzane il riepilogo:
conversazione_con_riepilogo. prevedere ( ingresso = 'sì, lo è! Sto lavorando alla progettazione di LLM' )
In sintesi, l'output sarà facilmente comprensibile, più user-friendly ed è più adatto ai chatbot:
conversazione_con_riepilogo. prevedere (ingresso = 'Voglio usare LangChain! Ne hai sentito parlare'
)
Si tratta di utilizzare il buffer di riepilogo della conversazione in LangChain.
Conclusione
Per utilizzare la memoria buffer di riepilogo delle conversazioni in LangChain, è sufficiente installare i moduli o i framework per ottenere le librerie richieste. Una volta importate le librerie, crea LLM o chatbot per utilizzare la funzione ConverstaionSummaryBufferMemory() per ottenere il riepilogo della conversazione. La memoria buffer viene utilizzata per limitare il numero di messaggi archiviati in memoria da utilizzare per l'estrazione del riepilogo. Questo post ha approfondito il processo di utilizzo della memoria buffer di riepilogo della conversazione in LangChain.