Come utilizzare il buffer di riepilogo delle conversazioni in LangChain?

Come Utilizzare Il Buffer Di Riepilogo Delle Conversazioni In Langchain



LangChain è il framework con tutte le dipendenze e le librerie per costruire modelli in grado di comprendere set di dati in linguaggi naturali. Questi modelli possono anche generare testo in lingue naturali o estrarre i dati più simili in base agli input forniti dall'utente. I chatbot o LLM vengono utilizzati per costruire conversazioni con esseri umani ed estrarre un riepilogo della conversazione utilizzando tutti i messaggi.

Questa guida illustrerà il processo di utilizzo di un buffer di riepilogo delle conversazioni in LangChain.

Come utilizzare un buffer di riepilogo delle conversazioni in LangChain?

La conversazione può comprendere più messaggi che sono come un'interazione tra uomo e macchina e il buffer può memorizzare i messaggi più recenti. IL ConversationSummaryBufferMemory La libreria viene utilizzata per combinare entrambi i concetti come archiviare i messaggi più recenti ed estrarne il riepilogo.







Per apprendere il processo di utilizzo del buffer di riepilogo delle conversazioni in LangChain, segui semplicemente la seguente guida:



Passaggio 1: installare i moduli

Innanzitutto, installa il modulo LangChain utilizzando il comando pip per ottenere le librerie richieste:



pip installa langchain





Installa il tokenizer tiktoken che può essere utilizzato per dividere i documenti di testo in piccoli pezzi:

pip installa tiktoken



Successivamente, installa i moduli OpenAI che possono essere utilizzati per creare modelli linguistici come LLM e catene:

pip installa openai

Ora, impostare l'ambiente ottenendo la chiave API dall'account OpenAI e utilizzandola nel modello:

importare Voi
importare getpass

Voi . circa [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'Chiave API OpenAI:' )

Passaggio 2: utilizzo del buffer di riepilogo delle conversazioni

Avvia il processo di utilizzo del buffer di riepilogo delle conversazioni importando le librerie per creare LLM utilizzando il metodo OpenAI():

da langchain. memoria importare ConversationSummaryBufferMemory

da langchain. llms importare OpenAI

llm = OpenAI ( )

Costruisci la memoria utilizzando il metodo ConversationSummaryBufferMemory() e quindi archivia la conversazione nella memoria:

memoria = ConversationSummaryBufferMemory ( llm = llm , limite_token_max = 10 )

memoria. salva_contesto ( { 'ingresso' : 'Ciao' } , { 'produzione' : 'Come va' } )

memoria. salva_contesto ( { 'ingresso' : 'Sto bene e tu' } , { 'produzione' : 'non tanto' } )

Ora esegui la memoria chiamando il file carica_variabili_memoria () metodo per estrarre messaggi dalla memoria:

memoria. carica_variabili_memoria ( { } )

Ora utilizza il riepilogo del buffer della conversazione per configurare il buffer limitando il numero di messaggi da archiviare nel buffer. Successivamente, estrai il riepilogo di questi messaggi archiviati nel buffer e quindi archivia la conversazione in memoria:

memoria = ConversationSummaryBufferMemory (

llm = llm , limite_token_max = 10 , return_messages = VERO

)

memoria. salva_contesto ( { 'ingresso' : 'Ciao' } , { 'produzione' : 'Come va' } )

memoria. salva_contesto ( { 'ingresso' : 'Sto bene e tu' } , { 'produzione' : 'non tanto' } )

Ottieni il riepilogo dei messaggi precedenti archiviati nella memoria buffer utilizzando il seguente codice:

messaggi = memoria. chat_memory . messaggi

riepilogo_precedente = ''

memoria. predire_nuovo_summary ( messaggi , riepilogo_precedente )

Passaggio 3: utilizzo del buffer di riepilogo delle conversazioni in una catena

Costruisci le catene usando il Catena di conversazioni() metodo contenente il valore della memoria buffer per archiviare il messaggio al suo interno:

da langchain. Catene importare Catena di conversazione

conversazione_con_riepilogo = Catena di conversazione (
llm = llm ,
memoria = ConversationSummaryBufferMemory ( llm = OpenAI ( ) , limite_token_max = 40 ) ,
prolisso = VERO ,
)
conversazione_con_riepilogo. prevedere ( ingresso = 'Ciao come va?' )

Fornisci l'input sotto forma di testo utilizzando il metodo predit() per ottenere il riepilogo della conversazione:

conversazione_con_riepilogo. prevedere ( ingresso = 'Sto solo lavorando al progetto PNL' )

Utilizza l'output del modello e aggiungi altri dati utilizzando i messaggi nella memoria buffer e visualizzane il riepilogo:

conversazione_con_riepilogo. prevedere ( ingresso = 'sì, lo è! Sto lavorando alla progettazione di LLM' )

In sintesi, l'output sarà facilmente comprensibile, più user-friendly ed è più adatto ai chatbot:

conversazione_con_riepilogo. prevedere (

ingresso = 'Voglio usare LangChain! Ne hai sentito parlare'

)

Si tratta di utilizzare il buffer di riepilogo della conversazione in LangChain.

Conclusione

Per utilizzare la memoria buffer di riepilogo delle conversazioni in LangChain, è sufficiente installare i moduli o i framework per ottenere le librerie richieste. Una volta importate le librerie, crea LLM o chatbot per utilizzare la funzione ConverstaionSummaryBufferMemory() per ottenere il riepilogo della conversazione. La memoria buffer viene utilizzata per limitare il numero di messaggi archiviati in memoria da utilizzare per l'estrazione del riepilogo. Questo post ha approfondito il processo di utilizzo della memoria buffer di riepilogo della conversazione in LangChain.