Come utilizzare il riepilogo delle conversazioni in LangChain?

Come Utilizzare Il Riepilogo Delle Conversazioni In Langchain



LangChain è il framework che può essere utilizzato per costruire modelli linguistici utilizzando l'enorme quantità di set di dati di addestramento costruiti in linguaggi naturali. LangChain fornisce le librerie e le dipendenze che possono essere utilizzate per creare e gestire chatbot e modelli linguistici come LLM. Questi modelli sono per lo più considerati macchine con cui conversare o estrarre alcune informazioni sulla base di istruzioni scritte in linguaggi simili a quelli umani.

Questa guida illustrerà il processo di utilizzo di un riepilogo della conversazione in LangChain.

Come utilizzare il riepilogo delle conversazioni in LangChain?

LangChain fornisce librerie come ConversationSummaryMemory in grado di estrarre il riepilogo completo della chat o della conversazione. Può essere utilizzato per ottenere le informazioni principali della conversazione senza dover leggere tutti i messaggi e i testi disponibili nella chat.







Per apprendere il processo di utilizzo del riepilogo della conversazione in LangChain, procedi semplicemente nei seguenti passaggi:



Passaggio 1: installare i moduli

Innanzitutto, installa il framework LangChain per ottenere le sue dipendenze o librerie utilizzando il seguente codice:



pip installa langchain





Ora installa i moduli OpenAI dopo aver installato LangChain utilizzando il comando pip:

pip installa openai



Dopo aver installato i moduli, semplicemente impostare l'ambiente utilizzando il seguente codice dopo aver ottenuto la chiave API dall'account OpenAI:

importare Voi

importare getpass

Voi . circa [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'Chiave API OpenAI:' )

Passaggio 2: utilizzo del riepilogo della conversazione

Inizia il processo di utilizzo del riepilogo della conversazione importando le librerie da LangChain:

da langchain. memoria importare ConversazioneRiepilogoMemoria , Storia dei messaggi chat

da langchain. llms importare OpenAI

Configura la memoria del modello utilizzando i metodi ConversationSummaryMemory() e OpenAI() e salva i dati al suo interno:

memoria = ConversazioneRiepilogoMemoria ( llm = OpenAI ( temperatura = 0 ) )

memoria. salva_contesto ( { 'ingresso' : 'Ciao' } , { 'produzione' : 'CIAO' } )

Eseguire la memoria chiamando il file caricare_memoria_variabili() metodo per estrarre i dati dalla memoria:

memoria. carica_variabili_memoria ( { } )

L'utente può anche ottenere i dati sotto forma di conversazione come ciascuna entità con un messaggio separato:

memoria = ConversazioneRiepilogoMemoria ( llm = OpenAI ( temperatura = 0 ) , return_messages = VERO )

memoria. salva_contesto ( { 'ingresso' : 'Ciao' } , { 'produzione' : 'Ciao come va' } )

Per ottenere il messaggio dell'intelligenza artificiale e degli esseri umani separatamente, esegui il metodo load_memory_variables():

memoria. carica_variabili_memoria ( { } )

Memorizzare il riassunto della conversazione in memoria e poi eseguire la memoria per visualizzare sullo schermo il riassunto della chat/conversazione:

messaggi = memoria. chat_memory . messaggi

riepilogo_precedente = ''

memoria. predire_nuovo_summary ( messaggi , riepilogo_precedente )

Passaggio 3: utilizzo del riepilogo della conversazione con i messaggi esistenti

L'utente può anche ottenere il riepilogo della conversazione che esiste al di fuori della classe o chattare utilizzando il messaggio ChatMessageHistory(). Questi messaggi possono essere aggiunti alla memoria in modo che possa generare automaticamente il riepilogo della conversazione completa:

storia = Storia dei messaggi chat ( )

storia. aggiungi_messaggio_utente ( 'CIAO' )

storia. aggiungi_ai_messaggio ( 'Ciao!' )

Costruisci il modello come LLM utilizzando il metodo OpenAI() per eseguire i messaggi esistenti nel file chat_memory variabile:

memoria = ConversazioneRiepilogoMemoria. da_messaggi (
llm = OpenAI ( temperatura = 0 ) ,
chat_memory = storia ,
return_messages = VERO
)

Esegui la memoria utilizzando il buffer per ottenere il riepilogo dei messaggi esistenti:

memoria. respingente

Esegui il codice seguente per creare LLM configurando la memoria buffer utilizzando i messaggi di chat:

memoria = ConversazioneRiepilogoMemoria (
llm = OpenAI ( temperatura = 0 ) ,
respingente = '''L'umano chiede alla macchina di se stesso
Il sistema risponde che l'intelligenza artificiale è costruita per sempre in quanto può aiutare gli esseri umani a raggiungere il proprio potenziale'''
,
chat_memory = storia ,
return_messages = VERO
)

Passaggio 4: utilizzo del riepilogo della conversazione in Chain

Il passaggio successivo spiega il processo di utilizzo del riepilogo della conversazione in una catena utilizzando LLM:

da langchain. llms importare OpenAI
da langchain. Catene importare Catena di conversazione
llm = OpenAI ( temperatura = 0 )
conversazione_con_riepilogo = Catena di conversazione (
llm = llm ,
memoria = ConversazioneRiepilogoMemoria ( llm = OpenAI ( ) ) ,
prolisso = VERO
)
conversazione_con_riepilogo. prevedere ( ingresso = 'Ciao, come stai' )

Qui abbiamo iniziato a costruire catene avviando la conversazione con una cortese domanda:

Ora entra nella conversazione chiedendo qualcosa in più sull'ultimo output per approfondirlo:

conversazione_con_riepilogo. prevedere ( ingresso = 'Dimmi di più!' )

Il modello ha spiegato l'ultimo messaggio con un'introduzione dettagliata alla tecnologia AI o chatbot:

Estrai un punto di interesse dall'output precedente per portare la conversazione in una direzione specifica:

conversazione_con_riepilogo. prevedere ( ingresso = 'Incredibile. Quanto è bello questo progetto?' )

Qui stiamo ottenendo risposte dettagliate dal bot utilizzando la libreria di memoria di riepilogo della conversazione:

Si tratta di utilizzare il riepilogo della conversazione in LangChain.

Conclusione

Per utilizzare il messaggio di riepilogo della conversazione in LangChain è sufficiente installare i moduli e i framework necessari per configurare l'ambiente. Una volta impostato l'ambiente, importare il file ConversazioneRiepilogoMemoria libreria per creare LLM utilizzando il metodo OpenAI(). Successivamente, utilizza semplicemente il riepilogo della conversazione per estrarre l'output dettagliato dai modelli che è il riepilogo della conversazione precedente. Questa guida ha approfondito il processo di utilizzo della memoria di riepilogo delle conversazioni utilizzando il modulo LangChain.