Come utilizzare un buffer token di conversazione in LangChain?

Come Utilizzare Un Buffer Token Di Conversazione In Langchain



LangChain consente agli sviluppatori di creare modelli utilizzando l'apprendimento automatico o l'apprendimento profondo che può addestrare modelli utilizzando i set di dati. Questi modelli possono ottenere modelli diversi dai dati o comprendere la forma del set di dati e il suo linguaggio per estrarre informazioni. I modelli linguistici di grandi dimensioni o LLM possono essere configurati o progettati utilizzando i framework LangChain in grado di comprendere e generare testo in linguaggi naturali.

Questa guida illustrerà il processo di utilizzo di un buffer di token di conversazione in LangChain.

Come utilizzare un buffer di token di conversazione in LangChain?

IL ConversationTokenBufferMemory la libreria può essere importata dal framework LangChain per archiviare i messaggi più recenti nella memoria buffer. I token possono essere configurati per limitare il numero di messaggi archiviati nel buffer e i messaggi precedenti verranno eliminati automaticamente.







Per apprendere il processo di utilizzo del buffer del token di conversazione in LangChain, utilizzare la seguente guida:



Passaggio 1: installare i moduli

Per prima cosa installa il framework LangChain contenente tutti i moduli richiesti utilizzando il comando pip:



pip installa langchain





Ora installa il modulo OpenAI per creare LLM e catene utilizzando il metodo OpenAI():

pip installa openai



Dopo aver installato i moduli, utilizza semplicemente la chiave API di OpenAI per impostare l'ambiente utilizzando le librerie os e getpass:

importare Voi

importare getpass

Voi . circa [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'Chiave API OpenAI:' )

Passaggio 2: utilizzo della memoria buffer dei token di conversazione

Crea i LLM utilizzando il metodo OpenAI() dopo aver importato il file ConversationTokenBufferMemory libreria dal framework LangChain:

da langchain. memoria importare ConversationTokenBufferMemory

da langchain. llms importare OpenAI

llm = OpenAI ( )

Configura la memoria per impostare il token, scarica i vecchi messaggi e li memorizza nella memoria buffer. Successivamente, archivia i messaggi della conversazione e ottieni quelli più recenti per utilizzarli come contesto:

memoria = ConversationTokenBufferMemory ( llm = llm , limite_token_max = 10 )

memoria. salva_contesto ( { 'ingresso' : 'Ciao' } , { 'produzione' : 'Come va' } )

memoria. salva_contesto ( { 'ingresso' : 'Sto bene e tu' } , { 'produzione' : 'non tanto' } )

Esegui la memoria per ottenere i dati archiviati nella memoria buffer utilizzando il metodo load_memory_variables():

memoria. carica_variabili_memoria ( { } )

Passaggio 3: utilizzo della memoria buffer dei token di conversazione in una catena

Costruisci le catene configurando il Catena di conversazioni() metodo con più argomenti per utilizzare la memoria buffer del token di conversazione:

da langchain. Catene importare Catena di conversazione

conversazione_con_riepilogo = Catena di conversazione (
llm = llm ,
memoria = ConversationTokenBufferMemory ( llm = OpenAI ( ) , limite_token_max = 60 ) ,
prolisso = VERO ,
)
conversazione_con_riepilogo. prevedere ( ingresso = 'Ciao come va?' )

Ora avvia la conversazione ponendo domande utilizzando le istruzioni scritte in linguaggio naturale:

conversazione_con_riepilogo. prevedere ( ingresso = 'Sto solo lavorando al progetto PNL' )

Ottieni l'output dai dati archiviati nella memoria buffer utilizzando il numero di token:

conversazione_con_riepilogo. prevedere ( ingresso = 'Sto solo lavorando sulla progettazione di LLM' )

Il buffer continua ad aggiornarsi con ogni nuovo input poiché i messaggi precedenti vengono svuotati regolarmente:

conversazione_con_riepilogo. prevedere (

ingresso = 'LLM che utilizza LangChain! Ne hai sentito parlare'

)

Si tratta di utilizzare il buffer del token di conversazione in LangChain.

Conclusione

Per utilizzare il buffer dei token di conversazione in LangChain, è sufficiente installare i moduli per configurare l'ambiente utilizzando la chiave API dall'account OpenAI. Successivamente, importa la libreria ConversationTokenBufferMemory utilizzando il modulo LangChain per archiviare la conversazione nel buffer. La memoria buffer può essere utilizzata in una catena per eliminare i messaggi più vecchi con ogni nuovo messaggio nella chat. Questo post ha approfondito l'utilizzo della memoria buffer del token di conversazione in LangChain.