Questa guida illustrerà il processo di utilizzo di un buffer di token di conversazione in LangChain.
Come utilizzare un buffer di token di conversazione in LangChain?
IL ConversationTokenBufferMemory la libreria può essere importata dal framework LangChain per archiviare i messaggi più recenti nella memoria buffer. I token possono essere configurati per limitare il numero di messaggi archiviati nel buffer e i messaggi precedenti verranno eliminati automaticamente.
Per apprendere il processo di utilizzo del buffer del token di conversazione in LangChain, utilizzare la seguente guida:
Passaggio 1: installare i moduli
Per prima cosa installa il framework LangChain contenente tutti i moduli richiesti utilizzando il comando pip:
pip installa langchain
Ora installa il modulo OpenAI per creare LLM e catene utilizzando il metodo OpenAI():
pip installa openai
Dopo aver installato i moduli, utilizza semplicemente la chiave API di OpenAI per impostare l'ambiente utilizzando le librerie os e getpass:
importare Voiimportare getpass
Voi . circa [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'Chiave API OpenAI:' )
Passaggio 2: utilizzo della memoria buffer dei token di conversazione
Crea i LLM utilizzando il metodo OpenAI() dopo aver importato il file ConversationTokenBufferMemory libreria dal framework LangChain:
da langchain. memoria importare ConversationTokenBufferMemoryda langchain. llms importare OpenAI
llm = OpenAI ( )
Configura la memoria per impostare il token, scarica i vecchi messaggi e li memorizza nella memoria buffer. Successivamente, archivia i messaggi della conversazione e ottieni quelli più recenti per utilizzarli come contesto:
memoria = ConversationTokenBufferMemory ( llm = llm , limite_token_max = 10 )memoria. salva_contesto ( { 'ingresso' : 'Ciao' } , { 'produzione' : 'Come va' } )
memoria. salva_contesto ( { 'ingresso' : 'Sto bene e tu' } , { 'produzione' : 'non tanto' } )
Esegui la memoria per ottenere i dati archiviati nella memoria buffer utilizzando il metodo load_memory_variables():
memoria. carica_variabili_memoria ( { } )
Passaggio 3: utilizzo della memoria buffer dei token di conversazione in una catena
Costruisci le catene configurando il Catena di conversazioni() metodo con più argomenti per utilizzare la memoria buffer del token di conversazione:
da langchain. Catene importare Catena di conversazioneconversazione_con_riepilogo = Catena di conversazione (
llm = llm ,
memoria = ConversationTokenBufferMemory ( llm = OpenAI ( ) , limite_token_max = 60 ) ,
prolisso = VERO ,
)
conversazione_con_riepilogo. prevedere ( ingresso = 'Ciao come va?' )
Ora avvia la conversazione ponendo domande utilizzando le istruzioni scritte in linguaggio naturale:
conversazione_con_riepilogo. prevedere ( ingresso = 'Sto solo lavorando al progetto PNL' )
Ottieni l'output dai dati archiviati nella memoria buffer utilizzando il numero di token:
conversazione_con_riepilogo. prevedere ( ingresso = 'Sto solo lavorando sulla progettazione di LLM' )
Il buffer continua ad aggiornarsi con ogni nuovo input poiché i messaggi precedenti vengono svuotati regolarmente:
conversazione_con_riepilogo. prevedere (ingresso = 'LLM che utilizza LangChain! Ne hai sentito parlare'
)
Si tratta di utilizzare il buffer del token di conversazione in LangChain.
Conclusione
Per utilizzare il buffer dei token di conversazione in LangChain, è sufficiente installare i moduli per configurare l'ambiente utilizzando la chiave API dall'account OpenAI. Successivamente, importa la libreria ConversationTokenBufferMemory utilizzando il modulo LangChain per archiviare la conversazione nel buffer. La memoria buffer può essere utilizzata in una catena per eliminare i messaggi più vecchi con ogni nuovo messaggio nella chat. Questo post ha approfondito l'utilizzo della memoria buffer del token di conversazione in LangChain.