Come utilizzare la memoria in LLMChain tramite LangChain?

Come Utilizzare La Memoria In Llmchain Tramite Langchain



LangChain è il framework che può essere utilizzato per importare librerie e dipendenze per la creazione di modelli linguistici di grandi dimensioni o LLM. I modelli linguistici utilizzano la memoria per archiviare dati o cronologia nel database come osservazione per ottenere il contesto della conversazione. La memoria è configurata per archiviare i messaggi più recenti in modo che il modello possa comprendere le istruzioni ambigue fornite dall'utente.

Questo blog spiega il processo di utilizzo della memoria in LLMChain tramite LangChain.







Come utilizzare la memoria in LLMChain tramite LangChain?

Per aggiungere memoria e utilizzarla in LLMChain tramite LangChain, è possibile utilizzare la libreria ConversationBufferMemory importandola da LangChain.



Per apprendere il processo di utilizzo della memoria in LLMChain tramite LangChain, consultare la seguente guida:



Passaggio 1: installare i moduli

Innanzitutto, avvia il processo di utilizzo della memoria installando LangChain utilizzando il comando pip:





pip installa langchain

Installa i moduli OpenAI per ottenere le sue dipendenze o librerie per creare LLM o modelli di chat:



pip installa openai

Imposta l'ambiente per OpenAI utilizzando la sua chiave API importando le librerie os e getpass:

importaci
importa getpass

os.environ['OPENAI_API_KEY'] = getpass.getpass('Chiave API OpenAI:')

Passaggio 2: importazione delle librerie

Dopo aver configurato l'ambiente, importa semplicemente le librerie come ConversationBufferMemory da LangChain:

da langchain.chains importa LLMChain
da langchain.llms importa OpenAI

da langchain.memory importa ConversationBufferMemory

da langchain.prompts importa PromptTemplate

Configura il modello per il prompt utilizzando variabili come 'input' per ottenere la query dall'utente e 'hist' per archiviare i dati nella memoria buffer:

template = '''Sei una modella che sta chattando con un essere umano

{cronologia}
Umano: {input}
Chatbot:'''

prompt = Modello Prompt(
input_variables=['cronologia', 'input'], template=template
)
memoria = ConversationBufferMemory(memory_key='hist')

Passaggio 3: configurazione di LLM

Una volta creato il modello per la query, configurare il metodo LLMChain() utilizzando più parametri:

llm = OpenAI()
catena_llm = Catena LLM(
llm=llm,
prompt=prompt,
verboso=Vero,
memoria=memoria,
)

Passaggio 4: test di LLMChain

Successivamente, testa LLMChain utilizzando la variabile di input per ottenere il prompt dall'utente in formato testuale:

llm_chain.predict(input='Ciao amico mio')

Utilizza un altro input per ottenere i dati archiviati nella memoria per estrarre l'output utilizzando il contesto:

llm_chain.predict(input='Bene! Sto bene, come stai')

Passaggio 5: aggiunta di memoria a un modello di chat

La memoria può essere aggiunta a LLMChain basata sul modello di chat importando le librerie:

da langchain.chat_models importa ChatOpenAI
da langchain.schema importa SystemMessage
da langchain.prompts importa ChatPromptTemplate, HumanMessagePromptTemplate, MessagesPlaceholder

Configura il modello di prompt utilizzando ConversationBufferMemory() utilizzando diverse variabili per impostare l'input dell'utente:

prompt = ChatPromptTemplate.from_messages([
SystemMessage(content='Sei una modella che sta chattando con un essere umano'),
MessaggiPlaceholder(variable_),
HumanMessagePromptTemplate.from_template('{input}'),
])

memoria = ConversationBufferMemory(memory_key='hist', return_messages=True)

Passaggio 6: configurazione di LLMChain

Imposta il metodo LLMChain() per configurare il modello utilizzando diversi argomenti e parametri:

llm = ChatOpenAI()

chat_llm_chain = LLMChain(
llm=llm,
prompt=prompt,
verboso=Vero,
memoria=memoria,
)

Passaggio 7: test di LLMChain

Alla fine, testa semplicemente LLMChain utilizzando l'input in modo che il modello possa generare il testo in base al prompt:

chat_llm_chain.predict(input='Ciao amico mio')

Il modello ha archiviato in memoria la conversazione precedente e la visualizza prima dell'effettivo output della query:

llm_chain.predict(input='Bene! Sto bene, come stai')

Si tratta di utilizzare la memoria in LLMChain utilizzando LangChain.

Conclusione

Per utilizzare la memoria in LLMChain tramite il framework LangChain, è sufficiente installare i moduli per configurare l'ambiente per ottenere le dipendenze dai moduli. Successivamente, importa semplicemente le librerie da LangChain per utilizzare la memoria buffer per archiviare la conversazione precedente. L'utente può anche aggiungere memoria al modello di chat costruendo LLMChain e quindi testando la catena fornendo l'input. Questa guida ha approfondito il processo di utilizzo della memoria in LLMChain tramite LangChain.