LangChain è il framework che può essere utilizzato per importare librerie e dipendenze per la creazione di modelli linguistici di grandi dimensioni o LLM. I modelli linguistici utilizzano la memoria per archiviare dati o cronologia nel database come osservazione per ottenere il contesto della conversazione. La memoria è configurata per archiviare i messaggi più recenti in modo che il modello possa comprendere le istruzioni ambigue fornite dall'utente.
Questo blog spiega il processo di utilizzo della memoria in LLMChain tramite LangChain.
Come utilizzare la memoria in LLMChain tramite LangChain?
Per aggiungere memoria e utilizzarla in LLMChain tramite LangChain, è possibile utilizzare la libreria ConversationBufferMemory importandola da LangChain.
Per apprendere il processo di utilizzo della memoria in LLMChain tramite LangChain, consultare la seguente guida:
Passaggio 1: installare i moduli
Innanzitutto, avvia il processo di utilizzo della memoria installando LangChain utilizzando il comando pip:
pip installa langchain
Installa i moduli OpenAI per ottenere le sue dipendenze o librerie per creare LLM o modelli di chat:
pip installa openai
Imposta l'ambiente per OpenAI utilizzando la sua chiave API importando le librerie os e getpass:
importaciimporta getpass
os.environ['OPENAI_API_KEY'] = getpass.getpass('Chiave API OpenAI:')
Passaggio 2: importazione delle librerie
Dopo aver configurato l'ambiente, importa semplicemente le librerie come ConversationBufferMemory da LangChain:
da langchain.chains importa LLMChainda langchain.llms importa OpenAI
da langchain.memory importa ConversationBufferMemory
da langchain.prompts importa PromptTemplate
Configura il modello per il prompt utilizzando variabili come 'input' per ottenere la query dall'utente e 'hist' per archiviare i dati nella memoria buffer:
template = '''Sei una modella che sta chattando con un essere umano{cronologia}
Umano: {input}
Chatbot:'''
prompt = Modello Prompt(
input_variables=['cronologia', 'input'], template=template
)
memoria = ConversationBufferMemory(memory_key='hist')
Passaggio 3: configurazione di LLM
Una volta creato il modello per la query, configurare il metodo LLMChain() utilizzando più parametri:
llm = OpenAI()catena_llm = Catena LLM(
llm=llm,
prompt=prompt,
verboso=Vero,
memoria=memoria,
)
Passaggio 4: test di LLMChain
Successivamente, testa LLMChain utilizzando la variabile di input per ottenere il prompt dall'utente in formato testuale:
llm_chain.predict(input='Ciao amico mio')
Utilizza un altro input per ottenere i dati archiviati nella memoria per estrarre l'output utilizzando il contesto:
llm_chain.predict(input='Bene! Sto bene, come stai')
Passaggio 5: aggiunta di memoria a un modello di chat
La memoria può essere aggiunta a LLMChain basata sul modello di chat importando le librerie:
da langchain.chat_models importa ChatOpenAIda langchain.schema importa SystemMessage
da langchain.prompts importa ChatPromptTemplate, HumanMessagePromptTemplate, MessagesPlaceholder
Configura il modello di prompt utilizzando ConversationBufferMemory() utilizzando diverse variabili per impostare l'input dell'utente:
prompt = ChatPromptTemplate.from_messages([SystemMessage(content='Sei una modella che sta chattando con un essere umano'),
MessaggiPlaceholder(variable_),
HumanMessagePromptTemplate.from_template('{input}'),
])
memoria = ConversationBufferMemory(memory_key='hist', return_messages=True)
Passaggio 6: configurazione di LLMChain
Imposta il metodo LLMChain() per configurare il modello utilizzando diversi argomenti e parametri:
llm = ChatOpenAI()chat_llm_chain = LLMChain(
llm=llm,
prompt=prompt,
verboso=Vero,
memoria=memoria,
)
Passaggio 7: test di LLMChain
Alla fine, testa semplicemente LLMChain utilizzando l'input in modo che il modello possa generare il testo in base al prompt:
chat_llm_chain.predict(input='Ciao amico mio')
Il modello ha archiviato in memoria la conversazione precedente e la visualizza prima dell'effettivo output della query:
llm_chain.predict(input='Bene! Sto bene, come stai')
Si tratta di utilizzare la memoria in LLMChain utilizzando LangChain.
Conclusione
Per utilizzare la memoria in LLMChain tramite il framework LangChain, è sufficiente installare i moduli per configurare l'ambiente per ottenere le dipendenze dai moduli. Successivamente, importa semplicemente le librerie da LangChain per utilizzare la memoria buffer per archiviare la conversazione precedente. L'utente può anche aggiungere memoria al modello di chat costruendo LLMChain e quindi testando la catena fornendo l'input. Questa guida ha approfondito il processo di utilizzo della memoria in LLMChain tramite LangChain.