Come utilizzare la funzione LangChain LLMChain in Python

Come Utilizzare La Funzione Langchain Llmchain In Python



LangChain ha una pletora di moduli per la creazione di applicazioni modello linguistico. Le applicazioni possono essere rese più complicate combinando i moduli, oppure possono essere rese più semplici utilizzando un singolo modulo. Chiamare un LLM su un determinato input è il componente più essenziale di LangChain.

Le catene non funzionano solo per una singola chiamata LLM; sono raccolte di chiamate, a un LLM oa un'altra utilità. Le catene end-to-end per applicazioni ampiamente utilizzate sono fornite da LangChain insieme a un'API di catena standard e numerose integrazioni di strumenti.

La flessibilità e la capacità di collegare più elementi in una singola entità possono essere utili quando vogliamo progettare una catena che accetti l'input dell'utente, la configuri utilizzando un PromptTemplate e quindi fornisca il risultato generato a un LLM.







Questo articolo ti aiuta a comprendere l'uso di una funzione LangChain LLMchain in Python.



Esempio: come utilizzare la funzione LLMchain in LangChain

Abbiamo parlato di cosa sono le catene. Ora vedremo una dimostrazione pratica di queste catene che sono implementate in uno script Python. In questo esempio, utilizziamo la catena LangChain più semplice che è LLMchain. Contiene un PromptTemplate e un LLM e li concatena insieme per generare un output.



Per iniziare a implementare il concetto, dobbiamo installare alcune librerie richieste che non sono incluse nella libreria standard di Python. Le librerie che dobbiamo installare sono LangChain e OpenAI. Installiamo la libreria LangChain perché dobbiamo utilizzare il suo modulo LLMchain e PromptTemplate. La libreria OpenAI ci consente di utilizzare i modelli di OpenAI per prevedere gli output, ovvero GPT-3.





Per installare la libreria LangChain, esegui il seguente comando sul terminale:

$ pip installa langchain

Installa la libreria OpenAI con il seguente comando:



$ pip installa openai

Una volta completate le installazioni, possiamo iniziare a lavorare sul progetto principale.

da langchain. richiede importare PromptTemplate

da langchain. llm importare OpenAI

importare Voi

Voi . circa [ 'OPENAI_API_KEY' ] = 'sk-LA TUA CHIAVE API'

Il progetto principale inizia con l'importazione dei moduli necessari. Quindi, per prima cosa importiamo il PromptTemplate dalla libreria 'langchain.prompts'. Quindi, importiamo OpenAI dalla libreria 'langchain.llms'. Successivamente, importiamo 'os' per impostare la variabile di ambiente.

Inizialmente, impostiamo la chiave API OpenAI come variabile di ambiente. La variabile d'ambiente è una variabile che consiste in un nome e un valore ed è impostata sul nostro sistema operativo. Il 'os.environ' è un oggetto che viene utilizzato per mappare le variabili di ambiente. Quindi, chiamiamo 'os.environ'. Il nome che abbiamo impostato per la chiave API è OPENAI_API_KEY. Quindi assegniamo la chiave API come suo valore. La chiave API è univoca per ciascun utente. Quindi, quando pratichi questo script di codice, scrivi la tua chiave API segreta.

lm = OpenAI ( temperatura = 0.9 )

richiesta = PromptTemplate (

input_variables = [ 'prodotti' ] ,

modello = 'Come si chiamerebbe un marchio che vende {prodotti}?' ,

)

Ora che la chiave è impostata come variabile d'ambiente, inizializziamo un wrapper. Impostare la temperatura per i modelli OpenAI GPT. La temperatura è una caratteristica che ci aiuta a determinare quanto sarà imprevedibile la risposta. Più alto è il valore della temperatura, più irregolari sono le risposte. Impostiamo qui il valore della temperatura a 0,9. Pertanto, otteniamo i risultati più casuali.

Quindi, inizializziamo una classe PromptTemplate. Quando utilizziamo l'LLM, generiamo un prompt dall'input che viene preso dall'utente e quindi lo passiamo all'LLM invece di inviare l'input direttamente all'LLM che richiede l'hard coding (un prompt è un input che abbiamo preso dall'LLM utente e su cui il modello AI definito dovrebbe creare una risposta). Quindi, inizializziamo PromptTemplate. Quindi, tra parentesi graffe, definiamo la variabile input come 'Prodotti' e il testo del modello è 'Come si chiamerebbe un marchio che vende {prodotti}?' L'input dell'utente dice cosa fa il marchio. Quindi, formatta il prompt in base a queste informazioni.

da langchain. Catene importare LLMChain

catena = LLMChain ( lm = lm , richiesta = richiesta )

Ora che il nostro PromptTemplate è formattato, il passo successivo è creare una LLMchain. Innanzitutto, importa il modulo LLMchain dalla libreria 'langchain.chain'. Quindi, creiamo una catena chiamando la funzione LLMchain() che accetta l'input dell'utente e formatta il prompt con esso. Infine, invia la risposta al LLM. Quindi, collega PromptTemplate e LLM.

stampa ( catena. correre ( 'Forniture artistiche' ) )

Per eseguire la catena, chiamiamo il metodo chain.run() e forniamo l'input dell'utente come parametro definito come 'Art Supplies'. Quindi, passiamo questo metodo alla funzione Python print() per visualizzare il risultato previsto sulla console Python.

Il modello AI legge il prompt e fornisce una risposta basata su di esso.

Poiché abbiamo chiesto di nominare un marchio che vende materiali artistici, il nome previsto dal modello AI può essere visto nella seguente istantanea:

Questo esempio ci mostra il concatenamento LLM quando viene fornita una singola variabile di input. Ciò è possibile anche quando si utilizzano più variabili. Per questo, dobbiamo semplicemente creare un dizionario di variabili per inserirle tutte insieme. Vediamo come funziona:

da langchain. richiede importare PromptTemplate

da langchain. llm importare OpenAI

importare Voi

Voi . circa [ 'OPENAI_API_KEY' ] = 'sk- La tua-API-KEY'

llm = OpenAI(temperatura=0.9)

prompt = PromptTemplate(

variabili_input=['
Marca ',' Prodotto '],

modello='
Quale sarebbe il nome di { Marca } che vende { Prodotto } ? ',

)

da langchain.chains importa LLMChain

catena = LLMChain(llm=llm, prompt=prompt)

print(catena.run({

'Marca': '
Forniture artistiche ',

'Prodotto': '
colori '

}))

Il codice è lo stesso dell'esempio precedente, tranne per il fatto che dobbiamo passare due variabili nella classe del modello di prompt. Quindi, crea un dizionario di input_variables. Le parentesi lunghe rappresentano un dizionario. Qui abbiamo due variabili – “Brand” e “Product” – che sono separate da una virgola. Ora, il testo del modello che forniamo è 'Quale sarebbe il nome di {Brand} che vende {Product}?' Pertanto, il modello AI prevede un nome che si concentri su queste due variabili di input.

Quindi, creiamo una LLMchain che formatta l'input dell'utente con la richiesta di inviare la risposta a LLM. Per eseguire questa catena, utilizziamo il metodo chain.run() e passiamo il dizionario delle variabili con l'input dell'utente come 'Brand': 'Art supplies' e 'Product' come 'Colors'. Quindi, passiamo questo metodo alla funzione print() di Python per visualizzare la risposta ottenuta.

L'immagine di output mostra il risultato previsto:

Conclusione

Le catene sono gli elementi costitutivi di LangChain. Questo articolo esamina il concetto di utilizzo di LLMchain in LangChain. Abbiamo fatto un'introduzione a LLMchain e descritto la necessità di impiegarli nel progetto Python. Quindi, abbiamo effettuato un'illustrazione pratica che dimostra l'implementazione di LLMchain collegando PromptTemplate e LLM. Puoi creare queste catene con una singola variabile di input e più variabili fornite dall'utente. Vengono fornite anche le risposte generate dal modello GPT.