Come utilizzare il parser di output strutturato in LangChain?

Come Utilizzare Il Parser Di Output Strutturato In Langchain



LangChain è il framework per creare modelli di chat e LLM per ottenere informazioni dal set di dati o da Internet utilizzando l'ambiente OpenAI. Il parser di output strutturato viene utilizzato per ottenere più campi o risposte come la risposta effettiva e alcune informazioni correlate aggiuntive. Le librerie del parser di output possono essere utilizzate con LangChain per estrarre dati utilizzando i modelli creati come LLM o modelli di chat.

Questo post ha dimostrato il processo di utilizzo del parser di output strutturato in LangChain.







Come utilizzare il parser di output strutturato in LangChain?

Per utilizzare il parser di output strutturato in LangChain, segui semplicemente questi passaggi:



Passaggio 1: installare i prerequisiti



Avvia il processo installando il framework LangChain se non è già installato nel tuo ambiente Python:





pip installare langchain



Installa il framework OpenAI per accedere ai suoi metodi per costruire un parser in LangChain:

pip installare openai

Successivamente, connettiti semplicemente all'ambiente OpenAI utilizzando la sua chiave API per accedere al suo ambiente utilizzando il pulsante ' Voi ' e fornire la chiave API utilizzando la libreria ' getpass ' biblioteca:

importaci
importa getpass

os.ambiente [ 'OPENAI_API_KEY' ] = getpass.getpass ( 'Chiave API OpenAI:' )

Passaggio 2: creare uno schema per l'output/risposta

Dopo aver ottenuto la connessione a OpenAI, importa semplicemente le librerie per creare lo schema per generare l'output:

da langchain.output_parsers importa StructuredOutputParser, ResponseSchema
da langchain.prompts importa PromptTemplate, ChatPromptTemplate, HumanMessagePromptTemplate
da langchain.llms importa OpenAI
da langchain.chat_models importa ChatOpenAI

Specificare lo schema per la risposta secondo il requisito in modo che il modello generi la risposta di conseguenza:

schemi_risposta = [
Schema di risposta ( nome = 'risposta' , descrizione = 'rispondi alla domanda' ) ,
Schema di risposta ( nome = 'fonte' , descrizione = 'fonte del sito web utilizzata per ottenere la risposta' )
]
output_parser = StructuredOutputParser.from_response_schemas ( schemi_di_risposta )

Passaggio 3: formato modello

Dopo aver configurato lo schema per l'output, imposta semplicemente il modello per l'input nel linguaggio naturale in modo che il modello possa comprendere le domande prima di recuperare la risposta:

format_instructions = output_parser.get_format_instructions ( )
prompt = Modello Prompt (
modello = 'Rispondi alla domanda dell'utente. \N {modello} \N {query}' ,
input_variabili = [ 'interrogazione' ] ,
variabili_parziali = { 'modello' : formato_istruzioni }
)

Metodo 1: utilizzo del modello linguistico

Dopo aver configurato i modelli di formato per domande e risposte, crea semplicemente il modello utilizzando la funzione OpenAI():

modello = OpenAI ( temperatura = 0 )

Imposta il prompt nel campo ' domanda ' variabile e passarla al file format_prompt() funzionare come input e quindi memorizzare la risposta nel campo “ produzione 'variabile:

_input = prompt.format_prompt ( domanda = 'quanti continenti ci sono nel mondo' )
risultato = modello ( _input.a_stringa ( ) )

Chiama il analizzare() funzione con la variabile di output come argomento per ottenere la risposta dal modello:

output_parser.parse ( produzione )

Il parser di output ottiene la risposta alla query e visualizza una risposta dettagliata con il collegamento alla pagina del sito Web utilizzata per ottenere la risposta:

Metodo 2: utilizzo del modello di chat

Per ottenere risultati dal parser di output in LangChain, utilizzare il file chat_modello variabile di seguito:

modello_chat = ChatOpenAI ( temperatura = 0 )

Per comprendere il prompt, configurare il modello di prompt per il modello di chat. Quindi, genera la risposta in base all'input:

prompt = ModelloPromptChat (
messaggi = [
HumanMessagePromptTemplate.from_template ( 'Rispondi alla domanda dell'utente. \N {formato_istruzioni} \N {query}' )
] ,
input_variabili = [ 'interrogazione' ] ,
variabili_parziali = { 'format_istruzioni' : formato_istruzioni }
)

Successivamente, fornisci semplicemente l'input nel campo ' domanda ' variabile e poi passarla al file chat_modello() funzione per ottenere l'output dal modello:

_input = prompt.format_prompt ( domanda = 'USA sta per' )
output = modello_chat ( _input.ai_messaggi ( ) )

Per ottenere la risposta dal modello di chat, utilizza output_parser che memorizza il risultato dal ' produzione 'variabile:

output_parser.parse ( contenuto.output )

Il modello di chat mostrava la risposta alla domanda e il nome del sito web utilizzato per ottenere la risposta da Internet:

Si tratta di utilizzare un parser di output strutturato in LangChain.

Conclusione

Per utilizzare il parser di output strutturato in LangChain, è sufficiente installare i moduli LangChain e OpenAI per iniziare con il processo. Successivamente, connettiti all'ambiente OpenAI utilizzando la relativa chiave API e quindi configura i modelli di richiesta e risposta per il modello. Il parser di output può essere utilizzato con un modello linguistico o con un modello chat. Questa guida spiega l'uso del parser di output con entrambi i metodi.