Bootstrap

python 使用Langchin访问本地Ollama的两种方式

使用Langchin访问本地Ollama的两种方式

第一种(使用langchain):

from langchain.llms import Ollama
ollama = Ollama(base_url='http://localhost:11434',
model="llama2")
print(ollama("why is the sky blue"))

第二种(使用langchain_community):

from langchain_community.llms import Ollama
llm = Ollama(model="llama2")

llm.invoke("how can langsmith help with testing?")

;