Bootstrap

Python调用DeepSeek本地模型API

我的第一篇文章和大家讲了怎么部署本地大模型和知识库,今天说一样怎么使用Python调用DeepSeek本地模型的API,大家可以试试别的语言,具体调用方法分享给大家。

1 部署本地大模型

参考链接:Ollama搭建DeepSeek本地大模型 + 聊天工具(ChatBox)+ 私有知识库(Cherry Studio)_chatbox deepseek 知识库-CSDN博客

2 查看使用的模型和服务状态

3 在Vs Code中安装ollama插件

插件下载地址:ollama · PyPI

4 调用本地api,官网有示例

from ollama import chat
from ollama import ChatResponse

def get_answer(content):
    response: ChatResponse = chat(model='deepseek-r1:latest', messages=[
    {
        'role': 'user',
        'content': content
    },
    ])
    # print(response['message']['content'])
    # or access fields directly from the response object
    return response.message.content
    
if __name__ == "__main__":
    data = get_answer('你好?')
    print(data)

;