Bootstrap

【AI】DeepSeek 概念/影响/使用/部署

在大年三十那天,不知道你是否留意到,“deepseek”这个词出现在了各大热搜榜单上。这引起了我的关注,出于学习的兴趣,我深入研究了一番,才有了这篇文章的诞生。

概念

那么,什么是DeepSeek?首先百度一下!

噢,原来是一个AI大模型,那就进入官网看看 DeepSeek

不管三七二十一,先注册一个账号再说

登录进去

这不跟ChatGPT一样吗!

影响

那么为什么会突然霸榜,来看看最近的新闻资讯

根据这些新闻标题,可看出DeepSeek触动了美国的利益,遭到了美国方面的DDOS攻击和封杀

链接一:被美军限制的DeepSeek,究竟是啥?

中国公司的DeepSeek模型产品推出后,跃上美国苹果App商店免费下载排行榜冠军,撼动科技圈和华尔街。除掀起广泛讨论外,也引发所谓“安全隐忧”。

报道称,美国海军向美国消费者新闻与商业频道证实,已向相关人员发出邮件示警,提醒“不得以任何形式下载、安装或使用DeepSeek模型”。

与OpenAI开发的ChatGPT相比,DeepSeek不仅率先实现了媲美OpenAI-o1模型的效果,还大幅降低了推理模型的成本。其新模型DeepSeek-R1以十分之一的成本达到了GPT-o1级别的表现,引发海外AI圈的广泛讨论。

小的算力用新的方法也能创造奇迹。

链接二:DeepSeek崛起背后的暗流:全球AI技术博弈下的DDoS攻击

然而,伴随着DeepSeek国际影响力的持续攀升,其面临的挑战也愈发复杂和严峻,自从DeepSeek发布性能比肩OpenAIo1正式版,且成本显著降低的DeepSeek-R1模型后,随即遭受一系列有针对性的网络攻击,对DeepSeek的日常运营构成严重威胁,攻击背后的动机与意图不免让人怀疑。这一现象不仅凸显了DeepSeek在全球AI领域的重要战略地位,更折射出国际人工智能技术博弈的复杂性与激烈程度,值得深思与警醒。

链接三:僵尸网络进场,针对 DeepSeek 网络攻击再升级

1月30日凌晨,即农历大年初二,奇安信XLab实验室监测发现,针对DeepSeek(深度求索)线上服务的攻击烈度突然升级,其攻击指令较1月28日暴增上百倍。XLab实验室观察到至少有2个僵尸网络参与攻击,共发起了两波次攻击。

使用

提问模板

1、背景+需求+约束条件

  • 背景:我是一个互联网打工人,自媒体小白。  
  • 需求:我想学习如何运营自媒体。  
  • 约束条件:不需要考虑视频剪辑部分。

2、背景+问题+要求+细节

  • 背景:我正在用Python开发一个天气API,使用Flask框架…
  • 问题:如何实现用户输入城市后返回实时天气数据?
  • 要求:请提供代码片段,并解释关键参数。
  • 细节:① 尝试用requests库但返回404;② 需免费API密钥。

分享今天看到的公众号文章

第一篇文章:使用DeepSeek必备的10个技巧

该文详细对比了DS和ChatGPT,以及介绍了V3模型和R1模型的区别和使用示例

第二篇文章:语言学博士谈 DeepSeek 最佳使用方式

详细介绍了DS推理模型R1对我们的作用和使用姿势

第三篇文章:完整攻略:如何用好DeepSeek,一文汇总!

本地部署

本地部署大模型的意义:

1.数据隐私与安全:本地部署能确保敏感数据不出本地,避免数据泄露风险,尤其适用于医疗、金融等对隐私要求高的行业。

2.定制化需求:本地部署允许根据特定需求调整和优化模型,提升在特定任务上的表现,满足个性化需求。

3.网络与延迟问题:本地部署减少了对网络的依赖,避免了网络不稳定或延迟对实时应用的影响,适合需要快速响应的场景。

4.成本控制:长期使用云服务的成本较高,本地部署虽然初期投入大,但长期来看可能更经济,尤其在大规模应用中。

5.合规要求:某些行业或地区有严格的数据存储和处理规定,本地部署有助于满足这些合规要求。

6.技术掌控:本地部署让用户完全控制模型和基础设施,便于进行深度优化和扩展,适合有技术能力的团队。

7.离线环境需求:在没有网络连接的环境中,本地部署是唯一可行的选择,如偏远地区或军事应用。

8.避免供应商锁定:本地部署减少对特定云服务商的依赖,增强自主性,避免因服务商政策变化带来的风险。

总结来说,本地部署大模型在隐私、定制化、延迟、成本、合规、技术控制、离线需求和避免供应商锁定等方面具有优势,适合有特定需求的用户。

一、命令行使用

1、下载安装:Ollama

Ollama 是一个提供本地部署大型语言模型的工具和平台,旨在帮助用户在自己的设备上运行和管理大模型。它允许开发者和企业使用像 GPT-3、GPT-4 等大型语言模型,但与常规的云服务不同,Ollama 让这些模型可以在本地机器上运行,从而实现更好的控制和隐私保护。

支持Mac、Linux、Windows三个操作系统,大同小异,本文仅演示Windows系统部署

2、验证是否成功安装

3、 在 Ollama 上找到DS-R1大模型。本文仅演示部署R1,V3体积太大,我的机器承受不了

4、根据自身的需求和电脑配置选择模型大小

在大模型的规格描述中,“多少 b” 代表的是 参数量(参数规模,Parameters),而 b 在这里指的是“billion”(十亿),上图1.5b就是指15亿个参数。 下面是一个模型大小配置参考表格,大家可根据自己的电脑配置来自行选择,当然了,部署的本地模型越大,使用的深度求索效果就越好。

复制命令,到本地CMD命令行执行 

5、完成后,界面出现success,表示成功部署到本地

6、验证使用

刚安装完直接使用貌似有点小BUG,关闭后重新运行就没问题了

以后每次启动,就直接通过以下命令启动

ollama run deepseek-r1:1.5b

离线模式写了个小学生作文

如果想退出模型,在终端输入:/bye即可,或者直接关闭窗口

大模型安装路径:

二、网页使用

本地命令行使用还是不太直观,可以选择 Chatbox AI 进行网页端访问,提高可交互性。

Chatbox AI 是一款跨平台的 AI 客户端应用和智能助手,支持多种先进的 AI 模型和 API,可在 Windows、macOS、Android、iOS、Linux 以及网页版上使用。 

1、点击“启动网页版”

2、选择下面的“使用自己的API KEY/本地模型”

3、选择 Ollama API

4、配置环境变量

如何将 Chatbox 连接到远程 Ollama 服务:逐步指南 - Chatbox 帮助中心:指南与常见问题

 

5、再次打开设置,选择刚才下载的本地模型

 6、设置简体中文

7、完成,使用测试,说实话,这个思考过程的展示还是很棒的

;