引言
随着人工智能技术的不断发展,大模型在软件开发中的应用越来越广泛。
这些大模型,如GPT、文心一言、讯飞星火、盘古大模型等,可以帮助程序员提高工作效率,加快开发速度,并提供更好的用户体验。
本文将介绍我在实际工作中经常使用大模型的三个场景,展示如何在程序员的工作中使用大模型来提效。
场景一:接手其他语言的项目
在软件开发中,我们经常会遇到接手其他语言编写的项目的情况。
这时,我们需要快速熟悉项目的代码和逻辑。使用大模型可以帮助我们更快地理解代码的意思。
通过输入代码片段或者整个文件,大模型可以生成对应的解释和注释,帮助我们理解代码的功能和设计思路。
这样,我们可以快速上手项目,减少学习成本,提高工作效率。
比如:你可以输入一段 Lua 脚本,询问大模型,这段脚本的意思,还可以让它详细解释每行代码的意思,让我们更快接手一个我们不熟悉编程语言写的项目。
场景二:生成脚本,辅助日志查询
在大型项目中,日志是一个非常重要的调试和排查问题的工具。
然而,手动分析和查询日志是一项繁琐且耗时的任务。使用大模型可以帮助我们生成脚本,辅助日志查询。
通过输入日志的关键词或者查询条件,大模型可以自动生成相应的脚本,帮助我们抽取日志中的需要的内容。
这样,我们可以更快地查找线上问题,定位和解决bug,提高系统的稳定性和可靠性。
场景三:根据接口文档生成 Java Bean 代码
在与其他团队或服务进行集成时,我们通常需要根据接口文档来编写对应的Java Bean代码。
手动编写这些代码是一项繁琐且容易出错的任务。使用大模型可以直接生成Java Bean代码,减少编码时间。
通过输入接口文档的关键信息,大模型可以自动生成对应的Java Bean类和方法,包括字段、注释等。
这样,我们可以节省大量的时间和精力,并且减少出错的可能性。
比如:我们需要接入其他人写的接口,他们只给了我们一个文档,文档中有表格,列举了每个字段的类型和意思,以及返回的一个示例 Json。
我们可以给大模型,输入一段 Json 数据,让它根据 Json 数据生成相应的 Java Bean 对象。
prompt:
{ "name": "zhangsan", "age": 17 }根据上面的Json,生成 Java Bean 对象
模型返回(省略其他描述信息):
甚至,我们可以,直接输入一个表格,让大模型根据这个表格,生成 Java Bean 对象。
这样,能够大大减少我们编写纯体力型代码的时间。
场景四:学习一门技术
在学习新的技术时,如 Spring WebFlux,我们通常会遇到一些疑惑和困惑。这时,大模型可以帮助我们解答这些疑惑并提供指导。
大模型可以用来描述和解释某个技术或概念的工作原理、用法和最佳实践。在学习过程中,我们可以通过咨询大模型来获取有关该技术的深入理解和详细解释。
举例来说,在学习 Spring WebFlux 时,我们可能会遇到如何处理并发请求、如何设计响应式应用程序、如何处理异常等问题。
通过向大模型提问,我们可以获得一种基于广泛经验和尝试的解答,并且这些解答通常被认为是有效和可靠的。
虽然,为了确保准确性和可靠性,我们仍然需要验证大模型提供的回答。但使用大模型仍然能够大大提升我们学习新技术的效率。
所以使用大模型可以极大地提高程序员的工作效率。
通过在接手其他语言的项目中使用大模型、生成脚本辅助日志查询、根据接口文档使用大模型直接生成Java Bean代码以及学习新技术这四个场景的实践,我们可以更快地理解代码、更快地查找线上问题,以及减少编码时间。
大模型的应用不仅可以加快开发速度,还可以提供更好的用户体验和代码质量。相信随着人工智能技术的不断进步,大模型在程序员工作中的应用将会越来越广泛,为软件开发带来更多的便利和效益。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。