大模型应用开发必备知识体系梳理
如何看待AI
在使用AI的过程中,把AI当人看,将一个任务交给另一个人的时候,是如何做的
对于同一个问题,大模型都是当做一个新的问题去查资料,去执行。
1、提示词
2、学习新知识
3、深度理解
4、函数调用

给大模型布置任务-提示词工程
场景:知识问答、情报分析、写作、编程、文本加工
应用程序将用户的提问,封装为提示词,发给大模型,然后由大模型返回。
提示词要求:
指令具体、信息丰富、少歧义

给大模型新知识 - RAG
额外数据给大模型进行检索,不要微调、反应慢,每次都要重新检索
场景:智能知识库、智能诊断、数字分身
大模型本身是不能进行学习。想要大模型学习,就是要给大模型配置一个向量数据库,就可以查询知识。
向量数据库:支持相似度检索
维度:三维:长宽高、实际上大模型要使用的都会有数千的维度
传统数据库:通过匹配来搜索
实现
检索、增强、生成
给予大模型知识,然后结合用户提问进行提示词检索,增强提示词,然后再生成
理解知识 Fine-tuning 机器学习
大模型微调,让知识深入到大模型中,在后续使用后,不需要进行检索。
反应快、耗时好资源进行微调,需要大量的算力和数据集
问题越复杂,数据集、资源、算力消耗的越多
场景:智能知识库、智能诊断、数字分身
模型微调,需要将数据加载到显存中,使用算力资源进行处理

大模型对接外界 - function calling
场景:智能助手、下一代搜索引擎、机器人、agent
大模型可以和外界进行交互
Agent
基础大模型用JSON格式反向提出要求,让应用测进行函数调用,然后返回结果转成提示词给大模型
完整技术架构
ChatGPT\Copilot\LangChain\MetaGPT,都是对此架构的封装
