大模型本地化、RAG、智能体:AI应用工程师的三大核心能力,一次讲透

网易专栏1周前发布 nxnqh
10 0 0

🤖 AI总结

主题

介绍工业和信息化部人才交流中心主办的“人工智能技术应用工程师高级研修班”。

摘要

该研修班提供从数据处理、模型部署到智能体开发的完整实战培训,帮助学员掌握AI应用工程化能力。

关键信息

  • 1 课程聚焦数据基座、大模型本地化部署和智能体开发三大模块。
  • 2 由中国科学院背景专家授课,强调实战操作与代码复用。
  • 3 旨在培养能将AI技术落地到真实场景的应用工程师。

如果你属于以下任一角色,这篇内容正是为你准备的:

技术负责人/架构师:单位要求你搭建私有化大模型平台,但你还在纠结硬件选型、框架选型、数据安全方案;

  • AI工程师/数据工程师:你用过云端API,但真正要本地部署一个7B/14B模型,从环境配置到性能调优,每一步都有坑;

  • 高校教师/科研人员:课题组想用AI辅助文献分析、实验数据处理,你希望掌握RAG知识库和智能体开发,带学生做出可用的工具;

  • 硕博研究生:论文方向涉及大模型应用,你需要快速补齐工程能力,而不是只停留在调包调参;

  • 信息中心/技术部骨干:单位内部有大量非结构化文档(制度、报告、手册),你想用AI做一个内部知识问答系统,但不知从何下手。

    一句话:你不需要成为算法专家,但必须成为能把AI落地到真实场景的“应用工程师”。

    2026年5月,工业和信息化部人才交流中心在北京举办“人工智能技术应用工程师高级研修班”,三天时间(5月27日-30日,27日报到),聚焦三大技术模块:数据基座、大模型本地化部署、智能体开发。全部是中国科学院背景专家授课,手敲代码、现场跑通、案例可复用。大模型本地化、RAG、智能体:AI应用工程师的三大核心能力,一次讲透

    以下是本次研修班的完整内容拆解——不是课程大纲的简单罗列,而是告诉你“每个模块能解决你的什么实际问题”。

    模块一:人工智能前沿技术与数据基座构建

    ——没有高质量数据,再强的模型也是空转

    1. 人工智能极简技术原理与前沿应用解析

    解决什么问题:你听过Transformer、注意力机制、RLHF,但说不清它们为什么有效,更不知道怎么选型。

  • 你能学到:用通俗语言和直观图示理解大模型的“涌现能力”和“幻觉”根源,知道哪些任务适合用大模型、哪些不适合。同时了解多模态、MoE、Agent等前沿方向的真实落地现状,避免被概念炒作带偏。

    2. 人工智能大模型的多模态高阶应用方法

    解决什么问题:你的业务数据不仅有文本,还有图像(如产品图片、扫描件)、语音(如会议录音)、视频(如监控)。如何让一个模型同时处理这些?

  • 你能学到:基于CLIP、BLIP、LLaVA等开源模型,实现图文互搜、图像描述生成、视频关键帧抽取等实操流程。代码级演示,拿回去就能改造。

    3. 机器学习、深度学习、主动学习的应用逻辑

    解决什么问题:面对一个具体问题(如分类、回归、异常检测),你不知道该用传统机器学习还是深度学习,更不知道主动学习怎么帮你省标注成本。

  • 你能学到:三类方法的适用场景对比,以及用Scikit-learn、PyTorch快速搭建原型。重点在于决策逻辑,而非数学推导。

    4. 人工智能技术辅助各类型数据处理实操技巧

    解决什么问题:你手里有Excel表格、PDF报告、JSON日志、数据库导出文件,数据乱、缺、脏,清洗起来费时费力。

  • 你能学到:用大模型自动识别数据格式、填充缺失值、检测异常点、提取关键字段,甚至自动生成数据质量报告。全程代码演示,可以复用到你的实际工作中。

    5. 人工智能技术应用相关数据标准与数据库构建要点

    解决什么问题:你要搭建一个内部AI数据库,但不知道字段怎么设计、向量数据库和关系数据库怎么配合、权限和安全怎么控制。

  • 你能学到:数据标准(如DCAT、Schema.org)的简化应用,以及Chroma、Milvus、Qdrant等向量数据库的选型与部署。附带一套可复用的数据库模板。

    模块一的价值:补齐“数据底座”短板,让你从“只会调模型”升级为“能设计数据驱动的AI应用”。

    模块二:人工智能大模型开发与本地化部署

    ——把大模型“搬”进自己的服务器,安全、可控、省钱

    1. 大模型本地部署的硬件要求与环境配置

    解决什么问题:你听说本地部署需要A100/H100,动辄几十万,被吓退了。其实很多场景用消费级显卡甚至CPU也能跑。

  • 你能学到:不同预算(0预算、1万、5万、10万+)下的硬件配置清单,包括显存计算、内存要求、存储方案。附带环境配置脚本(Docker + Conda),一键拉起基础环境。

    2. 人工智能大模型主流开发框架及应用案例

    解决什么问题:Hugging Face、vLLM、LangChain、LlamaIndex……框架太多,不知道该学哪个。

  • 你能学到:各框架的定位和组合使用方式。例如:用Hugging Face加载模型,用vLLM加速推理,用LangChain编排流程,用LlamaIndex做RAG。每个框架配合一个实际案例(如代码生成、文档问答)。

    3. 人工智能大模型本地部署全流程技术实战

    解决什么问题:你跟着网上的教程部署,总会遇到各种报错(依赖冲突、显存溢出、模型格式不兼容),却不知道怎么排查。

  • 你能学到手把手从零部署一个DeepSeek-V3或Qwen2.5-7B模型,包括下载、转换、量化(INT8/INT4)、启动API服务、测试调用。现场演示完整流程,你跟着操作就能成功。

    4. 大模型API调用、参数调试与微调技术实践

    解决什么问题:你调用本地模型时,生成的答案要么太啰嗦、要么太简略,不知道temperature、top_p这些参数怎么调。想用自己领域的数据微调模型,又怕太复杂。

  • 你能学到

  • 参数调试的经验法则(什么场景用什么参数组合);

  • 微调实战:用LoRA/QLoRA在单卡上微调7B模型,只需几十MB额外显存,效果显著提升。提供代码模板和数据集样例。

    5. 大模型部署后性能优化技巧与常态化监控维护

    解决什么问题:模型跑起来了,但响应慢、并发低,而且你不知道它什么时候会挂。

  • 你能学到

  • 性能优化:vLLM continuous batching、前缀缓存、模型并行策略;

  • 监控维护:用Prometheus+Grafana搭建监控面板,记录延迟、吞吐、错误率;以及模型版本管理与A/B测试方案。

    模块二的价值:学完后,你可以独立完成大模型的私有化部署、调优和运维,彻底告别对云端API的依赖和数据泄露风险。

    模块三:AI智能体构建与开发应用技术实践

    ——从“对话”到“行动”,让AI替你干活

    1. 以OpenClaw为例的智能体技术内核

    解决什么问题:你听说过AutoGPT、MetaGPT,但不知道智能体内部怎么工作的,更不会自己做一个。

  • 你能学到:OpenClaw(当前最火的开源智能体框架)的架构解析:规划器(Planner)→记忆(Memory)→工具调用(Tool Use)→执行器(Executor)。你会理解一个智能体如何自主完成“搜索资料→写代码→发邮件”这样的多步骤任务。

    2. RAG知识库构建、检索策略设计与优化技巧

    解决什么问题:你想做一个内部文档问答系统,但直接问大模型它不知道,用简单向量检索又总召回不相关的内容。

  • 你能学到

  • 完整流程:文档加载→分块(chunking)→向量化(embedding)→存储→检索→生成;

  • 高级检索策略:混合检索(关键词+向量)、重排序(Rerank)、HyDE(假设性文档嵌入);

  • 优化技巧:如何解决上下文窗口溢出、如何提高答案准确性。提供可运行的代码仓库。

    3. 智能体Skills能力扩展、组合逻辑与实操

    解决什么问题:智能体默认只能调用搜索、计算器等少数工具,你想让它能查询内部数据库、执行Shell命令、发送企业微信消息。

  • 你能学到:如何自定义Skill(工具函数),如何将多个Skill串成一个工作流(如“查询订单状态→如果异常则发送告警”)。现场编写并测试一个自定义Skill。

    4. 智能体开发应用流程与多智能体协同架构设计

    解决什么问题:单一智能体能力有限,你想让多个智能体分工协作,比如一个负责检索、一个负责分析、一个负责生成报告。

  • 你能学到:多智能体架构模式(管理者-工作者、辩论模式、层次化模式),基于AutoGen或CrewAI搭建多智能体系统。提供设计模板。

    5. OpenClaw智能体部署、渠道配置及数据安全保护

    解决什么问题:智能体开发完了,怎么部署到服务器?怎么接入企业微信、钉钉、Slack?怎么防止智能体泄露敏感信息?

  • 你能学到:部署脚本、渠道接入配置、安全策略(操作审计、权限隔离、敏感词过滤)。附带一份安全checklist。

    6. 智能体典型应用案例现场解析与实操实训

    解决什么问题:你学了一堆技术,但不知道怎么组合成一个完整的、有价值的应用。

  • 你能学到:三个完整案例的代码和讲解——

  • 案例1(科研辅助):文献检索智能体 → 自动下载PDF → 提取摘要 → 生成综述草稿;

  • 案例2(IT运维):读取日志 → 分析故障 → 执行修复命令 → 发送报告;

  • 案例3(数据分析):连接数据库 → 写SQL → 生成图表 → 发送到邮件/钉钉。
    每个案例都提供完整工程,你修改参数就能适配自己的场景。

    模块三的价值:让你从“调API的普通开发者”升级为“能设计智能体系统的AI应用工程师”,这是未来三年最抢手的岗位技能。

    为什么推荐你参加这场研修班?

    不是科普,是实战:每个模块都有代码演示、现场操作、可复用的工程模板。你带电脑来,带一套能跑的代码走。

  • 专家来自一线:中国科学院研究所、中国科学院大学的实战专家,他们每天都在做AI应用落地,讲的是自己踩过的坑和总结的方法。

  • 覆盖完整技术栈:从数据处理→模型部署→性能优化→RAG→智能体开发,一条龙学下来,你就能独立负责一个AI应用项目。

  • 获得证书:学习期满符合条件的学员,可获得《IITC工信人才专业能力提升证书》。

    大模型本地化、RAG、智能体:AI应用工程师的三大核心能力,一次讲透

    谁应该来参加?

    企事业单位的技术负责人、AI工程师、数据工程师、架构师

  • 高校及科研院所的计算机、自动化、软件工程等相关专业教师、科研人员

  • 正在从事或准备转型AI应用开发的课题组负责人、硕博研究生

  • 信息中心、技术部、研发部、产品部、数据中心的技术骨干

    时间、地点与费用

    时间:2026年5月27日-30日(27日报到)
    地点:北京市(线上线下同步进行)
    线上直播:报名后获取直播码,支持全程直播回放。

    费用

    单人报名:4980元/人(含专家、场地、午餐、材料、教学服务等费用)

  • 团报3人及以上:4680元/人

  • 食宿可统一安排,费用自理

    收款账户
    开户名称:北京鼎籍科技咨询有限公司
    账号:0200026409200422683
    开户银行:中国工商银行股份有限公司北京良乡支行

    报名方式如下:
    报名流程:扫码填写个人信息→获取报名表 → 填写回执 → 会务组发报到通知。

    报名及咨询请扫码

    附红头文件通知

    大模型本地化、RAG、智能体:AI应用工程师的三大核心能力,一次讲透

    大模型本地化、RAG、智能体:AI应用工程师的三大核心能力,一次讲透

    大模型本地化、RAG、智能体:AI应用工程师的三大核心能力,一次讲透

    大模型本地化、RAG、智能体:AI应用工程师的三大核心能力,一次讲透

    AI应用工程师这个岗位,正在经历一次能力模型的升级。过去,会调用OpenAI API、会写Prompt就能找到不错的工作;现在,企业要求你能私有化部署、安全管控、与业务系统深度集成,能让AI自主执行多步任务

    这场研修班不讲概念,不念PPT,全部是可以在你自己的电脑或服务器上跑起来的代码和方案

    5月,北京。带上你的笔记本电脑,来拿一套可以直接复用的AI应用工程化能力。

    主办单位:工业和信息化部人才交流中心

    结业颁发工信人才专业能力提升证书,可作为专业技术能力证明及职业发展参考。

    © 版权声明

    相关文章