叶梓,上海交通大学计算机专业博士毕业,高级工程师。主研方向:数据挖掘、机器学习、人工智能。历任国内知名上市IT企业的AI技术总监、资深技术专家,市级行业大数据平台技术负责人。
长期负责城市信息化智能平台的建设工作,开展行业数据的智能化应用研发工作,牵头多个省级、市级行业智能化信息系统的建设,主持设计并搭建多个省级、市级行业大数据平台。参与国家级人工智能课题,牵头上海市级人工智能示范应用课题研究。
带领团队在相关行业领域研发多款人工智能创新产品,成功落地多项大数据、人工智能前沿项目,其中信息化智能平台项目曾荣获:“上海市信息技术优秀应用成果奖”。带领团队在参加国际NLP算法大赛,获得Top1%的成绩。参与国家级、省级大数据技术标准的制定,曾获省部级以上的科技创新一等奖。
大语言模型技术原理与实践
【课程简介】
本课程旨在通过实际案例展示ChatGPT、ChatGLM、Langchain等相关大语言模型的具体应用场景及实践技巧,从而帮助学习者深入了解和掌握大语言模型的概念和更广泛的应用,深入理解其工作方式,包括其基础知识、核心算法和实现方式,掌握其在各行业领域中的应用情况等。
该课程适合于对大语言模型技术感兴趣的学习者,从初学者到进阶者均可受益。经过本课程的学习,获得相关技术实战经验,通过一系列的实践案例提高利用大模型解决实际问题能力。
【课程时长】
3天(6小时/天)
【课程对象】
理工科本科及以上,且至少了解一门编程语言。
【课程大纲】(培训内容可根据客户需求调整)
Day1下午 |
强化学习基础
chatGPT的原理介绍 1、指示学习与InstructGPT 2、相关数据集 3、有监督微调(SFT) 4、从人类反馈中RL的思路 5、奖励建模(RM) 6、运用PPO改进 |
Day2上午 |
ChatGLM部署 1、ChatGLM3-6B介绍 2、ChatGLM3搭建流程 3、应用场景(工具调用、代码执行) 4、权重量化 ChatGLM3原理 1、Code Interpreter 2、多模态CogVLM 3、WebGLM搜索增强 微调大模型 1、基于chatGLM的微调 2、LoRA 3、Prefix Tuning 4、P-Tuning 5、Prompt Tuning 6、freeze 7、构建训练数据集 |
Day2下午 |
其他开源大模型 1、LLaMA系列 2、通义千问(qwen) 3、零一万物(Yi) llama-factory微调大模型 1、工具的主要功能 2、支持的模型 3、数据集准备 4、微调策略(LoRA, QLoRA, PEFT) |
Day3上午 |
学习LangChain所需的知识储备 1、词嵌入与语义空间 2、高维向量的快速模糊匹配 3、局部敏感哈希(LSH) 4、向量数据库 LangChain的原理 1、大模型利用的难点与痛点 2、Langchain的基本思路 3、关键组件 |
Day3下午 |
LangChain的实操 1、环境搭建 2、知识库向量化与存储 3、问句向量化与初步匹配 4、合成prompt(提示词) 5、提交给LLM生成答案 大语言模型的其他应用 1、kimi chat 2、coze 3、文心一格与通义万相 |
原文链接:https://blog.csdn.net/weixin_44292902/article/details/136215004?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522171851494816800178586357%2522%252C%2522scm%2522%253A%252220140713.130102334.pc%255Fblog.%2522%257D&request_id=171851494816800178586357&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~blog~first_rank_ecpm_v1~times_rank-7-136215004-null-null.nonecase&utm_term=AI%E7%AE%80%E5%8E%86