"微调 Large Language Model(LLM)对于使其符合特定业务需求、提高准确性和优化性能至关重要。在当今 AI 驱动的世界中,企业依靠微调模型来生成精确、可操作的见解,从而推动创新和效率。本课程让有抱负的 Generative AI 工程师掌握雇主们积极寻求的紧缺技能。 您将探索因果 LLM 的高级微调技术,包括指令调整、奖励建模和直接偏好优化。了解 LLM 如何作为生成响应的概率策略,以及如何使用抱抱脸等工具使其与人类偏好保持一致。您将深入学习奖励计算、来自人类反馈的强化学习(RLHF)、近似策略优化(PPO)、PPO 训练器和直接偏好优化(DPO)的最佳策略。 课程中的实践实验室将提供指令调整、奖励建模、PPO 和 DPO 的实际经验,让您能够自信地微调 LLM,以实现具有重大影响的应用。 在短短两周内,掌握可胜任工作的 Generative AI 技能!今天就报名,推动您在 AI 领域的职业发展!"
还剩 8 天! 通过 Coursera Plus 提高技能,仅需 239 美元/年(原价 399 美元)。立即节省

您将学到什么
雇主们正在积极寻求的生成 AI 工程技能的微调法学硕士
使用抱抱脸进行指令调整和奖励建模,以及将 LLM 理解为策略并应用 RLHF 技术
带分区函数和拥抱面的直接偏好优化(DPO),包括如何定义 DPO 问题的最优解
使用 Proximal Policy Optimization (PPO)与 Hugging Face 建立评分函数并对数据集进行 Tokening 微调
您将获得的技能
您将学习的工具
要了解的详细信息

添加到您的领英档案
5 项作业
了解顶级公司的员工如何掌握热门技能

积累特定领域的专业知识
- 向行业专家学习新概念
- 获得对主题或工具的基础理解
- 通过实践项目培养工作相关技能
- 获得可共享的职业证书

该课程共有2个模块
获得职业证书
将此证书添加到您的 LinkedIn 个人资料、简历或履历中。在社交媒体和绩效考核中分享。
提供方
人们为什么选择 Coursera 来帮助自己实现职业发展

Felipe M.

Jennifer J.

Larry W.

Chaitanya A.
学生评论
- 5 stars
74.21%
- 4 stars
8.59%
- 3 stars
3.90%
- 2 stars
4.68%
- 1 star
8.59%
显示 3/127 个
已于 Aug 20, 2025审阅
An excellent course with a wealth of high-quality material, featuring highly informative lessons such as DPO and PPO.
已于 Mar 10, 2025审阅
This course is a great resource for learners, providing deep insights and practical skills in fine-tuning large language models for advanced AI applications.
已于 Mar 10, 2025审阅
The course gave me a good understanding of fine-tuning LLMs. It made complex topics easy to learn.











