卡内基梅隆大学
-
谷歌提出全新RLHF方法:消除奖励模型,且无需对抗性训练
效果更稳定,实现更简单。 大型语言模型(LLM)的成功离不开「基于人类反馈的强化学习(RLHF)」。RLHF 可以大致可以分为两个阶段,首先,给定一对偏好和不偏好的行为,训练一个奖励模型,通过分类目标为前者分配更高的分数。然后通过某种强化学习算法优化这个奖励函数。然而,奖励模型的关键要素可能会产生一…
-
CMUÐ实现突破:机器狗点满敏捷值天赋,超高速穿越障碍,速度与安全兼备!
cmu和eth zurich团队合作开发了名为”敏捷但安全”(abs)的新框架,为四足机器人在复杂环境中实现高速运动提供了解决方案。该框架不仅在避免碰撞方面表现出高效能力,而且实现了前所未有的3.1毫秒极速运动。这一创新为足式机器人领域带来了新的进展。 在高速机器人运动领域,…