会员登录 - 用户注册 - 设为首页 - 加入收藏 - 网站地图 强化学习 博采衆长!
当前位置:首页 > 知识 > 强化学习 博采衆长 正文

强化学习 博采衆长

时间:2025-03-12 23:25:36 来源:海角社区-吃瓜黑料-爆料海角 作者:休闲 阅读:184次

  图:人工智能发展一日千里。强图为2016年3月9日至15日,化学人工智能程序“阿尔法围棋”在韩国首尔进行的习博五番棋比赛中,以4比1的采衆长总比分击败韩国九段棋手李世石。\新华社

强化学习 博采衆长

  大公报:我们现在知道,强DeepSeek的化学草莓西瓜丝瓜幸福宝高性能根本上来自于新算法,即强化学习方法,习博这似乎和当年Alpha Zero与人类棋手博弈相似,采衆长是强吗?

强化学习 博采衆长

  高飞:是的。DeepSeek的化学强化学习,不是习博新理论。大家最耳熟能详的采衆长强化学习模型,应该是强含羞草传媒免费下载谷歌DeepMind的围棋模型Alpha Zero。它之所以叫Zero,化学是习博指模型是从零数据开始,通过与自身进行数百万次对弈,积累数据,提升性能。

强化学习 博采衆长

  DeepSeek R1也是这样,通俗地说,它就是人工智能界的“Alpha Zero棋手”,用AI和AI对弈的强化学习方式(而不是学习人类知识行为数据),提高性能。需要说明的是,DeepSeek R1并非单一地运用强化学习方法,而是新老方法并用,博采众长。例如,DeepSeek团队发现模型出现中英文双语混用、答案不易被人理解的现象,所以也使用了传统的监督式学习(SFT),即人类数据辅助优化,让内容输出更友好。

  大公报:但谷歌DeepMind八年前就已推出围棋模型Alpha Zero,强化学习法早已有之。在这方面,DeepSeek是否算抄袭了谷歌的技术呢?

  高飞:这就是科学、技术、工程的区别了。强化学习技术早有公开论文,大家都可学习借鉴。但科学原理如何在技术和工程上实现,是另一回事。

  此外,属于封闭性问题(即有标准答案、可判断胜负)的围棋问题,与处理开放性问题的语言大模型是不同的。这种强化学习技术,并不容易在大语言模型的训练中使用,从去年开始涌现的千百个大模型,都没能取得这方面突破,没能走通这条技术路径。

(责任编辑:资源)

相关内容
  • 安东尼本赛季2次获得西甲单场MVP,是维尼修斯的两倍
  • 莱万巴萨生涯场均打进0.65球!和埃托奥、马拉多纳效率相同
  • 维埃拉:两队实力差距太大,罗马是欧冠级别球队&热那亚目标保级
  • 维埃拉:两队实力差距太大,罗马是欧冠级别球队&热那亚目标保级
  • 教师违操守被钉牌 去年71人 大增五成
  • 帕雷德斯:穆帅留在罗马大有裨益,期待迪巴拉早日康复
  • 滕哈赫:曼联的表现太不稳定,要把失利抛诸脑后才能挑战拜仁
  • 欧冠出局让财政面临2800万镑缺口,曼联冬窗或许要卖人
推荐内容
  • 开曼群岛附近海域发生8.0级地震
  • 博洛尼亚12月至今只输了1场,其下场欧冠的对手多特只赢了1场
  • 滕哈赫:每个人都应该受到平等对待,不会区别对待任何人包括桑乔
  • 波切蒂诺:曼联充满活力值得获胜,我们活力不如他们
  • 亚冬会最新奖牌榜:中国破40第1榜首,韩国接近30第2,日本破10
  • 克洛普:今天唯一不满意的就是比赛结果,我们本应该取得进球