llama
-
AI失控风险引发Meta举牌抗议,LeCun称开源AI社区蓬勃发展
在ai领域,人们长期以来对于开源和闭源的选择存在分歧。然而,在大规模模型的时代,开源已经成为一股强大的力量悄然崛起。根据之前谷歌泄露的一份内部文件,整个社区正在快速构建与openai和谷歌大规模模型相似的模型,其中包括围绕meta的llama等开源模型 毫无疑问,Meta是开源世界的核心所在,一直以…
-
手把手教你剪「羊驼」,陈丹琦团队提出LLM-Shearing大模型剪枝法
给 llama 2(羊驼)大模型剪一剪驼毛,会有怎样的效果呢?今天普林斯顿大学陈丹琦团队提出了一种名为 llm-shearing 的大模型剪枝法,可以用很小的计算量和成本实现优于同等规模模型的性能。 自大型语言模型(LLM)出现以来,它们便在各种自然语言任务上取得了显著的效果。不过,大型语言模型需要…
-
斯坦福大学发布AI基础模型透明度指标,Llama 2居首但“不及格”
it之家 10 月 20 日消息,斯坦福大学日前发布了 ai 基础模型“透明度指标”,其中显示指标最高的是 meta 的 lama 2,但相关“透明度”也只有 54%,因此研究人员认为,市面上几乎所有 ai 模型,都“缺乏透明度”。 据悉,这一研究是由 HAI 基础模型研究中心(CRFM)的负责人 …
-
参数少近一半,性能逼近谷歌Minerva,又一个数学大模型开源了
如今,在各种文本混合数据上训练出来的语言模型会显示出非常通用的语言理解和生成能力,可以作为基础模型适应各种应用。开放式对话或指令跟踪等应用要求在整个自然文本分布中实现均衡的性能,因此更倾向于通用模型。 不过如果想要在某一领域(如医学、金融或科学)内最大限度地提高性能,那么特定领域的语言模型可能会以给…
-
你的GPU能跑Llama 2等大模型吗?用这个开源项目上手测一测
在算力为王的时代,你的 GPU 可以顺畅的运行大模型(LLM)吗? 对于这一问题,很多人都难以给出确切的回答,不知该如何计算 GPU 内存。因为查看 GPU 可以处理哪些 LLM 并不像查看模型大小那么容易,在推理期间(KV 缓存)模型会占用大量内存,例如,llama-2-7b 的序列长度为 100…
-
4k窗口长度就能读长文,陈丹琦高徒联手Meta推出大模型记忆力增强新方法
只有4k窗口长度的大模型,也能阅读大段文本了! 普林斯顿的华人博士生的一项最新成果,成功“突破”了大模型窗口长度的限制。 不仅能回答各种问题,而且整个实现的过程全靠prompt就能完成,不需要任何的额外训练。 ☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R…
-
RLHF模型普遍存在「阿谀奉承」,从Claude到GPT-4无一幸免
不管你是身处 AI 圈还是其他领域,或多或少的都用过大语言模型(LLM),当大家都在赞叹 LLM 带来的各种变革时,大模型的一些短板逐渐暴露出来。 例如,前段时间,Google DeepMind 发现 LLM 普遍存在「奉承( sycophantic )」人类的行为,即有时人类用户的观点客观上不正确…
-
骁龙8 Gen 3为生成式AI举大旗,性能猛提升,游戏帧率狂飙至240
今天凌晨3点,高通发布了最新一代的骁龙8 gen 3处理器,各大手机厂商也在积极准备,准备发布他们的新一代旗舰手机。小米14系列预计将在明天率先发布,预计会成为首发之选! ☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜ 骁龙8 Gen 3有哪…
-
KAT-V1— 快手开源的自动思考模型
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜ 可图大模型 可图大模型(Kolors)是快手大模型团队自研打造的文生图AI大模型 32 查看详情 KAT-V1是什么 kat-v1是快手推出的开源自动思考(autothink)大模型,提供40b…
-
RLHF与AlphaGo核心技术强强联合,UW/Meta让文本生成能力再上新台阶
在一项最新的研究中,来自 uw 和 meta 的研究者提出了一种新的解码算法,将 alphago 采用的蒙特卡洛树搜索算法(monte-carlo tree search, mcts)应用到经过近端策略优化(proximal policy optimization, ppo)训练的 rlhf 语言模…