llama
-
编程新范式,当Spring Boot遇上OpenAI
2023年,ai技术已经成为热点话题,对各行业产生了巨大影响,编程领域尤其如此。人们越来越认识到ai技术的重要性,spring社区也不例外。 随着GenAI(General Artificial Intelligence)技术的不断进步,简化具备AI功能的应用程序的创建变得至关重要和迫切。在这个背景…
-
史上首个100%开源大模型重磅登场!破纪录公开代码/权重/数据集/训练全过程,AMD都能训
多年来,语言模型一直是自然语言处理(NLP)技术的核心。鉴于模型背后的商业价值巨大,最先进模型的技术细节一直未公开。 现在,真·完全开源的大模型来了! 来自艾伦人工智能研究所、华盛顿大学、耶鲁大学、纽约大学和卡内基梅隆大学的研究人员,最近合作发表了一项重要的工作,这个工作将成为AI开源社区的重要里程…
-
图领域首个通用框架来了!入选ICLR’24 Spotlight,任意数据集、分类问题都可搞定
能不能有一种通用的图模型—— 它既能够根据分子结构预测毒性,又能够给出社交网络的朋友推荐? 或者既能预测不同作者的论文引用,还可以发现基因网络中的人类衰老机制? 你还真别说,被ICLR 2024接收为Spotlight的“One for All(OFA)”框架就实现了这个“精髓”。 该研究是由圣路易…
-
向完全自主性更进一步,清华、港大全新跨任务自我进化策略让智能体学会「以经验为鉴」
「以史为鉴,可以知兴替。」人类的进步史是一个不断吸取过去经验、推进能力边界的自我演化过程。我们从过去的失败中吸取教训,纠正错误;借鉴成功经验,提升效率和效果。这种自我进化贯穿生活方方面面:总结经验解决工作问题,利用规律预测天气,我们持续从过去学习和进化。 成功从过去的经验中提取知识并将其应用于未来的…
-
无需RLHF显著提升GPT-4/Llama2性能,北大团队提出Aligner对齐新范式
背景 大语言模型(LLMs)虽展现出了强大的能力,但也可能产生不可预测和有害的输出,例如冒犯性回应、虚假信息和泄露隐私数据,给用户和社会造成伤害。确保这些模型的行为与人类意图和价值观相对齐,是一个紧迫的挑战。 尽管基于人类反馈的强化学习(RLHF)提供了一种解决方案,但它面临复杂的训练架构、对参数的…
-
通义千问再开源,Qwen1.5带来六种体量模型,性能超越GPT3.5
赶在春节前,通义千问大模型(qwen)的 1.5 版上线了。今天上午,新版本的消息引发了 ai 社区关注。 新版大模型包括六个型号尺寸:0.5B、1.8B、4B、7B、14B和72B。其中,最强版本的性能超越了GPT 3.5和Mistral-Medium。该版本包含Base模型和Chat模型,并提供…
-
RAG还是微调?微软出了一份特定领域大模型应用建设流程指南
检索增强生成(RAG)和微调(Fine-tuning)是提升大语言模型性能的两种常用方法,那么到底哪种方法更好?在建设特定领域的应用时哪种更高效?微软的这篇论文供你选择时进行参考。 在构建大语言模型应用程序时,常常使用两种方法来整合专有和特定领域的数据:检索增强生成和微调。检索增强生成是通过引入外部…
-
CLRNet:一种用于自动驾驶车道检测的分层细化网络算法
在视觉导航系统中,车道检测是一项至关重要的功能。它不仅对自动驾驶和高级驾驶员辅助系统(ADAS)等应用有着显著的影响,而且对于智能车辆的自我定位和安全驾驶起着关键作用。因此,车道检测技术的发展对于提高交通系统的智能化和安全性具有重要意义。 然而,车道检测具有独特的局部模式,要求准确预测网络图像中的车…
-
田渊栋等人新作:突破内存瓶颈,让一块4090预训练7B大模型
meta fair 田渊栋参与的研究项目在上个月获得了广泛好评。在他们的论文《mobilellm: optimizing sub-billion parameter language models for on-device use cases》中,他们开始探讨如何优化10亿以下参数的小型模型,旨在…
-
一文读懂大型语言模型微调技术挑战与优化策略
大家好,我是luga。今天我们将继续探讨人工智能生态领域中的技术,特别是llm fine-tuning。本文将继续深入剖析llm fine-tuning技术,帮助大家更好地理解其实现机制,以便更好地应用于市场开发和其他领域。 ☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 De…