传神论文中心|本周10篇人工智能领域论文推荐




本周,传神社区继续带来一系列令人兴奋的研究进展,涵盖人工智能、语言模型到大模型应用的多个领域。如果你对下面的任何主题感兴趣,复制链接到浏览器中打开即可,欢迎加入我们的知识旅程,一起探索人工智能的无限可能!



01  SIMA


3D虚拟环境中的通用人工智能代理,在各种广泛的3D虚拟环境和视频游戏中遵循自然语言指令;SIMA接受了600项基本技能的评估,包括导航、对象交互和菜单使用。语言似乎是影响性能的一个重要因素。


论文推荐链接:

https://portal.opencsg.com/daily_papers/7s9MLsPabTDJ




02  检索增强思维(Retrieval Augmented Thoughts)


经研究发现,通过信息检索对思路链进行迭代修订可以显著提升LLM在长期生成任务中的推理和生成能力;关键思想是每个思路步骤都会根据任务查询、当前和过去的思路步骤进行相关信息的修订;可以将检索增强思路(RAT)应用于不同模型,如GPT-4和CodeLlama-7B,以提高长期生成任务(例如创意写作和具体任务规划)的性能;RAT是一种零样本提示方法,并对包括零样本CoT提示、普通RAG和其他基准在内的基准模型提供了显著改进。


论文推荐链接:

https://portal.opencsg.com/daily_papers/P1BWFMW1qwQU




03  LMs Can Teach Themselves to Think Before Speaking


文章提出了STaR的一种泛化,称为Quiet-STaR,以使语言模型(LMs)能够以更一般化和可扩展的方式进行推理学习;Quiet-STaR使LMs能够生成每个标记的原因,以解释未来的文本;它提出了一种逐标记的并行抽样算法,通过高效生成内部思考来改进LM的预测;使用REINFORCE方法改进了原因生成过程。


论文推荐链接:

https://portal.opencsg.com/daily_papers/48Gj2yHhUSBk




04  Knowledge Conflicts for LLMs


这篇综述论文对LLM工作中常见问题的知识冲突进行了概述,将这些冲突分为上下文记忆、上下文间和内部记忆冲突;它还提供了有关冲突产生原因以及缓解这些知识冲突问题的潜在方法的见解。


论文推荐链接:

https://portal.opencsg.com/daily_papers/hwCYzkzy9yhB




05  Stealing Part of a Production Language Model


文章提出了一种模型窃取攻击方法,可以从ChatGPT或PaLM-2等生产语言模型中提取信息;通过典型的API访问可以恢复基于Transformer的模型的嵌入投影层;以OpenAI的ada和babbage模型为例,整个投影矩阵可以在不到20美元的成本下被提取出来。


论文推荐链接:

https://portal.opencsg.com/daily_papers/Zdt4ygyZbB5U




06  LLMs Predict Neuroscience Results


该论文提出了一个评估LLM(Large Language Models,大型语言模型)预测神经科学结果能力的基准测试——BrainBench。研究发现,LLM在预测实验结果方面超过了专家的水平,并且在针对神经科学文献进行调整的LLM的表现甚至更好。


论文推荐链接:

https://portal.opencsg.com/daily_papers/SxLdUwiCCeSN





07  Is Cosine-Similarity Really About Simirity?


该研究探讨了从经过正则化的线性模型中得出的嵌入,并从分析上得出余弦相似性如何产生任意和无意义的相似性的结论;研究还发现,对于某些线性模型,相似性甚至不是唯一的,而其他模型则受到正则化的控制;作者提醒不要盲目使用余弦相似性,并提出了考虑因素和替代方法。


论文推荐链接:

https://portal.opencsg.com/daily_papers/i2sgegVrfu86




08  Multimodal LLM Pre-training


该论文提供了对多模态LLM预训练方法、分析和见解的全面概述,研究了不同的架构组件,并发现精心混合图像字幕、交错图像文本和仅文本数据对于实现最先进的性能非常关键。该论文还提出了一系列多模态模型,参数规模可达到30B,这些模型在预训练指标上取得了最先进的成果,并具备增强的上下文学习、多图像推理和启用少样本连贯性提示等特性。


论文推荐链接:

https://portal.opencsg.com/daily_papers/vVxyCUdqpmiV




09  Branch-Train-MiX: Mixing Expert LLMs into a Mixture-of-Experts LLM


Sainbayar Sukhbaatar 等人的研究介绍了一种创新的方法,Branch-Train-MiX (BTX),用于在一个模型中融合多个专家LLMs的专业知识。这种方法不仅提高了模型处理特定任务的能力,也在精确度和效率的折衷中取得了显著成绩。对于追求在特定领域内获得更高性能的研究者和工程师而言,BTX 提供了一个高效且有效的解决方案。


论文推荐链接:

https://portal.opencsg.com/daily_papers/ScQqTTtXhCUm



10  Large Language Model for Participatory Urban Planning


清华大学近期提出的研究,通过LLM技术实现了参与式城市规划的创新,不仅提高了规划的效率和居民满意度,还优化了生态和服务可达性指标。这一方法的成功应用于北京的案例展示了其前瞻性和实用价值。推荐给对城市规划、人工智能应用感兴趣的读者,特别是那些寻求将先进技术与社会需求结合的研究人员和从业者。


论文推荐链接:

https://portal.opencsg.com/daily_papers/EK61gmhmZqmA



投稿有礼


非常感谢您对传神社区的支持与认可,传神社区专注于打造中国本土化的huggingface plus,目前传神社区展开了征稿活动,主要聚焦开源技术、最新的科技动态、AGI产业应用的落地,我们诚挚的邀请您投稿,一旦投稿成功,我们传神小助手将会与您联系您并发放我们准备的礼品。


投稿方式:[email protected]

欢迎扫描下方二维码添加传神小助手微信。








“      关于OpenCSG

开放传神(OpenCSG)成立于2023年,是一家致力于大模型生态社区建设,汇集人工智能行业上下游企业链共同为大模型在垂直行业的应用提供解决方案和工具平台的公司。


关注OpenCSG

加入传神社区






未经允许不得转载:ai论文润色 » 传神论文中心|本周10篇人工智能领域论文推荐

评论 抢沙发

评论前必须登录!

立即登录   注册