
Xin Zhiyuan报告编辑:Taozi Soeley [Xin Zhiyuan介绍] ACL的第一个博士学位论文奖宣布了,加州大学伯克利分校助理助理教授Sewon Min赢得了冠军!在开幕式上,维修委员会透露了今年参与的背景,其中一半的中国人提交了价值全球一半的论文。 ACL已成为中国的顶级俱乐部? ACL 2025向维也纳开放!今年的ACL挤满了人的场合。在开幕式上,宣布了修复参加今年会议的具体情况的委员会。值得一提的是,纸上中文的人在市场的一半中已经成为了一半,而比例超过51%。其中,最初的最多51.3%来自大陆,仅占美国第二级的14%。扩展全文
今年的公民身份状况如下(集会的主要组成部分):
•1,700个关键会议论文,1,400探索论文,108个工业文件
•17 cl(计算语言)论文,40张(ACL交易)论文
•2个主题演讲,1个专家小组讨论
此外,与顶级组装相关的活动还包括:28个研讨会(超过800份提交),8个教程(教程),64个示范(演示)和104篇研究论文(SRW)论文。
如今,已正式宣布了第一个ACL“计算语言学博士学位论文奖”。
加州大学伯克利分校EEC的助理教授Sewon Min因其在大型语言模型上重新想象数据的角色而获得了大奖。
7月初,他获得了ACM博士学位奖荣誉奖
ACL是Nanchinese会议吗?
作为NLP领域的主要A级会议之一,ACL每年结合了来自世界各地的学者,今年是第63届年会。
回到过去十年,ACL纸张提交的总数增加了10倍d在过去五年中4次。
今年,主要会议总共提交了8,360(8,350)篇论文,其中主要会议注册率为20.3%,总共有1,699篇论文。调查结果的工作率为16.7%,共有1392篇论文。
与去年相比,提交的论文总数增加了70%,总计5,903位审核者增加了38%。
更有趣的是,与24年相比,ACL表的下降速度增加了160%。
从PAN提交纸研究领域,NLP应用程序(13.1%)是第一级,资源和测试提供12.4%。还有一些领域,例如多模式和语言前提,语言建模等,这一直是研究的重点。
更多的统计数据:
67%的论文在其标题和摘要中具有“ LLM”一词,其中9%提到GPT,8%提到Llama,而2%提到了DeepSeek,Bert和Gemini/Gemini/Gemma。
67%的论文具有WORD“ LLM”在其标题和摘要中,其中9%的人提到GPT,8%的Llama和2%提到DeepSeek,Bert,Gemini/Gemma。
50个建立了10篇论文的人,其中有23%的人建立了超过2篇论文。
50个建立了10篇论文的人,其中有23%的人建立了超过2篇论文。
有10个以上的人有250篇论文,其中一张带有20篇论文。
有250篇论文中有10多篇,其中一张只有20篇论文。
65%的论文具有“:”标题!
65%的论文具有“:”标题!
目前,尚未宣布ACL最佳纸质奖,并且今年首次宣布了“计算语言学博士学位奖”。
ACL第一博士论文奖
这张获奖论文(在大型语言模型上使用重新思考数据的使用)于2024年发表,整篇文章为157页。这是华盛顿大学塞顿分钟的医生论文。
ACL组织委员会评论说,本文提供了有关大型模型的行为和能力的关键见解,尤其是在环境研究中。
它的研究结果对NLPNOW的主要部分产生了影响。
纸张地址:https://www.sewonmin.com/assets/sewon_min_thesis.pdf
通常,本研究的重点是LLM如何使用该实践中使用的大量文本库。
首先,作者宣布了这些模型的自然机制,以在培训所谓的上下文研究能力后几乎取决于从培训数据中获得的知识,以找出新的活动。
然后,他提出了一种新型的非参数语言模型。
他们重新定位有关获得的信息数据库的培训数据,从而显着提高了准确性和更新。
在此过程中,作者还开发了最早使用的神经搜索模型和创新方法之一,以简化一个阶段的两个阶段的传统过程。
显示研究了鲍特(Bowit),非参数模型将为负责任的数据使用开辟新的途径。例如,授权的文本和受版权保护的文本和内容不同。
最后,Sewon Min对下一代语言模型的发展方向有了深入的了解,强调了伟大技能的三个主要目标,增强真理和分散的建筑。
在7月初,ACM博士学位论文也授予了荣誉奖。在ACM采访中,他讨论了第一次选择LLM领域的因素以及当前AI领域的一些意见。
以下内容被阻止进行面试:
问:您是如何决定将LLM用作研究方向的?
NLP领域的研究人员长期以来一直专注于开发“ Heartbreaktang模型” - 无需针对特定的工作培训可以处理不同的任务。
当出现大语言模型时,其技术途径是产生巨大的模式l通过自我练习来监督大规模数据的培训,从而消除了人类行政管理的期望。
似乎指出了实现这一目标的一种方法。
这个概念令人沮丧,但显示了许多基本要素:数据质量和规模的关键作用,降低了先前的人类知识以及删除手机标签。以上是官方答案。
老实说,这个领域令人兴奋,研究过程很有趣。我很幸运,今天农场可以产生广泛而深刻的影响。
问:您在最近的演讲中提到,当LLM生成角色角色时,真相NG错误率高达42%。为什么发生这种情况?
我认为这与基于内存训练数据的当前LLM的基本机制有关。
对于名人来说,模型可以产生准确的传记,因为相关的高频出现在训练数据中。但是对于未充分渗透的对象,该模型通常不会准确地记住它们,而是生成Seemi有道理但确实是错误的文本(即幻觉)。
它反映了此类模型数据研究机制的关键限制。
问:您在“非参数”大语言模型领域取得了成功的结果。您能提供一个示例,说明形成响应时非参数大型语言模型与标准语言模型之间的区别?
常见的大型语言模型通常构成事实。例如,当我问与互联网无关的Chatgpt时,“首尔的三星级米其林餐厅是什么”时,它误以为是一家两星级餐厅,该餐厅是La Yeon的,即关闭的,甚至是营业时间,甚至不反映了错误和缺乏记忆知识。
非参数大语言模型从更新实时数据存储中获取文档(如2025年混合的文章,是首尔唯一的三星餐厅,并根据这些文档提供了正确的答案。
介绍
Sewon Min是Elec系的助理教授加州大学伯克利分校的Tronic工程和计算机科学,以及艾伦人工智能研究所的研究科学家。他隶属于伯克利艺术情报研究实验室和伯克利自然语言处理研究小组。
他的研究方向是自然语言处理和机械研究,尤其是在大型语言模型领域,以深入理解和促进模型的发展,重点关注如何使用大规模文本语料库。
此前,他获得了华盛顿大学的计算机科学和工程博士学位以及首尔大学的计算机科学与工程学士学位。他曾在Meta Fair的研究人员兼职访问,并在Google Research Institute and Salesforce Research Institute成为国际访问。
参考:返回Sohu以查看更多