• 回答数

    4

  • 浏览数

    240

威武的灰姑娘
首页 > 期刊论文 > 北京智源研究院清华大学论文

4个回答 默认排序
  • 默认排序
  • 按时间排序

结婚201314

已采纳

2022年4月,一起AI界的学术不端事件可谓是“引爆 ”了整个学术圈。涉及到的100位作者,无一不是业内大佬。 谷歌大脑(Google Brain)团队著名科学家Nicholas Carlini 发表的一篇博客中指控:由北京智源人工智能研究院团队牵头,刊登在论文预印网站Arxiv的一篇中国学术综述论文《关于“大模型”的路线图》(“A Roadmap for Big Model”)一文涉嫌严重抄袭。 Nicholas Carlini在博客文章中则详细列举了上述中国团队论文存在大段抄袭其他论文的嫌疑,证据是大规模的文本重叠,疑似被剽窃的论文也包括他更早发布的《去重训练数据使语言模型更好》(Deduplicating Training Data Makes Language Models Better),部分内容一模一样。讽刺的是,后者这篇被抄袭的论文,研究的主题正是数据去重和查重。 资料显示,北京智源人工智能研究院为依托北京大学、清华大学、中国科学院、百度、小米、字节跳动、美团点评、旷视科技等北京人工智能领域优势单位共建的新型研究机构。 这一篇本意尽可能涵盖国内外关于该领域所有重要文献的综述报告,由智源研究院牵头,负责框架设计和稿件汇总,并邀请国内外100位科研人员分别撰写16篇独立的专题文章,每篇文章分别邀请一组作者撰写并单独署名,共200页。 值得注意的是,联名撰写的这近一百来位作者,分别来自清华、北大、上海交大等顶级名校,及腾讯、华为、京东、字节跳动等互联网大厂。 随后,北京智源人工智能研究院在其官网发布了关于“A Roadmap for Big Model”综述报告涉嫌抄袭的致歉信,确认部分文章存在问题后,已启动独立审查,并进行相关追责。不过不过,Carlini同时也指出,涉嫌抄袭的可能只有小部分作者,在尚未明确多名作者的具体责任前应理性看待,。而且智源研究院决定立即从报告中删除相应内容,并且对报告修订版提交arXiv进行更新。目前已通知所有文章的作者对所有内容进行全面审查,后续将严格审核后再发布新版本。 智源研究院表示,将深刻吸取教训,整改科研管理和论文发表流程,并进一步完善制度管理。 这件事在知乎讨论也从第一天最初的几万浏览量,飞涨到了现在的600多万。 对此,我们可以引用知乎用户、伦敦玛丽皇后大学学子“谢圜不是真名 ”的一句话来进行总结:“ 学术声誉的建立是一辈子的事情,然而要推倒只需要一瞬间。”希望通过更加严格的审核机制和更加明确的惩戒措施,加强学风教育,防范同类事件的再次发生。

224 评论

李哈尼尼

AI技术的智能模型的训练模式由之前的大炼模式逐渐变成炼大的模式;参数量模式在不断增加,探索的四个层次等等内容都有抄袭。

131 评论

老马4568

人工智能伦理与规范是未来智能 社会 的发展基石,为规范和引领人工智能 健康 发展,为未来打造“负责任的、有益的”人工智能。5月25日,《人工智能北京共识》发布,这一共识提供的“北京方案”,对于实现人工智能“自律”“善治”“有序”具有重要意义。 《人工智能北京共识》是由北京智源人工智能研究院联合北京大学、清华大学、中国科学院自动化研究所、中国科学院计算技术研究所、新一代人工智能产业技术创新战略联盟等高校、科研院所和产业联盟共同发布。同时,北京智源人工智能研究院人工智能伦理与安全研究中心揭牌成立。 高校、院所和企业代表共同签署《北京共识》 《人工智能北京共识》针对人工智能的研发、使用、治理三方面,提出了各个参与方应该遵循的有益于人类命运共同体构建和 社会 发展的15条原则。 北京智源人工智能研究院院长黄铁军发布《北京共识》 北京智源人工智能研究院院长黄铁军发布《北京共识》时强调:研发方面,提倡要有益于增进 社会 与生态的福祉,服从人类的整体利益,设计上要合乎伦理,体现出多样性与包容性,尽可能地惠及更多人,要对潜在伦理风险与隐患负责,提升技术水平控制各种风险,并最大范围共享人工智能发展成果。 使用方面,提倡善用和慎用,避免误用和滥用,以最大化人工智能技术带来的益处、最小化其风险,应确保利益相关者对其权益所受影响有充分的知情与同意,并能够通过教育与培训适应人工智能发展带来的影响。 治理方面,对人工智能部分替代人类工作保持包容和谨慎态度,鼓励 探索 更能发挥人类优势和特点的新工作,广泛开展国际合作,共享人工智能治理经验。人工智能的准则与治理措施应做到适应和适度,并开展长远战略设计,以确保未来人工智能始终保持向对 社会 有益的方向发展。 另外,为降低人工智能发展过程中可能存在的技术风险和伦理隐患,北京智源人工智能研究院专门成立人工智能伦理与安全研究中心,中国科学院自动化研究所曾毅研究员任研究中心主任。 新成立的人工智能伦理与安全研究中心主任曾毅介绍研究中心 曾毅介绍人工智能伦理与安全研究中心的主要研究内容是:“研究中心将围绕人工智能伦理与安全的理论 探索 、算法模型、系统平台、行业应用等开展一系列研究,目前主要包括四大方面:一是低风险机器学习模型与平台的构建,建立机器学习模型安全性的评估体系,并结合具体领域进行验证。二是开展符合人类伦理道德的智能自主学习模型研究,实现人工智能行为与人类价值观的校准,并在模拟环境与真实场景中进行验证。三是建设数据安全示范应用系统,建立数据基础设施、数据分级、权限控制、数据审计,最大限度防止数据泄密,降低风险, 探索 允许用户撤销个人数据授权的机制及计算平台。四是构建人工智能风险与安全综合沙盒平台,建设自动检测平台,针对数据与算法的安全性、公平性、可追溯性、风险类型、影响程度与影响范围等方面,对人工智能产品及应用进行风险与安全综合检测与评估,引导行业 健康 发展。” 北京市科委主任许强讲话 北京市科委主任许强认为:经过60多年的发展,新一代人工智能正在全球范围蓬勃兴起,深刻地影响和改变了人类的生产生活方式,带动人类 社会 全面进入智能时代。人工智能涉及范围极广,应对人工智能带来的挑战,不是一个领域、一个城市、一个部门、一个机构能够独立完成的,需要充分汇聚科学家、企业家、产业联盟和 社会 各界的力量,多方参与、共同努力,持续推动人工智能伦理、规范方面的学术研究与成果转化应用,并不断强化行业自律。 会议倡导北京人工智能领域广大创新主体,积极践行并不断完善共识的内涵,共同营造良好生态,加快人工智能领域基础研究、核心技术创新和高精尖产业发展,让人工智能更好支撑北京高质量发展和创新驱动发展战略实施,并更好造福全人类。 今后,人工智能伦理与安全研究中心将为降低人工智能的风险和伦理隐患提供技术服务,促进人工智能行业的良性 健康 发展。

178 评论

杏仁茶甜甜

来自清华、北大、上海交大;腾讯、华为、京东、字节跳动,和炙手可热的AI研发机构北京智源人工智能研究院等十多家知名机构的数十名国内AI大牛参与署名的论文,被Google Brain的一名研究员指出严重抄袭。被指控的论文名为《A Roadmap for Big Model》(下称《大模型》)。名叫Nicholas Carlini的研究员近日在其博客中直接罗列了大量该论文与他更早发布的“Deduplicating Training Data Makes Language Models Better”论文一摸一样的段落。而且,他还表示,被抄袭的可能至少还有其他十余篇论文。查阅预印本服务器arXiv可以发现,谷歌大脑研究员的论文上传时间为去年七月份,而《大模型》的上传时间在今年三月。Nicholas Carlini在其博客中表示:“很可能只有少数作者参与了这种抄袭,一小部分作者的不当行为不应该被用来指责大多数行为良好的作者。”

108 评论

相关问答

  • 北京中教智创信息技术研究院论文

    不可以,被看做是社会组织,我就上当了,评职称根本没用不认可,千万别信,

    独酌邀明月 5人参与回答 2023-12-05
  • 清华大学教育研究期刊

    北大中文核心期刊要目总览(2017年版)包含“教育”的核心期刊有62种,主要为各大院校的教育科学版,其他的包括: 北京大学教育评论 清华大学教育研究 成人教育

    诗酒趁年少r 3人参与回答 2023-12-06
  • 清华大学法学院期刊分级

    根据学科方向,选择相对应的学术核心期刊来分等级。还有以下几点:1、注意期刊的“主管单位”和“主办单位”是有区别的2、一些地方大学的学报也是不错的投稿选择3、在网

    瓶子好多 4人参与回答 2023-12-07
  • 北大清华毕业论文

    学生大论文中心 包含 哲学类 | 经济学 | 法学类 | 教育学 | 文学类 | 艺术学 | 理学类 | 工学类 | 医学类 | 管理学 | }社会学 | **

    漂萍过客123 3人参与回答 2023-12-09
  • 清华大学博士研究论文

    其实不管有没有发表SCI论文,只要符合清华大学博士研究生报考条件的都可以。这些条件主要包括学历、体检等

    一佛爷一 5人参与回答 2023-12-10