ai 数据分析模型(探究基础AI模型潜在社会风险,斯坦福成立基础
李菲菲高图教你构建从0到1的GPT,探索基础AI模型的潜在社会风险,斯坦福建立基础模型研究中心。
本报见习记者邵文黑盒 机器学习问题越来越受到学术界的关注。
在北京时间8月25日结束的斯坦福大学基础模型研究中心(CRFM)研讨会上,来自不同学科的知名研究人员讨论了 基本模型和。种族/宗教歧视、社会不平等和信息安全,以及需要研究的问题。
近年来,得益于各种AI模型的改进,人工智能已经开始学习和模仿人类引以为豪的语言能力,根据描述绘图、帮助程序员自动完成和修改代码等应用已经成为现实,人工智能已经渗透到生活的方方面面。
这些强大的人工智能模型包括Bert(来自变形金刚的双向编码器表示)、GPT-3(生成式预训练)、Clip(对比语言-图像预训练)、DALL-E(以艺术家萨尔瓦多达利萨瓦尔多达利和皮克斯机器人瓦力E的名字组合命名)等。
这些模型通常基于不同的技术模块,现在它们都有一个共同的名字—— 基础模型和。。基本模式对当下社会的影响越来越深远,但人们实际上对它是如何运作的,产生什么结果缺乏清晰的认识。
这也造成了所谓的 黑盒 问题机器学习中会出现无法解释和不安全的情况。基于上述考虑,斯坦福大学于8月18日宣布成立基础模型研究中心(以下简称CRFM),专门从事基础模型的研究。
基本模型研究中心由来自不同领域(如哲学、社会学、计算机科学等)的研究人员组成。),其主任是著名人工智能研究者、斯坦福大学教授珀西梁(Percy Liang)。CRFM属于斯坦福大学。在其官方网站主页上,CRFM声称其使命是为基础模型的研究、开发和部署做出贡献。
https://crfm.stanford.edu/CRFM官方主页
斯坦福大学表示,作为一个不同领域的研究人员共存的机构,CRFM的研究不会局限于传统的科学研究。海的联合导演约翰埃切门迪说 这个新机构的任务是实施 以人为本。并通过跨学科的学术研究促进基本模型对人类关心的广泛主题的影响。。(这个新的中心体现了海的精神,促进了基础模型的跨学科研究,重点关注这些模型所包含的以人为本的问题。)
斯坦福大学这些学者的最新杰作 的基础模型研究中心是《基础模型的机遇和风险》(论基础模型的机会与风险)。这是一篇有100多位作者,200多页的综述。在本文中,BERT、GPT-3、CLIP、Codex、DALL-E等强大的人工智能模型以—— 基础模型和。。
著名的中国人工智能学者李菲菲和Percy Liang是该论文的作者之一。论文指出,虽然基础模型的出现带来了机遇,但也带来了风险,并提出了基础模型存在的挑战、跨学科合作的必要性以及为什么业界要有严重的紧迫感。 基本模型……是构建人工智能系统的新范式,它可以导致前所未有的同质化水平一个单一的模型,作为许多下游应用程序的基础,带来了广泛的同质化效应。珀西梁在接受采访时说。
本文了这类模型的能力(如语言、视觉、机器人、推理、人机交互)以及模型对其应用的社会影响(如法律、医疗、教育等)。),比如不公平,滥用,环境影响,法律和道德。根据报纸,和;目前,我们缺乏对基本模型如何工作、何时失效以及由于其应急特性而具有的能力的清晰理解。,以及 黑盒 特点也使得这些强大的模型如果真的用来造福人类,还有很多问题需要解决。
摘要论文发表在Arxiv(https://arxiv.org/pdf/2108.07258.pdf)
责任编辑李跃群
校对张燕
强认知人工智能模型斯坦福2019全球人工智能报告