OpenAI提议像管核设施一样管AI!预言十年内AI产出与大公司相当 / 头条资讯

1年前 阅读 / 83 来源 / 原创 文 / 越读党订阅

西风 发自 凹非寺量子位 | 公众号 QbitAIOpenAI三位掌舵人联名发文,提议像管核设施一样管AI!他们预言十年内AI产出将与大公司相当。而超级智能是一把“双刃剑”,必须要受到监管。近日,OpenAI CEO Sam Altman...

西风 发自 凹非寺
量子位 | 公众号 QbitAI

OpenAI三位掌舵人联名发文,提议像管核设施一样管AI!

他们预言十年内AI产出将与大公司相当。而超级智能是一把“双刃剑”,必须要受到监管。

近日,OpenAI CEO Sam Altman、总裁Greg Brockman和首席科学家Ilya Sutskever联名发表了一篇“呼吁信”,认为世界需要建立一个国际人工智能监管机构,而且要稳中求快建立起来。

他们解释说:

人工智能的创新速度如此之快,我们不能指望现有的权威机构能够充分控制这项技术。

OpenAI此举受到大量关注,推特上转赞已超3000:



马斯克也来评论底下凑了热闹,“控制很重要”:



有网友认为OpenAI提出这样的举措,阻碍了开放人工智能社区的发展,这看起来是自私的,与OpenAI的名称相违背:



也有网友对OpenAI提出的监管AI表示认同:

很高兴看到这些问题受到更严肃的关注。



其实,在上周美国国会听证会上,Altman就针对AI安全问题提出了三条措施:

成立一个新的机构,负责为AI大模型颁发许可,并拥有撤销许可的权力。为AI模型创建一套安全标准,对危险性做评估,包括它们是否能够“自我复制”、“逃出实验室自己行动”。要求独立专家对模型的各种指标做独立审计。

OpenAI此次再次呼吁建立监管机构。

在文章中,OpenAI高层承认人工智能不会自我管理,未来十年内人工智能系统将在很多领域超越专家水平,并且产出能够与当今的最大企业相匹敌。

人工智能的发展已是大势所趋,要想限制它的发展就需要类似全球监视体制的东西出现。

国外媒体TechCrunch认为,虽然OpenAI的提议相当于“也许我们应该做点什么”(也带有一点自夸的倾向),但这“至少是一个起点”。

下面是OpenAI此次发布的文章全文编译:

超级智能的治理

现在是思考超级智能治理的好时机——未来的人工智能系统在能力上将远超通用人工智能(AGI)。



从我们目前的观察来看,可以想象在接下来的十年内,人工智能系统将在大多数领域超越专家水平,其产出能够与当今最大的企业相当。

无论是从潜在的积极影响还是负面影响来说,超级智能都比人类曾经面对的其它技术更加强大。这意味着我们可能会迎来一个极其繁荣的未来。

然而,为了实现这个目标,我们必须有效地管理其中的风险。考虑到潜在的存在主义风险(existential risk),我们不能仅仅采取被动的应对措施。核能就是一个常见的例子,具备类似特性的技术还包括合成生物学。

我们需要降低当前人工智能技术的风险,但对于超级智能,我们需要特别的处理和协调机制。

一个起点

在引导人工智能向良发展的过程中,有许多重要的想法需要我们考虑。

在这里,我们首先对其中的三个想法进行了初步思考:

首先,为了确保超级智能的发展可以在安全的前提下与社会顺利融合,我们需要在前沿的研发工作之间进行一定程度的协调。

实现这一目标可以采取多种方式:全球各政府可以组建一个项目,将现有的许多工作纳入其中;或者我们可以达成一致意见(像下文所建议的,在新组织的支持下),限制人工智能能力的研发增长速度,每年将其保持在一定幅度之内。

当然,我们应该要求各个公司以极高的标准负责任地行事。

其次,最终我们很可能需要类似国际原子能机构(IAEA)这样的机构来管理超级智能。任何达到一定能力(或计算资源等)门槛的项目都应受到国际权威机构的监管。

该机构可以检查系统、要求审计、测试是否符合安全标准,以及限制部署程度和安全级别等。跟踪计算和能源使用情况可能会有很长的路要走,我们需要得到一些使这个想法可以实现的希望。

作为第一步,公司可以自愿同意开始实施这样一个机构未来可能要求的一些准则;第二步,各个国家可以逐步实施。重要的是,这样的一个机构应该专注于降低存在主义风险,而不是处理本应由各个国家解决的问题,比如规定人工智能能够说些什么。

第三,我们需要具备技术能力来确保超级智能的安全性。这是一个开放的研究问题,我们和其他人正在为此付出很多努力。

不在监管范围内的部分

我们认为允许公司和开源项目在明显的能力门槛以下开发模型是非常重要的,无需采取我们所描述的监管措施(包括繁琐的机制,如许可证或审核)。

现今的系统将为世界带来巨大的价值,虽然它们的确存在风险,但它们所带来的风险程度与其它互联网技术相当,而且社会对此的处理方式似乎是恰如其分的。

相比之下,我们关注的系统是那种具有超越目前任何技术的力量。

我们应该注意的是,不要通过对远低于这个标准的技术,应用相似的标准来淡化对它们的关注。

公众参与和潜力

然而,对于最强大系统的治理以及与其相关的部署决策,必须受到公众强有力的监督。

我们认为全世界的人们应该以民主的方式决定AI系统的界限和默认设置。

虽然我们还不知道如何设计这样的机制,但我们计划进行试验来推动。而在界限之内,我们仍然坚持认为个体用户应该对所使用的AI系统的行为拥有很大的控制权。

考虑到其中的风险和困难,我们有必要思考为什么要构建这项技术。

对于OpenAI来说,我们有两个根本原因。

首先,我们相信它将带来一个比我们今天能够想象的更美好的世界(在教育、创意工作和个人生产力等领域,我们已经看到了早期的成果)。

世界面临着许多问题,我们需要更多帮助来解决这些问题,而这项技术可以改善我们的社会。每个人使用这些新工具的创造力肯定会让我们感到惊叹。经济增长和生活质量的提高也将是令人吃惊的。

其次,我们相信阻止超级智能的创建是具有非直观风险和困难的。因为其带来的好处是非常巨大的,建造它的成本每年都在下降,而参与者数量在迅速增加。

它本质上是我们所走的技术道路的一部分,要监管它的发展就需要类似全球监视体制的存在。

但即便如此,也无法保证监管的有效性。

所以,我们必须把它做好。

参考链接:
[1]https://openai.com/blog/governance-of-superintelligence
[2]https://techcrunch.com/2023/05/22/openai-leaders-propose-international-regulatory-body-for-ai/
[3]https://twitter.com/OpenAI/status/1660700692372410368


特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关阅读
#杂志目录

《职业技术教育》杂志2021年26期最新目录订阅

目录卷首丨南京工业职业技术大学“三性一体化”高层次技术技能人才培养模式职业技术大学是举办职业本科教育的主体力量,肩负着为经济社会发展培养高层次技术技能人才的重要使命。作为黄炎培先生创建的百年名校,同时又是全国首...

#杂志目录

《中国经贸导刊》杂志2021年13期最新目录订阅

目录发改委解读丨我国经济保持稳中加固、稳中向好态势近日,国家发展改革委举行4月份新闻发布会。国家发展改革委政研室副主任、新闻发言人孟玮出席,介绍了发用电和投资项目审批、春耕化肥储备调控、中欧班列运行、新型城镇化...

#头条资讯

东大学者撤回为梁艳萍"求情"公开信 向湖北大学致歉

东京大学3名学者此前为湖北大学被处分教师梁艳萍“求情发声”,引发中国网友强烈不满。在更全面清晰地了解情况后,东大学者已经改变了主意。7月14日下午,公开信其中一名署名人吉田宽通过个人推特表示,他们已经撤回了公开信并...

#头条资讯

四维图新高精度定位产品开始接单 自动驾驶战事升级

在分拆运营两年后,四维图新的高精度定位业务首次面向市场发布了产品。7月15日,四维图新旗下高精度定位服务提供商六分科技线上举办2020产品发布会,根据不同的应用需求推出了六款产品。四维图新内部人士表示,随着此次产品的...

#头条资讯

VIPKID不再售卖涉境外外教新课包 核心业务受到巨大冲击

雷递网 乐天 8月7日报道以美国外教教学为特色的在线教育企业VIPKID今日宣布,8月7日起,不再售卖涉境外外教的新课包;8月9日起,不再对老用户开放涉境外外教的课程续费。“对已经报课的老用户,将保障合同正常履行,请继续...

#头条资讯

阿里大变动:蔡崇信接任集团董事会主席,张勇主政阿里云

以实战见长的张勇将带领阿里云完成上市,擅长资本运作的蔡崇信被认为能推动阿里多项业务上市6月20日,阿里巴巴集团董事会主席兼CEO张勇(左二)在罗汉堂数字经济年会。摄影:杨立赟文 | 吴俊宇 杨立赟 刘以秦编辑 | 刘...