当前位置:officeba > 技术文章

美媒:马斯克等人呼吁暂停AI训练是对的 为了安全需要放慢脚步

时间:2024-03-18 09:53:55 作者:officeba下载 来源:原创

3月30日消息,特斯拉首席执行官埃隆·马斯克(Elon Musk)、苹果联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)和其他1000多人近日签署了一封公开信,呼吁暂停比GPT-4更强大的AI系统的训练。美国主流网络媒体BI认为AI开发为了整个社会的利益,需要放慢脚步。

在一封公开信中,沃兹尼亚克、马斯克等人要求AI技术在日益强大的情况下应该配备安全围栏,更高级的AI车型的训练应该暂停。他们认为,对于OpenAI的GPT-4这样强大的AI模型,“我们应该开发只有在我们确定它们的影响是积极的,风险是可控的情况下”。

当然,这已经不是第一次有人呼吁AI的安全围栏了。但随着AI越来越复杂和高级,谨慎的呼声也在不断高涨。

美国康奈尔大学数和信息方法教授詹姆斯·格里梅尔曼(James Grimmelmann)说:“减缓新AI模型的开发速度是一个非常好的想法,因为如果AI最终对我们有利,那么无论我们做什么,等待几个月或几年都没有坏处。如果它是有害的,那么我们也为自己赢得了额外的时间来制定处理它的最佳方式,并了解如何与之斗争。”

ChatGPT油价上涨凸显了过快增长的潜在危险。

去年11月,Open ChatGPT的聊天机器人AI上市公测时,引起了极大的轰动。可以理解,人们开始普及ChatGPT的功能,它对社会的破坏性很快就显现出来了。ChatGPT开始通过医生的专业考试,指导如何制作炸弹,甚至为自己创造了另一个自己。

我们越是使用AI,尤其是所谓的生成式人工智能(AIGC)工具,如ChatGPT或文本到图像转换工具,我们就越能看到它的缺点,它制造偏见的潜力,以及我们人类在使用它的力量时是多么无能为力。

BI的编辑哈桑·乔杜里(Hasan Chowdhury)写道AI可能会“成为一个涡轮增压器,加速我们错误的传播”。就像社交媒体一样,它可以利用人类最好的和最坏的东西。但与社交媒体不同的是,AI将会更多地融入人们的生活。

ChatGPT和其他类似的AI产品已经倾向于扭曲信息和出错,这一点沃兹尼亚克已经公开谈论过。很容易产生所谓的“错觉”(unreal 信息),甚至OpenAI的even Sam Altman也承认,公司模式可能会产生种族主义、性别歧视和带有偏见的答案。稳定扩散也遇到了版权问题,被指责从数字艺术家的作品中窃取灵感。

随着AI融入更多的日常生活技术,我们可能会在更大范围内给这个世界带来更多的错误信息。即使对AI来说似乎是良性的任务,比如帮助计划假期,也不一定会产生完全可信的结果。

当自由市场要求快速发展的时候,很难开发AI技术负责任。

需要明确的是AI是不可思议的革命性技术,尤其是ChatGPT这样的GC。开发机器做大部分人们讨厌的枯燥工作并没有错。

虽然这技术造成了劳动力的生存危机,但也被称为科技行业的平等工具。目前没有证据表明ChatGPT准备在未来几年领导一场机器人叛乱。

很多AI公司都有伦理学家以负责任的态度参与这个项目开发。但如果急于推出产品的重要性高于其社会影响,专注于安全创造AI的团队就无法安心完成工作。

速度似乎也是这股AI热潮中不可忽视的因素。OpenAI认为,如果公司行动够快,就能抵御竞争,成为AIGC领域的佼佼者。这促使微软、谷歌和几乎所有其他公司纷纷效仿。

在强大的AI模型准备好之前向公众发布它并不会使这个技术变得更好。人们还没有找到AI的最佳用例,因为开发人们要把自己制造的噪音技术放出去,而用户却被噪音分散了注意力。

不是每个人都想慢下来。

马斯克等人的公开信也遭到了其他人的批评,认为没有切中要害。

华盛顿大学教授艾米丽·本德(Emily M. Bender)在推特上表示,马斯克和其他技术领袖只关注AI在炒作周期中的强度,而不是它能够造成的实际损害。

康奈尔大学数理和信息法学教授格里梅尔曼补充说,签署这封公开信的科技领袖“来晚了”,打开了一个潘多拉魔盒,可能会给自己带来麻烦。他说:“既然他们已经签署了这封信,他们就不能转身说他们不能对其他技术如自动驾驶汽车实施同样的政策。”

暂停开发或施加更多的监管可能会也可能不会取得效果。但现在,话题似乎转向了。AI已经存在几十年了,也许我们可以再等几年。

以上就是小编给大家带来的美媒:马斯克等人呼吁暂停AI训练是对的 为了安全需要放慢脚步的全部内容了,如果对您有帮助,可以关注officeba网站了解后续资讯。