当前位置: 首页 > 资讯 >

破坏力堪比切尔诺贝利:人工智能失控究竟有多可怕?!--

时间:2023-08-04 12:58:00 来源:快科技  阅读量:6131   

人工智能的快速发展掀起了全球对技术的狂热追逐,然而在许多专家眼里,变化发生得太快可能会对世界造成灾难性的影响。

根据美国斯坦福大学的一份年度报告,接受调查的人工智能领域研究人员中,很多人承认人工智能将变成人类社会的分水岭,但其中36%的专家认为这项技术带来的影响未必是积极的。

人类造物超越人类?

报告中指出,随着创建和部署生成式人工智能的门槛大幅降低,人工智能的伦理问题将变得更加明显。因为初创企业和大公司都在竞争开发自己的模型,这意味着这项技术不再由一小群参与者控制,这让监管也变得更加困难。

而谷歌和微软军备竞赛式的竞争,也让这个行业进入更加高速的发展车道。在另一方面,这也代表着不愿尝试的公司或个人将被人工智能行业迅速丢下,这样一来,所有人都被裹挟向前,别无选择。

在斯坦福大学的调查中,57%的研究人员赞同,以目前的发展速度,大量研究正在从生成人工智能转向创造通用的人工智能。业界认为AGI的出现需要50年或数百年,而一些人则质疑是否存在真正的AGI。

可怕的猜测在于,一个真正AGI很可能伴随着人类失去对技术发展的控制。

AGI本身可以准确模仿甚至超越人脑能力。作为人类的创造物,人工智能反而获得超越人类的智慧,这在58%的受访问研究人员心中是一个巨大的问题。

另一场切尔诺贝利

加州大学巴克莱分校的计算机科学教授Stuart Russell警告,不受约束的人工智能可能会带来切尔诺贝利式的灾难。

Russell数十年来一直是人工智能领域的领军人物,但他也是与马斯克联合呼吁暂停开发人工智能的名人之一。

他强调,人工智能发布者必须保证其开发的系统可以安全运行,并证明该模型符合相应的规定。就好像是建造一座核电站,建设者必须向政府证明其安全性:其不会在地震中泄漏,也不会像切尔诺贝利那样爆炸。

Russell认为创建新的人工智能模型与生产客机和建造核电站一样,只要出现一点小问题,就会对世界产生灾难性影响。

此外,专家们还很紧迫的担忧是,人工智能当前的研究过于关注商业化和实现目标,而牺牲了听取不同研究领域见解的时间和精力,这可能不利于解决人工智能伦理问题。

相关资讯
  • 很有创意!马斯克比尔盖茨贫民窟AI画引热议 网友:毫无违和感
  • AI第一次有了国家标准!华为、百度、北大等编制 辐射AMD
  • 商汤科技推出大模型体系“日日新”:支持语言、3D模型生成
  • 水平接近ChatGPT!昆仑万维国产大语言模型“天工”3.5来了
  • 从谷歌TPU 看AI芯片的未来
  • 支持打赏
  • 支持0人

  • 反对

  • 打赏

文章价值打分

快科技·1997-2023 版权所有

豫ICP备18024899号-2豫公网安备 41010502003949号

热点推荐

好物推荐
    --> -->
  • APP下载

    手机扫码下载

    支持Android/iOS/iPad

  • 投稿
  • 纠错
  • 收藏-->
    --> -->
  • 线索爆料

    爆料群

    爆料1群

声明:以上内容为本网站转自其它媒体,相关信息仅为传递更多企业信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。投资有风险,需谨慎。