元宇宙网:拜登政府已开始研究是否需要对ChatGPT等人工智能工具进行审查

AI2年前 (2023)更新 admin
123,031 0

摘要

华尔街日报消息,拜登政府已开始研究是否需要对ChatGPT人工智能工具审查

元宇宙网:拜登政府已开始研究是否需要对ChatGPT等人工智能工具进行审查

人工智能快速发展掀起了全球技术狂热追逐,然而在许多专家眼里,变化发生得太快可能世界造成灾难性的影响。

根据美国斯坦福大学的一份年度报告接受调查的人工智能领域研究人员,很多人承认智能将变成人类社会的分岭,但其中36%的专家认为这项技术带来的影响未必是积极的。

人类超越人类

报告中指出,随着创建和部署生成式人工智能的门槛大幅降低,人工能的伦理问题将变得更加明显。因为初创企业和大公司都在竞争开发自己的模型,这意味着这项技术不再由一小群参与者控制,这让监管也变得更加困难。

谷歌微软军备竞赛”式的竞争,也让这个行业进入更加高速的发展。在另一方面,这也代表着不愿尝试公司个人将被人工智能行业迅速丢下,这样一来,所有人都被裹挟向前,别无选择。

在斯坦福大学的调查中,57%的人员赞同,以目前的发展速度,大量研究正在从生成人工智能转向创造的人工智能(AGI)。业界认为AGI的出现需要50年或年,而一些人则质疑是否存在真正的AGI。

可怕的猜测在于,一个真正AGI很可能伴随着人类失去对技术发展的控制。

AGI本身可以准确模仿甚至超越人脑能力。作为人类的,人工智能反而获得超越人类的智慧,这在58%的受访问研究人员中是一个巨大的问题。

另一切尔诺贝利

加州大学巴克莱分校计算机科学教授Stuart Russell警告,不受约束的人工智能可能带来切尔诺贝利式的灾难。

Russell十年来一直是人工智能领域的领军人物,但他也是与马斯克联合呼吁暂停开发人工智能的名人之一。

他强调,人工智能发布者必须保证其开发的系统可以安全,并证明该模型符合相应的规定。就好像是建造一座核电站,建设者必须向政府证明其安全性:其不会在地震中泄漏,也不会像切尔诺贝利那样爆炸。

Russell认为人工智能模型生产客机和建造核电站一样,只要出现一点小问题,就会对世界生灾难性影响。

此外,专家们还很紧迫的担忧是,人工智能当前的研究过于关注商业化和实现目标,而牺牲了取不同研究领域见解的时间和精力,这可能不利于解决人工智能伦理问题。

文章来源财联社

 

 

来源:东方财富财联社

https://finance.eastmoney.com/a/202304112687625655.html

© 版权声明

相关文章