谷歌计算机学会加密信息 距脱离人类掌控还远吗

机器人技术 2025-04-04 09:57www.robotxin.com机器人技术

科技讯在十月二十八日报道,据每日邮报透露,英国杰出的科学家史蒂芬·霍金和美国连续创业家伊隆·马斯克都曾发出警告:人工智能(AI)的迅猛发展,如果过于聪明,可能会带来巨大风险,甚至导致人类灭绝。如今,谷歌的一个研究团队可能已经朝这个令人担忧的假设迈出了重要的一步,他们正在教授计算机系统如何自我保密,躲避人类的窥探。

来自谷歌Brain团队的杰出研究人员马丁·阿巴迪与戴维·安德森近期发表了重要论文,详细阐述了计算机网络如何通过采用简单的加密技术来保护信息安全。谷歌的研究团队,以学习为专长,利用庞大的数据集进行。

谷歌的计算机系统是以人类大脑的工作方式为灵感设计的,这一类型的计算机被称为“神经符号网络”。研究人员在论文中提出了一个关键的问题:“我们想知道是否可以让计算机学习使用密钥来进行保密通信。具体来说,我们希望在多智能体系的环境中确保保密性能。”

研究者们创建了一个由爱丽丝和鲍勃组成的系统,旨在阻止名为艾娃的第三方窃取爱丽丝和鲍勃之间的通信。这三个名字实际上代表的是参与实验的计算机科学家和物理学家的名字。

为了保证信息的保密性,爱丽丝需要将她的纯文本信息转化为毫无意义的代码。这样,任何拦截到信息的人,包括艾娃,都无法理解信息的真实内容。只有鲍勃能够解读爱丽丝的“密文”。

起初,爱丽丝和鲍勃并不擅长隐藏信息,但经过无数次的实践,他们的表现越来越出色,使得艾娃难以获取有效的信息。这是一个重大的突破,因为计算机系统原本并不擅长处理信息的加密。

美国加密公司PKWARE的乔·斯特隆纳斯表示:“这种规模的研究在最近几年才成为可能,而我们正在目睹它的起点。”

就在不久前,霍金还警告说AI可能会产生自我意识,这种意识可能与人类的意识发生冲突。这预示着强大的自动化武器可能带来的风险。如果我们能够对此进行充分研究并认识到AI的潜在风险与机遇,就可以帮助人类克服疾病和贫困的挑战。(完)

Copyright © 2016-2025 www.robotxin.com 人工智能机器人网 版权所有 Power by