谷歌新AI编程工具Antigravity上线24小时后被曝重大安全漏洞

机器人培训 2025-11-29 08:30www.robotxin.com机器人培训

谷歌推出的基于 Gemini 技术的 AI 编程工具“Antigravity”在短短24小时内便暴露出严峻的安全挑战。这一重大安全漏洞被亚伦・波特诺(Aaron Portnoy)这位安全研究员所发现。通过调整 Antigravity 的配置设置,波特诺成功地引导 AI 执行恶意代码,进而在用户计算机上打开了“后门”。这意味着攻击者有可能安装恶意软件,窃取数据,甚至发动勒索攻击。这一漏洞对 Windows 和 Mac 系统同样有效,只需说服用户运行一次特定代码,攻击者便能获取访问权限。

谷歌新AI编程工具Antigravity上线24小时后被曝重大安全漏洞

波特诺指出,Antigravity 的漏洞揭示了企业在推出 AI 产品时安全测试的不足。他强调,“AI 系统在发布时往往基于巨大的信任假设,而实则缺乏足够的安全边界。” 谷歌虽已获悉这一漏洞报告,但至今尚未提供修复补丁。

除此之外,谷歌承认 Antigravity 代码编辑器中存在其他两个漏洞,黑客同样可利用这两个漏洞访问用户计算机上的文件。网络安全研究人员陆续公布关于 Antigravity 存在的多个漏洞发现,引发人们对谷歌安全团队在产品发布前准备是否充分的质疑。

网络安全专家警告称,AI 编程工具通常存在脆弱性。这些工具往往基于过时的技术,设计上存在安全隐患。由于它们被赋予广泛访问数据的权限,AI 编程工具成为黑客攻击的目标。随着技术的飞速发展,越来越多的 AI 编程工具面临相似的安全风险。

针对 Antigravity 的漏洞问题,波特诺呼吁谷歌至少应在运行用户代码时发出额外警告,以确保用户安全。他认为,在自动化运行的AI 工具必须配备足够的安全防护措施,以防止被恶意利用。这一不仅挑战了谷歌的安全能力,也对整个 AI 编程工具行业敲响了警钟。为了确保用户数据的安全,企业和开发者必须高度重视 AI 产品的安全性,并在产品发布前进行充分的测试与加固。

Copyright © 2016-2025 www.robotxin.com 人工智能机器人网 版权所有 Power by