AI信息安全警钟:从「Robinhood代币跑路」谣言探讨本地与云端智能体的权限边界
2025-07-10 22:01 loading...
近日,我读到一条X.com帖子,称robinhood在uniswap上的股票代币化项目被曝跑路,并声称能够将持有代币地址的余额抹除。出于对该事件真实性的怀疑,我决定通过chatgpt进行调研。
chatgpt给出了类似的判断,认为这种抹除余额的描述不太可能实现。然而,真正让我惊讶的是chatgpt的推理过程——它在区块浏览器上“输入”了一个以太坊地址,查看了该地址的历史交易记录。
这里的“输入”并非真正模拟了UI操作,而是chatgpt通过发现arbiscan.io页面URL生成规律(如https://arbiscan.io/tx/<hash>或/address/<addr>),直接拼接地址后访问页面并读取信息。这一技巧令人惊叹,但也引发了我对AI权限边界的深入思考。
半年前,我曾使用chatgpt o1 pro模型调研过类似功能。当时,我尝试让其通过区块浏览器查询创世块地址未转出余额,但chatgpt明确拒绝,理由是安全性设计限制了对网页执行UI操作的能力。例如,taobao.com上用户可以登录、搜索商品,但chatgpt无法模拟点击、滑动或输入等动作。
然而,近期一些国产手机终端上的AI助手(如华为的小艺)已经具备了类似权限,能够帮助用户完成订票、下单等复杂任务。这不禁让人担忧:如果AI能帮你下单咖啡,是否也能读取你的微信聊天记录?
对于运行在本地的端侧小模型,我们尚可通过权限管理来阻止其读取敏感信息,例如禁止访问相册或加密特定app。但对于像chatgpt和claude这样的云端大模型,一旦获得模拟UI操作权限,风险将显著增加。这些模型需要随时与云端服务器通信,屏幕上的信息几乎不可避免地会上传至云端。
换句话说,端侧小模型如同请一位电脑高手帮忙操作手机,而云端大模型则相当于有人远程接管了你的设备。两者的安全边界截然不同。
尽管此次chatgpt并未突破禁止模拟UI操作的限制,但它展现出的能力提醒我们,在安全要求高的场景中,必须谨慎对待AI的权限设置。宁可多配备一台隔离设备,也不能让云端大模型运行在存有私钥的电脑上。
最终,我们需要认识到:“模型运行在哪”比“模型有多聪明”更能决定安全边界。
相关阅读
-
Odaily Space回顾|证券代币化浪潮来袭:1 U买入英伟达、苹果股票,革命还是泡沫?区块链资讯 2025-07-10 21:12
-
代币化股票:金融效率的新篇章还是旧酒新瓶?区块链资讯 2025-07-10 21:12
-
Pump.fun 将于7月12日推出PUMP代币,公布详细代币经济学区块链资讯 2025-07-10 19:01
-
GMX V1遭黑客攻击损失4000万美元:加密货币安全警钟再度敲响区块链资讯 2025-07-10 18:13
-
澳大利亚的代币化推动可能会巩固“更大的金融控制力”区块链资讯 2025-07-10 17:15
-
空投即巅峰?数据揭示Kaito模式下的代币“速朽”魔咒区块链资讯 2025-07-10 17:15
-
代币化股票市场:便捷工具还是潜在风险?区块链资讯 2025-07-10 17:14
-
鲸鱼用户在PUMP代币上线前抢先布局空头仓位区块链资讯 2025-07-10 15:57
-
PUMP代币:是迷因还是隐藏的大规模拉盘行为?区块链资讯 2025-07-10 15:13
-
当稳定币遇见RWA会擦出什么火花?传统金融围墙会被推翻吗?WEB3.0 2025-07-10 14:24