Emma McGowan 2024年2月14日
最近Mozilla的一份报告发现,浪漫AI聊天机器人的快速发展引发了全新的隐私担忧。
自1960年代以来,人工智能浪漫伴侣就一直是流行文化中的一个现象。从电视剧《我的生活玩偶》中名为“Rhoda Miller”的安卓机器人,到2013年电影《她》中斯嘉丽约翰逊饰演的无形声音,几代人一直在梦想着人工智能能够满足我们所有的情感需求。如今,随着生成式AI的开发和发布,这个梦想似乎终于要成为现实。
但这真的是梦想吗?还是说我们正在无意识地走向隐私噩梦?这是Mozilla研究团队在其最新的隐私不包括:浪漫AI聊天机器人特别报告中提出的问题。
白鲸加速器官方版报告的发现令人震惊,测试的11个聊天机器人中,有10个未能达到Mozilla的最低安全标准。这意味着,除了其他问题外,它们不要求用户创建强密码,也没有处理安全漏洞的方式。根据估计,Google Play商店的下载量超过1亿,而OpenAI的应用商店最近也出现了大量浪漫聊天机器人,这一巨大问题只会进一步扩大。
然而,报告不仅仅是关于数据的;它还涉及这些发现可能带来的重大隐私问题。以Replika AI为例。根据Mozilla的说法,人们在应用中与他们的“AI灵魂伴侣”分享了最私密的思想、感受、照片和视频,而该应用不仅记录这些信息,还可能将其出售给数据经纪人。此外,它还允许用户使用“111111”等弱密码创建账户,使得所有敏感信息面临被黑客攻击的风险。
Calder表示,尽管这些隐私和安全缺陷已经“让人毛骨悚然”,但有些机器人还声称可以帮助用户的心理健康。她指出,Romantic AI就是一个例子,其条款和条件中声明:
“Romantic AI既不是医疗保健或医疗服务的提供者,也不提供医疗护理、心理健康服务或其他专业服务。只有你的医生、治疗师或其他专业人士才能做到这一点。Romantic AI不承诺、声明、保证或担保该服务提供治疗、医疗或其他专业帮助。”
然而,他们的网站上却写着“Romantic AI致力于维护你的心理健康”强调来自他们。虽然我们没有数据来表明多少人阅读条款和条件,多少人查看网站,但可以肯定的是,很多人接收到的是网站的信息,而不是免责声明。
在心理健康的声明与用户自愿向数字“灵魂伴侣”分享私密信息之间,Calder担心,机器人可能会轻易操控人们去做一些他们本不会去做的事情。
“有什么来阻止恶意行为者创建聊天机器人,以了解他们的灵魂伴侣,并利用这种关系操控这些人去做可怕的事情、接受令人恐惧的意识形态,或伤害自己或他人?”Calder说。“这就是我们迫切需要更多透明性和用户控制的原因。”
因此,尽管AI聊天机器人承诺提供陪伴,我们距离《她》的水平仍然有一段距离:当前的局势显示,用户的隐私正是进入这个领域的代价。是时候让用户、开发者和政策制定者共同要求在AI关系中实现透明性、安全性和尊重个人边界。只有这样,我们才能在不损害数字自我的前提下,安全地探索这些数字伴侣的潜力。