我们的邮箱地址:

arch@icloud.com

致电我们:

13594780166

案例中心

  • Home
  • 揭开 AI 伴侣聊天机器人的真相

揭开 AI 伴侣聊天机器人的真相

2024-12-26 15:24:32 15

Emma McGowan 2024年2月14日

Mozilla最近的一份报告指出,浪漫AI聊天机器人的激增正在产生全新的隐私问题。

揭开 AI 伴侣聊天机器人的真相

自1960年代以来,AI浪漫伴侣在流行文化中就已经存在。从《我的活人娃娃》中完全类人机器人“Rhoda Miller”,到2013年影片《她》中斯嘉丽约翰逊所饰演的无形声音,我们已经世世代代地共同梦想著人工智能(https//wwwimdbcom/list/ls063279126/) 可以满足我们所有情感需求。随著生成式AI的开发和发布,这一梦想似乎终于变成了现实。

但这真的是个梦吗?还是我们正在无意识地走向隐私噩梦?这是Mozilla研究团队在其最新的 隐私无所不在特别报告:浪漫AI聊天机器人 中提出的问题。

报告的发现令人震惊,在11个测试的聊天机器人中,有10个未能满足Mozilla的最低安全标准。这意味著,除了其他要求外,它们不要求用户创建强密码,或者没有任何处理安全漏洞的方式。在Google Play商店中估计超过1亿次下载,以及OpenAI市集最近出现的浪漫聊天机器人,这一庞大的问题只会愈加恶化。

但这份报告不仅仅是关于数字的;它还涉及到这些发现的重大潜在隐私影响。以Replika AI为例。根据Mozilla的说法,人们在这个应用程序上与他的“AI灵魂伴侣”分享他们最私密的想法、情感、照片和视频,而这个应用不仅记录这些信息,还可能将其出售给数据经纪人。它还允许用户使用如“111111”的弱密码创建账户,这让所有敏感信息面临被黑客攻击的风险。

Calder表示,尽管这些隐私和安全漏洞已经“令人毛骨悚然”,但某些机器人还宣称可以帮助客户改善心理健康。她以Romantic AI为例,该公司的条款和条件中写道:

“Romantic AI既不是医疗服务提供者,也不提供医疗护理、心理健康服务或其他专业服务。只有你的医生、治疗师或其他任何专家才能这样做。Romantic AI不作任何声明、表述、保证或担保,该服务提供治疗、医疗或其他专业帮助。”

然而,他们的网站却声称“Romantic AI致力于维护你的心理健康”强调是他们的字句。尽管我们没有数据来比较多少人阅读条款和条件和多少人查看网站,但可以合理地推测,更多的人接收到的是网站的信息,而不是那份免责声明。

在心理健康声称和客户自愿与数字“灵魂伴侣”分享个人和私密信息之间,Calder担心这些机器人可能会轻易地操纵人们去做他们原本不会做的事情。

“有什么能阻止坏人创建专门为了解灵魂伴侣而设计的聊天机器人,然后利用这种关系操控这些人做可怕的事情,拥抱令人恐惧的意识形态,或伤害自己或他人?”Calder说,“这就是为什么我们迫切需要在这些AI应用程序中获得更多的透明度和用户控制。”

因此,尽管AI聊天机器人带来了陪伴的承诺,但我们还没有达到《她》中的那种程度:当前的现状揭示了一个明确的现实,在这里,使用者的隐私是入场费。现在是时候让用户、开发者和政策制定者要求透明度、安全性和对个人界限的尊重,以在AI关系的领域中希望安全地探索这些数位伴侣的潜力,而不危害我们的数位自我。

蓝鲸加速器app

发表评论