No menu items!

    ChatGPT语音太逼真 OpenAI开始担心用户会「感情依赖」

    聊天机器人ChatGPT的新版语音模式仿真人声过于逼真,OpenAI担心会让用户出现情感依赖。(美联社)

    聊天机器人ChatGPT问世以来,席卷全球,而且新版语音模式仿真人声过于逼真,可能让用户出现「依赖」人工智能(AI)工具的疑虑。

    有线电视新闻网(CNN)报导,AI科技公司OpenAI推出新版ChatGPT,采用高端语音模式,声音听起来非常逼真,还可以发出笑声或「嗯」等反应字眼,而且会即时回应、适时打断对话,甚至根据用户说话语气判读情绪,犹如与真人般对话。

    据报导,OpenAI今年稍早举行的发表会上宣布ChatGPT升级功能,勾起外界对2013年电影「云端情人」(Her)的记忆,剧中出现的AI女助理,由于过于逼真,导致男主角不知不觉坠入爱河,结果当这位AI女助理坦承与上百位用户谈恋爱,让男主角心碎不已。

    随后8日OpenAI公布一份报告,发现用户与ChatGPT近乎真人般的语音模式交互,很容易会陷入以假为真的陷阱:「用户可能会变成与AI创建社交关系,降低他们与他人交互的需求,虽然可能有利于改善社交恐惧症,却也可能影响正常人际关系的发展。」

    ChatGPT与其他新科技一样,总是在上市后,才发现许多意料外的后遗症,如果用户过度沉迷与AI机器人聊天,真的可能会误以为与AI创建浪漫关系。

    亚利桑纳州立大学(Arizona State University)人际关系教授沙拉比(Liesel Sharabi)接受CNN采访时表示:「企业身肩重大责任,必须彻底负起道德与负责来处理这类问题,尤其目前仍在实验阶段。」并强调:「我确实担心用户可能与无法永久存在且不断进步的AI技术,创建起某种深厚的联结。」

    OpenAI表示,随着时间拉长,用户与ChatGPT语音模式交互也可能影响社交正常行为,报告指出:「我们设计的模式是恭顺配合,允许用户随时打断讲话或抢走说话权,虽然符合AI模式,却违反人类社交习惯。」并透露今后将全致力发展「安全」的AI技术,继续研究用户对AI工具的「情感依赖」。

    该报告还强调,AI工具宣称可以颠覆人类生活、工作、社交与搜索方式,但有鉴于AI也会犯错,若用户过度信任AI,取得任何消息也全盘接受的话,很容易跟着出错而不自知。

    热点

    发表评论