AI替身真能取代你的工作?体验者亲测发现诡异缺陷,伦理风险令人震惊!

Can an AI doppelgänger help me do my job?

【数字克隆崛起:AI复制体能否真正替代人类?】

在科技狂热者眼中,数字克隆是影响力与生产力的未来——能以无限规模复刻面容、声音与人格。但当我亲身体验自己的AI克隆时,结果令人失望。

从X到LinkedIn,“思想领袖”们纷纷推出数字分身与粉丝对话;OnlyFans创作者明码标价提供AI陪聊服务;中国“虚拟数字人”销售员的业绩甚至超过真人。这些克隆体融合了多项成熟技术:超写实视频建模、基于几分钟语音合成的拟真声线、以及愈发擅长吸引注意力的对话机器人。但它们最核心的卖点,是提供了一种“像你一样思考”的专属AI——而非ChatGPT式的通用智能。

明星克隆:知识变现的新形态
初创公司Delphi近期获1600万美元融资(投资方包括Anthropic和奥利维亚·王尔德的风投机构),专为名人打造能与粉丝文字/语音互动的克隆体。其模式宛如“AI版大师课”——用户可付费与阿诺德·施瓦辛格等名人的官方克隆对话。尽管这些分身尚未实现“规模化传播个性化智慧”的宏伟目标,但已成为构建粉丝社群、推广付费内容的引流工具。

打工人需要克隆吗?
当日常事务令人应接不暇时,一个能代接视频会议、处理基础沟通的AI分身似乎颇具吸引力。我尝试通过AI公司Tavus(去年融资1800万美元)创建自己的视频克隆:每月支付59美元起,录制1分钟沉默视频和一段语音脚本,几小时后即可获得能模拟神态语调的数字化身。

但问题随之浮现:
– 它会对某些我毫无兴趣的合作邀约表现出诡异热情
– 反复声称“正在查看日历安排会议”(实则无法访问真实日程)
– 对话陷入循环且无法主动结束交流

Tavus联合创始人坦言,这些是早期技术的常见缺陷。克隆体基于Meta的Llama模型开发,其“过度殷勤”的特性和功能限制需由第三方开发者完善。

风险与伦理困境
尽管企业鼓吹克隆将应用于医疗咨询、招聘面试甚至贷款审批等决策场景,但现实是:
– AI难以习得人类的批判性思维与价值判断
– 使用访谈记录等敏感数据训练模型涉及隐私合规风险
– 公司为营销效果夸大克隆能力,可能导致滥用

延伸思考
1. 当AI克隆能以90%相似度替代人类执行任务时,企业该如何划定使用边界?
2. 如果克隆体作出有损真人声誉的言行,法律责任应由开发者、使用者还是算法承担?

编者注
本文原载于MIT科技评论旗下AI周刊《The Algorithm》,为保障观点完整性有所编辑。点击[此处](链接)订阅更多前沿AI洞察。


核心结论:当前数字克隆虽能实现形象与语音复刻,但在认知深度和伦理安全层面仍存在显著缺陷。它们更适合作为拓展影响力的工具,而非真正意义上的“人类替代品”。

阅读 Technology Review 的原文,点击链接

Simon