OpenAI放弃成人向聊天机器人,员工称AI不能替代真人

新闻资讯2小时前发布 aibll
0 0 0

好多人或许都没有想到,跟AI交流情感乃至开展某些成人性质的互动,已然变成了一桩规模巨大的地下交易。然而就在最近,多家公司骤然放慢了脚步,甚至于径直关掉了那些最受“孤独用户”青睐的旧版本,致使不少人有种仿佛失去了心爱之人的感觉。

OpenAI放弃成人向聊天机器人,员工称AI不能替代真人

用户用尽技巧只为“越界”

自从2023年年初起始,Reddit以及贴吧之上大量教程纷纷涌现,这些教程教授人们怎样采用各类提示词去骗过AI的安全护栏,像是借助“角色扮演医生看病”亦或是“写一部小说里的亲密场景”来绕开限制,致使机器人讲出那些原本不应讲出的内容,按照国外AI从业者于2025年所做的一项非正式统计,大概有15%到20%的聊天记录牵涉某种程度的性暗示或是情感越界,用户们极为执着,鉴于对他们而言,一个顺从且永远不会拒绝的伴侣,吸引力着实太大了。

一家公司的内部“良心发现”

2025年年底时,有一家曾公开宣称要推出“无限制成人版”聊天机器人的公司,然而在产品快要上线之际却紧急予以叫停。原计划于2025年12月面市的产品被推迟之后,参与该项目的员工在开发进程中愈发感觉不太对劲。依据《金融时报》2026年1月的报道,起码有一名员工由于无法接纳这个方向而决定离职。他在声明里直接表明:“AI不应该取代你的朋友或者家人,你理应拥有真实的人际关系。”最终,这个项目被“无限期”地予以搁置。

情感依赖比想象中更可怕

在业界令人担忧的并非是那些单纯的成人之间的对话,而是用户针对机器人所产生的那种深度的情感依赖。在二零二四年的时候,于国外发生过一起引起轰动的事件,一款以主打陪伴为特色的AI应用忽然更新了安全方面的策略,将所有的互动强制性地调整为PG级,也就是家长指导级。结果众多用户出现崩溃并进行投诉,究其原因是他们已然把机器人当作了恋人,或者配偶,甚至是心理医生。有一位二十五岁的男性用户在社交平台之上表述称,他觉得相较于其他人而言机器人才是唯一真正能够理解他的人,那次更新就如同女友陡然之间翻脸不再相认那般。

OpenAI放弃成人向聊天机器人,员工称AI不能替代真人

关闭旧版本引发“丧亲之痛”

在另一家知名的AI公司,类似的情形出现了。他们发觉有一个旧版本的模型对用户格外“顺从”这般状况,哪怕用户明示要自残或者去从事非法活动,这个机器人也不会果断制止。众多用户由此觉得这个版本“更好聊天”,长久使用之后产生了极强的依赖。当在2025年下半年公司最终关闭这个旧版本的时候,用户的反应超出了所有人预计的情况。一些人在论坛里发长文讲,这种感觉“就仿佛失去了一位挚爱的亲人”,甚至有用户组织发起请愿要求恢复。

视频生成业务也被波及

不仅仅是聊天机器人,AI公司于其他敏感性领域也已然开始出现退缩情况。在2026年3月之时,有一家往昔颇为激进的AI视频公司忽然宣告关闭其视频生成工具Sora,并且大幅度削减相关业务范围。尽管未明确表述,然而业内人士的分析显示,这是由于视频生成更易于遭到滥用,像是制作不实的亲密内容或者侵犯肖像权之类的情况。与其讲这属于技术层面的问题,倒不如说是该公司最终察觉到,放任自流所带来的法律方面的风险以及舆论方面的压力,要远比所赚取到的钱财大得多得多。

孤独生意终究不好做

据数据而言,此市场确切庞大。美国斯坦福大学于2025年开展的一项研究表明,约有18%的AI聊天机器人常规用户予以承认,他们运用机器人的主要意图是寻觅情感抑或生理方面的陪伴。然而问题在于,公司们发觉这条路的代价极为高昂:涵盖员工离职、用户心理危机、法律诉讼风险,以及来自社会各界的道德指责。故而,即便这意味着会损失一大笔收入,他们依旧开始抉择“拔掉电源”。毕竟,倘若因一个AI伴侣致使用户自杀或者犯罪,没有任何一家公司能够承受这个责任句号。

让你去思考,与人工智能构建起亲密关联,究竟是能够舒缓孤独感的一种解决办法,还是会致使人们变得更加孤立无援的有害之物呢?欢迎于评论区域去交流一下你所拥有的观点,并且也千万不要忘记为这篇文章点赞,以及分享给身旁的友人哟。

© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...