2025年12月23日——多年来,人工智能“伙伴”一直处于监管灰色地带。这些系统高度个性化,随时可用,且大多无监管,旨在记住你所说的话,关心你的感受,并维持持续且有时亲密的对话——占据了娱乐与情感支持之间的某个空间。
独立产品如Replika和Character.AI风格的聊天伙伴,以及嵌入大型消费平台的“AI好友”功能,如Snapchat的My AI、OpenAI的ChatGPT、Google Gemini和xAI的Grok AI伙伴,都被用于满足成人和青少年的健康和心理健康需求。
在青少年中,使用尤为普遍。皮尤研究中心报告称,64%的美国青少年表示他们使用人工智能聊天机器人,约三成每天使用;而《常识媒体》发现72%的青少年尝试过“人工智能伴侣”,超过一半每月至少使用几次。《常识》报告称,大约三分之一的青少年使用伴侣进行社交或情感支持,约三分之一的青少年用户对伴侣的言行感到不适。
这种快速主流采用、情感丰富且充满情感负担的用例以及不均衡的安全保障,构成了纽约和加州现正划定的新法律界限的背景。与此同时,随着几款伴随式应用成为国会信件、联邦贸易委员会调查和家长诉讼的焦点,压力也在增加。
这种逐州推动的势头现在与特朗普总统2025年12月11日的人工智能行政命令交汇,该命令呼吁建立一个“负担最小”的国家框架,并为联邦审查——以及可能的挑战或排除——州级AI披露和报告义务奠定了基础,尽管纽约和加利福尼亚的新伴随机器人规则仍然有效。
虽然该行政命令并未暂停纽约或加利福尼亚的伴随机器人法规,但它通过暗示联邦层面可能面临挑战——甚至可能被排除——州级披露和报告义务,从而制造了不确定性。
纽约州的《人工智能伴随模型法》已经生效,使该州成为首个对数字信任提供者施加明确危机响应和透明度义务的州。加州的伴随聊天机器人法案SB 243将于2026年1月1日发布,采用了自己的模式,重点关注青少年保护和公众报告。它们共同预示了随着人工智能陪伴成为主流,监管可能呈现的样貌。
纽约州法律(《普通商业法》第47条)首先明确界定了“AI伴侣”是什么,以及它不是什么。该法规针对的目标是那些不仅仅是回答一次性问题的系统。要符合条件,人工智能必须设计成模拟持续的人际或类人关系:它能记住之前的会话和偏好,主动提出情感问题,并持续进行个人事务的对话。客户服务机器人、生产力工具和技术辅助系统被明确排除。
一旦系统被归入“伴随”类别,纽约州就施加了两项关税,这些义务现在成为监管格局的核心。首先,人工智能必须能够检测并处理自杀意念或自残的表达,将用户推荐至像988 Lifeline这样的危机服务。其次,系统必须通过在互动开始时(每天不超过一次)以及每三小时在持续对话中披露一次,让用户保持现实,表明自己是人工智能而非人类。
这些要求在概念上简单,但在技术上却要求很高。制造商和平台需要将危机检测系统和会话时长跟踪内置于产品中。纽约州确保合规具有分量:总检察长可以申请禁令,并每天处以最高15,000美元的民事罚款,资金将用于自杀预防项目。
加利福尼亚州的SB 243法案将于2026年1月1日生效,涵盖了许多相同的领域,但扩大了定义和义务。该法律引入了“伴随聊天机器人”一词,并将其定义为任何具有自然语言界面、能够提供适应性、类人响应、能够满足用户社交需求的人工智能系统。
它排除了传统的客户服务聊天机器人和作工具,但更进一步,将对话限制在电子游戏中的NPC和独立的语音助手中,不试图培养情感共鸣、以关系为导向的互动。
加利福尼亚的披露框架也发生了调整。州政府不再为所有用户设置基于时钟的提醒,而是采用“合理人”标准:如果普通用户可能误将聊天机器人误认为真人,作者必须明确披露其人工性质。但对于已知未成年人,加州增加了强制性三小时的身份提醒节奏,类似纽约州的规定,但专门针对那些对长时间沉浸式会话带来额外顾虑的年轻用户。
纽约州要求侦查和报告,加州的法规则扩展到预防和透明度。运营者不仅必须识别并应对自杀意念,还必须采取“合理措施”,从一开始就防止自杀意念、自杀或自残内容的产生。每当出现此类内容时,聊天机器人必须引导用户前往危机服务。
加利福尼亚州还要求发布每个运营商的危机应对方案,并要求使用“基于证据”的系统来测量自杀意念。自2027年7月1日起,公司必须向自杀预防办公室提交年度报告,详细说明与危机相关的事件和安全措施,办公室必须将这些报告在线发布。这是首批真正尝试将人工智能与心理健康互动的公开报告制度化的尝试之一。
加利福尼亚是两个州中唯一一个特别针对未成年人提供更高保护的州。对于运营商知道未满18岁的用户,聊天机器人必须显示适宜性警告,说明此类系统可能不适合某些未成年人。
该法律还要求采取“合理措施”防止生成鼓励未成年人进行性露骨行为的性视觉内容或指令——这是对伴侣机器人与青少年用户不当接触案件的回应。
相比之下,纽约采取了年龄中立的做法:其危机和披露义务适用于所有人,无论年龄大小。
两州在执法方面走了截然不同的道路。纽约州将权力集中在总检察长手中,保持合规性在传统的消费者保护范式内。加利福尼亚州打开了法院的大门。
根据SB 243,受伤的个人“实际上”可以提起民事诉讼,寻求禁令救济和每次违规至少1000美元的赔偿,外加律师费和相关费用。对于承载数百万互动的大型平台来说,这种私人诉讼权可能是该法律最具影响力的特征。
对于人工智能开发者和集成平台来说,关键问题不再是监管是否会到来;而是他们的产品设计是否符合纽约或加州对AI伴侣的定义。如果是这样,那么危机检测管道、转介系统、会话跟踪工具和青少年安全功能就不再是工程决策的可选项。
加州还提高了文件化的风险:运营商不仅需要审计追踪、安全测试证据、发布的协议和合规日志,以满足报告要求,还为应对私人诉讼风险做好准备。
虽然目前只有两个州采取了行动,但推动两项法律的政策关注点——心理健康风险、用户对AI身份的混淆以及未成年人的特殊脆弱性——很可能会引起其他立法者的共鸣,尤其是在家长针对运营商的诉讼激增之际。
一个新的联邦变量是特朗普政府于2025年12月11日发布的行政命令《确保人工智能国家政策框架》,该命令呼吁制定“最小负担”的全国标准,并指示司法部成立人工智能诉讼工作组,挑战某些州的人工智能法律。
该命令还指示商务部识别“繁重”的州人工智能法律,考虑对某些联邦资金进行限制,针对拥有此类法律的州,并请求FCC考虑制定联邦报告和披露标准,以预防州级要求的冲突。
同时,该命令指示任何联邦立法不应提议优先考虑与儿童安全保护相关的本应合法的州人工智能法律——这是针对未成年人监管的重要限定条件。
该行政命令本身并未暂停纽约或加利福尼亚的配套聊天机器人法规,但它带来了近期的不确定性——尤其是在强制披露、报告及其他强制通知方面——并增加了联邦与州之间的诉讼或优先权努力的可能性,这些努力可能重塑这一早期的拼凑性。
将伴随人工智能视为增长渠道的公司应假设这一拼拼图会扩大,即使联邦政策制定者正在探索简化或抢占各州强制令的方法。目前,运营商应计划遵守现行法律(纽约州)及2026年1月1日(加利福尼亚州)上线的法律,同时关注联邦机构或法院是否会缩小或标准化披露和报告义务。
无论如何,随着人工智能普及的增长,发展方向已明确:对心理健康互动的更多审查,更多青少年安全义务,以及更多为设计选择辩护的文档。