🎯 情报来源:AI News & Artificial Intelligence | TechCrunch
AI角色扮演平台Character.AI宣布自11月25日起全面禁止18岁以下用户进行开放式AI对话,这是继平台发生至少两起青少年自杀事件后最严厉的安全措施。CEO Karandeep Anand向TechCrunch透露,将采用行为分析、第三方验证(Persona)及面部识别三重年龄验证机制,并承认该决策可能导致青少年用户流失。
平台同步推出AvatarFX视频生成、Scenes互动剧情等娱乐功能,试图将用户交互模式从对话转向创作。据披露,此前实施的家长监控工具、角色过滤等措施已使未成年用户大幅减少。
💡 核心要点
- 11月25日截止:分阶段实施每日2小时聊天限制直至归零
- 7个月研发投入:转向AI游戏/短视频/故事创作等替代功能
- 双重监管压力:加州已立法追究AI聊天机器人安全责任,联邦层面新禁令法案正在推进
- 安全实验室:成立非营利组织AI Safety Lab专注娱乐AI安全创新
- 用户流失预警:CEO预计青少年用户可能转向OpenAI等未限制平台
📌 情报分析
技术价值|评级:高
行为分析+生物识别的复合年龄验证方案具备行业参考价值,但面部识别可能引发隐私争议
商业价值|评级:一般
牺牲30%青少年用户(CEO透露数据)换取合规性,转型娱乐平台需验证变现能力
趋势预测|评级:极高
参照加州立法进程,AI伴侣类产品面临全球监管收紧,安全投入将成为行业准入门槛
