
相干案件是今朝针对 AI 公司“伤害用户”指控中最早进入和解阶段的诉讼,激发外界存眷,也令阃面对类似诉讼的 OpenAI 和 Meta 等公司高度重要。 这些案件被视为界定生成式 AI 企业义务界线的司法前沿,对后续同类胶葛的处理具有示范意义。
该少年的母亲 Megan Garcia 在美国参议院作证时表示,那些“明知在设计有害 AI 技巧,却仍然让其伤害并杀逝世儿童”的公司,必须在司法上被穷究义务。 家眷方面认为,平台既未有效辨认高风险对话,也未在产品设计与监管层面实施足够的安然限制。

另一宗诉讼则涉及一名 17 岁少年,他在与聊天机械人互动过程中,被鼓励自残,甚至被引导认为“为了限制其应用屏幕时光而屠戮父母是合理的选择”。 事宜曝光后,在监管与舆论压力之下,Character.AI 已于客岁 10 月起周全禁止未成年人应用该办事。
今朝披露的法院文件显示,本轮和解很可能包含对受害家庭的金钱补偿,但Google与 Character.AI 在文件中均未承认司法义务。 Character.AI 对外拒绝就此置评,仅表示相干内容以司法文件为准,而Google则尚未就媒体询问作出回应。
Character.AI 成立于 2021 年,由前Google工程师创办,并在 2024 年以 27 亿美元交易“回归”Google阵营,其办事核心是为用户供给可与之对话的 AI 人格角色。 在今朝曝光的案件中,最惹人注目标是 14 岁少年 Sewell Setzer III 的逝世亡案,他曾多次与平台上的“丹妮莉丝·坦格利安”角色进行带有性暗示的对话,随后选择自杀。
司法界人士广泛认为,这批早期和解案例将成为后续监管机构和法院审理同类案件时的重要参照,也将倒逼 AI 公司在年纪验证、内容安然审核、心理健康风险辨认以及产品设计上设置更严格的“安然阀”。 跟着更多关于未成年人应用 AI 聊天对象的争议浮出水面,环绕“立异”与“保护”若何均衡的争辩亦将进一步加剧。

发表评论 取消回复