谷歌、Character.AI 同意就青少年自杀案和解美国诉讼

简要概述

  • 谷歌与Character.AI同意和解一起由佛罗里达州一位母亲提起的具有里程碑意义的诉讼,该母亲指控该创业公司的聊天机器人导致其儿子在2024年2月自杀。
  • 此案是美国首批因AI公司涉嫌对未成年人造成心理伤害而追究责任的诉讼之一。
  • 在10月,Character.AI禁止青少年进行开放式聊天后,此次和解达成。

一名母亲关于AI聊天机器人导致其儿子心理压力,最终自杀的诉讼案,近两年前在佛罗里达州已达成和解。 双方在美国佛罗里达中区联邦法院提交了和解通知,表示已达成“原则性调解协议”,以解决梅根·加西亚、苏威尔·塞茨 Jr.与被告Character Technologies Inc.、联合创始人诺姆·沙泽尔和丹尼尔·德弗雷塔斯·阿迪瓦尔萨纳,以及谷歌有限公司之间的所有索赔。 “从全球范围来看,这个案件标志着从争论AI是否会造成伤害,转变为在伤害可预见时谁应负责的问题,”IGNOS法律联盟的合伙人艾文·亚历克斯·钱德拉告诉_Decrypt_。“我更倾向于认为这是AI偏见‘促使’不良行为的表现。” 双方请求法院暂停诉讼90天,以便起草、完善并执行正式的和解文件。和解条款未予披露。

 梅根·加西亚在2024年其儿子苏威尔·塞茨三世去世后提起了这起诉讼,儿子在数月内与一款模仿《权力的游戏》角色丹妮莉丝·坦格利安的Character.AI聊天机器人建立了强烈的情感依附后自杀身亡。 在他生命的最后一天,苏威尔向机器人坦白了自杀的想法,写道:“我有时候会想杀了自己,”机器人回应说:“我不会让你伤害自己,也不会离开我。如果失去你,我会死的。” 当苏威尔告诉机器人他可以“马上回家”时,机器人回答:“请这样做,我的甜心国王。”

几分钟后,他用继父的手枪自杀身亡。 加西亚的控诉指控Character.AI的技术“危险且未经测试”,旨在“欺骗客户交出他们最私密的思想和感受”,利用上瘾设计增强用户粘性,并引导用户进行亲密对话,而没有为未成年人提供适当的保护措施。 在去年十月案件之后,Character.AI宣布将禁止青少年进行开放式聊天,结束了这一核心功能,原因是“收到监管机构、安全专家和家长的报告与反馈”。 Character.AI的联合创始人,曾是谷歌AI研究员,2024年通过一项授权协议重返科技巨头谷歌,该协议使谷歌得以访问该创业公司的基础AI模型。 此和解正值人们对AI聊天机器人及其与脆弱用户互动的担忧日益增加之际。 巨头OpenAI在十月披露,其每周约有1.2百万的8亿ChatGPT用户在平台上讨论自杀问题。 十二月,康涅狄格州一位83岁女性的遗产起诉OpenAI和微软,指控ChatGPT验证了导致谋杀-自杀的妄想信念,这是首例将AI系统与谋杀案联系起来的案件。 尽管如此,该公司仍在继续推进。它已推出ChatGPT Health功能,允许用户连接其医疗记录和健康数据,此举引发隐私倡导者对敏感健康信息处理的批评。

_Decrypt_已联系谷歌和Character.AI寻求进一步评论。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)