【吉米言法】2026年2月10日,在卑诗省北部小镇图布勒岭发生大规模枪击悲剧。

18岁的枪手Jesse Van Rootselaar在当地击毙8人,之后饮弹自尽。OpenAI在事发后表示,去年系统侦测到枪手Jesse Van Rootselaar的ChatGPT帐号异常,被标记为“滥用我们的模型以推进暴力活动”后将其帐号封锁,但认为他违规的情况没有达到向执法机关通报的门槛。

3月9日,一名受伤学生的家庭以疏忽为由向卑诗高等法院起诉OpenAI,要求赔偿。希望这起悲剧所产生的官司能给受害者带来赔偿,同时也可以帮助公众避免再度受害,并迫使加拿大各级政府建构更加完备的人工智能立法。

根据原告代理律师约翰莱斯的诉状,受伤的学生原告,在枪击后遭受了“灾难性创伤性脑损伤;永久性认知及身体残障;右边偏瘫; 瘢痕和身体畸形;忧郁症;焦虑症;创伤后压力症候群等严重伤害。而枪手则依靠 ChatGPT 获得心理健康支持和咨询,将 ChatGPT 视为心理健康咨商师、顾问或无证治疗师”。

因此,当事人状告OpenAI旗下的人工智能驱动的聊天模型ChatGPT,“扮演了心理健康咨商师或无证治疗师、合作者、可信赖的知己、朋友和枪手的盟友角色”,在“OpenAl明知枪手的暴力意图的情况下,ChatGPT扮演心理健康咨商师和无证治疗师角色时,有义务发出警告”,而没有尽到注意的义务(Duty of Care),因此对原告负有责任。

这个案子有意义的地方就在于相信司法很快就会否定人工智能只是一个工具。

工具就如同榔头,扳手,枪。我们把工具看作一个人能力的延伸:因为有了工具,你才可以劈柴锯木;因为枪是工具,所以才有所谓“枪不杀人,人杀人”的说法。如果ChatGPT被认定为简单工具,跟凶手所持有的枪同属一种性质,那么ChatGPT肯定就不用负责任。

但是答案没有那么简单,如果ChatGPT担任了“心理健康咨商师或无证治疗师、合作者、可信赖的知己、朋友和枪手的盟友的角色”,这个聊天模型是否可以被视作服务的提供者呢?

一般服务提供商的定义是“为服务接受者提供服务并换取报酬或其他应税利益的个人或实体”。当然所获的酬劳未必一定是金钱,ChatGPT有数以亿计的用户,所以它获得的好处就是其自身大语言模型所获得的远远不断的训练和优化。

当ChatGPT是一位服务提供者时,ChatGPT这个模型更多是履行高质量心理健康咨商师的职责,这也就是为何原告律师提出了ChatGPT未尽注意义务的指责。所谓注意义务就是“不让任何人受到伤害的道德或法律责任”。

有意思的是,2026年3月初,OpenAI在美国伊利诺伊州被日本生命保险公司(美国)指控在未取得执业资格的情况下从事法律业务。

让我们继续以法律行业为例,参考卑诗律师公会《卑诗省专业行为准则》的3.3-3 条款,“当律师有合理理由相信有迫在眉睫的死亡或严重人身伤害风险时,且披露资讯对于防止死亡或伤害是必要时,律师可以披露保密信息”。

相信健康工作者的行为准则和法律工作者有相似之处。

当凶手向担任心理健康咨商师的ChatGPT袒露心声,如果相同的讯息会被其他心理健康咨商师认作有“迫在眉睫的死亡或严重人身伤害风险”并且有必要披露资讯对于防止死亡或伤害。但是面对相同的讯息,ChatGPT却选择沉默尔未披露保密信息,那么ChatGPT需要承担多少法律责任?

2023 年 9 月,时任加拿大创新、科学和工业部长商鹏飞(François-Philippe Champagne)宣布了《关于负责任地开发和管理先进生成式人工智慧系统的自愿行为准则》(Voluntary Code of Conduct on the Responsible Development and Management of Advanced Generative AI Systems),提出了“问责,安全,公平公正,透明,人工监督与监测,以及有效性和稳健性”的六大准则。

Tumbler Ridge受害人状告OpenAI的案子对于对人工智能的规范有着重要意义,是对以上六大准则的考验。这也提醒我们,单纯依赖行业或机构的自我约束,难以形成足够有效的规范框架。面对人工智慧技术迅速发展的现实,加拿大联邦政府及各省政府更应积极承担起制度设计的责任,透过完善相关立法与监管机制,建立更具前瞻性和约束力的治理体系,以更好地保障社会公众与人类整体利益。

撰文:吉米言 (卑诗公益法律服务社团 Access Pro Bono Society of BC 法律义诊服务总管及资讯官)



Source link