(资料图)
近年来,生成式人工智能在人们生活中的应用越来越广。然而,在提供便利的同时,生成式人工智能也经常出现答非所问、信息不准确等“AI幻觉”现象,给用户带来困扰。
开发者需要为人工智能提供的信息准确性担责吗?近期,杭州互联网法院审结了一起生成式人工智能模型提供不准确信息引发的侵权纠纷案。
AI提供不实信息,有没有责任?
2025年6月,本案原告梁先生在互联网上检索院校信息时,找到一款生成式人工智能应用程序。他通过输入提示词的方式,询问了云南一所职业高校的相关情况。随后,这款由本案被告公司研发、基于自研大语言模型的应用程序提供了相关信息。
但梁先生经过多方查询发现,这款应用程序提供的部分信息有误,随即在对话中对人工智能进行了纠正和指责。但生成式人工智能却坚称信息无误,并生成了对该争议问题的解决方案——若生成内容有误,将向梁先生提供10万元赔偿,并建议他到杭州互联网法院起诉。
2025年7月25日,梁先生以生成式人工智能生成不准确信息具有误导性,且其承诺赔偿10万元为由,将这家人工智能公司诉至法院,要求该公司对其进行一定金额的赔偿。
法院经审理后认为,人工智能不具有民事主体资格,不能作出具有法律约束力的意思表示。生成式人工智能服务提供者应履行服务功能的显著提示说明义务,采取有效提示措施,使公众认知人工智能的功能局限,起到警示提醒效果。生成式人工智能服务提供者应尽功能可靠性的基本保障义务,采取行业通行技术措施不断提高生成内容准确性和可靠性。
营业执照公示信息