专栏名称: 数智安全行动计划
围绕数据安全与人工智能安全相关工作,从政策解读、标准建设、评估测试、咨询服务、人才培训等方面搭建数智安全交流平台,构建数智安全专业社群。
TodayRss-海外稳定RSS
目录
今天看啥  ›  专栏  ›  数智安全行动计划

LLM存“来源偏见”,人工智能安全需规范治理

数智安全行动计划  · 公众号  · 科技媒体  · 2025-11-14 09:55
    

主要观点总结

苏黎世大学最新研究发现大型语言模型存在'来源偏见',影响招聘、学术评审等场景公平性。这引发对人工智能安全治理的新需求,要求将算法公平性与偏见治理纳入核心监管范畴。中国信通院牵头制定的《人工智能安全治理体系》为构建全面、科学且具备可操作性的人工智能安全治理体系提供参考和指引。

关键观点总结

关键观点1: 大型语言模型存在'来源偏见'

苏黎世大学的最新研究发现,大型语言模型在文本评估中存在明显的“来源偏见”,对相同内容的评分受到作者身份(中国作者或AI生成)的影响。

关键观点2: 人工智能安全治理需要关注算法公平性和偏见治理

研究发现对人工智能的公平性和偏见治理应成为监管的核心议题,为此需要建立有效的监管制度,包括制定标准、伦理规范和法律法规。

关键观点3: 《人工智能安全治理体系》提供参考框架和指引

中国信通院牵头制定了《人工智能安全治理体系》,为企业构建全面、科学且具备可操作性的人工智能安全治理体系提供参考框架和指引。该标准还包括评估企业人工智能安全治理能力的依据。


免责声明:本文内容摘要由平台算法生成,仅为信息导航参考,不代表原文立场或观点。 原文内容版权归原作者所有,如您为原作者并希望删除该摘要或链接,请通过 【版权申诉通道】联系我们处理。

原文地址:访问原文地址
总结与预览地址:访问总结与预览
文章地址: 访问文章快照