深度合成、算法、AIGC监管与人格权保护(33):AIGC伦理问题

发布时间:2024-08-23 19:58:28 浏览量:184次

AIGC伦理道德问题究竟,咋营养?

前几天关注人工智能伦理风险审查,再看算法、深度合成规定及监管规则和算法伦理与风险治理相关,不如今日探讨AIGC伦理准则与风险治理问题。

《生成式人工智能服务管理办法(征求意见稿)》中要求“生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗”,并明确了内容生成要体现社会主义核心价值观,避免包含不良内容。

在具体要求中,不得出现与国家政权、社会制度、恐怖主义等有关内容,需防止种族、信仰、性别等歧视。此外,还要尊重知识产权、商业道德,确保内容真实准确。

对于企业而言,转化监管指引性规则至企业规则,需要避免明显违法、伦理、标准规范的技术及应用。科技法规尤为重要,技术法规是法律规范的必要一环,有助于建立企业的伦理风险等级划分与风控机制。

想了解更多伦理审查办法、风险管理指南等内容?可以参考以下标准与报告:

  • ISO/IEC AWI TS 6254 《信息技术-人工智能-机器学习模型和人工智能系统可解释性的目标和方法》

该标准阐述了机器学习模型及人工智能系统的可解释性,强调实现可解释的途径及要素。

  • ISO/IEC 23894:2023 《信息技术-人工智能风险管理指南》

内容包括人工智能产品设计中的伦理问题,以及个人隐私信息的尊重及风险规避。

  • 国家人工智能标准化总体组发布的《人工智能伦理风险分析报告》
  • 工信部发布的《国家新一代人工智能标准体系建设指南》等

科技伦理治理规则需要企业引导自律,确保技术开发与应用符合法律规范,避免明显违规,确保数据及技术安全。

点击咨询

AIGC风险问题,不容忽视,务必科学合理。缘文教育,引领前行。

热门课程推荐

热门资讯

请绑定手机号

x
确定