首页 >> 即时新闻
新华社北京4月3日电(记者唐诗凝、周圆)记者3日获悉,工业和信息化部等十部门近日联合印发《人工智能科技伦理审查与服务办法(试行)》,提出支持人工智能科技伦理审查技术创新,强化以技术手段防范人工智能科技伦理风险。
办法明确,开展人工智能科技伦理审查重点关注人类福祉、公平公正、可控可信等方面。包括训练数据的选择标准,算法、模型、系统的设计是否合理;是否采取措施防止偏见歧视、算法压榨,保障资源分配、机会获取、决策过程的客观性与包容性;是否合理披露算法、模型、系统的用途、运行逻辑、交互方式说明、潜在风险等信息等。
办法还提出,促进人工智能科技伦理审查高质量数据集有序开源开放,加强通用性风险管理、评估审计工具研发,探索基于应用场景的科技伦理风险评估评测;推广符合科技伦理的人工智能产品和服务,保护科技伦理审查技术知识产权。
责任编辑:陈戍
免责声明 以上文章仅代表作者个人观点,本网只是转载,如涉及作品内容、版权、稿酬问题,请及时联系我们。电话:029-63903870