梁正:算法治理应关注技术使用过程及产生的影响
2021-12-21 17:39 来源:证券之星 阅读量:8505
最近几天,清华大学社会科学学院社会学系,中国科学院学部—清华大学科学与社会协同发展研究中心主办了伦理立场,算法设计与企业社会责任研讨会清华大学公共管理学院教授,人工智能治理研究中心主任梁正在研讨会上表示,算法治理是一个制度问题,不是技术问题,算法的治理应当重点关注算法使用的过程及其产生的影响
梁正表示,从技术特性方面看,机器学习目前还是一个黑箱过程,在透明性和可解释性上存在问题,某种程度上类似于化学科学产生之前的炼金术阶段,我们知道算法管用,但不知道它的核心原理是什么,需要在基础理论方面进一步深入研究。
梁正分析说,从国际经验看,欧盟是自上而下地制定规则,以算法透明和问责去保证算法公平他称,这里面,涉及到了算法原理的可解释性,过程的可追溯性及决策结果的可被理解性,具体的治理路径是建立算法评估机制,审计机制以及问责机制,用这个方式倒推算法开发和应用的责任
相较而言,美国对算法的规制相对谨慎,梁正说,如果把算法理解为一套技术方案,对它进行干预的话,可能就不符合基本的市场竞争理念美国在这方面还是很小心,特别是商业,企业领域不过,在过去三年,美国在公共领域比较明显的变化是对人脸识别技术的禁用,包括纽约市出台的算法问责法,州层面出台的法案如《加州消费者隐私法》,则类似于欧盟的思路
他介绍,中国目前已经出台一系列法律法规,包括《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》,建立了基础机制,一些规范,指引,准则在推出过程中,数据治理体系也在建设中在基本的制度体系建立后,接下来应该重点研究制定可实施和操作的细则
治理模式构建方面,算法的治理不在于算法本身,而在于算法使用后产生的影响当然,也不只是看结果,还要看过程,这是一个理想状况如果技术解决方案上能够做到可解释,可负责,可信任,就可以保障它不出问题算法治理还需要多方协同参与,包括使用者,劳动者,研发设计者,管理者等等他还说
梁正指出,目前国家出台的相关法律,把安全,个人权益等敏感问题的红线都划出来了,之后便是针对各专门应用领域提出更具体的要求,算法做到可解释,可问责,治理中实现分级分类,分场景同时,过程中有监督,事后有补救,以及确定治理的优先级,在不同领域应用不同的治理工具,包括对基本底线的把控
他最后强调,算法治理是一个制度问题,不是技术问题,不能仅仅按照技术的选择区分什么是好算法或坏算法。公平可分为起点公平,过程公平,结果公平,陈玲建议针对不同阶段的公平来制定相应的公平准则。“例如,我们将数据作为起点公平的对象,首先我们希望用于训练算法模型的数据集本身是完整的,数据集不偏向于男性或女性,白人或黑人等。其次,数据集应当是开放的,用户可以自己选择进入或退出数据集。若数据集完整且开放,至少可以在最低限度上保证算法的起点公平。”陈玲称。。
。声明:本网转发此文章,旨在为读者提供更多信息资讯,所涉内容不构成投资、消费建议。文章事实如有疑问,请与有关方核实,文章观点非本网观点,仅供读者参考。